编辑: 山南水北 2019-07-16

7 2

3 第2期 孙寿健, 等: 一种基于权重融合的J P E G 隐写分析方法 数限制, 同时使得每轮的训练时间减少, 使得训练 时间大大减少.同时, 随着训练轮数的增加, 最终 的集成分类器的分类准确度会越来越高.

3 ?

2 基分类器权重计算方法 考虑到基分类器样本和特征 子空间的差异性, 不同基分类器的对最终预测结果的影响比重 也不同, 所以本算法使用权重计算方法来平衡基 分类器间的差异性[

6 ] .例如, 把N个样本集对同 一组特征重要性的判断看作是 N 个裁判的判断 一样, 一般情况下可以采取多数投票法来决定最 后的结果.然而基于不同裁判自身的差异性, 他 们对最终结果影响的比重各不相同, 不是简单的 等权重.所以, 应赋予不同基分类器不同的权重, 与最终判定结果具有高度统一的基分类器应赋予 更高的权重, 反之, 应赋予更低的权重.假设存在 一个实例数为 N 的样本集, 有数据集产生的L 棵 决策树, 根据决策树的预测结果可获得一个N(L+2 ) 的矩 阵, 矩阵的行代表要预测的实例, 矩 阵的前L 列分别代表L 棵决策树, 第L+1 列代 表集 成投票的结果, 在前L列中超过半数的判定, 确定为第 L 列的最终结果, 第L+2列代表样 本数据集的实例类标号.则第i棵决策树的判定 可信度可通过式(

1 ) 计算: T r e e C o n f i d e n c e i= ∑ N j=1 I T r e e i j=E n s e m b l e j ( ) N * A c c E n s e m b l e , (

1 ) 其中: T r e e C o n f i d e n c e i 表示第i 棵树的可信度, T r e e i j表示第i棵树对第j个实例的预测结果, E n G s e m b l e j 表示对第j个实例的集成预测结果.A c G c E n s e m b l e表示的是集成预测准确率, 即Ensemble与Original的一致性程度, I( T r e e i j =E n s e m b l e j) 是 示性函数, 用来表示单棵树预测结果与集成结果 是否相同.由于每棵树的 A c c E n s e m b l e都是相同的, T r e e C o n f i d e n c e i 与AccEnsemble相乘后所 获得排序结果是一样的.之所以仍然需要加入这 一影响因素, 是为了缩小权重间的绝对差距, 同时 展现集成整体效果对于特征重要性度量的影响. 然后, 根据计算出来的决策树的可信度计算 出决策树的权重值, 即基分类器的权重值.决策 树的权重值可以计算如下: Wi= T r e e C o n f i d e n c e i ∑ N i=1 T r e e C o n f i d e n c e i . (

2 )

3 ?

3 集成分类器 为了进一步提高分类器分类精度, 设计集成 分类器来进行隐写判别.集成分类器主要包括集 成分类器主要包括特征子空间构造、 基分类器训 练和集成策略3个部分[ 7] , 其基本思想是首先构 造原始特征空间的随机特征子空间, 然后构造具 有良好差异性的训练子集, 并分别进行训练得到 基分类器, 最后将基分类器的结果按照一定的集 成策略进行融合作为最终的分类结果. 结合 C C G P E V 特征的特点, 本文按如下思路 设计集成分类器: 随机产生L 个具有较低维数的 特征子空间[ 8] , L 为基分类器个数, 为原始特征 空间的维数 且, 利用bootstrap方法构造图像的训练样本子集, 分别按 F L D 线性分类器进行训练 得到基分类器, 再将所有基分类器的分类结果按 权重计算法进行 融合作为集成分类器的分类结 果.具体步骤如算法1所示, 其中, Nt r n 为图像训 练集, Nt s t 为测试图像集. S t e p 1分类器参数优化.设置适合的基分类 器个数L 和特征子空间维数ds u b;

下载(注:源文件不在本站服务器,都将跳转到源网站下载)
备用下载
发帖评论
相关话题
发布一个新话题