内容发布更新时间 : 2024/12/23 10:33:13星期一 下面是文章的全部内容请认真阅读。
北京大学本科生毕业论文 (1, 1) x
1 A 3 B 5 2 4 6
y
图 14 矩形特征的特征值计算,只与此特征端点的积分图有关
由此可见,矩形特征的特征值计算..........,只与此特征端点的积分图有关.............,而与图...像坐标值无关......。因此..,不管此矩形特征的尺度如何............,特征值的计算所耗费的时...........间都是常量.....(time constant),而且都只是简单的加减运算............。正因如此,积分
图的引入,大大地提高了检测的速度。
其他的矩形特征的特征值计算依此类推。
6 AdaBoost训练算法
6.1 训练基本算法
基于 AdaBoost 算法的人脸检测 赵楠
39
北京大学本科生毕业论文 6.1.1 基本算法描述
AdaBoost 训练强分类器的算法描述如下[19](算法流程图见下节):
A. 给定一系列训练样本(x1, y1),(x2 , y2 ),?,(xn, yn ),其中 yi = 0表示其为负样
本(非人脸),yi =1表示其为正样本(人脸)。n 为一共的训练样本数量。
B. 初始化权重4 w1,i = D(i);
C. 对t = 1,?,T :
1. 归一化权重:
wt,i
qt,i =
wt, j
2. 对每个特征 f,训练..一个弱分类器h(x, f , p,q) ;计算
对应所有特征的弱分类器的加权(qt )错误率ef :
基于 AdaBoost 算法的人脸检测 赵楠 40
4
北京大学本科生毕业论文 可以这样设置 D(i):D(i) =
1 2m
(对负样本)或 D(i) =
1
(对正样本)。其中 m,l 分别是负样本和正
样本的数量,m +l = n
2l
e f =∑i qih(xi , f , p,q) ? yi
3. 选取最佳的弱分类器ht (x)(拥有最小错误率et ):
et = min f , p,q ∑i qih(xi , f , p,q)? yi =∑i qi h(xi , ft , pt ,qt )? yi
ht (x) = h(x, ft , pt ,qt )
(弱分类器的训练及选取参见 6.2 节)
4. 按照这个最佳弱分类器,调整权重:
wt+1,i = wt,i bt1?ei
其中 ei = 0表示 xi 被正确地分类, ei =1表示 xi 被错误地分类;
et bt = 1?et
D. 最后的强分类器为:
T
1 T
C(x)=
1
∑
0
t=1
a tht (x) ≥ 2
其它
∑
t=1
a t
基于 AdaBoost 算法的人脸检测 赵楠 41
北京大学本科生毕业论文 1
其中a t = log
bt
6.1.2 基本算法流程图
基于 AdaBoost 算法的人脸检测 赵楠
42
北京大学本科生毕业论文
图 15 AdaBoost 训练强分类器算法流程图
6.2 弱分类器 Weak Classifer
一个弱分类器h(x, f , p,q) 由一个特征 f,阈值q和指示不等号方向的 p 组成:
基于 AdaBoost 算法的人脸检测 赵楠
43