最大熵原理
学习概率模型时,在所有可能的概率模型中,熵最大的模型是最好的模型。
假设离散随机变量
X
的概率分布是
P(X)
, 则其熵为
H(P)=−∑xP(x)logP(x)
且满足如下不等式:
0≤H(P)≤log|X|
式中,
|X|
是
X
的取值个数,当且仅当
X
的分布是均匀分布时,右边等号成立,即当
X
服从均匀分布时,熵最大。
最大熵原理可简述为按照满足约束条件下求等概率的方法估计概率分布。
最大熵模型
1.最大熵模型是由以下条件概率分布表示的分类模型,可用于二类或多分类问题。
Pw(y|x)=1Zw(x)exp(∑i=1nwifi(x,y))
Zw(x)=∑yexp(∑i=1nwifi(x,y))
其中,
Zw(x)
是规范化因子;
wi
是特征权值;
fi(x,y)
是特征函数,描述输入
x
和输出
y
之间的某一个事实,其定义为
f(x,y)={1,0,x 与 y 满足某一事实否则
这是一个二值函数。
2.对于给定的训练集
T={(x1,y1),(x2,y2),...,(xN,yN)}
和特征函数
fi(x,y),i=1,2,...,n
,应用最大熵原理于分类模型中,得到以下约束最优化问题:
min−H(P)=∑x,yP~(x)P(y|x)logP(y|x)
s.t.EP(fi)−EP~(fi)=0,i=1,2,...,n
∑yP(y|x)=1
求解此最优化问题的无约束最优化对偶问题可得到最大熵模型,即最大熵模型的学习可归结为对偶函数
Ψ(w)
的极大化。
对偶函数
Ψ(w)
为
Ψ(w)=minP∈CL(P,w)=L(Pw,w)
其中,
L(P,w)
为引入拉格朗日乘子
w
后的拉格朗日函数
L(P,w)=−H(P)+w0(1−∑yP(y|x))+∑i=1nwi(EP~(fi)−EP(fi))=∑x,yP~(x)P(y|x)logP(y|x)+w0(1−∑yP(y|x))+∑i=1nwi(∑x,yP~(x,y)fi(x,y)−∑x,yP~(x)P(y|x)fi(x,y))
3.对偶函数的极大化等价于最大熵模型的极大似然估计。
(1).已知训练数据的经验概率分布
P~(X,Y)
,条件概率分布
P(Y|X)
的对数似然函数为
LP~(Pw)=log∏x,yP(y|x)P~(x,y)=∑x,yP~(x,y)logP(y|x)=∑x,yP~(x,y)∑i=1nwifi(x,y)−∑x,yP~(x,y)logZw(x)=∑x,yP~(x,y)∑i=1nwifi(x,y)−∑xP~(x)logZw(x)
最后一步用到
∑yP~(y)=1
.
(2).对偶函数
Ψ(w)
Ψ(w)=L(Pw,w)=∑x,yP~(x)Pw(y|x)logPw(y|x)+∑i=1nwi(∑x,yP~(x,y)fi(x,y)−∑x,yP~(x)Pw(y|x)fi(x,y))=∑x,yP~(x,y)∑i=1nwifi(x,y)+∑x,yP~(x)Pw(y|x)(logPw(y|x)−∑i=1nwifi(x,y))=∑x,yP~(x,y)∑i=1nwifi(x,y)−∑x,yP~(x)Pw(y|x)logZw(x)=∑x,yP~(x,y)∑i=1nwifi(x,y)−∑xP~(x)logZw(x)
最后一步用到
∑yP(y|x)=1
.
(3).比较可得,
Ψ(w)=LP~(Pw)
即最大熵模型的学习问题可转换为求解对数似然函数极大化或对偶函数极大化的问题。
结论
优点:
1、准确率较高。
2、可以灵活地设置约束条件,从而调节模型对未知数据的适应度和对已知数据的拟合程度
缺点:
1.由于约束函数数量和样本数目有关系,导致迭代过程计算量巨大,实际应用较难。
参考资料
统计学习方法,李航著,清华大学出版社
最大熵模型原理小结