Python 决策树与贝叶斯相关理论知识和例题


信息有顺序排列,意思明确
信息无序,意思多
描述信息的混乱度用信息熵

ID3算法

将无序的数据变得更加有序。
信息熵计算公式
在这里插入图片描述
信息增益:
在这里插入图片描述
在决策树中,设D为用类别对训练元组的划分,则D的熵表示为:
在这里插入图片描述
训练元组D按照属性A进行划分,则A对D划分的期望信息为:
在这里插入图片描述
信息增益为两者的差值:
在这里插入图片描述

例题

现有如下表格数据,描述根据天气等情况决定是否出去打羽毛球的记录。

Day Weather Temperature Humidity Wind Play?
1 Sunny Hot Hight Weak No
2 Cloudy Hot Hight Weak Yes
3 Sunny Mild Normal Strong Yes
4 Cloudy Mild Hight Strong Yes
5 Rainy Mild Hight Strong No
6 Rainy Cool Normal Strong No
7 Rainy Mild Hight Weak Yes
8 Sunny Hot Hight Strong No
9 Cloudy Hot Normal Weak Yes
10 Rainy Mild Hight Strong No

设We、T、H、Wi、D表示Weather、Temperature、Humidity、Wind、Play?(是否打羽毛球)。下面计算各属性的信息增益:

D:5个Yes 5个No
集合(1,…,10)的信息熵:
i n f o ( D ) = − 1 2 l o g 2 1 2 − 1 2 l o g 2 1 2 = 1 info(D) = -\frac{1}{2}log_2\frac{1}{2}-\frac{1}{2}log_2\frac{1}{2}=1 info(D)=21log22121log221=1
按照属性We进行划分D,则We对D划分的期望:
Sunny 0.3 ------> 1个Yes 2个No
Cloudy 0.3 ------> 3个Yes
Rainy 0.4 --------> 1个Yes 3个No
i n f o W e ( D ) = 0.3 ∗ ( − 1 3 l o g 2 1 3 − 2 3 l o g 2 2 3 ) + 0.3 ∗ ( − 1 ∗ l o g 2 1 ) + 0.4 ∗ ( − 1 4 l o g 2 1 4 − 3 4 l o g 2 3 4 ) = 0.6 info_We(D) = 0.3 * (-\frac{1}{3}log_2\frac{1}{3}-\frac{2}{3}log_2\frac{2}{3})+0.3*(-1*log_21)+0.4*(-\frac{1}{4}log_2\frac{1}{4}-\frac{3}{4}log_2\frac{3}{4})=0.6 infoWe(D)=0.3(31log23132log232)+0.3(1log21)+0.4(41log24143log243)=0.6
利用python计算结果:
在这里插入图片描述
We的信息增益:
g a i n ( W e ) = i n f o ( D ) − i n f o W e ( D ) = 1 − 0.6 = 0.4 gain(We)=info(D)-info_We(D)=1-0.6=0.4 gain(We)=info(D)infoWe(D)=10.6=0.4

同上得到T、H、Wi的信息增益:
i n f o T ( D ) = 0.4 ∗ ( − 2 4 l o g 2 2 4 − 2 4 l o g 2 2 4 ) + 0.5 ∗ ( − 3 5 l o g 2 3 5 − 2 5 l o g 2 2 5 ) + 0 = 0.885 info_T(D)=0.4*(-\frac{2}{4}log_2\frac{2}{4}-\frac{2}{4}log_2\frac{2}{4})+0.5*(-\frac{3}{5}log_2\frac{3}{5}-\frac{2}{5}log_2\frac{2}{5})+0=0.885 infoT(D)=0.4(42log24242log242)+0.5(53log25352log252)+0=0.885
i n f o H ( D ) = 0.7 ∗ ( − 3 7 l o g 2 3 7 − 4 7 l o g 2 4 7 ) + 0.3 ∗ ( − 2 3 l o g 2 2 3 − 1 3 l o g 2 1 3 ) = 0.956 info_H(D)=0.7*(-\frac{3}{7}log_2\frac{3}{7}-\frac{4}{7}log_2\frac{4}{7})+0.3*(-\frac{2}{3}log_2\frac{2}{3}-\frac{1}{3}log_2\frac{1}{3})=0.956 infoH(D)=0.7(73log27374log274)+0.3(32log23231log231)=0.956
i n f o W i ( D ) = 0.4 ∗ ( − 3 4 l o g 2 3 4 − 1 4 l o g 2 1 4 ) + 0.6 ∗ ( − 2 4 l o g 2 2 4 − 2 4 l o g 2 2 4 ) = 0.925 info_Wi(D)=0.4*(-\frac{3}{4}log_2\frac{3}{4}-\frac{1}{4}log_2\frac{1}{4})+0.6*(-\frac{2}{4}log_2\frac{2}{4}-\frac{2}{4}log_2\frac{2}{4})=0.925 infoWi(D)=0.4(43log24341log241)+0.6(42log24242log242)=0.925
g a i n ( T ) = i n f o ( D ) − i n f o T ( D ) = 1 − 0.885 = 0.115 gain(T)=info(D)-info_T(D)=1-0.885=0.115 gain(T)=info(D)infoT(D)=10.885=0.115
g a i n ( H ) = i n f o ( D ) − i n f o H ( D ) = 1 − 0.956 = 0.044 gain(H)=info(D)-info_H(D)=1-0.956=0.044 gain(H)=info(D)infoH(D)=10.956=0.044
g a i n ( W i ) = i n f o ( D ) − i n f o W i ( D ) = 1 − 0.925 = 0.075 gain(Wi)=info(D)-info_Wi(D)=1-0.925=0.075 gain(Wi)=info(D)infoWi(D)=10.925=0.075
综上得到Weather、Temperature、Humidity、Wind的信息增益分别为0.400、0.115、0.044和0.075。
因为Weather具有最大的信息增益,所以第一次分裂选择Weather为分裂属性,第二次分裂选择Temperature为分裂属性,第三次分裂选择Wind为分裂属性,分裂后的结果如下图所示:

Sunny
Cloud
Rainy
Hot
Mild
Mild
Cool
Strong
Weak
1Yes 2No
3Yes
1Yes 3No
2No
1Yes
1Yes 2No
1No
2No
1Yes
Weather

贝叶斯

P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)=\frac{P(B|A)P(A)}{P(B)} P(AB)=P(B)P(BA)P(A)

例1

现分别有A、B两个容器,在容器A里分别有7个红球和3个白球,在容器B中有1个红球和9个红球。现已知从这两个容器里任意抽出了一个球,且是红球,问这个红球是来自容器A的概率是多少?
解:假设抽出红球的事件为B,选中容器A为事件A,则有:
P ( B ) = 8 20 , P ( A ) = 1 2 P(B)=\frac{8}{20},P(A)=\frac{1}{2} P(B)=208,P(A)=21
在 容 器 A 中 抽 出 红 球 的 概 率 : P ( B ∣ A ) = 7 10 在容器A中抽出红球的概率: P(B|A)=\frac{7}{10} AP(BA)=107
则 抽 出 红 球 来 自 A 容 器 的 概 率 : P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) = 7 10 ∗ 1 2 8 20 = 7 8 = 0.875 则抽出红球来自A容器的概率:P(A|B)=\frac{P(B|A)P(A)}{P(B)}=\frac{\frac{7}{10}*\frac{1}{2}}{\frac{8}{20}}=\frac{7}{8}=0.875 AP(AB)=P(B)P(BA)P(A)=20810721=87=0.875

例2

一座别墅在过去的20年里一共发生过2次被盗,别墅的主人有一条狗,狗平均每周晚上叫3次,在盗贼侵入时狗叫的概率被估计为0.9,问:在狗叫的时候发生盗贼入侵的概率是多少?
解:假设被盗的事件为A,狗叫的事件为B,则有:
P ( A ) = 2 20 ∗ 365 , P ( B ) = 3 7 , P ( B ∣ A ) = 0.9 P(A)=\frac{2}{20*365},P(B)=\frac{3}{7},P(B|A)=0.9 P(A)=203652,P(B)=73,P(BA)=0.9
则 在 狗 叫 的 时 候 盗 贼 入 侵 的 概 率 为 : P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) = 0.9 ∗ 2 20 ∗ 365 3 7 = 0.00058 则在狗叫的时候盗贼入侵的概率为:P(A|B)=\frac{P(B|A)P(A)}{P(B)}=\frac{0.9*\frac{2}{20*365}}{\frac{3}{7}}=0.00058 P(AB)=P(B)P(BA)P(A)=730.9203652=0.00058

朴素贝叶斯

朴素:独立性假设,假设各个特征之间是独立不相关的。

扫描二维码关注公众号,回复: 12830354 查看本文章

朴素贝叶斯的好处:在特征较多且数据少的情况下,还能计算出我们想要的结果。

例题

有一个如下表格:

帅? 性格好? 身高? 上进? 嫁与否
不好 不上进 不嫁
不帅 上进 不嫁
上进
不帅 上进
不好 上进 不嫁
不帅 不好 上进 不嫁
不上进
不帅 上进
上进
不帅 不好 上进
不上进 不嫁
不上进 不嫁

问题:如果一对男女朋友,男生的四个特点分别是不帅,性格不好,身高矮,不上进,判断女生是嫁还是不嫁?

根据贝叶斯公式有:
P ( 嫁 | 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) P(嫁|不帅、性格不好、身高矮、不上进) P()
= P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ∣ 嫁 ) P ( 嫁 ) P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) =\frac{P(不帅、性格不好、身高矮、不上进|嫁)P(嫁)}{P(不帅、性格不好、身高矮、不上进)} =P()P()P()
给 得 数 据 无 法 计 算 P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ∣ 嫁 ) 和 给得数据无法计算P(不帅、性格不好、身高矮、不上进|嫁)和 P()

P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) P(不帅、性格不好、身高矮、不上进) P()

这时朴素贝叶斯起到作用,由于朴素贝叶斯的独立性假设,假设各个特征之间是独立不相关的,所以上面的公式就可以转化为:
P ( 嫁 | 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) = P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ∣ 嫁 ) P ( 嫁 ) P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) P(嫁|不帅、性格不好、身高矮、不上进)=\frac{P(不帅、性格不好、身高矮、不上进|嫁)P(嫁)}{P(不帅、性格不好、身高矮、不上进)} P()=P()P()P()

= P ( 不 帅 | 嫁 ) ∗ P ( 性 格 不 好 ∣ 嫁 ) ∗ P ( 身 高 矮 ∣ 嫁 ) ∗ P ( 不 上 进 ∣ 嫁 ) ∗ P ( 嫁 ) P ( 不 帅 ) ∗ P ( 性 格 不 好 ) ∗ P ( 身 高 矮 ) ∗ P ( 不 上 进 ) =\frac{P(不帅|嫁)*P(性格不好|嫁)*P(身高矮|嫁)*P(不上进|嫁)*P(嫁)}{P(不帅)*P(性格不好)*P(身高矮)*P(不上进)} =P()P()P()P()P()P()P()P()P()

= 3 6 ∗ 1 6 ∗ 1 6 ∗ 1 6 ∗ 6 12 5 12 ∗ 4 12 ∗ 7 12 ∗ 4 12 = 0.043 =\frac{ \frac{3}{6} * \frac{1}{6} * \frac{1}{6} * \frac{1}{6} *\frac{6}{12} }{\frac{5}{12} * \frac{4}{12} * \frac{7}{12} * \frac{4}{12} }=0.043 =12512412712463616161126=0.043
同理计算:
P ( 不 嫁 | 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) = 0.964 P(不嫁|不帅、性格不好、身高矮、不上进)=0.964 P()=0.964
明显P(不嫁|不帅、性格不好、身高矮、不上进) > P(嫁|不帅、性格不好、身高矮、不上进),可以判断为不嫁。

参考

https://blog.csdn.net/amds123/article/details/70173402

猜你喜欢

转载自blog.csdn.net/tscn1/article/details/106764307