条件概率的一般定义:P(A|B)=P(AB)/P(B)
进一步进行分析,我们发现事件 A 的无条件概率 P(A) 与其在给定事件 B 发生下的条件概率 P(A|B) 显然是不同的,即 P(A|B)≠P(A) ,而这也是非常普遍的一种情况,这两个概率值一般都存在着差异。
但是如果 P(A)=P(A|B) 呢,这种情况也是存在的,而且这是一种非常重要的情况,它意味着事件 B 的发生与否对事件 A 发生的可能性毫无影响。这时,我们就称 A , B
这两个事件独立,并由条件概率的定义式进行转换可以得到:
P(A|B)=P(AB)/P(B)⇒
P(AB)=P(A|B)P(B)=P(A)P(B),由此我们说,如果 A 和 B 两个事件满足 P(AB)=P(A)P(B),则称事件 A 和事件 B 独立
全概率定义:p(A)=P(B1)P(A|B1)+P(B2)P(A|B2)+……+P(Bn)P(A|Bn),全概率公式,“全”字的意义在于:全部的概率P(A)被分解成了许多的部分概率之和,因此全概率P(A)就是各P(A|Bi)以P(Bi)为权的加权平均值
全概率公式的实际价值在于,很多时候,我们直接去计算事件A的概率是比较困难的。但是如果条件概率P(A|Bi)是已知的(比如通过统计历史值得到),或很容易被我们推导计算时,全概率公式就成了计算概率P(A)的很好的途径
可以看出,如果把A事件看做结果,Bi事件看做原因之一,全概率就是从因到果,贝叶斯就是从结果推原因
而在实际应用中,很容易通过历史数据得到P(Bi)以及P(A|Bi),所以就可以推算出P(Bi|A),即在结果已形成的情况下推断原因Bi所占的比重,这里有人会问,前面不是说了P(Bi)可以从历史统计中获取吗,那还这么折腾为毛?从历史统计得到的P(Bi)叫做先验概率(经验估计得到),而通过贝叶斯计算出的叫后验概率(代表了在获得了信息A之后Bi出现的概率),后验概率是对先验概率的修正,当然是要后验概率了。
总结:本节从条件概率引出了事件独立性,全概率,贝叶斯,核心是条件概率的公式变换,同时结合实战,给出了一丁点概率在实际中的应用猜想,重点是记住并理解这几个公式的意义。