记录几个有收获的问题:
1. 先验概率(先验信息)什么时候有用?
先验概率比较大的时候,才有参考价值,从艾滋病的例子中可以知道,若先验概率很小,那么后验概率基本没有什么参考价值。此外,若先验概率很小,计算MAP还不是计算MLP!
2. MAP和MLP的联系
极大似然估计是极大MAP的特例,在这种情况下,所有的先验信息认为具有相同的概率,因此可以省略掉先验概率的计算。
3. 通过MSE作为回归损失,隐含的假设是什么?
隐含的假设是:信号由在作用于输入后输出,但是在这个过程中被高斯形式的噪音破坏了。
PS:倘若不是被高斯形式的噪声破坏,则我们实际上并没有在给这个“确定性函数”建模,在这种情况下,事实上我们就做错了。
推理过程如下图:
Minimums description length 最小描述长度
这块还不太理解,先给出结论
结论:从贝叶斯的角度+信息论中的最小描述长度,可以解释奥卡姆剃刀原则
4. Bayes Learning的最终目标?为什么说仅仅找到最优假设是错误的?
Bayes Learning的最终目标不是Learning,而是为了Inference,而Inference阶段不能仅仅用最优的假设,而要使用全部的h进行投票。
5. 什么是Bayes optimal classifier?
就是通过voting(加权平均)的方式进行分类,称为贝叶斯最优分类器,而不是仅仅选最优假设进行分类。