这两天把朴素贝叶斯算法熟悉了一遍,这个算法应用较多的领域是文本分类;
算法本质是利用先验概率去估计后验概率,但有个假设是样本各属性是单独对类别产生影响的,也就是说样本属性之间是相互独立的,互不影响。这个假设简化了类条件概率的计算。同时对于未出现的属性值对其他属性造成的影响使用拉普拉斯进行修正
极大似然估计是用来求类条件概率的,EM 期望最大化算法用于隐变量的估计。
通过这两天的学习,逐渐找到学习的节奏 ,以周志华的机器学习为理论蓝本,再结合机器学习实战进行算法实践,循序渐进地学习。同时在学习的过程要把握整体脉络,兼顾重点难点,不可囫囵吐糟,提高学习效率。