bagging算法思想:
① 对于一个给定的含有n个训练样本的数据集D={x1,x2,.....xn};
② 重复步骤①进行T遍得到T个训练集Si;
③ 在每个训练集上采用某种分类算法独立地训练出T个基分类器Ci;
④ 对于每个测试样本x,采用多输投票方式得到最终的预测结果c*(x)。
Boosting算法的思想:
先赋予训练集中每个样本相同的权重,然后进行T次迭代,每次迭代后,对分类错误的样本加大重采样权重,使得在下一次的迭代中更加关注这些样本。这样训练的多个弱分类器进行加权融合,产生一个最后的结果分类器。在这T个弱小分类器中,每个分类器的准确率不一定很高,但他们联合后的结果有很高的准确率,这样便提高了该弱分类算法的准确率。单个弱分类器训练的时候,可以用相同的分类算法,也可以用不同的分类算法,这些算法一般是不稳定的弱分类算法,如神经网络(BP) ,决策树(C4.5)等。