关于bagging的说法错误的是对各弱分类器的训练可以通过串行方式进行。
bagging介绍:
1、Bagging是通过结合几个模型降低泛化误差的技术。主要想法是分别训练几个不同的模型,然后让所有模型表决测试样例的输出。
2、这是机器学习中常规策略的一个例子,被称为模型平均(modelaveraging)。采用这种策略的技术被称为集成方法。
模型平均奏效原因:
1、模型平均奏效的原因是不同的模型通常不会在测试集上产生完全相同的误差。模型平均是一个减少泛化误差的非常强大可靠的方法。
2、在作为科学论文算法的基准时,它通常是不鼓励使用的,因为任何机器学习算法都可以从模型平均中大幅获益(以增加计算和存储为代价)。
Bagging算法特性:
1、Bagging通过降低基分类器的方差,改善了泛化误差。
2、其性能依赖于基分类器的稳定性,如果基分类器不稳定,bagging有助于降低训练数据的随机波动导致的误差;如果稳定,则集成分类器的误差主要由基分类器的偏倚引起。
3、由于每个样本被选中的概率相同,因此bagging并不侧重于训练数据集中的任何特定实例。