另请参阅有关stats.SE的类似问题。
在AdaBoost和LPBoost之类的增强算法中,从Wikipedia已知,要合并的“弱”学习者只需要表现好于有用的机会即可。
它使用的分类器可能很弱(即显示出很大的错误率),但是只要它们的性能不是随机的(二进制分类的错误率是0.5),它们就会改善最终模型。即使错误率高于随机分类器期望值的分类器也将是有用的,因为它们在分类器的最终线性组合中将具有负系数,因此表现得像它们的逆。
与强者相比,弱者有什么好处?(例如,为什么不采用“强”的学习方法来提高学习能力呢?
弱者有某种“最佳”的力量吗?这与合奏中的学习人数有关吗?
是否有任何理论来支持这些问题的答案?