Answers:
一个“弱”的学习者(分类器,预测器等)只是表现相对较差的一个学习器,它的准确性高于偶然性,但几乎没有。通常但并非总是如此,这意味着计算简单。弱学习者还建议将算法的许多实例(通过增强,装袋等)合并在一起,以创建“强”集成分类器。
在Freund&Schapire的原始AdaBoost论文中提到了这一点:
在这些应用程序中,最令人惊讶的也许是新的“增强”应用程序的派生,即将性能稍好于随机猜测的“弱” PAC学习算法转换为任意高精度。- (Freund&Schapire,1995)
但我认为这个词实际上比这更老了-我见过人们引用1980年代迈克尔·凯恩斯(Michael Kearns)的学期论文(?!)
弱学习者的经典示例是决策树桩,即一个决策树(1R或OneR是另一种常用的弱学习者;它非常相似)。将SVM称为“弱学习者”,即使在它表现不佳的情况下也有些奇怪,但是将单个决策树桩称为弱学习者是完全合理的,即使它本身表现出奇的好。
我不确定有什么神奇之处。在1995年的论文中,T是作为自由参数给出的(即,您可以自行设置)。
弱学习者是一个学习者,当它尝试标记数据时,无论训练数据上的分布是什么,总会比偶然更好。胜于偶然意味着我们总是会得到小于1/2的错误率。
这意味着学习者算法总是要学习一些东西,而不是总是完全准确的,即,在学习之间的关系时,它是薄弱的和较差的。 (输入)和 (目标)。
但是随之而来的是Boosting,我们首先查看训练数据并生成一些分布,然后找到一些错误率低的弱学习者(分类器),每个学习者都输出一些假设,。这会产生一些(类别标签),最后结合好假设集以生成最终假设。
最终提高了弱者的学习能力,并将他们转变为强者。
有关更多信息:https : //youtu.be/zUXJb1hdU0k。