不要混淆预测变量的处理(通过基础学习者,例如树桩)和增强中损失函数的处理。尽管可以将AdaBoost看作是找到基础学习者的组合以最大程度地减少错误分类错误,但您引用的“ Additive Logistic Regression”(可加逻辑回归)论文也表明可以将AdaBoost 公式化为最小化指数损失函数。这种见解为解决广泛的机器学习问题开辟了一种增强方法,该方法通过梯度增强将可微分的损失函数降至最低。在每个步骤中拟合的残差是根据损失函数的梯度计算得出的伪残差。即使将预测变量建模为二进制树桩,该模型的输出也不必是二进制选择。
另一个答案指出,线性基础学习者可能无法工作,但无论是标准意义还是逻辑意义上的“增强回归”都不需要线性基础学习者。可以确定地将非线性树桩组合为慢速基础学习器,以最大程度地减少适当的损失函数。即使它与预测变量系数线性的标准回归模型相去甚远,它仍被称为“增强回归”。对于具有树桩或树木作为预测变量的线性模型和“增强回归”模型,损失函数在功能上可以相同。ISLR的第8章对此很清楚。
因此,如果您想要与增强回归等效的逻辑回归,则应关注损失函数而不是基础学习者。这就是您在论文中引用的LogitBoost方法的作用:将对数损失而不是adaboost中隐含的指数损失最小化。Wikipedia AdaBoost页面描述了这种区别。
该站点上的许多参与者都认为基于对数/概率的预测比严格的是/否分类预测更可取,因为前者更普遍地允许在假阳性和假阴性预测的额外成本之间进行权衡。正如您对相关问题的回答所表明的那样,可以从源自AdaBoost的强分类器中获得估计的概率,但是LogitBoost可能会提供更好的性能。
用于分类的梯度增强的实现可以提供有关潜在概率的信息。例如,有关梯度增强的页面显示了sklearn
代码如何在逻辑回归的偏差损失和AdaBoost的指数损失之间进行选择,并记录了函数以从梯度增强模型预测概率。