本质上,我的问题是在多层感知器中,感知器具有S形激活功能。因此,在更新规则Ÿ计算公式为
那么,这种“ S型”感知器与逻辑回归有何不同?
我要说的是一个单层乙状结肠感知等效于逻辑回归的意义上,二者使用ÿ = 1更新规则中为 1 + exp (− w T x i)。此外,这两个返回在预测。但是,在多层感知器中,与逻辑回归和单层感知器相比,使用S形激活函数来返回概率,而不是通断信号。
我认为“感知器”一词的用法可能有点含糊,所以让我根据对单层感知器的当前理解提供一些背景知识:
经典感知器规则
首先,是F. Rosenblatt的经典感知器,其中具有阶跃函数:
更新权重
这样Ÿ计算公式为
梯度下降
使用梯度下降,我们优化(最小化)成本函数
这里有“实”数,所以我看到这基本上类似于线性回归,不同之处在于我们的分类输出受阈值限制。
在这里,当我们更新权重时,我们向渐变的负方向迈出了一步
但在这里,我们有ÿ = w ^牛逼X我,而不是Ÿ = 标志(w ^牛逼X我)
此外,与经典感知器规则相反,我们计算了整个训练数据集上的完整遍历的平方误差总和,而经典感知器规则随着新训练样本的到来而更新了权重(模拟到随机梯度下降-在线学习)。
乙状结肠激活功能
现在,这是我的问题:
在多层感知器中,感知器与乙状结肠激活功能一起使用。因此,在更新规则Ÿ计算公式为
那么,这种“ S型”感知器与逻辑回归有何不同?