多元线性回归与神经网络?


54

在某些情况下,似乎有可能获得与具有多元线性回归的神经网络类似的结果,并且多元线性回归超级快速且容易。

在什么情况下,神经网络比多元线性回归能提供更好的结果?

Answers:


28

神经网络原则上可以自动对非线性进行建模(请参见通用逼近定理),您需要使用线性回归中的变换(样条线等)来显式建模。

警告:过度拟合的诱惑在神经网络中比在回归中可能(甚至)更强,因为添加隐藏层或神经元看起来无害。因此,请格外注意样本外预测性能。


好。我想我的问题是,在多大程度上可以通过用二次项和三次项来扩充输入数据来复制类似的行为?
休·珀金斯

3
实际上,您可以根据需要在线性回归中使用经过适当转换的回归变量近似逼近NN(反之亦然)。样条曲线比二次方和三次方更好,但是-我衷心推荐Harrell的教科书“回归建模策略”。
S. Kolassa-恢复莫妮卡2012年

好。假设对于转换后的数据进行线性回归,训练时间会更快,还是训练时间大致相似?对于转换后的数据进行线性回归的解决方案,会不会具有单个全局最大值,或者对于神经网络,它将具有很多局部最小值?(编辑:我想无论输入如何转换,线性回归的解决方案都是设计矩阵的伪逆乘以某物,因此总是唯一或奇异?)
休·珀金斯

2
培训时间当然取决于输入的维度(很少/很多观察,很少/很多预测变量)。线性回归涉及单个(伪)逆(是的,即使具有转换的回归器成立,唯一性/奇异性),而NN通常以迭代方式进行训练,但是迭代不涉及矩阵求逆,因此每次迭代都更快-通常根据旨在阻止您过度拟合的某些准则停止训练。
S. Kolassa-恢复莫妮卡

1
@Yamcha:我对通用逼近定理的理解是,原则上的维数无关紧要。(当然,这是一个渐近结果。我希望您需要大量的数据才能使NN优于微调的多项式回归。听起来像是深度学习...)
S。 Kolassa-恢复莫妮卡

16

您提到了线性回归。这与逻辑回归相关,后者具有类似的快速优化算法。如果您对目标值有限制(例如存在分类问题),则可以将逻辑回归视为线性回归的概括。

在原始输入上,神经网络比逻辑回归严格地更通用,因为神经网络对应于具有隐藏节点的跳过层网络(其连接直接将输入与输出连接起来)。0

添加,这类似于为单个隐藏层中的几个隐藏节点选择权重。没有确切的对应关系,因为用S形模型模拟类的函数可能需要多个隐藏神经元。训练神经网络时,您可以让它找到自己的输入到隐藏的隐藏权重,这有可能会变得更好。这可能还会花费更多时间,并且可能会不一致。您可以从具有附加特征的逻辑回归近似开始,然后缓慢训练输入到隐藏的权重,这最终将比具有附加特征的逻辑回归更好。根据问题,培训时间可以忽略不计或过高。x311x3

一种中间策略是选择大量随机节点,类似于初始化神经网络时发生的情况,并固定输入到隐藏的权重。*至输出权重的优化保持线性。这称为极限学习机。它至少和原始的逻辑回归一样好。


1
“一种中间策略是选择大量随机节点,类似于初始化神经网络时发生的情况,并固定输入到隐藏的权重。对*到输出的权重的优化保持线性。” =>您的意思是在这种情况下解决方案会有一个全局最大值?
休·珀金斯

1
对于随机隐藏节点的一般随机选择,可以。
道格拉斯·扎里

2
很棒的帖子-为[LR,LogR,NN,ELM]提供上下文。在指出之后,您对LogR是跳过层NN的评论似乎很明显,但这是一个很好的见解。
javadba

3

线性回归旨在分离线性可分离的数据,是的,您可以使用其他三阶多项式,但是那样一来,由于您定义了目标函数的结构,因此再次指出了有关数据的一些假设。在神经网络中。通常,您有一个输入层为您拥有的数据创建线性分隔符,然后隐藏层对与某些类绑定的区域进行“与”运算,最后一层对所有这些区域进行“或”运算。这样,您拥有的所有数据都可以通过非线性方式进行分类,所有这些过程都将使用内部学习的权重和定义的函数进行。另外,增加线性回归的特征数量与“维数诅咒”相反。另外,某些应用程序需要更多的概率结果,而不是恒定数作为输出。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.