Answers:
线性回归假设自变量和因变量之间存在线性关系。它不会告诉您模型的安装方式。最小二乘拟合只是可能性之一。评论中还提供了其他训练线性模型的方法。
非线性最小二乘是常见的(https://en.wikipedia.org/wiki/Non-linear_least_squares)。例如,流行的Levenberg–Marquardt算法可解决以下问题:
这是最小二乘优化,但模型不是线性的。
他们不是一回事。
除了@Student T的正确答案外,我想强调的是,最小二乘法是优化问题的潜在损失函数,而线性回归是优化问题。
给定某个数据集,可以使用线性回归来找到最佳的线性函数,这可以解释变量之间的联系。
在这种情况下,“最佳”可能由损失函数确定,将线性函数的预测值与数据集中的实际值进行比较。最小二乘可能是损失函数。
维基百科的最小二乘文章还显示了右侧图片,这些图片显示了将最小二乘用于除线性回归以外的其他问题,例如:
Wikipedia文章中的以下gif显示了使用最小二乘法拟合到数据集的几种不同的多项式函数。其中只有一个是线性的(多项式为1)。这摘自德国维基百科的文章。