这个术语在人工智能方面很老。图灵在其1950年发表于Mind的《计算机械与情报》一文中专门论述了“学习机器” ,并定性地勾勒出监督学习的方式。Rosenblatt的原始论文:感知器:大脑中信息存储和组织的概率模型自1958年以来发表,论文广泛讨论了“学习的数学模型”。这里的感知器是“学习的模型”。模型不是“学习”的。
Pitts and McCullough 1943年发表的论文-最初的“神经网络”论文-并不真正关注学习,更多地是如何构造逻辑演算(例如Hilbert或Gentzen系统,但我认为它们是指Russell / Whitehead)。可以进行推断。我认为正是“感知器”论文引入了数字,而不是这种传统的象征性学习概念。
机器是否可能仅通过示例来学习如何下棋?是。它有下棋的模型吗?是。它是最佳模型(假设有一个模型)吗?几乎可以肯定。用简单的英语,我可以“学象棋”,如果我可以下象棋的话-也许还不错。这并不意味着我是最佳的棋手。这就是图灵在论文中讨论学习国际象棋时描述“学习”的意义。
我与我使用的术语非常不一致。因此(例如)对于极限学习,我说“识别”,对于SVM学习,我说“训练”,但对于MCMC,“学习”,我说“优化”。例如,我只称回归为“回归”。