人工智能将如何学习语言?


11

当我意识到我想不出一种可以教授AI的语言时,我就在思考AI及其如何工作。儿童倾向于通过语言和图片与对象的关联来学习语言(例如,人们在狗周围时说“狗”一词,后来意识到人们在说“狗”和“汽车”,并学习“ ”等)。但是,基于文本的AI不能使用这种方法来学习,因为他们将无法访问任何种类的输入设备。

我想出的唯一方法是用英语(或“说话”所要使用的任何一种语言)来编程每个单词和规则,但是这可能需要花费数年的时间。

有没有人对如何做到这一点有任何想法?或者,如果已经完成,如何做?

顺便说一句,在这种情况下,我正在使用AI来表示具有近乎人类智能且没有先验语言知识的人工智能系统。

Answers:



6

问题的总称被称为自然语言处理(NLP) -人工智能下的一个主题。

该领域有很多子主题,包括语言语义,语法分析,语音标记部分,特定领域的上下文分析等。


5

仅出于完整性考虑,我将指出递归神经网络(即具有反向连接的神经网络)经常用于自然语言处理(NLP)。其中包括Bidirectional,Jordan和Elman Networks等变体。长短期记忆(LSTM)是一种更复杂的神经网络算法,可以完成基于时间和序列的相同任务,但是可以利用诸如backprop之类的标准学习方法,因为它不会遭受“消失的梯度问题”的困扰。这是因为LSTM被出色地设计为“完美的积分器”,这使得长期计算误差梯度等变得容易得多。相反,从理论上讲,使用RNN进行学习仍然没有充分的基础,并且很难通过现有的方法(如时间反向传播(BPTT))进行计算。在延时神经网络(TDNN)中,其思想是在一段较长的时间或训练序列中,为每个新的训练示例添加新的神经元和连接;不幸的是,这与RNN一样,实际上限制了在网络大小失控或开始遗忘之前可以向网络中输入多少示例。LSTM具有更长的记忆(尤其是在使用Neural Turing Machines进行增强时),因此假设我想将神经网络用于NLP,那将是我的首选。虽然我对这个学科的了解有限(我仍在尝试学习技巧),所以我可能忽略了其他重要的神经网络算法...

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.