与深度学习(DL)和深度(er)网络相关的所有事物似乎都是“成功的”,至少进展非常迅速,并培养了人们对AGI可以达到的信念。这是流行的想象力。DL是解决许多问题(包括创建AGI)的强大工具。但是,这还不够。工具是必需的成分,但通常不足。
该领域的领先者正在寻求其他方面的进步。本报告/声明收集了Yoshua Bengio,Yann LeCun和Geoff Hinton的声明的链接。。该报告还解释了:
DL的主要缺点(如我所见)是:依赖最简单的模型神经元(LeCun称其为“卡通”);使用19世纪统计力学和统计学的思想,这些思想是能量函数和对数似然方法的基础;以及反向支撑和随机梯度下降等技术的结合,导致应用范围非常有限(脱机,主要是分批,有监督的学习),需要高才能的从业人员(又名“随机研究生下降”),且价格昂贵标记的训练数据和计算能力。虽然DL对于可以吸引或购买人才并部署无限资源以收集数据并处理数据的大型公司非常有用,但DL对我们大多数人而言既无用又无用。
尽管有趣且相关,但这种解释并不能真正解决问题的要点:缺少什么?
这个问题似乎很广泛,但可能是由于缺乏简单的答案。有没有办法确定AGI缺少的DL?