我听了由两位有影响力的中国科学家组成的小组讨论:王刚和于凯等。
当被问及在不久的将来(3-5年)人工智能发展的最大瓶颈时,具有硬件行业背景的于凯表示,硬件将是必不可少的问题,我们应该付出大部分我们对此的关注。他给了我们两个例子:
- 在计算机的早期开发中,我们通过芯片比较机器。
- 如果没有英伟达GPU的支持,那么近年来非常流行的人工智能几乎是不可能的。
基本算法早在1980年代和1990年代就已存在,但是人工智能经历了3个AI冬季,并且直到我们可以使用GPU增强的大型服务器训练模型时才是经验性的。
然后,王博士评论了他的意见,我们也应该开发软件系统,因为即使将世界上所有的GPU和计算结合在一起,我们也无法制造自动汽车。
然后,像往常一样,我的头脑飘散了,我开始思考,如果那些能在1980年代和1990年代操作超级计算机的人利用当时存在的神经网络算法并用大量科学数据训练它们呢?当时有些人显然可以尝试构建我们正在构建的AI系统。但是,为什么人工智能直到几十年后才成为热门话题并成为经验?仅仅是硬件,软件和数据的问题吗?