4 是Siri和Cortana AI程序吗? Siri和Cortana的交流非常像人类。与Google现在主要在被问到一些问题(不设置警报或提醒)时为我们提供搜索结果不同,Siri和Cortana就像人一样向我们提供答案。 那么它们是否是实际的AI程序? (通过“问题”,我不是指任何与学术有关的问题或询问路线/温度,而是基于意见的问题)。 23 natural-language-processing chat-bots intelligence-testing emotional-intelligence applications
5 情商如何实施? 我已经看到情绪智力被定义为感知,控制和表达自己的情绪,以及审慎和善解人意地处理人际关系的能力。 人工智能有什么策略可以解决这个问题并为计算机开发情商? 有没有在某种程度上今天已经发生这种情况的例子? 通过图灵测试的计算机是否一定会表达情绪智力,或者会被视为明显的计算机? 也许这就是为什么通过测试的早期程序代表了年轻人,他们的情绪智力可能较低。 22 turing-test emotional-intelligence
11 开发体验人类般情感的人工智能将达到什么目的? 在《华尔街日报》最近的一篇文章中,Yann LeCunn发表以下声明: 实现人为人工智能的下一步是创建智能而非自主的机器。车内的AI系统可以让您安全回家,但是一旦进入车内就不会选择其他目的地。从那里,我们将添加基本的动力以及情感和道德价值观。如果我们创造出像我们的大脑一样学习和学习的机器,就很难想象它们会继承人类般的特质和缺陷。 就我个人而言,我一般都认为谈论人工智能的情感是愚蠢的,因为没有理由创建体验情感的AI。显然,扬恩不同意。所以问题是:这样做会达到什么目的?人工智能需要情感来充当有用的工具吗? 19 philosophy emotional-intelligence
1 人工智能可以学会受苦吗? 我首先想到的一个问题是“人工智能会受苦吗?”。痛苦对人类很重要。想象一下您正在损坏脚跟。没有痛苦,您将继续伤害它。对于AI同样如此。但是后来我告诉自己:“请稍等。它已经存在。出现的错误和警告 ”。可以说,它具有与苦难相似的目的。但是,我感到有些失踪。我们感到痛苦。错误和错误仅仅是数据。假设机器人可以使用机器学习和基因编程进行进化。 人工智能可以学会受苦吗?而不仅仅是知道它仅仅是信息。 9 philosophy emotional-intelligence
10 人工智能可以感觉到情绪吗? 假设人类终于开发出了第一个基于人脑的类人生物AI,它会感觉到情绪吗?如果没有,它还会有道德和/或道德吗? 9 philosophy ethics human-like emotional-intelligence
1 如何测量AI程序的情商? AI程序可以具有情商(情商或情商)吗? 换句话说,可以测量AI程序的EQ吗? 如果说情商比智商更难衡量(至少在人类和人工智能程序都适用标准的情况下),为什么会这样呢? 9 emotional-intelligence intelligence-testing