Questions tagged «philosophy»

有关人工智能哲学方面的问题。诸如人类/人工智能的价值取向,人工意识,人工智能的可行性,人工智能的伦理学,新-超自然主义等主题。

13
无人驾驶汽车如何做出关于谁被杀的道德决定?
显然,自动驾驶汽车并不完美,因此,请想象一下Google汽车(例如)陷入困境。 以下是由一系列事件导致的不幸情况的一些示例: 汽车正朝着10人横过马路的方向行驶,因此无法及时停车,但可以避免撞墙撞死10人(杀死乘客), 考虑到汽车乘客的生存可能性更大,请避免杀死摩托车骑手, 在街头杀害动物以利于人类, 改变车道撞上另一辆车以避免杀死狗, 这里有一些难题: 该算法是否可以识别人与动物之间的差异? 人或动物的大小重要吗? 它算不算前排有多少乘客? 婴儿/儿童在船上时是否“知道”? 是否考虑了年龄(例如先杀死年长的人)? 从技术角度来看,算法将如何决定应该做什么?是否意识到上述情况(计算出杀戮的可能性),还是不知道(杀害人,以避免其自身被摧毁)? 相关文章: 为什么必须对无人驾驶汽车进行编程才能杀死 如何帮助无人驾驶汽车做出道德决策

9
为什么我们需要可解释的AI?
如果开发AI的最初目的是在某些任务中帮助人类,而这个目的仍然存在,那么我们为什么要关心它的可解释性呢?例如,在深度学习中,只要智能帮助我们最大限度地发挥他们的能力并仔细做出决策,我们为什么需要知道其智能如何工作?


21
数字计算机可以理解无限吗?
作为人类,我们可以思考无限。原则上,如果我们有足够的资源(时间等),我们就可以无数次地计数(包括抽象的,如数字或实数)。 例如,至少,我们可以考虑整数。我们原则上可以认为并“理解”屏幕上显示的许多数字。如今,我们正在尝试设计至少具有人类能力的人工智能。但是,我陷入无限。我试图找到一种方法,可以教一个模型(深度与否)来理解无限。我用功能性方法定义“理解”,例如,如果一台计算机可以区分10个不同的数字或事物,则意味着它确实以某种方式理解了这些不同的事物。这是“理解”的基本简单方法。 正如我之前提到的,人类理解无穷大是因为它们在原理上至少能够计算无穷整数。从这个角度来看,如果我想创建一个模型,那么该模型实际上是一个抽象意义上的函数,则该模型必须区分出无数个数字。由于计算机是数字机器,对这种无穷函数进行建模的能力有限,因此我如何创建可以对无数个整数进行微分的模型? 例如,我们可以采用深度学习视觉模型来识别卡片上的数字。该模型必须为每个不同的卡分配一个数字,以区分每个整数。由于存在无限数量的整数,因此模型如何在数字计算机上为每个整数(如人类)分配不同的数字?如果它无法区分无限事物,那么它如何理解无限? 如果我考虑实数,问题将变得更加棘手。 我想念的是什么?是否有针对该主题的资源?


9
人工智能容易受到黑客攻击吗?
论文《对抗设置中的深度学习的局限性》探讨了攻击者如何破坏神经网络,攻击者可以操纵神经网络训练的数据集。作者尝试了一种旨在读取手写数字的神经网络,通过使训练了该神经网络的手写数字样本失真来破坏其阅读能力。 我担心恶意参与者可能会尝试入侵AI。例如 愚弄自动驾驶汽车以误解停车标志与速度限制。 绕过面部识别,例如用于ATM的面部识别。 绕过垃圾邮件过滤器。 电影评论,酒店等的愚蠢情绪分析 绕过异常检测引擎。 伪造语音命令。 对基于机器学习的医学预测进行了错误分类。 什么样的对抗作用可能会破坏世界?我们如何预防呢?


7
称为AI的最低要求是什么?
我认为,如今,人工智能(AI)术语已被滥用。例如,人们看到某物在自动移动,并将其称为AI,即使该物在自动驾驶仪上(例如汽车或飞机),也可能有一些简单的算法在后面。 可以说什么是AI的最低一般要求是什么?

11
开发体验人类般情感的人工智能将达到什么目的?
在《华尔街日报》最近的一篇文章中,Yann LeCunn发表以下声明: 实现人为人工智能的下一步是创建智能而非自主的机器。车内的AI系统可以让您安全回家,但是一旦进入车内就不会选择其他目的地。从那里,我们将添加基本的动力以及情感和道德价值观。如果我们创造出像我们的大脑一样学习和学习的机器,就很难想象它们会继承人类般的特质和缺陷。 就我个人而言,我一般都认为谈论人工智能的情感是愚蠢的,因为没有理由创建体验情感的AI。显然,扬恩不同意。所以问题是:这样做会达到什么目的?人工智能需要情感来充当有用的工具吗?

4
如何重新发明被AI取代的工作?
通常,重塑职位描述有哪些可能性可以被自动化的AI解决方案取代?我最初的想法包括: 监视AI并标记其错误操作。 在极富挑战性的情况下可能接管控制。 创建/收集更多训练/测试数据以提高AI的准确性。


7
人工智能任务是否需要意识?
定义意识是具有挑战性的,但是对于这个问题,让我们将其定义为“实际上正在经历感觉输入,而不是仅仅通过无生命的机器输入一堆数据”。人类当然有头脑;对于普通计算机,他们“看到”的所有东西仅仅是更多数据。可以选择说人类是有情的,而传统计算机则不是。 抛开是否有可能建造一个感知机器的问题,如果一个AI是有感知的,它实际上会有所不同吗?换句话说,是否有一些由于缺乏见识而使任务无法完成的任务,而不仅仅是变得更加困难?
14 philosophy 

2
意识对于制造先进的人工智能有多重要?
意识和自我意识对制造高级AI的重要性如何?我们离制造这种产品有多远? 当建立一个神经网络时,(很可能)其中没有意识,而背后只有数学,但是我们是否需要让AI变得有意识,以便将来解决更复杂的任务?此外,实际上,我们是否可以肯定地知道某种东西是意识的还是虚假的?制作声称自己有意识的计算机程序是“容易的”,但这并不意味着它是有意识的(例如Siri)。 如果AI仅基于预定义的规则而没有意识,我们甚至可以称其为“智能”吗?

6
有什么替代“人工智能”的好选择?
我读了一篇非常有趣的文章,名为“停止称之为人工智能”,该文章对“人工智能”这个名称提出了引人注目的批评。 智能这个词是如此广泛,以至于很难说“人工智能”是否真的是智能的。因此,人工智能往往会被误解为复制人类智能,而这实际上并不是人工智能。 人工智能并不是真正的“人工”。人工意味着对某物的伪造,这并非人工智能。 “人工智能”一词有哪些好的替代选择?(好的答案不会随机列出名称;它们会为他们的替代名称为何是一个好的名称提供理由。)

3
哥德尔定理对人工智能研究有何启示?
注意:我在哥德尔定理方面的经验非常有限:我读过哥德尔·埃舍尔·巴赫(GödelEscher Bach)。略读了戈德尔定理简介(彼得·史密斯)的上半部分;以及互联网上到处都是随机的东西。也就是说,我对该理论只有一个模糊的高级理解。 在我的拙见中,哥德尔不完备定理(及其许多相关定理,例如停顿问题和洛布斯定理)是最重要的理论发现。 然而,观察到定理的理论应用并不多(至少据我所知)有点令人失望,可能部分是由于1.证明的钝性2.人们没有强大的哲学含义愿意轻松地致力于。 尽管如此,仍然有一些尝试将定理应用到心智/人工智能环境中。从我的头顶上: 卢卡斯-彭罗斯(Lucas-Penrose)论点:认为头脑不是在正式系统上实现的(例如在计算机中)。(但是,不是很严格的证明) 显然,MIRI的一些研究使用的是LöbsThereom,尽管我所知道的唯一一个例子是Löbian代理商合作。 这些都很酷,但是还有更多示例吗?特别是那些学术界认真考虑的问题。 (参见:哥德尔的第一个不完全性定理的哲学含义是什么?)
13 philosophy 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.