为什么伦理学没有更多地集成到当前的AI系统中?


9

我是计算机科学博士学位的学生,目前正在以机器伦理学(将哲学和AI相结合的多学科领域,致力于创建明确的伦理计划或代理)创建应用程序的最新概述。尽管该领域有很多技术背景,但似乎该领域主要包含理论论据,并且实现相对较少。

我了解到,因为涉及道德,所以没有根本的真理,并且由于它是哲学的一部分,因此在争论应实施哪种类型的道德以及如何最好地做到这一点时,可能会迷失方向。但是,在计算机科学中,通常甚至尝试尝试一种简单的实现来展示您的方法的可能性或局限性。

在AI中明确实施道德规范并进行尝试的工作很少做的可能原因是什么?


2
的方法的例子中可以找到这个这个概述文件。
苏珊娜

Answers:


2

这肯定是一个高层次的答案,而且是高度投机的,但是我一直在思考这个问题,这是我的想法:

  • 实施道德算法需要哲学的数学基础,因为计算机是差异引擎

在罗素与怀特海(Russell&Whitehead)的著名失败以及哥德尔(Gödel)的不完全性定理之后,这似乎是有问题的。

  • 人工智能是一个高度应用的领域,特别是在今天,通过持续不断的深度学习验证,除非强迫他们去做,否则没有公司愿意解决道德问题

因此,您会在自动驾驶汽车中看到它,因为工程师别无选择,只能解决这个问题。相比之下,我认为您不会看到许多算法股票交易公司,这些公司的业务是帕累托效率,担心金融投机行为的道德或社会影响。(“闪存崩溃”的解决方案似乎是暂时中止交易的规则,而不是解决高频算法交易的社会价值。)一个更明显的例子是社交媒体公司忽略了极大量的信息滥用(虚假信息)和错误信息)张贴在他们的网站上,恳求他们的无知,这是高度怀疑的,因为信息滥用产生的活动会对其底线产生积极影响。

  • 应用领域通常主要由利润驱动

公司的主要指令是将利润返还给投资者。当罚款和罚金预计少于非法活动所产生的利润时,公司违反法律并不罕见。(在商业中存在道德的概念,但总体而言,这种文化似乎是根据人和公司的收入来判断他们的,而不管其收入来源如何。)

  • 在需要销售产品的领域中,正在研究机器伦理的实施,但是在其他地方,这仍然是假设的

如果超级智能进化并消灭人类(正如一些具有卓越数学技能的非常聪明的人警告我们),我的感觉是这将是自然的函数,这些算法的不受限制的进化归因于经济驱动力,其重点是超金融投机和自主战争等行业的党派自动机。从本质上讲,不惜一切代价追逐利润。


有趣的是,利润方面!由于我一直专注于研究原因,所以没有想到这一点,但是有道理,行业也没有压力要求研究进一步进行研究。
苏珊娜

@SuzanneTolmeijer谢谢。几年来,我一直在研究博弈论如何与道德联系起来。(通常是早期的哲学,例如,“平衡”被认为是“良好”,平衡是一种平衡函数,可以用数学精确地定义。它与经济学有关,因为通常认为稳定性是最佳的,但是,我并不是唯一接触过该领域经济驱动因素的AI贡献者,也不是我所说的“超级党派AI”的潜在危险。
周四

1

我觉得为什么AI / ML技术的道德实现方式很少有问题的部分原因,仅仅是因为没有必要或没有适当地应用理论框架。

我的意思是,没有任何实质性的方法可以将这种理解应用于无法以有意义的方式进行交互的算法和模型。我们在AI安全/道德方面拥有如此庞大的理论框架,因为它非常重要。创建强大的AI 之前,我们需要提出安全的准则。

一些非常集中的论文已开始缩小创建道德/安全AI系统的问题。请参阅AI安全中的具体问题


似乎需要明确的道德规范,至少许多研究人员呼吁发展明确的道德规范(例如Moor 2006)。在理论框架的正确应用方面,您可能是对的:在某些情况下,实现意味着某些解释,这可能会很难。但是,您同意安全的AI准则很重要,这意味着关于我们认为机器可以做到的“正确”或“道德”的实用准则。这些准则将暗示如何以某种方式在机器上实施道德规范。
Suzanne

1

通过模仿方法,可以将最适当的行为集成到人工智能中。当道德立场发生变化时,可以重塑人工智能。它用于思想目的或收集信息。目前尚不清楚机器人是什么。


1

我们可以考虑错误模型。在神经网络下识别性能之间的偏差和方差可能是第一步。然后我们可以讨论是否允许这种性能。据我们所知,实践种族需要经验和实地研究。我们不能简单地根据原理和论文来确定所学机器的行为是对还是错。它可以进一步分为事故,错误,甚至是由开发人员创建的错误。


您在这里提出的一个有趣的观点是,基本上可以使用哪些措施来测试系统,以及如何确定系统是否运行正确?这是该领域中缺少的东西,我认为确实是问题的一部分:如何在没有事实根据的情况下测试您的系统?在明确的道德算法的背景下,哪种(尺寸)措施有意义?否则,您将无法比较系统,从而限制了该领域的进展。
苏珊娜

1

从直觉上讲,似乎对AI道德规范的实施研究很少,因为:

  1. 整个社会似乎完全同意,机器智能的当前状态还不足以使其被认为是有意识的或有感觉的。因此,我们不需要赋予它道德权利(尚未)。

  2. 将道德行为实施到程序中需要一种计算机能够解释“含义”的方法,我们尚不知道该怎么做。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.