Answers:
这肯定是一个高层次的答案,而且是高度投机的,但是我一直在思考这个问题,这是我的想法:
在罗素与怀特海(Russell&Whitehead)的著名失败以及哥德尔(Gödel)的不完全性定理之后,这似乎是有问题的。
因此,您会在自动驾驶汽车中看到它,因为工程师别无选择,只能解决这个问题。相比之下,我认为您不会看到许多算法股票交易公司,这些公司的业务是帕累托效率,担心金融投机行为的道德或社会影响。(“闪存崩溃”的解决方案似乎是暂时中止交易的规则,而不是解决高频算法交易的社会价值。)一个更明显的例子是社交媒体公司忽略了极大量的信息滥用(虚假信息)和错误信息)张贴在他们的网站上,恳求他们的无知,这是高度怀疑的,因为信息滥用产生的活动会对其底线产生积极影响。
公司的主要指令是将利润返还给投资者。当罚款和罚金预计少于非法活动所产生的利润时,公司违反法律并不罕见。(在商业中存在道德的概念,但总体而言,这种文化似乎是根据人和公司的收入来判断他们的,而不管其收入来源如何。)
如果超级智能进化并消灭人类(正如一些具有卓越数学技能的非常聪明的人警告我们),我的感觉是这将是自然的函数,这些算法的不受限制的进化归因于经济驱动力,其重点是超金融投机和自主战争等行业的党派自动机。从本质上讲,不惜一切代价追逐利润。
我觉得为什么AI / ML技术的道德实现方式很少有问题的部分原因,仅仅是因为没有必要或没有适当地应用理论框架。
我的意思是,没有任何实质性的方法可以将这种理解应用于无法以有意义的方式进行交互的算法和模型。我们在AI安全/道德方面拥有如此庞大的理论框架,因为它非常重要。在创建强大的AI 之前,我们需要提出安全的准则。
一些非常集中的论文已开始缩小创建道德/安全AI系统的问题。请参阅AI安全中的具体问题
我们可以考虑错误模型。在神经网络下识别性能之间的偏差和方差可能是第一步。然后我们可以讨论是否允许这种性能。据我们所知,实践种族需要经验和实地研究。我们不能简单地根据原理和论文来确定所学机器的行为是对还是错。它可以进一步分为事故,错误,甚至是由开发人员创建的错误。
从直觉上讲,似乎对AI道德规范的实施研究很少,因为:
整个社会似乎完全同意,机器智能的当前状态还不足以使其被认为是有意识的或有感觉的。因此,我们不需要赋予它道德权利(尚未)。
将道德行为实施到程序中需要一种计算机能够解释“含义”的方法,我们尚不知道该怎么做。