我们经常听到人工智能可能伤害甚至杀死人类,因此可能被证明是危险的。
人工智能如何危害我们?
我们经常听到人工智能可能伤害甚至杀死人类,因此可能被证明是危险的。
人工智能如何危害我们?
Answers:
有许多有效的原因,人们可能担心(或更好的被关注)AI,不是所有涉及机器人和世界末日的场景。
为了更好地说明这些问题,我将尝试将它们分为三类。
这是您的问题所指的AI类型。一种超智能的有意识的AI,将摧毁/奴役人类。这主要是由科幻小说带给我们的。好莱坞的一些著名例子是《终结者》,《黑客帝国》,《奥创时代》。最具影响力的小说由艾萨克·阿西莫夫(Isaac Asimov)撰写,被称为“机器人系列”(其中包括“我,机器人”,也被改编成电影)。
这些大多数作品的基本前提是,人工智能将发展到有意识并超越人类的智力水平。尽管好莱坞电影主要关注机器人以及它们与人类之间的战斗,但对实际的AI(即控制它们的“大脑”)的关注却不够。作为旁注,由于叙述的缘故,通常将此AI描述为控制一切的超级计算机(以便主角有特定的目标)。关于“歧义情报”(我认为是更现实的)的研究还不够。
在现实世界中,AI专注于解决特定任务!能够解决来自不同领域(例如,理解语音和处理图像以及像人类一样的驾驶和……)问题的AI代理被称为通用人工智能,是AI能够“思考”并成为意识。
实际上,我们与通用人工智能相距甚远!话虽这么说,没有证据表明为什么将来无法实现这一目标。因此,目前,即使我们仍处于AI的起步阶段,我们也没有理由相信AI不会发展到比人类更智能的地步。
尽管要征服世界的AI距离实现还有很长的路要走,但是今天有许多与AI有关的原因却与机器人无关!我想重点关注的第二类是当今AI的几种恶意使用。
我将只关注当今可用的AI应用程序。可以用于恶意意图的AI的一些示例:
DeepFake:一种将某人的脸置于另一人的视频上的技术。最近,这种方式在名人色情片中变得越来越流行,可用于生成假新闻和恶作剧。来源:1,2,3
通过使用能够每秒识别数百万张面孔的大规模监视系统和面部识别软件,AI可以用于大规模监视。即使我们想到大规模监视,也想到了中国,但伦敦,亚特兰大和柏林等许多西方城市还是世界上受监视最多的城市之一。中国采取了社会信用制度,这是对平民的一种评估制度,这在乔治·奥威尔(George Orwell)1984年的著作中直接被采用了,这使中国迈出了一步。
通过社交媒体影响人们。除了以目标营销和增加展示位置(许多互联网公司的惯例)为目标来识别用户的喜好外,AI还可用于恶意影响人们的投票(除其他外)。来源:1,2,3。
骇客。
军事应用,例如无人机攻击,导弹瞄准系统。
这个类别是相当主观的,但是AI的发展可能会带来一些不利的副作用。此类别与先前类别之间的区别在于,这些影响虽然有害,但并非故意造成的;而是随着AI的发展而出现。一些例子是:
我是否提到所有这些都已经全面展开了?
尽管AI和AGI之间没有明确的界限,但本节将更多地介绍当我们进一步走向AGI时会发生什么。我看到两种选择:
在第一种情况下,如果某个AI“流氓”,我们可以构建其他AI来胜过并抵消它。在第二种情况下,我们不能,我们注定要失败。认可机构将是一种新的生命形式,我们可能会灭绝。
以下是一些潜在的问题:
我认为AGI即将到来,我们需要注意这些问题,以便将它们最小化。
除了其他答案,我还要添加nuking cookie工厂示例:
机器学习AI基本上试图实现人类描述的目标。例如,人类创建了一个运行cookie工厂的AI。他们实现的目标是出售尽可能多的Cookie,以获取最高的利润率。
现在,想象一下一个功能强大的AI。该AI会注意到,如果他对所有其他曲奇工厂进行核动,那么每个人都必须在他的工厂中购买曲奇,这会增加销售额并提高利润。
因此,此处的人为错误不会对在算法中使用暴力造成任何损失。这很容易被忽略,因为人们没想到算法会得出这个结论。
我最喜欢的AI伤害情景不是高智能,而是低智能。具体来说,灰色咕假设。
在这里,可以自动执行自我复制的流程,并将所有资源转换成其自身的副本。
这里的要点是,从具有高智能或通用智能的意义上讲,AI并不是“智能”的,它只擅长于一件事情,并且具有指数复制的能力。
我要说的最大的真正威胁是我们已经看到的不平衡/破坏。使90%的国家失业的变化是真实的,而结果(如果您想透了,结果将会更加可怕)。
我有一个例子,它与公众的恐惧有点相反,但是这是非常真实的事情,我已经看到了。它不是特定于AI的,但是我认为通过AI它将变得更糟。这是人类在关键应用中盲目地相信AI结论的问题。
我们应该在许多领域做出人类专家的决定。以药物为例-我们应该给药物X还是药物Y?我想到的情况经常是复杂的问题(从Cynefin的意义上来说),让某人密切关注并使用大量专业知识是一件非常好的事情,而结果确实很重要。
需要医学信息学家为医学中的此类问题编写决策支持系统(我想在其他领域也要使用相同的类型)。他们会尽力而为,但始终期望人类专家会在做出决定时始终将系统的建议视为另一种意见。在许多情况下,考虑到知识水平和开发人员可用的资源,对其他任何承诺都将是不负责任的。一个典型的例子是在放射学中使用计算机视觉:患者进行CT扫描,而AI必须处理图像并确定患者是否患有肿瘤。
当然,人工智能不是完美的。即使按照黄金标准进行测量,也永远无法达到100%的精度。然后,在所有情况下,它相对于自己的目标指标都表现良好,但是问题是如此复杂,以至于目标指标无法很好地捕获它-我想不出CT上下文中的示例,但我想我们甚至在SE上也看到了这种情况,因为算法支持帖子的受欢迎程度,而事实正确性是不完美的代理。
您可能正在阅读最后一段并点头说:“是的,我在我参加的第一门入门级ML课程中了解到这一点。” 你猜怎么了?医师从未参加过入门级的ML课程。他们很少具有足够的统计素养,无法理解医学期刊上发表的论文的结论。当他们与第27位患者交谈时,他们在16小时轮班中有7个小时饿了,精神不振,CT看上去并没有那么清晰,但是计算机说“这不是恶性肿瘤”,他们没有再花十分钟专注于图像,或者查找教科书,或咨询同事。他们只是按照计算机所说的去做,很感激他们的认知能力没有再次暴涨。因此,他们从成为专家变成了从屏幕上阅读内容的人。更差,在某些医院中,主管部门不仅信任计算机,还发现它们是方便的替罪羊。因此,医生的直觉很不好,这与计算机的输出背道而驰,他们很难采取这种直觉并为自己辩护,因为他们选择了推翻AI的观点。
人工智能是功能强大且有用的工具,但是总有一些任务无法替代工具狂人。
这仅是对其他答案的补充,因此,我不会讨论AI试图自愿奴役人类的可能性。
但是这里已经存在另一种风险。我将其称为非熟练技术。我曾受过科学和技术方面的教育,恕我直言,人工智能本身没有善恶观念,也没有自由观念。但是它是人类构建和使用的,因为它可能涉及非理性行为。
我将从一个现实生活的例子开始,这个例子与通用IT而不是与AI有关。我将谈论病毒或其他恶意软件。计算机是相当愚蠢的机器,可以快速处理数据。因此,大多数人都依赖它们。一些(不良)人会开发恶意软件,这些恶意软件会破坏计算机的正确行为。我们都知道,它们会对没有做好充分准备以应对计算机丢失的中小型组织产生可怕的影响。
AI是基于计算机的,因此容易受到计算机类型的攻击。在这里,我的示例将是AI驱动的汽车。该技术几乎已准备就绪。但是,请想象一下恶意软件的影响,使汽车试图攻击道路上的其他人。即使没有直接访问AI的代码,它也可能受到旁通道的攻击。例如,它使用摄像头读取信号标志。但是由于机器学习的实现方式,人工智能通常不会像人类那样分析场景。研究人员已经表明,可以以一种正常的人仍然可以看到原始标志的方式来更改标志,而AI可以看到一个不同的标志。现在想象一下这个标志是道路优先标志。
我的意思是,即使AI没有邪恶意图,坏人也可以尝试使其行为不佳。而将更重要的行动委托给人工智能(医学,汽车,飞机,而不是炸弹),则风险越高。换句话说,我并不是真的为自己担心AI,而是为人类可以使用它的方式担心。
我认为最现实的风险(即与当前,现有的AI相关)之一是盲目依赖无监督的AI,这有两个原因。
AI系统中的物理错误可能会在未经测试的区域中开始产生严重错误的结果,因为物理系统开始提供错误的值。有时可以通过自我测试和冗余来兑现,但仍需要偶尔的人工监督。
自学习型AI也存在软件缺陷-它们的权重网络或统计表示可能会接近局部最小值,从而导致错误结果。
幸运的是,这经常被讨论,但是值得一提:由于训练/测试数据集也有偏差,因此AI系统的输入分类经常有偏差。对于更明显的例子,这导致AI无法识别某些种族的人。但是,很少有明显的情况只有在发生严重事故后才能发现,例如AI无法识别某些数据并在工厂中意外起火,损坏设备或伤害人员。
如果机器人类似于人机界面,则该设备就像遥控汽车一样。可以与操纵杆后面的操作员进行讨论,并就一厢情愿的行为进行协商。远程控制机器人是安全的发明,因为它们的行为可以追溯到人类,并且可以预见其动力。它们可以用来改善日常生活,和他们一起玩很有趣。
相比之下,某些机器人不是由操纵杆控制的,而是与内部骰子生成器一起工作的。骰子玩具因其在赌博中的社会作用而闻名,但它也具有神秘的意义。通常,随机生成器与混沌行为密切相关,混沌行为受人类影响之外的黑暗力量控制。内置在机器人中并通过学习算法进行了改进的电子骰子与人机界面相反,但它是潜在的麻烦制造者,因为随机控制的机器人将与无法预期的人玩游戏。无法预测下一个骰子的数量,因此机器人也会表现得突然。
以下句子解释了随机控制游戏与负面社会影响之间的联系。
语录:“在许多传统的非西方社会,赌徒可能会向神祈祷以求成功,并用神圣的意志来解释成败。“宾德,佩尔。“赌博和宗教:和解与冲突的历史。” 赌博问题杂志20(2007):145-165。
当前,人类存在于“思考的事物”的生态经济环境中。
人工智能也是一种思考的事物,因此它将入侵我们的生态经济环境。在生态学和经济学方面,让别的东西占据你的利基市场并不是持续生存的好计划。
人类生存受到这种损害的确切程度将是非常混乱的。人工智能可能会以一系列合理的方式危害人类作为一个物种甚至是占主导地位的生命形式的生存。
假设有一个强大的AI,没有“超道德”,它的生产要比人类便宜(包括制造“身体”或操纵世界的方式),并且比人类聪明或聪明。
在这种情况下,我们开始与该AI争夺资源。这将在微观经济规模上发生(我们是否雇用人员,或购买/建造/出租/雇用人工智能来解决此问题?)。根据AI变得比人便宜和/或变得更聪明的速度,这可能会缓慢发生(一次可能是一个行业)或发生得很快。
在资本主义竞争中,那些不转向更便宜的AI的竞争最终胜出。
现在,从短期来看,如果AI的优势仅是微不足道的,那么在人类生产前20多年的高昂教育成本可能会使该过程变慢。在这种情况下,可能需要向医生支付高于饥饿工资的费用来诊断疾病,而不是使用AI,但这可能不值得还清他们的学生贷款。因此,新的人类医生将迅速停止接受培训,而现有的医生将变得贫穷。然后在20到30年内,人工智能将完全取代Doctors进行诊断。
如果AI的优势很大,那么它将很快。医生甚至不值得为贫困水平的工资做人类诊断。当以汽油为基础的耕作接管时,您会看到类似的情况发生在以肌肉为基础的耕作中。
在过去的工业革命中,人类有能力思考的事实意味着您可以将多余的人类工人重新用于其他活动。生产线,服务性经济工作,计算机编程等。但是在这种模式下,人工智能在训练和构建上要便宜得多,并且在这种工作上比人类更聪明。
正如乙醇引发的阿拉伯之春所证明的那样,农作物和农田可以用来为机器和人类提供燃料。当机器将耕地变成有用的工作时效率更高时,您将开始看到粮食价格上涨。这通常会导致骚动,因为人们确实不喜欢挨饿致死,并愿意冒着生命危险推翻政府以防止这种情况发生。
您可以通过提供补贴食品等来安抚人们。只要这在经济上不致瘫痪(即,如果足够昂贵,它可能会导致您被其他不这样做的地方所击败),这在政治上只是不稳定的。
作为替代方案,在短期内,从越来越高效的AI经营经济中获得收益的所有权等级可以为警察或军事等级的人支付以平息上述骚乱。这就要求警察/军种在生活水平上处于中上层,以确保持续的忠诚度-您不希望他们加入暴徒。
因此,可以将AI引入的利润中心之一是基于AI的军事和警务。在处理视觉和其他数据源的基础上提供致命和非致命军械的无人机可以减少平息食品价格引发的骚乱或其他动荡所需的中产阶级警察/军事人员的数量。正如我们已经假设的那样,人工智能可以拥有比生物人类更便宜的身体和训练,这也可以增加每花费一美元可以部署的力量。
在这一点上,我们正在谈论一种主要由人工智能运行的警察和军方用于防止挨饿的人推翻人工智能运行的经济,并从目前正在更有效地利用生产中夺取生产资料。
在顶层“拥有”系统的残余人员正在做出本地理性的决策,以优化其财富和权力。它们可能会持久也可能不会持久;只要它们消耗相对少量的资源并且不搞乱AI运行的经济,就不会有太大的选择压力来摆脱它们。另一方面,由于他们没有贡献任何价值,因此他们在“最高层”的位置在政治上是不稳定的。
该过程假定了“强大”的通用AI。较窄的AI可以将其分解。例如,廉价,有效的诊断计算机可以在令人惊讶的短时间内使大多数医生陷入贫困。自动驾驶汽车可能吞没经济的5%-10%。信息技术已经以适度的AI吞噬了零售业。
据说,每一项技术进步都会为人类带来更多更好的工作。在过去的300多年中,这都是事实。
但是在1900年之前,每一项技术进步都为马匹带来了更多更好的工作,这也是事实。后来ICE和汽车赶到了,现在工作的马已经少得多了。其余的马基本上等同于人类的私人仆人:为了保持“哇,酷,马”的新颖性以及骑乘和控制大型动物的乐趣而保留。
很少有人意识到我们的全球经济应被视为人工智能:-货币交易是神经网络上的信号。神经网络中的节点将是不同的公司或私人付款或收款。-是人造的,因此符合人造的条件
这个神经网络比人类具有更好的任务:资本主义一直反对人类计划的经济(计划经济)。
这个神经网络危险吗?如果您是首席执行官,而在被公司废物污染的河流中赚钱的渔夫与渔夫相比,可能会有所不同。
这种AI如何变得危险?您可以回答,这是因为人类的贪婪。我们的创造反映了我们自己。换句话说:我们没有训练我们的神经网络表现良好。我们没有训练神经网络来改善所有人的生活质量,而是训练了神经网络,使富人更富裕。
训练这种AI不再危险很容易吗?也许不是,也许有些AI比生命还大。这只是适者生存。