人工智能如何危害我们?


50

我们经常听到人工智能可能伤害甚至杀死人类,因此可能被证明是危险的。

人工智能如何危害我们?


6
这有点宽泛,因为建议了许多原因和可能使AI变得危险的场景。例如,正如DuttaA上面建议的那样,人类可以设计决定目标的智能武器系统,这确实令人担忧,因为可能已经使用狭窄的AI。通过引用或链接您已阅读的特定问题(请使用edit),也许可以为您想要理解的特定恐惧提供更多背景信息。
尼尔·斯莱特

4
@NeilSlater是的,可能范围太广,但我认为这个答案ai.stackexchange.com/a/15462/2444提供了一些合理的原因。我编辑了问题,以消除可能错误的假设。
nbro

2
这个问题是专门针对“超级智能”还是AI?(例如,如果假设的超级智能,那么假设的“ 控制问题 ”就是一个问题。但是,当代的自动武器系统将不会是超级智能的,自动驾驶汽车也不会是智能的,它们会伤害人类。)
周公克

@DukeZhou OP最初并没有明确提及超级智能,但我想他指的是任何可以被视为AI的事物,包括SI。
nbro

3
首先请问正常的智力会如何伤害您?答案是一样的。
J ...

Answers:


46

tl; dr

有许多有效的原因,人们可能担心(或更好的被关注)AI,不是所有涉及机器人和世界末日的场景。

为了更好地说明这些问题,我将尝试将它们分为三类。

有意识的AI

这是您的问题所指的AI类型。一种超智能的有意识的AI,将摧毁/奴役人类。这主要是由科幻小说带给我们的。好莱坞的一些著名例子是《终结者》《黑客帝国》《奥创时代》。最具影响力的小说由艾萨克·阿西莫夫(Isaac Asimov)撰写,被称为“机器人系列”(其中包括“我,机器人”,也被改编成电影)。

这些大多数作品的基本前提是,人工智能将发展到有意识并超越人类的智力水平。尽管好莱坞电影主要关注机器人以及它们与人类之间的战斗,但对实际的AI(即控制它们的“大脑”)的关注却不够。作为旁注,由于叙述的缘故,通常将此AI描述为控制一切的超级计算机(以便主角有特定的目标)。关于“歧义情报”(我认为是更现实的)的研究还不够。

在现实世界中,AI专注于解决特定任务!能够解决来自不同领域(例如,理解语音和处理图像以及像人类一样的驾驶和……)问题的AI代理被称为通用人工智能,是AI能够“思考”并成为意识。

实际上,我们与通用人工智能相距甚远!话虽这么说,没有证据表明为什么将来无法实现这一目标。因此,目前,即使我们仍处于AI的起步阶段,我们也没有理由相信AI不会发展到比人类更智能的地步。

恶意使用AI

尽管要征服世界的AI距离实现还有很长的路要走,但是今天许多与AI有关的原因却与机器人无关!我想重点关注的第二类是当今AI的几种恶意使用。

我将只关注当今可用的AI应用程序。可以用于恶意意图的AI的一些示例:

  • DeepFake:一种将某人的脸置于另一人的视频上的技术。最近,这种方式在名人色情片中变得越来越流行,可用于生成假新闻和恶作剧。来源:123

  • 通过使用能够每秒识别数百万张面孔大规模监视系统面部识别软件,AI可以用于大规模监视。即使我们想到大规模监视,也想到了中国,但伦敦亚特兰大和柏林等许多西方城市还是世界上受监视最多的城市之一。中国采取了社会信用制度,这是对平民的一种评估制度,这在乔治·奥威尔(George Orwell)1984年的著作中直接被采用了,这使中国迈出了一步。

  • 通过社交媒体影响人们。除了以目标营销和增加展示位置(许多互联网公司的惯例)为目标来识别用户的喜好外,AI还可用于恶意影响人们的投票(除其他外)。来源:123

  • 骇客

  • 军事应用,例如无人机攻击,导弹瞄准系统。

人工智能的不良影响

这个类别是相当主观的,但是AI的发展可能会带来一些不利的副作用。此类别与先前类别之间的区别在于,这些影响虽然有害,但并非故意造成的;而是随着AI的发展而出现。一些例子是:

  • 工作变得多余。随着AI变得更好,许多工作将被AI取代。不幸的是,由于大多数技术发展都有这种副作用,因此没有太多的事情可以做(例如,农业机械导致许多农民失业,自动化取代了许多工厂工人,计算机也做了同样的事情)。

  • 加强我们数据中偏见。这是一个非常有趣的类别,因为AI(尤其是神经网络)的性能仅与它们所接受的数据一样好,并且倾向于永久甚至增强数据中已经存在的各种形式的社会偏见。网络中有许多表现出种族主义和性别歧视行为的例子。来源:1234


4
我不明白为什么“工作变得多余”是一个严重的问题。如果没有人(或至少绝大多数人)不需要工作,而可以专注于自己的爱好和享受生活,那么世界将会多么美丽。
kukis

4
@kukis,除非您已经有钱,否则如何在没有工作的情况下获得食物,房屋等?工作对大多数人来说意味着生存。
nbro

6
关于工作变得多余,似乎我们可以做些什么,即改进我们的经济模式,以不依赖于人类有工作。我的意思是,如果我们的经济体系因充斥大量廉价劳动力而崩溃,那么它们显然是有缺陷的。考虑到我们预计该缺陷在可预见的将来会变得危险,因此应予以修复。
纳特

2
人工智能可能导致重大问题的另一个例子是股票交易。如今,绝大多数股票交易都是通过竞争日益激烈的AI来完成的,AI的反应速度远快于人类交易者。但是到了临界点,甚至连写它们的人也不一定理解这些AI做出他们做出决定的原因,而且股票预测算法的错误对市场造成了灾难性的影响。
Darrel Hoffman

8
@penelope并不是AI试图取代的每一项工作都是“低兴趣”。我认为有很多高需求的工作可以在不久的将来被取代。一些例子是医生,商人和飞行员。如果AI不断进步并在诊断疾病方面不断进步,那么认为医生的工作将被削减将是不合理的。
Djib2011

14

短期

  • 人身事故,例如由于工业机械,飞机自动驾驶仪,自动驾驶汽车引起的事故。特别是在极端天气或传感器故障等异常情况下。通常,在未经广泛测试的条件下,AI的功能将很差。
  • 社会影响,例如减少工作机会,弱势群体的障碍。贷款,保险,假释。
  • 推荐引擎正在越来越多地操纵我们以改变我们的行为(以及加强我们自己的“小世界”泡沫)。推荐引擎通常会为幼儿提供各种不合适的内容,这通常是因为内容创建者(例如YouTube)使用正确的关键字填充来表现出对儿童友好的作用。
  • 政治操纵...我想足够了。
  • 侵犯隐私的合理理由。既然AI可以读取您的电子邮件甚至为您打个电话,那么很容易有人就让人们对您的个人信息采取行动,并声称他们拥有一台计算机来做到这一点。
  • 将战争转变为电子游戏,也就是说,将士兵替换为没有危险并远离伤亡人员的远程操作机器。
  • 缺乏透明度。我们相信使用机器做出决策的机器很少会获得决策依据。
  • 资源消耗和污染。这不仅是一个AI问题,而且AI的每一项改进都对大数据产生了更多的需求,并且这些对RAM的需求增加了对存储,处理和网络的需求。除了电力和稀有矿物质的消耗外,还需要在使用期数年后对其进行处置。
  • 监视 -随着智能手机和收听设备的普及,存在着金矿的宝藏,但是每一个细节都筛选不清。当然,请使用AI进行筛选!
  • 网络安全 -网络犯罪分子越来越多地利用AI攻击目标。

我是否提到所有这些都已经全面展开了?

长期

尽管AI和AGI之间没有明确的界限,但本节将更多地介绍当我们进一步走向AGI时会发生什么。我看到两种选择:

  • 由于我们对情报的本质有了更深入的了解,因此我们开发了AGI,
  • 或我们将似乎有用的东西放在一起,但我们不太了解,就像现在很多机器学习一样。

在第一种情况下,如果某个AI“流氓”,我们可以构建其他AI来胜过并抵消它。在第二种情况下,我们不能,我们注定要失败。认可机构将是一种新的生命形式,我们可能会灭绝。

以下是一些潜在的问题:

  • 复制和粘贴。AGI的一个问题是,可以想象它可以在台式计算机上运行,​​这会带来许多问题:
    • 脚本小子 -人们可以以破坏性的方式下载AI并设置参数。相关地,
    • 犯罪或恐怖组织将能够根据自己的喜好配置AI。如果您可以下载AI,告诉它进行一些研究然后为您提供分步说明,则无需寻找炸弹制造或生物武器方面的专家。
    • 自我复制的AI-有很多与此有关的计算机游戏。AI会破裂并像病毒一样传播。处理能力越强,越能自我保护并进一步传播。
  • 入侵计算资源。可能更多的计算能力对AI有利。AI可能会购买或窃取服务器资源或台式机和移动设备的资源。极端地说,这可能意味着我们所有的设备都变得无法使用,这将立即对.world造成破坏。这也可能意味着大量的电力消耗(由于发电厂是由计算机控制的,因此很难“拔掉插头”!)
  • 自动化工厂。希望在世界范围内获得更多实体存在的AGI可以接管工厂生产机器人,这些机器人可以建造新工厂并从根本上为自己制造尸体。
  • 这些只是哲学上的考虑,但有些人认为AI会摧毁使我们成为人类的东西:
    • 自卑。如果许多AI实体比最优秀的人更聪明,更快,更可靠和更有创造力,该怎么办?
    • 毫无意义。随着机器人取代了体力劳动的需要,而人工智能取代了智力劳动的需要,我们真的将无事可做。没有人会再次获得诺贝尔奖,因为人工智能已经领先。为什么还要首先受教育?
    • 单一文化/停滞不前 -在各种情况下(例如单个“仁慈独裁者” AGI),社会可能会永久地固定下来,而没有新思想或任何形式的变化(虽然可能是令人愉快的)。基本上,就是《勇敢的新世界》。

我认为AGI即将到来,我们需要注意这些问题,以便将它们最小化。


1
我认为,能够对工厂进行重新编程以自行构建机器人的那种人工智能还有很长的路要走。现代的“ AI”真的是非常复杂的模式识别。
user253751

我说了“长期”和“ AGI”。根据定义,AGI远远超出了复杂的模式识别范围。尽管“复杂的模式识别”已成为现实应用中最常用的东西,但在其他方向(特别是问题分解/行动计划)上已经有大量工作要做,而IMO是这类情况的关键。 )
Artelius

8

除了其他答案,我还要添加nuking cookie工厂示例:

机器学习AI基本上试图实现人类描述的目标。例如,人类创建了一个运行cookie工厂的AI。他们实现的目标是出售尽可能多的Cookie,以获取最高的利润率。

现在,想象一下一个功能强大的AI。该AI会注意到,如果他对所有其他曲奇工厂进行核动,那么每个人都必须在他的工厂中购买曲奇,这会增加销售额并提高利润。

因此,此处的人为错误不会对在算法中使用暴力造成任何损失。这很容易被忽略,因为人们没想到算法会得出这个结论。


8
这让我想起了一个真实的示例,我曾经在reddit上看到有人正在训练AI在Unity中爬楼梯。它发现它可以用很大的力将自己压入地面,而物理学会产生毛刺,使其飞向空中并以最快的速度飞向山顶。
GammaGames

2
或者,更糟糕的是,它将决定人类是由原子制成的,而原子更适合用来制造饼干。
nick012000

我以前听过这种说法。预测AI世界末日的谬误之一是我们无法预测AI会做什么。人工智能完全有可能意识到,其他饼干公司可能会破坏全球经济,并破坏对饼干的任何潜在需求。经济规律,供求关系
Zakk Diaz

8

我最喜欢的AI伤害情景不是高智能,而是低智能。具体来说,灰色咕假设。

在这里,可以自动执行自我复制的流程,并将所有资源转换成其自身的副本。

这里的要点是,从具有高智能或通用智能的意义上讲,AI并不是“智能”的,它只擅长于一件事情,并且具有指数复制的能力。


3
FWIW,人类已经是灰色。我们是自私的灰色粘胶,不想被效率更高的灰色粘胶代替。
user253751

1
@immibis当然这是一个哲学观点,不是事实。有很多人会区分人类和自我复制/自我维持的机器。如果大多数人心中都有您的定义,那么僵尸电影将不会非常成功=)
斯蒂安·伊特维克

1
@immibis您是否已阅读该答案引用的Wikipedia上灰色黏性文章?该术语指的是非智能(纳米)机器无所适从,而不是任何智能行为。所以我要说,不,人类不是(人工智能也不是),因为我们在可能的时候没有吃过爱因斯坦。
kubanczyk

@kubanczyk“智力”一词的基本含义在学术界和普通公众中似乎都被误解了。智能是通常与(相对于其他决策机制)相对的频谱,并且基于问题中任何给定决策的效用。因此,灰色咕咕将是聪明的,只是情报将是有限而狭窄的。
周公克

5

我要说的最大的真正威胁是我们已经看到的不平衡/破坏。使90%的国家失业的变化是真实的,而结果(如果您想透了,结果将会更加可怕)。


2
人们在工业革命期间说了同样的话,这使大多数农业工作变得多余。虽然您可能没有记错,但我个人对此感到担心,但是研究趋势的研究表明这可能不是问题,而且很可能会打开新工作。
Programmdude

@Programmdude-我认为,工业革命的变化与通过P的出现甚至在未来数十年内将通过消除P消除秘书工作之间存在根本差异。
Mayo

2
@Programmdude人民是正确的。工业革命确实改变了人们生活方式的一切,在财富分配和人们依靠农业收入生存的能力方面具有极大的破坏性。从另一个角度来看:从未来几百年回望的奴隶主可能不会认为AI在这段时期的影响具有破坏性,因为它形成了他们的处境。
比尔K

@BillK我一直和你在一起,直到有关奴隶主的部分为止。您知道AI不是自我意识的,对不对?

@Ray我不是指AI,而是指控制AI的人(因此将拥有全部财富),实际上,这仅仅是指出事情可能与我们截然不同的一种方式,但事实并非如此。感觉不一样。
Bill K

5

我有一个例子,它与公众的恐惧有点相反,但是这是非常真实的事情,我已经看到了。它不是特定于AI的,但是我认为通过AI它将变得更糟。这是人类在关键应用中盲目地相信AI结论的问题。

我们应该在许多领域做出人类专家的决定。以药物为例-我们应该给药物X还是药物Y?我想到的情况经常是复杂的问题(从Cynefin的意义上来说),让某人密切关注并使用大量专业知识是一件非常好的事情,而结果确实很重要。

需要医学信息学家为医学中的此类问题编写决策支持系统(我想在其他领域也要使用相同的类型)。他们会尽力而为,但始终期望人类专家会在做出决定时始终将系统的建议视为另一种意见。在许多情况下,考虑到知识水平和开发人员可用的资源,对其他任何承诺都将是不负责任的。一个典型的例子是在放射学中使用计算机视觉:患者进行CT扫描,而AI必须处理图像并确定患者是否患有肿瘤。

当然,人工智能不是完美的。即使按照黄金标准进行测量,也永远无法达到100%的精度。然后,在所有情况下,它相对于自己的目标指标都表现良好,但是问题是如此复杂,以至于目标指标无法很好地捕获它-我想不出CT上下文中的示例,但我想我们甚至在SE上也看到了这种情况,因为算法支持帖子的受欢迎程度,而事实正确性是不完美的代理。

您可能正在阅读最后一段并点头说:“是的,我在我参加的第一门入门级ML课程中了解到这一点。” 你猜怎么了?医师从未参加过入门级的ML课程。他们很少具有足够的统计素养,无法理解医学期刊上发表的论文的结论。当他们与第27位患者交谈时,他们在16小时轮班中有7个小时饿了,精神不振,CT看上去并没有那么清晰,但是计算机说“这不是恶性肿瘤”,他们没有再花十分钟专注于图像,或者查找教科书,或咨询同事。他们只是按照计算机所说的去做,很感激他们的认知能力没有再次暴涨。因此,他们从成为专家变成了从屏幕上阅读内容的人。更差,在某些医院中,主管部门不仅信任计算机,还发现它们是方便的替罪羊。因此,医生的直觉很不好,这与计算机的输出背道而驰,他们很难采取这种直觉并为自己辩护,因为他们选择了推翻AI的观点。

人工智能是功能强大且有用的工具,但是总有一些任务无法替代工具狂人。


如果您正在寻找更多示例,那么围绕使用机器学习来预测保释或假释申请人的再犯罪率的争议就是一个很好的选择。我同意,除了他们的医学和法律专业知识,我们不应该期望医生和法官拥有理解人工智能所需的统计专业知识水平。AI设计人员应意识到其算法的易失性,并向其用户提供明确的指导。也许告诉医生在哪里进行CT扫描,而不是直接给他们结果。
craq

4

这仅是对其他答案的补充,因此,我不会讨论AI试图自愿奴役人类的可能性。

但是这里已经存在另一种风险。我将其称为非熟练技术。我曾受过科学和技术方面的教育,恕我直言,人工智能本身没有善恶观念,也没有自由观念。但是它是人类构建和使用的,因为它可能涉及非理性行为。

我将从一个现实生活的例子开始,这个例子与通用IT而不是与AI有关。我将谈论病毒或其他恶意软件。计算机是相当愚蠢的机器,可以快速处理数据。因此,大多数人都依赖它们。一些(不良)人会开发恶意软件,这些恶意软件会破坏计算机的正确行为。我们都知道,它们会对没有做好充分准备以应对计算机丢失的中小型组织产生可怕的影响。

AI是基于计算机的,因此容易受到计算机类型的攻击。在这里,我的示例将是AI驱动的汽车。该技术几乎已准备就绪。但是,请想象一下恶意软件的影响,使汽车试图攻击道路上的其他人。即使没有直接访问AI的代码,它也可能受到旁通道的攻击。例如,它使用摄像头读取信号标志。但是由于机器学习的实现方式,人工智能通常不会像人类那样分析场景。研究人员已经表明,可以以一种正常的人仍然可以看到原始标志的方式来更改标志,而AI可以看到一个不同的标志。现在想象一下这个标志是道路优先标志。

我的意思是,即使AI没有邪恶意图,坏人也可以尝试使其行为不佳。而将更重要的行动委托给人工智能(医学,汽车,飞机,而不是炸弹),则风险越高。换句话说,我并不是真的为自己担心AI,而是为人类可以使用它的方式担心。


3

我认为最现实的风险(即与当前,现有的AI相关)之一是盲目依赖无监督的AI,这有两个原因。

1. AI系统可能会降级

AI系统中的物理错误可能会在未经测试的区域中开始产生严重错误的结果,因为物理系统开始提供错误的值。有时可以通过自我测试和冗余来兑现,但仍需要偶尔的人工监督。

自学习型AI也存在软件缺陷-它们的权重网络或统计表示可能会接近局部最小值,从而导致错误结果。

2.人工智能系统存在偏见

幸运的是,这经常被讨论,但是值得一提:由于训练/测试数据集也有偏差,因此AI系统的输入分类经常有偏差。对于更明显的例子,这导致AI无法识别某些种族的人。但是,很少有明显的情况只有在发生严重事故后才能发现,例如AI无法识别某些数据并在工厂中意外起火,损坏设备或伤害人员。


这是一个很好的当代答案。诸如神经网络之类的“黑匣子” AI不可能以绝对的方式进行测试,这使得它们不到100%的可预测性-进而,不到100%的可靠性。我们永远不知道人工智能何时会针对给定问题制定替代策略,以及该替代策略将如何影响我们,如果我们想依靠人工智能来完成诸如驾驶汽车或管理资源之类的重要任务,这将是一个巨大的问题。
laancelot

1

如果机器人类似于人机界面,则该设备就像遥控汽车一样。可以与操纵杆后面的操作员进行讨论,并就一厢情愿的行为进行协商。远程控制机器人是安全的发明,因为它们的行为可以追溯到人类,并且可以预见其动力。它们可以用来改善日常生活,和他们一起玩很有趣。

相比之下,某些机器人不是由操纵杆控制的,而是与内部骰子生成器一起工作的。骰子玩具因其在赌博中的社会作用而闻名,但它也具有神秘的意义。通常,随机生成器与混沌行为密切相关,混沌行为受人类影响之外的黑暗力量控制。内置在机器人中并通过学习算法进行了改进的电子骰子与人机界面相反,但它是潜在的麻烦制造者,因为随机控制的机器人将与无法预期的人玩游戏。无法预测下一个骰子的数量,因此机器人也会表现得突然。

以下句子解释了随机控制游戏与负面社会影响之间的联系。

语录:“在许多传统的非西方社会,赌徒可能会向神祈祷以求成功,并用神圣的意志来解释成败。“宾德,佩尔。“赌博和宗教:和解与冲突的历史。” 赌博问题杂志20(2007):145-165。


1

当前,人类存在于“思考的事物”的生态经济环境中。

人工智能也是一种思考的事物,因此它将入侵我们的生态经济环境。在生态学和经济学方面,让别的东西占据你的利基市场并不是持续生存的好计划。

人类生存受到这种损害的确切程度将是非常混乱的。人工智能可能会以一系列合理的方式危害人类作为一个物种甚至是占主导地位的生命形式的生存。


假设有一个强大的AI,没有“超道德”,它的生产要比人类便宜(包括制造“身体”或操纵世界的方式),并且比人类聪明或聪明。

在这种情况下,我们开始与该AI争夺资源。这将在微观经济规模上发生(我们是否雇用人员,或购买/建造/出租/雇用人工智能来解决此问题?)。根据AI变得比人便宜和/或变得更聪明的速度,这可能会缓慢发生(一次可能是一个行业)或发生得很快。

在资本主义竞争中,那些不转向更便宜的AI的竞争最终胜出。

现在,从短期来看,如果AI的优势仅是微不足道的,那么在人类生产前20多年的高昂教育成本可能会使该过程变慢。在这种情况下,可能需要向医生支付高于饥饿工资的费用来诊断疾病,而不是使用AI,但这可能不值得还清他们的学生贷款。因此,新的人类医生将迅速停止接受培训,而现有的医生将变得贫穷。然后在20到30年内,人工智能将完全取代Doctors进行诊断。

如果AI的优势很大,那么它将很快。医生甚至不值得为贫困水平的工资做人类诊断。当以汽油为基础的耕作接管时,您会看到类似的情况发生在以肌肉为基础的耕作中。

在过去的工业革命中,人类有能力思考的事实意味着您可以将多余的人类工人重新用于其他活动。生产线,服务性经济工作,计算机编程等。但是在这种模式下,人工智能在训练和构建上要便宜得多,并且在这种工作上比人类更聪明。

正如乙醇引发的阿拉伯之春所证明的那样,农作物和农田可以用来为机器和人类提供燃料。当机器将耕地变成有用的工作时效率更高时,您将开始看到粮食价格上涨。这通常会导致骚动,因为人们确实不喜欢挨饿致死,并愿意冒着生命危险推翻政府以防止这种情况发生。

您可以通过提供补贴食品等来安抚人们。只要这在经济上不致瘫痪(即,如果足够昂贵,它可能会导致您被其他不这样做的地方所击败),这在政治上只是不稳定的。

作为替代方案,在短期内,从越来越高效的AI经营经济中获得收益的所有权等级可以为警察或军事等级的人支付以平息上述骚乱。这就要求警察/军种在生活水平上处于中上层,以确保持续的忠诚度-您不希望他们加入暴徒。

因此,可以将AI引入的利润中心之一是基于AI的军事和警务。在处理视觉和其他数据源的基础上提供致命和非致命军械的无人机可以减少平息食品价格引发的骚乱或其他动荡所需的中产阶级警察/军事人员的数量。正如我们已经假设的那样,人工智能可以拥有比生物人类更便宜的身体和训练,这也可以增加每花费一美元可以部署的力量。

在这一点上,我们正在谈论一种主要由人工智能运行的警察和军方用于防止挨饿的人推翻人工智能运行的经济,并从目前正在更有效地利用生产中夺取生产资料。

在顶层“拥有”系统的残余人员正在做出本地理性的决策,以优化其财富和权力。它们可能会持久也可能不会持久;只要它们消耗相对少量的资源并且不搞乱AI运行的经济,就不会有太大的选择压力来摆脱它们。另一方面,由于他们没有贡献任何价值,因此他们在“最高层”的位置在政治上是不稳定的。

该过程假定了“强大”的通用AI。较窄的AI可以将其分解。例如,廉价,有效的诊断计算机可以在令人惊讶的短时间内使大多数医生陷入贫困。自动驾驶汽车可能吞没经济的5%-10%。信息技术已经以适度的AI吞噬了零售业。

据说,每一项技术进步都会为人类带来更多更好的工作。在过去的300多年中,这都是事实。

但是在1900年之前,每一项技术进步都为马匹带来了更多更好的工作,这也是事实。后来ICE和汽车赶到了,现在工作的马已经少得多了。其余的马基本上等同于人类的私人仆人:为了保持“哇,酷,马”的新颖性以及骑乘和控制大型动物的乐趣而保留。


1

除了已经提供的许多答案之外,我还将提出图像模型领域的对抗性示例问题。

对抗性示例是已被专门设计的噪声干扰的图像,人类观察者通常不会察觉到这些噪声,但会极大地改变模型的预测。

示例包括:


0

用于解决现实世界问题的AI可能会对人类构成风险,并且并不完全需要感知力,这也需要一定程度的人类愚蠢。

与人类不同,人工智能将在没有情感,道德甚至贪婪约束的情况下找到最合乎逻辑的答案。询问这个AI如何解决人类造成的问题(例如,气候变化),其解决方案可能是消除整个人类以保护地球。显然,这将需要赋予AI根据其结果采取行动的能力,这将我带到了我的早期观点,即人类的愚蠢。


0

人工智能可能以任何自然情报方式(人类)损害我们。当人类开始更加亲密地自我增强时,自然与人工智能之间的区别将消失。智慧可能不再是身份的特征,而将成为无限的财产。所造成的危害将是人类维护其不断发展的自我认同所能承受的最大损失。


0

很少有人意识到我们的全球经济应被视为人工智能:-货币交易是神经网络上的信号。神经网络中的节点将是不同的公司或私人付款或收款。-是人造的,因此符合人造的条件

这个神经网络比人类具有更好的任务:资本主义一直反对人类计划的经济(计划经济)。

这个神经网络危险吗?如果您是首席执行官,而在被公司废物污染的河流中赚钱的渔夫与渔夫相比,可能会有所不同。

这种AI如何变得危险?您可以回答,这是因为人类的贪婪。我们的创造反映了我们自己。换句话说:我们没有训练我们的神经网络表现良好。我们没有训练神经网络来改善所有人的生活质量,而是训练了神经网络,使富人更富裕。

训练这种AI不再危险很容易吗?也许不是,也许有些AI比生命还大。这只是适者生存。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.