为什么我们需要可解释的AI?


56

如果开发AI的最初目的是在某些任务中帮助人类,而这个目的仍然存在,那么我们为什么要关心它的可解释性呢?例如,在深度学习中,只要智能帮助我们最大限度地发挥他们的能力并仔细做出决策,我们为什么需要知道其智能如何工作?


15
当AI 无法给您很好的答案时,会发生什么?您如何发现问题?如果您不了解原因,如何验证解决方案?您如何确定我们不会全部变成回形针?:)
六安

8
因为我怀疑它不符合标准,所以不将其发布为答案,而是假设我们问一个AI如何解决气候问题,并且它说“污染了海洋”。也许是对的,并且有一些人为的方法可以解决问题。也许开发人员犯了一个错误,实际的输出应该是“无污染的海洋”。如果不通过AI的推理,您打算如何区分两者?
平坦

5
除了对抗性技术存在的常识之外,是否真的需要这个问题的答案?现在,可以对输入数据进行细微调整,从而在输出中产生不成比例的巨大变化。在诸如对象的视觉识别之类的任务中,可以轻松地根据真实情报检查结果,结果似乎是荒谬而疯狂的,并且表明AI所“看到”的东西与我们所看到的截然不同。如果AI无法在这种情况下解释自己,那么其实用性就会急剧下降。
梅森惠勒

1
尽管您的问题是基于对可解释的AI的需求,但我也想提出一个挑战这一观点的读物-我认为那里有很多要点。除其他事项外,一个需要可解释性的原因可能与我们人类对我们周围的系统进行解释的需求有关,然后与我们对我们了解的系统的更高信任有关,即使这些系统的表现不如我们不了解的其他系统也是如此。希望它增加了一些反射材料- hackernoon.com/...
Elisio昆泰诺

2
可能是一个有趣的额外资源。人们试图建立一个Husky vs Wolf分类器,然后意识到网络不是只关注动物,而是关注背景,因为背景中所有带有雪的图像都是狼。换句话说,如果您检测到汽车,则需要确保这是由于图像中的汽车,而不是由于图像侧面的停车标志。
jaaq

Answers:


64

正如Selvaraju等人所述。,人工智能发展分为三个阶段,在所有这些阶段,可解释性是有帮助的。

  1. 在AI开发的早期阶段,当AI的性能不及人类表现时,透明度可以帮助我们建立更好的模型。它可以更好地理解模型的工作方式,并帮助我们回答几个关键问题。例如,为什么某个模型在某些情况下起作用而在其他情况下则不起作用,为什么某些示例比其他示例更使模型感到困惑,为什么这些类型的模型起作用而其他模型则不起作用,等等。

  2. 当AI与人类绩效相称并且ML模型开始在多个行业中部署时,它可以帮助建立对这些模型的信任。稍后我会详细说明,因为我认为这是最重要的原因。

  3. 当AI的性能大大胜于人类时(例如,下棋或围棋的AI),它可以帮助进行机器教学(即从机器中学习如何在特定任务上提高人类绩效)。

为什么信任如此重要?

首先,让我给您几个信任最重要的行业示例:

  • 在医疗保健中,想象一个深度神经网络对特定疾病进行诊断。经典的黑匣子 NN只会输出二进制“是”或“否”。即使它在绝对可预测性方面胜过人类,在实践中也完全没有用。如果医生不同意模型的评估该怎么办,他不应该知道为什么模型做出了这种预测吗?也许它看到医生错过的东西。此外,如果它误诊了(例如,将一个病人分类为健康人,并且没有得到适当的治疗),谁来承担责任:模型的使用者?医院吗 设计模型的公司?围绕此的法律框架有点模糊。

  • 另一个例子是自动驾驶汽车。出现同样的问题:如果汽车撞车是谁的过错:驾驶员的过错?汽车制造商的?设计AI的公司?法律责任制,是这个行业发展的关键。

事实上,这种缺乏信任的,已按许多阻碍了通过在许多领域(来源:AI的123)。虽然是一个运行假设,即与更透明,可解释或可解释的系统的用户将被更好地理解,并且因此信任的智能代理(来源:123)。

在几个实际的应用程序中,您不能仅仅说“它在94%的时间内都有效”。您可能还需要提供理由...

政府规章

几个国家的政府正在缓慢地规范人工智能,而透明度似乎是所有这一切的核心。

第一在这个方向移动是欧盟,已设置几个准则,他们指出,AI应该是透明的(来源:123)。例如,GDPR指出,如果某人的数据已受到“自动决策”或“配置文件”系统的约束,则他有权访问

“有关所涉及逻辑的有意义的信息”

欧盟GDPR第15条

现在,这有点模糊,但是显然有意图要求这些系统提供某种形式的可解释性。欧盟试图通过的总体思路是:“如果您拥有一个影响人们生活的自动化决策系统,那么他们有权知道为什么要做出某项决定。” 例如,一家银行有一个AI接受和拒绝贷款申请,那么申请者有权知道为什么他们的申请被拒绝。

总结一下...

可解释的AI是必要的,因为:

  • 它使我们有了更好的理解,从而有助于我们改进它们。
  • 在某些情况下,我们可以向AI学习如何在某些任务中做出更好的决策。
  • 它帮助用户信任 AI,从而导致AI的广泛采用。
  • 在不久的将来(不远的将来)部署的AI可能需要更加“透明”。

4
这就是问题所在(恕我直言)。通常,您无法穷尽地测试一个黑匣子,然后接受(甚至在对生命至关重要的应用程序中)“似乎足够好”的东西,在这种情况下,就是人的大脑,我们对此都非常满意。如果我们不能为AI做到这一点,那是因为我们的法规中的(限制?),而不是因为“要驾驶飞机,所有事情都必须在数学上得到证明”(即使现在没有AI也没有)。当然,测试 AI的方式不可能与测试飞行员相同(即使它们可以部分重合)。
阿德里亚诺·雷佩蒂

11
@ZsoltSzilagy我并不是说政府法规是一件坏事。我只是说,如果您在某些行业工作,它们是开发可解释性AI的重要原因。
Djib2011

8
要增加的另一点是风险集中。吸食毒品的狗可能会有偏见,你不能问它为什么做出某些决定。但这只是千只狗中的一只。单个AI模型将在全球范围内部署,因此,如果错误,它将产生更大的影响。
布伦丹·怀廷

19
@BrendanWhiting实际上这是一个有趣的案例。吸毒狗和吸毒AI有什么区别?为什么要求AI在狗没有必要的情况下给出解释...。我认为区别在于,在第一种情况下,狗只是一种帮助人类(在这种情况下为DEA警察)制造的工具。他的决定。他最终是对此负责的人,而不是狗。同样,决策支持的 AI 也没有问题,只有决策的 AI 。我认为,这就是在许多领域最终将绕过整个问责制的方式。
Djib2011

6
也许这也是未知数的问题。我们已经对动物进行了数千年的训练,我们对这种情况的稳定很有信心。如果要有成堆的掠夺性训练有素的动物占领整个世界,那么现在很可能会发生。(尽管我有点喜欢大多数狗都是寄生虫的理论,但它们已经变得如此可爱,以至于我们照顾它们而不是我们自己的幼犬)。
布伦丹·怀廷

15

为什么我们需要可解释的AI?...为什么我们需要知道“其情报是如何工作的?”

因为任何有权使用设备,足够的技能和足够的时间的人都可以迫使系统做出意外的决定。设备的所有者或第三方依赖该决定,而没有解释为什么它是正确的将是不利的。

示例-有人可能会发现:

  • 名为约翰·史密斯(John Smith)并在以下时间进行心脏外科手术的人:周二上午,周三下午或周五(奇数天和几个月),有90%的机会移到生产线的最前面。

  • 夫妻的姓氏在字母表的前半部分带有奇数个字母,并且与配偶一起申请贷款,而配偶的名字以字母表开头的字母开头,则如果他们有,信用记录中的不良记录少于5个。

  • 等等

请注意,以上示例不应作为确定所问问题的因素,但攻击者(可能拥有自己的设备或算法知识)可能会利用它。

资料来源

  • AdvHat:对ArcFace Face ID系统的真实世界攻击 ”(2019年8月23日),Stepan Komkov和Aleksandr Petiushko

    • 创建一个贴纸并将其放在您的帽子上会使面部识别系统变得愚蠢。
  • 通过弹性特征更新防御对抗攻击 ”(2019年6月8日),作者Tejas Borkar,Felix Heide和Lina Karam

    • “已经证明,深度神经网络(DNN)预测容易受到精心制作的对抗性扰动的影响。具体地说,所谓的通用对抗性扰动是与图像无关的扰动,可以将其添加到任何图像中,并且可以欺骗目标网络做出错误的预测与现有的在图像领域发挥作用的对抗性防御策略不同,我们提出了一种在DNN特征域中运行并有效防御这种普遍性对抗性攻击的新型防御,我们的方法是确定最容易受到对抗性攻击的预训练卷积特征噪声并部署防御单元,这些防御单元将这些DNN过滤器激活转换(重新生成)为具有弹性的功能,以防止看不见的对抗性干扰。”

  • 欺骗深度神经网络的一次像素攻击 ”(2019年5月3日),苏佳玮,Danilo Vasconcellos Vargas和Sakurai Kouichi

    • 更改一个像素会导致以下错误:

    图1
    图1.用所提出的算法创建的一像素攻击成功欺骗了在CIFAR-10数据集上训练的三种DNN:全卷积网络(AllConv),网络中的网络(NiN)和VGG。原始类别标签为黑色,而目标类别标签和相应的置信度在下面给出。

     

    图2
    图2.对ImageNet数据集的单像素攻击,其中修改后的像素用红色圆圈突出显示。原始类别标签为黑色,而目标类别标签及其对应的置信度如下所示。

如果没有关于如何以及为什么做出决定的解释,就不能绝对地依赖该决定。


1
我发现像素学习和其他类似事物的发现就是为什么深度学习没有学到任何东西的原因。
约书亚

1
@Joshua好吧,这不是人类学习中的学习(理解推理),但是它确实学习了可以将这些图像分类的多维功能。即使确实使用强力解决了最佳解决方案,它也独自做到了这一点,对于一捆金属和整齐排列的沙子以使电流有系统地流动来说,这是一个很大的期望。
user14492

1
对您的示例进行WRT,比如说向患有病的夫妇借钱,难道仅通过提供应关注的模型数据就可以减轻这种情况吗?就像永远不要将名称馈给AI一样,因为AI绝不应该基于请求者的姓名来进行确定。不过,我理解您的观点,对于AI实际需要的数据点,可能会有一些人为的例子。一像素攻击非常有趣
Cruncher

@Cruncher当一个人提出观点时,人为的例子总是更好,就像事后看来是20/20。上一次拒绝的贷款中是否既有素数(大于7)又有两个素数(介于17和43之间),又如何呢?然后您发现有人说他们将以X的价格出售某商品美元,申请贷款并尝试取消资格,这样做几次,现在为房屋或船舶申请贷款-机会增加30%,并且事先拒绝可以打折。如果没有解释原因,您将总是想做出自己的选择。
罗布

@Joshua好吧,他们当然可以学习如何找到一个像素攻击和类似的东西。(这里链接的论文使用了一种进化方法,但是使用GAN却得到了类似的结果。)没有一种分类方法是完美的。人类的视觉容易受到视错觉的影响。这是等效的机器。我们可以找到机器视觉系统的更多极端示例,因为它们可以比人类更快地做出和记录预测,因此我们可以有效地训练另一个系统来查找符合特定条件的故障状态。

8

如果您是银行,医院或任何其他使用预测分析来做出对人们的生活产生重大影响的行动的决策的实体,则不会仅仅因为Gradient Boosted树告诉您这样做就做出重要的决定。首先,因为它具有风险,并且潜在的模型可能是错误的,其次,因为在某些情况下它是非法的,请参见解释权


5

通常需要可解释的AI,因为

  1. AI(尤其是人工神经网络)可能会灾难性地无法完成其预期的工作。更具体地说,它可以通过对抗性例子被黑客入侵或攻击,也可以做出意想不到的错误决定,其后果是灾难性的(例如,它可能导致人员死亡)。例如,假设一个AI根据患者的病情负责确定需要给予患者的药物剂量。如果AI做出错误的预测并导致患者死亡怎么办?谁将负责这种行为?为了接受AI的剂量预测,医生需要信任人工智能,但信任只能来自理解,这需要做出解释。因此,为避免此类可能的故障,了解AI的内部工作原理至关重要,这样它才不会再次做出这些错误的决定。

  2. 人工智能通常需要与人类互动,人类是有情的人(我们有感觉),并且常常需要一种解释或保证(关于某些主题或事件)。

  3. 通常,人类经常在寻求对周围环境和世界的解释和理解。从本质上说,我们是好奇和探索的存在。苹果为什么掉下来?


4

答案非常简单。如果您有一天是一名银行高管,则可能需要在法庭上站起来,解释为什么您的AI拒绝向所有这些人抵押贷款……这些人恰好在反歧视立法中正享有某些受保护的特征。如果您不理会有关算法的问题,那么法官将不会感到高兴。或更糟糕的是,为什么这辆汽车/飞机坠毁,您下次如何防止它坠毁。

这是在许多行业中更广泛采用AI的主要障碍。


1
“答案”夸大了您的案件。如果您说“一个答案……”,我将表示敬意
约翰·科尔曼

3

另一个原因:将来,人工智能可能会用于人类无法理解的任务,通过了解给定的AI算法如何解决该问题,我们可能会了解给定现象的性质。


2

除了所有这些答案之外,我们还提到了为什么我们想要可解释的AI的更实际的原因,我还要添加一个更具哲学性的答案。

了解古代事物是如何工作的,这是古代科学的主要推动力之一。如果您不了解事情的运作方式,那么您将无法超越这一点。仅仅因为“重力起作用”并没有阻止我们试图了解重力的作用。反过来,对它的更好理解导致了几个关键发现,这些发现帮助我们提升了技术。

同样,如果我们停止“有效”,我们将停止对其进行改进。


编辑:

AI不仅要使“机器思考”,还要通过它们来了解人脑的工作方式。人工智能与神经科学并驾齐驱

如果无法解释AI,这一切都是不可能的。


0

不应假定AI的发展最初是出于帮助人类的愿望。有许多合理的解释同样难以证明或反证。

  • 众所周知,在别人做之前,先想出一些未来的想法
  • 在某些想象中的敌人或某些未来的潜在敌人之前获得力量
  • 因为这可能
  • 为了娱乐
  • 因为美国国防部可能会无限期地为其提供资金
  • 这是一个很好的职业举动
  • 证明人类的大脑没有什么特别神奇的东西
  • 我们被录用并得到了一些钱,这似乎是花钱的好方法
  • 决定去追求它,但是我们没人真正记得为什么

尽管可能很难找到更好的词来代替它们,但是这个问题中也存在一些定义不清的描述词。我们如何将这些形式化?

  • 发挥他们的最佳能力(智能系统)---我们将以什么方式评估能力并将结果与​​它们进行比较?我们对一个学生说:“您没有在运用自己”,但这几乎不是科学观察。这是一种基于对成就的预测而有些武断的判断,而根据第三方的等级制度以及其他易犯错误的当事人的应用,这些成就是无法实现的。
  • 谨慎地做出决定---谨慎意味着目标本身就是客观的。我们还没有记录过一个先进的计算平台,该平台对道德体系进行了编码,该道德体系适用于对情况的抽象认识,例如在道德人的情况下,照料可以获得任何现实意义。在特定条件下,nand门可靠地执行nand函数,或者证明某种算法可以在给定的数据集大小下收敛,这并不是我们谨慎时的全部含义。
  • 可解释的---这也是模棱两可的。在一个极端情况下,在人工网络收敛期间对一组参数值的收敛是一种解释,但是没有说明各个值。相反,关于假设,实验设计,一组条件的选择,分析,结果和结论的完整报告仍然不是详尽的解释。这样的报告可能仅包含不到1%的信息,这些信息描述了该报告概述的研究中的人工智能应用。

1990年代初期的AI期刊批评了人工网络的早期工作,因为无法根据可追踪性进行解释。生产(基于规则的)系统保留了已应用规则的审计线索以及先前规则的结果,以便有人可以收集结果的书面证明。这用途有限。

当从车辆上拆下方向盘,并且某些地区开始立法禁止人类驾驶时,这并不是因为已经写出了百万种情况下的安全证明。这是因为在足够令人信服的时间段内,由安装在特定车辆类型上的AI驾驶员导致的记录的意外死亡,肢解和财产损失的分布表明,其安全性优于人类驾驶员。最终,在某个法庭或立法小组中,有人会说这个或类似词。

如果我们在讨论中的区域未在这些指定条件下禁止人类驾驶,我们将判处每年X男女老少行人和乘客因过早死亡。

理解动作机制和针对特定案例做出的决定是有用的,但是为什么如此有用与人工智能为何成为可行的工作和研究领域一样不确定。

  • 以某种可量化的方式比较竞争性AI系统将很有趣。
  • 了解更多关于智力的知识将具有重大的学术价值。
  • 更好的解释可以使论文更好。
  • 我有一天在涂鸦,并找到了一种方法来解释一类似乎很难解释的系统。

尽管人工智能系统的不可审计性可能会在立法和司法事件中浮出水面,但许多决策将基于统计评估的发布和理解方式。那些坚持以一种可以解释的方式运作这些系统的人,可能会出于对人类的统治显然是命运的感知的兴趣而有意或无意地受到激励。不仅具有讽刺意味的是,现在在冷战期间帮助美国和苏联利益的许多人被冷战两个派别的继任者视为恐怖分子领导人。

相关且更明确回答的问题是,是否可以期望一个聪明的助手会无限期地保持为助手。一直在研究永远智能的永远帮手,这对从科幻作家和编剧到军事附属智囊团的每个人都具有极大的兴趣。


-1

恕我直言,对可解释的AI的最重要需求是防止我们变得在智力上变得懒惰。如果我们停止尝试了解如何找到答案,那么我们已经将游戏丢给了我们的机器。


好吧,我们了解他们如何从高水平找到答案:他们猜测了数百万次,直到找到有前途的模式。智力上的任务是了解造成这些模式的原因-AI可能不会在乎这个问题。
Zsolt Szilagy

有时候这是真的,但是某些类型的AI(例如遗传算法)通常会比这做得更好,并且可以进行结构化设计以提供有关导致模式产生原因的良好线索。有时只是简单地指出“在此数据集中找到的模式与在此其他数据集中找到的模式非常相似”可以提供很多信息,并可以解释原因。
S. McGrew
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.