人工智能容易受到黑客攻击吗?
倒转您的问题片刻,然后思考:
与其他任何类型的软件相比,什么会使AI遭受黑客攻击的风险降低?
归根结底,软件就是软件,总会有bug和安全问题。AI面临非AI软件面临的所有问题的风险,因为AI不能赋予它某种豁免权。
至于针对AI的篡改,AI面临被提供错误信息的风险。与大多数程序不同,人工智能的功能由其消耗的数据决定。
举一个真实的例子,几年前,微软创建了一个名为Tay的AI聊天机器人。Twitter员工用了不到24小时的时间就说:“我们要盖一堵墙,而墨西哥要为此付出代价”:
(图片摘自下面链接的Verge文章,我对此不承担任何责任。)
那只是冰山一角。
有关Tay的一些文章:
现在想象这不是聊天机器人,想象那是未来AI的重要组成部分,因为AI负责诸如不杀死汽车(即自动驾驶汽车)乘员或不杀死汽车上的病人的事情。手术台(即某种医疗辅助设备)。
当然,有人希望这样的AI能够更好地抵御这种威胁,但是假设有人确实找到了一种方式来提供这样的AI大量虚假信息而没有被注意到(毕竟,最好的黑客不会留下任何痕迹),这真的意味着生与死之间的差异。
以自动驾驶汽车为例,想象一下是否有错误数据使汽车认为在高速公路上需要紧急停车。医疗AI的应用之一是ER中的生死攸关的决定,想像一下黑客是否可以通过扩大规模来支持错误的决定。
我们如何预防呢?
最终,风险的规模取决于人类对AI的依赖程度。例如,如果人类接受了AI的判断却从未质疑过它,那么他们就会对各种操纵持开放态度。但是,如果他们仅将AI的分析作为谜题的一部分,那么通过意外或恶意手段发现AI错误时,将更容易发现。
就医疗决策者而言,不仅要相信AI,还要进行物理测试并获得一些人的意见。如果两位医生不同意该AI,则排除该AI的诊断。
就汽车而言,一种可能性是拥有多个冗余系统,这些系统必须实质上“投票”该做什么。如果一辆汽车在不同的系统上有多个AI,这些AI必须对要采取的行动进行投票,那么黑客将不得不拿出不止一个AI来控制或导致僵局。重要的是,如果AI在不同的系统上运行,则无法在另一个系统上进行相同的利用,从而进一步增加了黑客的工作量。