Questions tagged «ai-safety»

9
人工智能容易受到黑客攻击吗?
论文《对抗设置中的深度学习的局限性》探讨了攻击者如何破坏神经网络,攻击者可以操纵神经网络训练的数据集。作者尝试了一种旨在读取手写数字的神经网络,通过使训练了该神经网络的手写数字样本失真来破坏其阅读能力。 我担心恶意参与者可能会尝试入侵AI。例如 愚弄自动驾驶汽车以误解停车标志与速度限制。 绕过面部识别,例如用于ATM的面部识别。 绕过垃圾邮件过滤器。 电影评论,酒店等的愚蠢情绪分析 绕过异常检测引擎。 伪造语音命令。 对基于机器学习的医学预测进行了错误分类。 什么样的对抗作用可能会破坏世界?我们如何预防呢?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.