2025-06-20 01:04来源:本站
你看到什么? Oktay Ortakcioglu/Getty
ntext="Article" data-image-id="2152335" data-caption="What do you see?" data-credit="Oktay Ortakcioglu/Getty" />
什么时候乌龟不是乌龟?当它是步枪时。这听起来像是一个不好的谜语,但这是对身份对象进行训练的人工智能的真正难题。通过巧妙地调整模型乌龟研究人员外壳上的图案,能够欺骗神经网络将物体误认为是步枪。例如,结果对面部识别系统的准确性和无人驾驶汽车安全性引起了人们的关注。
这是所谓的“对抗示例”的最新情况。先前的实验表明,在图像中仅更改几个像素(人眼都无法察觉的变化)可以将AI完全丢弃,从而使其识别出马的图片为汽车或飞机作为狗。
日本九州大学的一支团队最近设法通过更改图像中的一个像素来欺骗AI。技巧也可以与音频一起使用,通过在声音夹中添加少量的背景噪声。
但是,新结果更加惊人。AI不仅误认了一个图像,而是从多个角度误导了3D龟。马萨诸塞州理工学院的安德鲁·伊利亚斯(Andrew Ilyas)和他的同事首先制作了一个带有3D打印机的模型龟,并在其外壳上给了它类似乌龟的图案。
该模型被AI正确识别为乌龟。但是,除了乌龟上的图案(保持其形状和颜色完全相同)之外,别无其他 - 他们欺骗了AI,以为它正在看步枪。
此示例中的对象是任意的 - 团队还欺骗了AI,认为棒球是浓缩咖啡。伊利亚斯说:“乌龟的选择绝不是特别的,算法是非常笼统的。”“我们之所以选择乌龟的最大原因是因为这是我们能找到的第一款可打印的3D模型。”
范德比尔特大学的Yevgeniy Vorobeychik说,这些结果可以添加到越来越多的案件中。“现在有一个相当广泛的文献,表明深层神经网络很容易以多种方式被愚弄。”
最大的担心是,对真实对象的微小调整可以用于破坏图像识别系统,例如那些让您用脸部解锁iPhone或识别停车标志的对象。
怀俄明大学的杰夫·克莱恩(Jeff Clune)说:“黑客可以使医院看起来像是军事无人机的目标,或者感兴趣的人看起来像是面部识别安全系统的无辜陌生人。”
而且还没有明显的解决方案。克莱恩(Clune)表示,任何政府甚至计划使用神经网络的公司都需要意识到这种弱点并计划潜在的黑客。他说:“我们目前不知道如何解决这个问题。”“到目前为止,它已经抵制了多年来最聪明的头脑的最大努力。”
期刊参考:arxiv.org/abs/1707.07397