长久以来,计算机科学家们都在努力开发一些能够“愚弄”人工智能的图像类型。而这种特殊的图片和模式,就被称作“敌对图像”(adversarial images)。实际上,这么做是利用了计算机看待世界的不同方式,让人工智能的“眼睛”看到了并不存在的东西(可以理解为 AI 版本的“视觉幻象”)。比如将物理对象打印在纸张上,做出一幅“眼镜”来考验面部识别系统。现在,Google 的研究人员们又想出了新的法子,它就是“神奇贴纸”。
上个月的时候,研究人员已经发表了一篇描述“敌对图像”(Adversarial Patch)的论文。虽然算不上是突破性的进展,但至少向前又迈进了一步。
这些测试图像可以在家里轻松打印出来,与其它“敌对图像”攻击不同的是,它们显得相对“柔性”一点,无需根据想要覆盖的图像、或者 AI 的视角而进行调整。
文中写到,即便不知道先前的光线条件、相机视角、分类、甚至场景里的其它物品,都可以用贴纸来创建“物理世界的攻击”。生成了这样的图像之后,还可以发布到网络上供其它攻击者打印和使用。
许多人工智能研究人员都担心,这类方法会对自动驾驶汽车等系统产生危害,比如让车载系统误以为高速公路边有个“停车”的牌子、或者一张防止个人被 AI 监视系统识别的标签。
即便普通人可以注意到这些贴纸的异样,也不一定会理解它的真实意图,甚至认为这仅仅是某种艺术的展现形式。
当然,目前暂时也不用担心出现类似的攻击,毕竟随着技术的发展(打补丁),同样的套路不一定会在每一套 AI 系统上都奏效。