通过使用人工智能自动识别图片中的人或物体,现在有可能执行只有人类才能使用机器完成的各种任务。但是,即使是最先进的AI也指出了图像识别AI的意外弱点,例如发现可以简单地用手写笔记来欺骗它。
AI开发研究院OpenAI发布了图像分类模型CLIP。剪辑的特点是不仅学习图像,而且还学习自然语言中的图像表达。对于通过查看“苹果”一词来思考苹果形象的人来说,人工智能也是可能的。
但是,存在一个缺点,即很容易从字面上直接连接到图像,这有助于对标签进行分类并从文本中调用图像。因此,Open AI还承认可以轻松地通过手写欺骗AI的排版攻击对于剪辑是有效的。
例如,您可以在图像中正确识别一个苹果,但是如果添加一个称为iPod的手写便笺,则该苹果几乎可以被识别为iPod。 OpenAI解释说,这种误识别是由于通过高级抽象对片段进行分类而引起的。
如何欺骗AI图像识别仍在研究中。例如,一位Google研究人员在2018年宣布了如何将图像识别AI与仅一个贴纸相混淆的方法。此外,有报道称,特斯拉自动驾驶系统能够从相机拍摄的周围图像中识别图像并执行自动驾驶,仅通过在道路上贴上一条类似白线的标贴即可成功地随意改变车道。
会欺骗AI图像识别的敌对图像的存在可能会成为系统漏洞,该漏洞会像将来一样应用图像识别。此外,在某些情况下,开发人员为Google图像识别AI道歉,承认黑人是大猩猩。像这样直接从图像中进行标记可以轻松地进行图像组合,并且AI可能暗示存在偏差。
实际上,在剪辑中发现了将恐怖主义与中东联系在一起的神经,将拉丁美洲与移民联系在一起的神经以及将肤色黝黑的人与大猩猩联系在一起的神经。 OpenAani表示,导致这些偏差的连接几乎不可见,因此很难预先进行预测,也可能难以纠正。
Clip是最后一个实验系统,Open AI表示对Clip的理解仍处于开发阶段。在这方面,要指出的是,有必要在将AI留给生命之前,通过拆解AI的结构来了解它的结构。相关信息可以在这里找到。