人工智能被发现会使用潜在的危险"捷径"来解决复杂的识别任务

胡撸娃
阅读

人工智能被发现会使用潜在的危险"捷径"来解决复杂的识别任务

来自约克大学的研究发现,即使是最聪明的人工智能也无法与人类的视觉处理相媲美。约克大学研究报告的共同作者詹姆斯-埃尔德(James Elder)教授表示,深度卷积神经网络(DCNN)看待事物的方式与人类不同(通过配置形状感知),这在现实世界的AI应用中可能是有害的。

这项研究由约克大学人类和计算机视觉研究主席、约克大学人工智能与社会中心联合主任Elder和芝加哥洛约拉学院助理心理学教授、约克大学前VISTA博士后Nicholas Baker进行,发现深度学习模型无法捕捉人类形状感知的配置性质。

为了研究人脑和DCNN如何感知整体的、配置性的物体属性,该研究使用了被称为"Frankensteins"的视觉刺激方法。

"Frankensteins可以被理解为被拆开并以错误的方式装回去的物体,"埃尔德说。"因此,它们具有所有正确的局部特征,但组件会出现在错误的地方。"

研究人员发现,虽然Frankensteins会被人类的视觉系统判断出异样,但DCNN却不会,这显示了人工智能对配置物体属性的不敏感。

"我们的结果解释了为什么深度人工智能模型在某些条件下会失败,并指出需要考虑物体识别以外的任务,以了解大脑的视觉处理,"Elder说。"这些深度模型在解决复杂的识别任务时倾向于走'捷径'。虽然这些捷径在许多情况下可能有效,但在我们目前与行业和政府伙伴合作的一些现实世界的人工智能应用中,它们可能是危险的,"埃尔德指出。

其中一个应用是交通视频安全系统。"繁忙的交通场景中的物体--车辆、自行车和行人--相互阻挡,以杂乱无章的碎片形式出现在司机的眼中,"埃尔德解释说。"大脑需要对这些碎片进行正确分组,以识别物体的正确类别和位置。用于交通安全监测的人工智能系统如果只能单独感知这些碎片,将无法完成这一任务,可能会误解脆弱的道路使用者的风险。"

根据研究人员的说法,旨在使网络更像大脑的训练和架构的修改并没有考虑配置处理,而且没有一个网络能够准确地预测逐个试验的人类物体判断。我们推测,为了与人类的可配置敏感性相匹配,必须对网络进行训练,以解决类别识别以外的更广泛的物体任务,"埃尔德指出。

了解更多:

https://linkinghub.elsevier.com/retrieve/pii/S2589004222011853

阅读
本文由用户上传,如有侵权请联系删除!

撰写回复
更多知识