解决“打地鼠困境”:消除 AI 视觉模型偏差的更智能方法

一种名为 WRING 的新去偏技术可避免产生或放大现有去偏方法中可能出现的偏差。

来源:MIT新闻 - 人工智能

在当今的医院和诊所中,皮肤科医生可能会使用人工智能模型对皮肤病变进行分类,以评估病变是否有发展成癌症的风险或是否是良性的。但如果模型偏向于某些肤色,则可能无法识别高风险患者。

也许人工智能研究持续面临的最著名、最持久的挑战之一就是偏见。人们经常讨论与训练数据相关的偏差,但模型架构也可能包含并放大偏差,从而对现实环境中的模型性能产生负面影响。在高风险的医疗场景中,表现不佳的真实后果已经使偏见成为一个典型的安全问题。

麻省理工学院、伍斯特理工学院和谷歌的研究人员发表的一篇新论文被 2026 年国际学习表示会议接受,提出了一种名为“加权旋转去偏”(即 WRING)的新颖去偏方法,该方法可应用于视觉语言模型 (VLM),例如 OpenAI 的 OpenCLIP。

VLM 是多模态模型,可以同时理解和解释不同的数据模态,例如视频、图像和文本。虽然 VLM 的去偏差方法确实存在,但最常用的方法被称为“投影去偏差”,这导致了所谓的“打地鼠困境”,这是一种经验观察,于 2023 年正式引入人工智能研究。

投影去偏差是一种后处理方法,通过将子空间“投影”到关系表示空间之外,从而消除模型嵌入中不需要的、有偏差的信息,从而消除偏差。但这种方法有其缺点。

“当你这样做时,你会无意中压扁周围的一切,”该论文的第一作者 Walter Gerych 说,他去年作为麻省理工学院的博士后进行了这项研究。 “当你这样做时,模型学到的所有其他关系都会改变。”