在应用程序开发过程中,Lookout 团队参与了多次人工智能原则评审,并进行了对抗性公平性测试。该团队采用了 Google DeepMind 视觉语言模型 (VLM),该模型针对此用例进行了高度定制,并得到了来自 BLV 人群以及跨性别和非二元性别者的多轮反馈。VLM 使人们能够就图像提出自然语言问题。新的 Lookout 问答功能允许用户超越字幕,询问对他们来说最重要的图像细节。此功能允许团队提供不带感知性别的字幕,但如果用户询问有关某人性别的问题,该模型可以使用来自该人外表的线索提供感知性别的最佳猜测。通过这种方式,Lookout 可以避免在不需要时提供性别描述,从而减少潜在的性别错误,但应用程序可以在用户认为这些信息对他们有用时提供这些信息。Lookout 团队对 BLV 和非二元性别的最终用户测试了这种方法,发现这些用户认为这种方法既有用又尊重。