《人工智能基础模型透明度法案》基础模型是基于广泛数据训练的人工智能模型,通常使用自我监督,包含数十亿个参数,并适用于广泛的环境或应用程序——基础模型是去年风靡全球的生成式人工智能网站和聊天机器人的基石。基础模型的广泛公众使用也导致无数公众获得不准确、不精确或有偏见的信息。发生这种情况的原因有很多,但通常主要是由于模型训练所用数据的局限性或偏见,或者模型未接受过对某些输入做出反应的训练。这在存在种族或性别偏见的情况下尤为明显——众所周知,人工智能在识别图像或回答与黑人和女性相关的查询方面的表现远比白人和男性差。在影响深远的用例(例如与健康相关的 AI 推理、贷款发放、住房审批或预测性警务)中,延续偏见或传播不准确信息的可能性尤其令人担忧。此外,由于版权持有者看到生成式 AI 模型复制了其受保护作品,因此对侵犯版权的诉讼和公众担忧有所增加。这包括针对 Clearview AI、微软、GitHub、OpenAI、Stability AI 等公司和模型的多起法庭案件。因此,基础模型透明度变得越来越必要。在不损害开发和部署基础模型的人的知识产权或商业秘密的情况下,使用基础模型的人应该掌握必要的信息,以了解他们所使用的模型是如何训练的、如何寻找结果中的偏见以及版权侵权风险。因此,《人工智能基础模型透明度法案》将:
主要关键词