详细内容或原文请订阅后点击阅览
负责任的人工智能和大型模型的道德权衡,与 Sara Hooker 一起
在本集中,高级研究员 Anja Kaspersen 与 Cohere for AI 的 Sara Hooker 进行了交谈,讨论了模型设计、模型偏差和数据表示。
来源:卡内基国际事务伦理委员会资源Anja Kaspersen:您已经写了有关什么可能导致良好研究的文章,我们将回到这一点。
Anja Kaspersen:我想开始我们的主题略有不同。我正在阅读一份研究论文,您为去年发表了有关透明度的贡献,在该领域中,您具有很大的影响力,并以科学顾问和审阅者的身份贡献了各种政府倡议,这些领域也正在发生。
研究论文您对各州贡献的论文:“基础模型已经迅速渗透了社会,催化了跨越企业和面向消费者的环境的一波生成的AI应用程序。尽管基础模型的社会影响正在增长,但透明度仍在下降,反映了困扰过去数字技术的不透明性,例如社交媒体。逆转这一趋势至关重要。”
您能否更多地谈论这项工作,以及您个人经历在改变领域的变化,演员是谁以及围绕我们如何评估透明度的概念,我们如何衡量它,我们如何执行它?
萨拉·胡克(Sara Hooker):这项工作是在不同机构的许多非常出色的合作者中完成的。我会说这真的很有趣。
Sara Hooker:我们一直希望从算法中透明。这不是大型模型所独有的。我在很多职业生涯中都为此做了努力,因此即使是我们拥有完整功能集的简单模型,通常有时他们会做不可预测的事情,以及我们如何更好地理解透明度?
变得更加困难的是这些模型用于学习的数据量以及它们是大型模型。每当您拥有较大的模型时,都会有更多组合,并且很难提取个人含义。
ai for Good Summit 面试 Geoff Hinton Sara Hooker为了使我们的听众受益,您能谈谈这些模型和当前部署的技术吗?
COVID-19