负责任的人工智能和大型模型的道德权衡,与 Sara Hooker 一起

在本集中,高级研究员 Anja Kaspersen 与 Cohere for AI 的 Sara Hooker 进行了交谈,讨论了模型设计、模型偏差和数据表示。

来源:卡内基国际事务伦理委员会资源

Anja Kaspersen:您已经写了有关什么可能导致良好研究的文章,我们将回到这一点。

Anja Kaspersen:

我想开始我们的主题略有不同。我正在阅读一份研究论文,您为去年发表了有关透明度的贡献,在该领域中,您具有很大的影响力,并以科学顾问和审阅者的身份贡献了各种政府倡议,这些领域也正在发生。

研究论文

您对各州贡献的论文:“基础模型已经迅速渗透了社会,催化了跨越企业和面向消费者的环境的一波生成的AI应用程序。尽管基础模型的社会影响正在增长,但透明度仍在下降,反映了困扰过去数字技术的不透明性,例如社交媒体。逆转这一趋势至关重要。”

您能否更多地谈论这项工作,以及您个人经历在改变领域的变化,演员是谁以及围绕我们如何评估透明度的概念,我们如何衡量它,我们如何执行它?

萨拉·胡克(Sara Hooker):这项工作是在不同机构的许多非常出色的合作者中完成的。我会说这真的很有趣。

Sara Hooker:

我们一直希望从算法中透明。这不是大型模型所独有的。我在很多职业生涯中都为此做了努力,因此即使是我们拥有完整功能集的简单模型,通常有时他们会做不可预测的事情,以及我们如何更好地理解透明度?

变得更加困难的是这些模型用于学习的数据量以及它们是大型模型。每当您拥有较大的模型时,都会有更多组合,并且很难提取个人含义。

ai for Good Summit 面试 Geoff Hinton Sara Hooker

为了使我们的听众受益,您能谈谈这些模型和当前部署的技术吗?

COVID-19