详细内容或原文请订阅后点击阅览
人工智能治理的两个核心问题,与 Elizabeth Seger 讨论
在这个“人工智能与平等”播客中,卡内基-上广研究员 Wendell Wallach 和 Demos 的 Elizabeth Seger 讨论了如何使生成式 AI 安全和民主。
来源:卡内基国际事务伦理委员会资源ELIZABETH SEGER:不一定是开源和企业控制之间的区别,而是我们要么谈论开源系统,要么谈论完全闭源系统,并将它们视为两个完全独立的实体。这是一种错误的二分法。我认为这里实际上有三种错误的二分法。
ELIZABETH SEGER:第一个是人工智能系统要么总是完全开放,要么完全封闭。Irene Sullivan 的一些很好的研究成果已经变得非常流行,她概述了模型共享选项的范围很广,从完全封闭的模型到完全开放的模型。两者之间可以有应用程序编程接口 (API) 访问和不同类型的分阶段发布选项,因此我们可以在这个领域探索许多其他选项。
第二个错误的二分法是围绕这样的观点:当我们谈论开放与封闭时,我们是在说所有人工智能模型都应该开放,而不是所有人工智能模型都应该封闭。这是另一个错误的二分法。通常,讨论只是围绕一些最前沿、最强大的前沿人工智能系统是否应该开源,因此我们可以说,有些系统绝对应该开源,而对于其他系统,我们需要更加谨慎。
第三个错误的二分法是,当我们说开放与封闭时,我们是在说一个模型必须始终开放,而一个模型必须始终封闭,这也是一个错误的二分法。我们可以选择从封闭的模型开始,同时研究其影响以及社会如何与模型互动,然后决定是否进一步开放它,所以我认为这是一个过度两极化的讨论,这使得很难取得进展,我们可以通过在讨论中解决这些错误的二分法做得更好。
温德尔·瓦拉赫: 伊丽莎白·西格: 欧盟人工智能法案 温德尔·瓦拉赫: 伊丽莎白·西格: X