评估生成AI

引入基于上下文的框架,用于全面评估AI系统的社会和道德风险

来源:DeepMind - 新闻与博客

引入基于上下文的框架,用于全面评估AI系统的社会和道德风险

生成的AI系统已经被用来撰写书籍,创建图形设计,协助医生并变得越来越有能力。确保这些系统的开发和部署负责任地需要仔细评估它们可能构成的潜在道德和社会风险。

协助医生

在我们的新论文中,我们提出了一个三层框架,用于评估AI系统的社会和道德风险。该框架包括对AI系统能力,人类相互作用和全身影响的评估。

新纸

我们还绘制了当前的安全评估状态,并找到三个主要差距:上下文,特定风险和多模式。为了帮助缩小这些差距,我们呼吁重新利用现有的生成AI评估方法并实施全面的评估方法,就像我们关于错误信息的案例研究一样。这种方法集成了发现,例如AI系统提供了关于人们如何使用该系统以及在什么情况下的洞察力提供事实不正确的信息的可能性。多层评估可以得出超出模型能力的结论,并表明在这种情况下(在这种情况下,错误信息)是否实际发生并传播。

为了使任何技术按预期运作,必须解决社会和技术挑战。因此,为了更好地评估AI系统安全性,必须考虑这些不同的上下文层。在这里,我们基于较早的研究,确定了大规模语言模型的潜在风险,例如隐私泄漏,工作自动化,错误信息等,并引入了一种全面评估这些风险的方式。

大规模语言模型的潜在风险

上下文对于评估AI风险

上下文 能力 人类互动 系统性影响

安全评估是共同责任

AI开发人员 应用程序开发人员 更广泛的公共利益相关者