评估生成式 AI 带来的社会和道德风险

引入一个基于上下文的框架,用于全面评估人工智能系统的社会和道德风险

来源:DeepMind - 新闻与博客

引入基于情境的框架,全面评估人工智能系统的社会和伦理风险

生成式人工智能系统已经用于编写书籍、创建图形设计、协助医疗从业者,并且功能越来越强大。要确保负责任地开发和部署这些系统,需要仔细评估它们可能带来的潜在伦理和社会风险。

协助医疗从业者

在我们的新论文中,我们提出了一个三层框架来评估人工智能系统的社会和伦理风险。该框架包括对人工智能系统能力、人机交互和系统影响的评估。

新论文

我们还绘制了安全评估的现状,并发现了三个主要差距:背景、特定风险和多模态性。为了帮助缩小这些差距,我们呼吁重新利用现有的生成式人工智能评估方法,并实施全面的评估方法,就像我们关于错误信息的案例研究一样。这种方法将诸如人工智能系统提供事实错误信息的可能性等发现与人们如何使用该系统以及在何种情况下使用该系统的见解相结合。多层次的评估可以得出超出模型能力的结论,并表明危害(在本例中为错误信息)是否真的发生和传播。

要使任何技术按预期发挥作用,必须解决社会和技术挑战。因此,为了更好地评估人工智能系统的安全性,必须考虑这些不同的背景层次。在这里,我们以早期研究为基础,确定了大规模语言模型的潜在风险,例如隐私泄露、工作自动化、错误信息等,并介绍了一种全面评估这些风险的方法。

大规模语言模型的潜在风险

背景对于评估人工智能风险至关重要

上下文 能力 人机交互 系统影响

安全评估是共同的责任

人工智能开发人员 应用程序开发人员 背景: 多模态性: