详细内容或原文请订阅后点击阅览
透明度——就像慈善一样——从国内开始?
随着关于监管人工智能应用的争论愈演愈烈,透明度的需求也日益凸显。在大多数情况下,人工智能算法在“黑匣子”中“发挥作用”,这使得其决策依据甚至对开发人员来说都是不透明的。透明度及其同伙“可解释性”、“可阐释性”和“可理解性”在人工智能的发展中占有重要地位[…] 透明度——就像慈善——始于家庭?首先出现在美国企业研究所 (AEI) 上。
来源:美国进取研究所信息随着关于监管人工智能应用的争论愈演愈烈,透明度的必要性被大肆宣扬。
需要透明度在大多数情况下,人工智能算法在“黑匣子”中“运行”,这使得其决策基础甚至对开发人员来说都是不透明的。透明度——以及它的同伴“可解释性”、“可阐释性”和“可理解性”——在制定人工智能应用的道德和可接受使用标准方面占有重要地位。在长达 42 页的国家标准与技术研究所 (NIST) 人工智能风险管理框架中,“透明”和“透明度”这两个词出现了 36 次——迄今为止的指导方针已成为人工智能开发人员之间行业自治的基础,并支撑了根据拜登总统关于安全、可靠和值得信赖地开发和使用人工智能的行政命令准备的 AI RMF 生成式人工智能概况草案。
人工智能风险管理框架 AI RMF 生成式 AI 概况 行政命令NIST 风险管理框架将值得信赖的 AI 应用程序定义为具有以下特征的应用程序:
“有效可靠、安全、有保障且有弹性、可问责且透明、可解释且可解读、隐私增强、公平且有害偏见得到管理。”(强调添加)
透明 透明 可解释 可解释 可解释 此外:“虽然所有特征都是社会技术系统属性,但问责制和透明度也与 AI 系统内部的过程和活动及其外部环境有关。忽视这些特征会增加负面后果的可能性和严重程度。”
这些特征相互作用如下:
基督城呼声
“间接威胁 根据 IGP 透明度——就像慈善一样——始于家庭。