政府的新“AI 护栏”引起了专家们的不同反应

澳大利亚政府提出了 10 项针对高风险人工智能开发和使用的强制性“护栏”,并计划对其进行监管。政府已任命一个专家小组来制定护栏,目前正在就如何对其进行监管征求意见。这 10 项护栏包括建立和发布问责程序、适当的治理 […]

来源:宇宙杂志
行业和科学部长Ed Husic,在2024年5月14日在议会问题时间。信用:Tracey附近 / Stringer / Getty Images < / div>

澳大利亚政府提出了10种强制性的“护栏”,以进行高风险的AI开发和使用,并计划对其进行监管。

AI开发

任命一个专家小组开发护栏的政府现在正在提交有关如何受到监管的意见。

参加提交

10个护栏包括建立和发布责任流程,数据质量和出处的适当治理,以及对AI系统的人类控制或干预。

10个护栏

政府表示,他们是作为企业采用的自愿安全标准而发行的,然后将其引入现有的监管框架,现有框架的新立法或AI的新法律。

自愿安全标准

“这是管理技术风险的重要一步,”查尔斯·达尔文大学科学技术学院的副教授Niusha Shafiabady说。

Shafiabady说,这些指南包含“非常好的观点”,例如护栏实现人类的控制和干预。

“这将增加一个新层来检查AIS的结果,然后再确定可能影响人们的决定,”她说。

昆士兰大学商学院的Tapani Rinta-Kahila博士同意。 “使用RobodeBT(从技术上讲不是AI,而是可比),在荷兰的类似情况下(这是AI),我们看到了受AI系统影响的人的流程,无法挑战该系统的结果,” Rinta-Kahila说。 “在两个国家,这导致了基层社会运动的形成,旨在帮助受影响的人。护栏非常具体地讲述了所有这些问题,因此是朝着正确方向迈出的一步。” “公司可以保护其数据,算法和方法,”她说。 联合国 欧盟

同意。

“使用RobodeBT(从技术上讲不是AI,而是可比),在荷兰的类似情况下(这是AI),我们看到了受AI系统影响的人的流程,无法挑战该系统的结果,” Rinta-Kahila说。

“在两个国家,这导致了基层社会运动的形成,旨在帮助受影响的人。护栏非常具体地讲述了所有这些问题,因此是朝着正确方向迈出的一步。”

“公司可以保护其数据,算法和方法,”她说。 联合国欧盟