详细内容或原文请订阅后点击阅览
专家反应:政府提议对高风险人工智能制定强制性规则
今天,联邦政府宣布,它正在提议对高风险人工智能制定“强制性”规则。该提案包括高风险 A 的定义、十项强制性护栏以及强制执行这些护栏的三个监管选项。除了这项提案之外,政府还发布了一项自愿人工智能安全标准,为使用人工智能具有高风险的企业提供建议,以便他们可以立即开始实施人工智能使用方面的最佳实践。以下是澳大利亚专家对这些公告的评论。
来源:Scimex阿尔巴尼政府在澳大利亚进行AI,今天有两个重要的公告更安全。
去年,政府就AI咨询了公共和行业,澳大利亚人告诉我们,他们希望看到更强大的法规。
业务要求清楚AI法规,以便他们可以自信地抓住AI提供的机会。
技术委员会估计,仅生成AI就可以到2030年为澳大利亚经济贡献450亿美元至1,150亿美元。
这就是为什么今年早些时候政府任命了一个AI专家小组来指导我们的下一步。
他们的工作告知政府的建议论文,以在高风险环境中为AI引入强制性护栏,其中包括以下关键要素:
提议论文,用于在高风险设置中引入AI的强制性护栏- A proposed definition of high-risk AI.Ten proposed mandatory guardrails.Three regulatory options to mandate these guardrails.The three regulatory approaches could be:Adopting the guardrails within existing regulatory frameworks as neededIntroducing new framework legislation to adapt existing regulatory frameworks across the economy.Introducing a new cross-economy AI-specific law (for example, an Australian AI Act).
今天,我们还将发布一个新的自愿AI安全标准,并立即生效。
自愿AI安全标准它为使用高风险的企业提供了实用的指导,因此他们可以开始在使用AI方面实施最佳实践。
该标准在实施强制性护栏之前为企业提供了确定性。
“