专家反应:政府提议对高风险人工智能制定强制性规则

今天,联邦政府宣布,它正在提议对高风险人工智能制定“强制性”规则。该提案包括高风险 A 的定义、十项强制性护栏以及强制执行这些护栏的三个监管选项。除了这项提案之外,政府还发布了一项自愿人工智能安全标准,为使用人工智能具有高风险的企业提供建议,以便他们可以立即开始实施人工智能使用方面的最佳实践。以下是澳大利亚专家对这些公告的评论。

来源:Scimex

阿尔巴尼政府在澳大利亚进行AI,今天有两个重要的公告更安全。

去年,政府就AI咨询了公共和行业,澳大利亚人告诉我们,他们希望看到更强大的法规。

业务要求清楚AI法规,以便他们可以自信地抓住AI提供的机会。

技术委员会估计,仅生成AI就可以到2030年为澳大利亚经济贡献450亿美元至1,150亿美元。

这就是为什么今年早些时候政府任命了一个AI专家小组来指导我们的下一步。

他们的工作告知政府的建议论文,以在高风险环境中为AI引入强制性护栏,其中包括以下关键要素:

提议论文,用于在高风险设置中引入AI的强制性护栏
    A proposed definition of high-risk AI.Ten proposed mandatory guardrails.Three regulatory options to mandate these guardrails.The three regulatory approaches could be:Adopting the guardrails within existing regulatory frameworks as neededIntroducing new framework legislation to adapt existing regulatory frameworks across the economy.Introducing a new cross-economy AI-specific law (for example, an Australian AI Act).
  • 提议的高风险AI定义。
  • 十个拟议的强制护栏。
  • 执行这些护栏的三个监管选择。
  • 三种监管方法可能是:
  • 根据需要在现有监管框架内采用护栏
  • 引入新的框架立法以适应整个经济的现有监管框架。
  • 引入了新的跨性AI特定法律(例如,澳大利亚AI法案)。
  • 今天,我们还将发布一个新的自愿AI安全标准,并立即生效。

    自愿AI安全标准

    它为使用高风险的企业提供了实用的指导,因此他们可以开始在使用AI方面实施最佳实践。

    该标准在实施强制性护栏之前为企业提供了确定性。