实时的AI治理:为什么信任无法等待

AI以惊人的速度前进,但信任,问责制和监督仍然落后。由于人工智能系统越来越多地用于制定影响工作,健康,信用,教育和公民权利的决策,因此越来越多的领导人合唱呼吁负责AI治理,以保持与创新的步伐,而不会扼杀它。中心问题:[…]

来源:AI Time Journal

AI以惊人的速度前进,但信任,问责制和监督仍然落后。由于人工智能系统越来越多地用于制定影响工作,健康,信用,教育和公民权利的决策,因此越来越多的领导人合唱呼吁负责AI治理,以保持与创新的步伐,而不会扼杀它。

教育 AI治理

中心问题:我们如何快速移动并建立信任?

我们如何快速移动并建立信任?
“如果我们使用人工智能做出影响像他们获得服务,工作或公平待遇的人这样的选择,那么我们需要清楚它的工作原理以及谁在不负责时负责。” Sanjay Mood说。 “也许答案不是一切的大规则,而是根据系统的风险进行智能检查。”
Sanjay Mood 下面,我们综合了行业领导者,研究人员和AI治理专家如何在维护公众信任的同时负责任地扩展AI的关键见解。 不是一个规则,但是许多智能的规则 毯子法规行不通。取而代之的是,专家们主张为高度影响的AI系统应用更强大的护栏。正如穆罕默德·赛义德(Mohammad Syed)所解释的那样:“对潜在伤害的监督量身定制有助于调节快速技术的变化。” 风险层框架 Mohammad Syed 《欧盟的AI法案》,加拿大的AIDA和中国特定部门的执法模型都指向自适应监管的未来,创新和问责制可以共存。 自适应法规的未来 设计的治理,而不是螺栓固定 治理不是事后的想法。从数据收集到部署,必须将负责的AI烘烤到开发过程中。 烤入开发过程 “真正的AI治理不仅仅是合规性;这是关于规模架构信任的,” Rajesh Sura说。 That includes model documentation, data lineage tracking, and continuous bias audits. Rajesh Sura Ram Kumar Nimmakayala 将人类保持在循环中,并在钩子上 支持决策,而不是替换 eu 美国

Sanjay Mood

下面,我们综合了行业领导者,研究人员和AI治理专家如何在维护公众信任的同时负责任地扩展AI的关键见解。

不是一个规则,但是许多智能的规则

毯子法规行不通。取而代之的是,专家们主张为高度影响的AI系统应用更强大的护栏。正如穆罕默德·赛义德(Mohammad Syed)所解释的那样:“对潜在伤害的监督量身定制有助于调节快速技术的变化。” 风险层框架

Mohammad Syed

《欧盟的AI法案》,加拿大的AIDA和中国特定部门的执法模型都指向自适应监管的未来,创新和问责制可以共存。

自适应法规的未来

设计的治理,而不是螺栓固定

治理不是事后的想法。从数据收集到部署,必须将负责的AI烘烤到开发过程中。
烤入开发过程
“真正的AI治理不仅仅是合规性;这是关于规模架构信任的,” Rajesh Sura说。 That includes model documentation, data lineage tracking, and continuous bias audits. Rajesh Sura

Ram Kumar Nimmakayala

将人类保持在循环中,并在钩子上 支持决策,而不是替换 eu美国