详细内容或原文请订阅后点击阅览
负责任的人工智能:人工智能做得不好的商业风险太高
负责任的人工智能战略应包括密切和持续的监控,以确保遵守企业道德政策,从而建立对人工智能的信任文章负责任的人工智能:人工智能做得不好的商业风险太高首先出现在机场技术上。
来源:航空航天技术大多数技术领导者都认为,没有人工智能战略的技术企业很快就会成为一艘无舵之船。然而,一旦制定了战略,高层领导就必须确保负责任的人工智能是其设计不可或缺的一部分。当面临替代方案时,说服企业利益相关者认识到负责任设计的人工智能战略的重要性应该不难。
GlobalData 企业实践总监 Rena Bhattacharya 表示:“没有哪家企业希望因为以造成伤害的方式使用或滥用客户或员工信息而登上头条新闻。”声誉受损并不是人工智能实施不当的唯一潜在后果,Bhattacharya 补充道,并指出在某些行业或地区,可能会招致巨额罚款或法律诉讼。
Battacharya 解释说,这种情况可能以多种方式发生,从未能充分保护个人信息或纳入防止传播错误信息的护栏,到以偏见或剥夺特定人口群体特权的方式使用人工智能。
负责任的人工智能的五项全球认可原则
管理负责任的人工智能的原则大致包括:公平、可解释性、问责制、稳健性、安全性和隐私性。但 Battacharya 表示,很难向客户、员工、合作伙伴和供应商保证组织正在适当地实施这些原则。
虽然人工智能全球标准还处于早期阶段,但组织可以努力实施与安全性、数据治理、透明度、用例、模型管理和审计相关的最佳实践。“但负责任的人工智能的概念仍在不断变化,”Bhattacharya 补充道。