Loading...
机构名称:
¥ 4.0

公共和私人组织都制定了 160 多套不同的人工智能 (AI) 治理原则。这些原则旨在增强 AI 的变革潜力并限制其负面影响。这些原则和策略越来越多地使用“风险管理”作为阐明 AI 技术具体护栏的机制。不幸的是,“风险管理”在实践中的含义在很大程度上是不确定的,而且人们对此知之甚少。事实上,我们衡量风险有两种截然不同的方法。一种方法强调量化和确定性。另一种方法避开了量化的虚假确定性,而是采用通过利益相关者之间的社会和政治对话表达的固有定性(相应不精确)风险衡量标准。本文认为,新兴的人工智能治理领域应该采用更具响应性、包容性和定性的方法,以更好地适应人工智能技术及其社会影响固有的不确定性和动态性。然而,本文还描述了这样做的困难之处,因为计算机科学和数字技术(以及管理这些技术的努力)本质上推动着确定性和消除歧义。本文借鉴了其他科学领域的经验,这些领域长期以来一直在努力解决如何最好地管理新技术的风险,以表明尽管存在不可预测性和不确定性的潜在权衡,定性风险方法如何更好地适应人工智能等新兴技术的挑战。

在管理人工智能风险时接受模糊性

在管理人工智能风险时接受模糊性PDF文件第1页

在管理人工智能风险时接受模糊性PDF文件第2页

在管理人工智能风险时接受模糊性PDF文件第3页

在管理人工智能风险时接受模糊性PDF文件第4页

在管理人工智能风险时接受模糊性PDF文件第5页

相关文件推荐

2020 年
¥6.0
2019 年
¥3.0