Loading...
机构名称:
¥ 1.0

迄今为止,可信人工智能文献主要关注与离散人工智能进行有意识交互的用户的信任需求。文献中明显缺少对公众对人工智能信任的严格处理。我们认为,公众对人工智能的不信任源于监管生态系统的不发达,而这种生态系统将保证遍布社会的人工智能的可信度。借鉴结构化理论和机构信任文献,我们提供了一个公众对人工智能的信任模型,该模型与推动可信人工智能工作的模型截然不同。该模型为可信人工智能研究提供了理论支架,强调需要开发一个全面且明显运作的监管生态系统。我们阐述了外部可审计的人工智能文档在此模型中的关键作用以及为确保其有效性而需要开展的工作,并概述了一些将促进公众对人工智能信任的行动。我们讨论了组织内开发 AI 文档的现有努力(既要告知潜在的 AI 组件采用者,又要支持风险和道德审查委员会的审议)是必要但不足以确保 AI 的可信度。我们认为,通过制定 AI 规则和开发执行这些规则的资源,以赢得公众信任的方式对公众负责,最终将使 AI 值得信赖,并融入我们社会的结构中。

权威的认可:促进公众对人工智能的信任

权威的认可:促进公众对人工智能的信任PDF文件第1页

权威的认可:促进公众对人工智能的信任PDF文件第2页

权威的认可:促进公众对人工智能的信任PDF文件第3页

权威的认可:促进公众对人工智能的信任PDF文件第4页

权威的认可:促进公众对人工智能的信任PDF文件第5页

相关文件推荐