人工智能 (AI) 越来越多地应用于利用信息技术的所有领域,预计将成为主要的经济驱动力之一。这种趋势的结果是,某些应用可能会在未来几年引发社会挑战。人工智能 (AI) 系统有可能在农业、交通、金融科技、教育、能源、医疗保健和制造业等领域创造渐进式变化并实现新的性能和能力水平。然而,与缺乏可信度相关的潜在风险可能会影响 AI 的实施及其接受度。AI 应用可以涉及并影响许多利益相关者,包括个人、组织和整个社会。AI 应用的影响可能会随着时间的推移而演变,在某些情况下,这是由于基础数据或法律环境的性质造成的。利益相关者应了解他们在参与中的角色和责任。AI 可能会带来巨大的风险和不确定性。专业人士、研究人员、监管者和个人需要意识到与人工智能系统和应用相关的伦理和社会问题。人工智能中潜在的伦理问题范围很广。人工智能中的伦理和社会问题的例子包括隐私和安全漏洞、歧视性结果以及对人类自主权的影响。伦理和社会问题的来源包括但不限于: — 未经授权的收集、处理或披露个人数据的手段或措施; — 采购和使用有偏见、不准确或不具代表性的训练数据; — 不透明的机器学习 (ML) 决策或文档不足,通常称为缺乏可解释性; — 缺乏可追溯性; — 对技术部署后的社会影响的理解不足。人工智能可能会不公平地运行,尤其是在使用有偏见或不适当的数据进行训练或模型或算法不适合用途的情况下。算法中蕴含的价值观以及人工智能系统和应用程序所要解决的问题的选择,可能会有意或无意地受到开发人员和利益相关者自己的世界观和认知偏见的影响。本文档包含基于通用框架的人工智能应用指南,以提供多种宏观视角。它还融合了人工智能特性和非功能性特性,例如可信度和风险管理。。标准开发人员、应用程序开发人员和其他相关方可以使用该指南。由于人工智能应用程序因其不断发展的性质和可信度方面而与非人工智能软件应用程序不同,因此所有利益相关者都应了解人工智能的特定特征。
主要关键词