§ Develop tools, techniques, and procedures to measure human trust of AI/ML algorithms linked with the trustworthiness of the AI/ML system to help inform stakeholders about the levels of trust across the developmental process § Develop methods to reduce data source bias and create modularity § Develop a cybersecurity and risk model to ensure AI/ML algorithms maintain robustness in situations where a given set of sensors用于训练系统的系统不再在系统§中使用,以开发出在完整生命周期期间衡量系统成功的方法
摘要 - 人工智能系统(机器学习)在关键领域(航空电子、自主运动等)的开发和使用不可避免地引发了对所用软件可靠性的质疑。可信计算系统已经存在很长一段时间了。其目的是只允许执行某些应用程序,并保证此类应用程序的运行不受干扰。在这种情况下,信任是对分配的应用程序按测试时的方式运行的信心。但对于机器学习来说,这还不够。应用程序可能按预期工作,没有干扰,但由于数据发生了变化,结果不可信任。总的来说,这个问题是所有机器学习系统的一个基本点的结果:测试(操作)阶段的数据可能与系统训练时的数据不同。因此,机器学习系统可能会在没有任何针对性的操作的情况下被破坏,仅仅是因为我们在操作阶段遇到的数据在训练阶段实现的泛化不起作用。还有一些攻击被理解为对机器学习管道元素(训练数据、模型本身、测试数据)产生特殊影响,目的是实现系统的期望行为或阻止其正确运行。如今,这个普遍与机器学习系统稳定性有关的问题,是机器学习在关键应用中使用的主要障碍。
采用人工智能解决方案来增强人力资本活动意味着机构需要学习和应对复杂而动态的监管环境。虽然目前联邦层面还没有专门针对人工智能的劳动法,但现有的联邦劳动法和公平招聘实践的保护措施可能会扩展到基于人工智能的决策。这些考虑可以从美国平等就业机会委员会 (EEOC) 于 2022 年 5 月发布的关于人工智能与《美国残疾人法案》(ADA) 交叉点的指导意见 5 中看出,该指导意见针对私营部门和联邦政府,而司法部发布了类似的指导意见 6,扩展到州和地方政府。EEOC 的 2023-2027 年战略执行计划草案 (SEP) 宣布该机构打算专注于“使用自动化系统……[排除或对受保护群体产生不利影响]”。
关于德勤 本通讯仅包含一般信息,德勤有限公司、其成员所或其相关实体(统称“德勤网络”)均不通过本通讯提供专业建议或服务。在做出任何可能影响您财务或业务的决定或采取任何行动之前,您应咨询合格的专业顾问。德勤网络中的任何实体均不对任何依赖本通讯的人所遭受的任何损失负责。 在本文件中,“德勤”是指德勤咨询有限责任公司,是德勤有限责任公司的子公司。有关我们法律结构的详细描述,请参阅 www.deloitte.com/us/about。根据公共会计规则和规定,某些服务可能无法提供给鉴证客户。 版权所有 2024 Deloitte Development LLC。保留所有权利。
领导者应该记住他们在危机中能够保持的灵活性,并在我们应对下一个信任挑战时保持这种精神:这些挑战在我们拥抱第四次工业革命的基础技术时出现。随着世界各地的组织和政府意识到人工智能的价值和竞争优势,对人工智能 (AI) 的投资和采用继续以指数级增长。我们知道信任是创新的关键推动因素和加速器,它对于持续接受和采用人工智能至关重要。但我们的客户、员工和其他利益相关者是否准备好并愿意信任人工智能系统及其部署组织?
数字连接以及信息流动和获取对于支持全球社会至关重要,有助于促进包容性增长、繁荣和可持续发展。在过去的 12 个月中,我们看到了几家倒闭的数字货币公司在财务和法律方面遭遇的损失、人工智能 (AI) 和机器学习 (MI) 的崛起、芯片和半导体主导地位的争夺以及元宇宙的出现。英国政府、欧盟和美国证券交易委员会等机构已出台与数字技术和服务相关的新立法和指导。我们正目睹技术和数据格局的不断演变。这个数字时代带来了各种挑战和机遇,人们不断审视获取信息的重要性、关闭、审查和技术使用对社会经济的影响。
RMIT 是一所涵盖技术、设计和企业的多部门大学。该大学的使命是通过研究、创新和参与帮助塑造世界,并为学生创造变革性的体验,为他们的生活和工作做好准备。有关 RMIT 大学的更多信息,请点击以下链接。https://www.rmit.edu.au/about https://www.universitiesaustralia.edu.au/university/rmit-university/ https://www.rmit.edu.au/about/facts-figures 我们在墨尔本的三个主要校区分别位于市中心的 Brunswick、Bundoora 和 Point Cook 以及维多利亚州的其他地点。我们在越南(河内和胡志明市)还有两个校区,以及位于西班牙巴塞罗那的一个中心。RMIT 是一所真正的全球性大学。https://www.rmit.edu.au/about/our-locations-and-facilities 我们还致力于重新定义我们与土著民族自决合作和支持的关系。我们的目标是通过完善我们的价值观、文化、政策和结构,将和解融入我们所做的每一件事,从而实现持久的变革。我们正在改变我们的认知、工作和生活方式,以支持可持续的和解,并激活土著和非土著员工、学生和社区之间的关系。我们在墨尔本的三个校区(城市、布伦瑞克和邦多拉校区)位于东部库林族的 Woi Wurrung 和 Boon Wurrung 语言群体的未割让土地上。
页码摘要 4 1.介绍 5 2.道德:一个公认的人工智能基准 6 3.值得信赖的人工智能的框架和基础 7 3.1 合法的人工智能系统 8 3.1.1 尊重民主、正义和法治 8 3.1.2 平等和包容 8 3.1.3 公民权利 8 3.2 合乎道德的人工智能系统: 8 3.2.1 以人为本的方法 8 3.2.2 公平和无偏见 9 3.2.3 可解释性 9 3.2.4 数据隐私、保护和安全 9 3.3 强大的人工智能系统 9 3.3.1 可靠性 9 3.3.2 设计安全 9 4.可信人工智能系统的要求 10 4.1 对人权的支持 10 4.2 技术稳健性和安全性 10 4.3 数据安全保障和保护 11 4.4 透明度和问责制 11 4.5 非歧视和包容性 11 5.可信人工智能的实现 12 5.1 设计合规 13 5.2 可解释人工智能 (XAI) 13 5.3 确定质量和服务 KPI 14 5.4 测试和验证 14 5.5 法规、标准化和认证 14 5.6 规范性指南 14 5.7 组织责任 15 5.8 利益相关者承诺 15 6.评估值得信赖的人工智能 15 7.结论 15 缩写 17 参考文献 18
人工智能 (AI) 的快速发展对社会产生了多方面的影响。随着这一进步,隐私侵犯、歧视性偏见和安全风险等问题也浮出水面,凸显了开发合乎道德、负责任和对社会有益的人工智能的必要性。作为回应,值得信赖的人工智能的概念得到了重视,并提出了开发值得信赖的人工智能的若干指导方针。在此背景下,我们展示了心理学研究在确定有助于形成人工智能信任的因素方面的重要性。具体而言,我们从三维框架(即信任者、受托人及其交互环境)的角度回顾了人际、人机和人机信任的研究成果。该框架综合了不同信任类型中与信任形成和维护相关的共同因素。这些因素指出了构建值得信赖的人工智能的基本要求,并为其开发提供了关键指导,其中还包括用户的沟通、教育和培训。最后,我们讨论了信任研究的见解如何帮助提高人工智能的可信度并促进其采用和应用。
● 保护人们的隐私必须被视为构建人工智能的最重要基础,并被用作制造新产品的起点。● 产品指南或“可信度评分”(如食品上的健康标签)可帮助用户根据产品的可信度选择产品。● 人工智能工作原理的透明度是用户要求的功能,公司必须提供此功能。● 企业家提出新的可信人工智能理念,投资者为他们提供资金支持。● 艺术家、记者和教育工作者向人们传授人工智能的工作原理、人工智能如何影响他们,并帮助他们提出改进人工智能的创意。● 公民通过请愿书和要求民选官员采取行动来告诉公司他们何时不满意。● 关心人权的团体也需要了解可信人工智能。