a 眼科实验室,qurAI 小组,阿姆斯特丹大学信息学院,荷兰阿姆斯特丹 b 诊断图像分析小组,放射学和核医学系,拉德堡德大学医学中心,荷兰奈梅亨 c 眼科系,伊拉斯姆斯医学中心,荷兰鹿特丹 d 流行病学系,伊拉斯姆斯医学中心,荷兰鹿特丹 e 眼科系,拉德堡德大学医学中心,荷兰奈梅亨 f 分子和临床眼科研究所,瑞士巴塞尔 g 华盛顿大学医学院眼科系,美国华盛顿州西雅图 h 阿姆斯特丹大学医学中心眼科系,荷兰阿姆斯特丹 i 洛桑大学眼科系,朱尔斯·戈宁眼科医院,阿韦格勒基金会,瑞士洛桑 j Moorfields 眼科医院 NHS 基金会信托,英国伦敦 k 眼科研究所,伦敦大学学院,英国伦敦 l荷兰阿姆斯特丹大学医学中心生物医学工程与物理学
人工智能 (AI) 系统正在成为我们日常生活中不可或缺的一部分。它们不仅用于做出日常决策,例如健康食品选择和着装推荐,还用于做出重要且有影响力的决策,例如疾病诊断、检测金融欺诈和选拔新员工。它们在自动驾驶、自动金融贷款审批和癌症治疗建议等新兴应用中的部署日益广泛,这让许多人担心当今与 AI 相关的信任程度。这种担忧是真实的,因为在当前快速发展的 AI 系统中,对抗性攻击、偏见和缺乏可解释性已经暴露出现代 AI 系统的许多弱点。因此,构建“可信赖的 AI”系统的机制和方法非常重要。构建可信赖的 AI 系统需要了解模型是否有偏见。偏见一直是现代 AI 系统的一个关键致命弱点。从人脸识别到语言翻译,许多应用都显示出系统存在高度偏见,不同组和测试集之间的性能不一致就是明证。这对此类系统的公平性和可问责性有着重大影响,具有极其重大的社会影响。可解释性和可解释性是此类系统在许多不同情况下的必要条件,例如执法和医疗,在这些情况下,黑箱决策是不可接受的。尽管现代人工智能系统报告的准确度很高,但它们无法向人类解释其决策过程以及失败或成功案例的原因。除了高精度之外,隐私和安全对于人工智能的成功也至关重要。最近的研究表明,人工智能算法可以利用从社交媒体中提取的信息来对模糊的人脸进行去匿名化,并通过监控摄像头促进不必要的监视。此类人工智能应用既带来了挑战,也带来了机遇:虽然监控系统增强了个人和整个社会的安全,但它们易受攻击和破坏,也为滥用提供了机会。对抗性攻击尤其给用户带来了巨大的负面印象,认为人工智能系统很容易被欺骗。作为研究人员,我们需要建立和推广一个严格的框架来阐述对抗性机器学习中的问题,评估各种对抗性攻击下的影响和后果,并描述确保人工智能模型安全的属性。正如在许多领域所观察到的那样,开放性有助于释放更大的潜力。许多人工智能系统不披露模型的谱系、训练数据和性能细节。需要进行更多研究来解决系统披露的共同最低可接受做法。数据和模型归属是信任人工智能系统的关键组成部分。准确描述训练数据、架构和可靠的测试条件对于保证在预定义范围内的性能水平、设定用户期望以及潜在解释潜在偏差和故障至关重要。此外,特别是在由多个组件组成的复杂 AI 系统中,从一个特定模型中归因于给定的预测或信号对于可解释性和安全性至关重要。能够可靠地识别 AI 的签名
领导者应该记住他们在危机中能够保持的灵活性,并在我们应对下一个信任挑战时保持这种精神:这些挑战在我们拥抱第四次工业革命的基础技术时出现。随着世界各地的组织和政府意识到人工智能的价值和竞争优势,对人工智能 (AI) 的投资和采用继续以指数级增长。我们知道信任是创新的关键推动因素和加速器,它对于持续接受和采用人工智能至关重要。但我们的客户、员工和其他利益相关者是否准备好并愿意信任人工智能系统及其部署组织?
● 保护人们的隐私必须被视为构建人工智能的最重要基础,并被用作制造新产品的起点。● 产品指南或“可信度评分”(如食品上的健康标签)可帮助用户根据产品的可信度选择产品。● 人工智能工作原理的透明度是用户要求的功能,公司必须提供此功能。● 企业家提出新的可信人工智能理念,投资者为他们提供资金支持。● 艺术家、记者和教育工作者向人们传授人工智能的工作原理、人工智能如何影响他们,并帮助他们提出改进人工智能的创意。● 公民通过请愿书和要求民选官员采取行动来告诉公司他们何时不满意。● 关心人权的团体也需要了解可信人工智能。
摘要 人工智能 (AI) 为个人福祉和经济社会进步带来了许多机会,但也带来了各种新的道德、法律、社会和技术挑战。可信人工智能 (TAI) 基于这样的理念:信任是社会、经济和可持续发展的基础,因此,只有在人工智能的开发、部署和使用过程中建立信任,个人、组织和社会才能充分发挥人工智能的潜力。在本文中,我们旨在介绍 TAI 的概念及其五项基本原则 (1) 仁慈、(2) 无恶意、(3) 自主、(4) 正义和 (5) 可解释性。我们进一步利用这五项原则为 TAI 开发一个数据驱动的研究框架,并通过为未来研究勾勒出富有成效的途径来展示其实用性,特别是关于基于分布式账本技术的 TAI 实现。
围绕人工智能(AI)的政策讨论已经从陈述原则转向付诸实践。随着人工智能在经济和社会中的进步,不同的技术、商业、学术和政策利益相关者正在积极寻求激励设计、开发、部署和使用值得信赖的、以人为本的人工智能的方法,以最大限度地发挥其优势,同时最大限度地降低其风险。从这个角度来看,主要的挑战是确保人工智能系统产生的成果能够促进社会福祉和普遍繁荣,同时保护个人权利和民主价值观。
德勤人工智能研究院帮助组织连接强大、高度动态和快速发展的人工智能生态系统的各个方面。人工智能研究院以前沿见解引领跨行业应用人工智能创新对话,促进“协同时代”的人机协作。德勤人工智能研究院旨在促进人工智能的对话和发展,激发创新,并研究人工智能实施面临的挑战及其解决方法。人工智能研究院与由学术研究团体、初创企业、企业家、创新者、成熟的人工智能产品领导者和人工智能远见者组成的生态系统合作,探索人工智能的关键领域,包括风险、政策、道德、工作和人才的未来以及应用人工智能用例。结合德勤在人工智能应用方面的深厚知识和经验,该研究院帮助理解这个复杂的生态系统,并因此提供有影响力的观点,帮助组织通过明智的人工智能决策取得成功。
摘要 人工智能 (AI) 为个人福祉和经济社会进步带来了许多机会,但也带来了各种新的道德、法律、社会和技术挑战。可信人工智能 (TAI) 基于这样的理念:信任是社会、经济和可持续发展的基础,因此,只有在人工智能的开发、部署和使用过程中建立信任,个人、组织和社会才能充分发挥人工智能的潜力。在本文中,我们旨在介绍 TAI 的概念及其五项基本原则 (1) 仁慈、(2) 无恶意、(3) 自主、(4) 正义和 (5) 可解释性。我们进一步利用这五项原则为 TAI 开发一个数据驱动的研究框架,并通过为未来研究勾勒出富有成效的途径来展示其实用性,特别是关于基于分布式账本技术的 TAI 实现。