摘要 世界各地的档案机构和项目都致力于确保政府、组织、社区和个人的记录作为文化遗产、权利来源以及追究过去责任和告知未来的工具为子孙后代保存下来。这一承诺通过采取战略和技术措施来保证,以任何媒介和形式(文本、视觉或听觉)长期保存数字资产。公共和私人档案馆是世界上最大的大、小数据提供者,共同托管着数以万亿字节的可信数据,并将永久保存。保留和保存、安排和描述、管理和行政以及访问和使用等几个方面仍有待改进。特别是,人工智能 (AI) 的最新进展引发了关于人工智能是否可以支持可信公共记录的持续可用性和可访问性的讨论。本文介绍了 InterPARES Trust AI(“I Trust AI”)国际研究伙伴关系的初步成果,该伙伴关系旨在 (1) 确定和开发特定的人工智能技术以解决关键的记录和档案挑战;(2) 确定在记录和档案中使用人工智能技术的益处和风险;(3) 确保档案概念和原则为负责任的人工智能的发展提供参考;(4) 通过一系列案例研究和示范验证结果。
摘要 世界各地的档案机构和项目都致力于确保政府、组织、社区和个人的记录作为文化遗产、权利来源以及追究过去和告知未来的工具为子孙后代保存。这一承诺通过采取战略和技术措施来长期保存任何媒介和形式的数字资产(文本、视觉或听觉)来保证。公共和私人档案馆是世界上最大的大、小数据提供者,它们共同托管着数以亿字节的可信数据,这些数据将永久保存。保留和保存、安排和描述、管理和行政以及访问和使用等几个方面仍有待改进。特别是,人工智能 (AI) 的最新进展引发了关于人工智能是否可以支持可信公共记录的持续可用性和可访问性的讨论。本文介绍了 InterPARES Trust AI(“I Trust AI”)国际研究伙伴关系的初步成果,该伙伴关系旨在(1)识别和开发特定的人工智能技术,以解决关键的记录和档案挑战;(2)确定在记录和档案中使用人工智能技术的益处和风险;(3)确保档案概念和原则为负责任的人工智能的发展提供参考;(4)通过一系列案例研究和示范验证结果。
世界各地的档案机构和项目都致力于确保政府、组织、社区和个人的记录作为文化遗产、权利来源以及追究过去和告知未来的工具为子孙后代保存下来。这一承诺通过采取战略和技术措施来保证,以任何媒介和形式(文本、视觉或听觉)长期保存数字资产。公共和私人档案馆是世界上最大的大、小数据提供者,共同托管着数以万亿字节的可信数据,并将永久保存。保留和保存、安排和描述、管理和行政以及访问和使用等几个方面仍有待改进。特别是,人工智能 (AI) 的最新进展引发了关于人工智能是否可以支持可信公共记录的持续可用性和可访问性的讨论。本文介绍了 InterPARES Trust AI(“I Trust AI”)国际研究伙伴关系的初步成果,该伙伴关系旨在 (1) 确定和开发特定的人工智能技术以解决关键的记录和档案挑战;(2) 确定在记录和档案中使用人工智能技术的益处和风险;(3) 确保档案概念和原则为负责任的人工智能的发展提供信息;(4) 通过一系列案例研究和示范验证结果。
语言是人类的一项独特功能,涉及创造、表达、理解和维护有关世界的层次结构信息。毫无疑问,语言是通过神经元和突触的活动实现的——但是如何实现的呢?之前在认知实验(心理语言学、计算心理语言学和脑成像)方面进行了广泛的研究,这些研究已经对大脑如何处理语言产生了许多见解(请参阅第 2 节的概述)。然而,这些进展尚未产生关于单个神经元活动如何产生语言的具体叙述。特别是,我们不知道有哪个实验通过模拟神经元和突触重现了相当复杂的语言现象。这是本文所追求的方向。发展对人类大脑神经元如何产生语言的总体计算理解受到神经科学现状的阻碍,神经科学(a)主要
该提案试图表达“合法人工智能”的概念,而委员会人工智能高级专家组于 2019 年发布的《可信人工智能伦理指南》并未涉及该概念,因为该指南将讨论限制在“道德”和“稳健”人工智能的概念上。我们提出了“法律上值得信赖的人工智能”的概念,认为该概念应以当代自由民主社会建立的三大支柱为基础,即基本权利、法治和民主。为促进法律上值得信赖的人工智能,该提案必须确保 (1) 对人工智能的错误和危害进行适当的责任分配; (2) 合法有效的执法架构,包括充分的透明机制,以确保有效保护基本权利和法治,并以与其他适用法律相一致的方式向法律主体提供明确、稳定的指导; (3)充分的公众参与权和信息权,以确保对民主社会所必需的人工智能系统的开发、部署和监督进行有意义的问责。
该提案试图表达“合法人工智能”的概念,而委员会人工智能高级专家组于 2019 年发布的《可信人工智能伦理指南》并未涉及该概念,因为该指南将讨论限制在“道德”和“稳健”人工智能的概念上。我们提出了“法律上值得信赖的人工智能”的概念,认为它应该以当代自由民主社会建立的三大支柱为基础,即基本权利、法治和民主。为促进法律上值得信赖的人工智能,提案必须确保 (1) 适当分配和分配人工智能的错误和危害的责任;(2) 合法有效的执法架构,包括充分的透明机制,以确保有效保护基本权利和法治,并以与其他适用法律相一致的方式向法律主体提供明确、稳定的指导; (3)充分的公众参与权和信息权,以确保对民主社会所必需的人工智能系统的开发、部署和监督进行有意义的问责。
CIPL 对欧盟委员会关于《人工智能法案》草案的咨询的回应 CIPL 1 欢迎就欧盟委员会关于《欧洲人工智能法案》2(“AI 法案”或“法案”)的提案进行咨询,以将其纳入欧盟立法程序。CIPL 很高兴看到《人工智能法案》采纳了 CIPL 关于采用基于风险的方法监管欧盟人工智能的文件中提出的几项建议。3 这些建议旨在培养对人工智能的信任,而不会妨碍其负责任的发展。特别是,CIPL 欢迎该法案基于风险的方法,该方法将适用于高风险的人工智能用例,而不会监管人工智能技术本身或整个行业。CIPL 还欢迎拟议使用统一标准和行业自我评估产品符合性,因为这些机制已被证明能够成功推动创新并在欧盟市场开发安全可信的技术。CIPL 还欢迎旨在支持创新的措施,特别是通过为监管沙盒提供法定基础。最后,CIPL 很高兴看到《人工智能法案》中概述的一些要求与一些现有的行业惯例相一致,这些惯例为确保负责任地开发和使用人工智能设定了高标准。4 然而,CIPL 遗憾的是,《人工智能法案》没有充分考虑到一些必要条件,例如提供基于结果的规则;明确允许组织根据人工智能系统的风险和收益来调整对要求的遵守情况;奖励和鼓励负责任的人工智能实践;利用监管沙盒的经验教训;并澄清《人工智能法案》的监督和执行条款也应基于风险。CIPL 重申,要使《人工智能法案》有效地保护基本权利,同时也为欧盟创新的新时代奠定基础,它需要足够灵活以适应未来的技术。此外,该法案不能过于严格,以免抑制包括公共卫生或环境在内的一系列行业和部门对人工智能的宝贵和有益的创新和使用。最后,《人工智能法案》将受益于有针对性的调整,以更好地明确人工智能提供者、部署者和用户的责任平衡,特别是对于通用人工智能和开源人工智能模型。
构建值得信赖的自主系统具有挑战性,原因有很多,不仅仅是试图设计出“始终做正确的事情”的代理。在人工智能和 HRI 中,还有一个更广泛的背景往往没有被考虑:信任问题本质上是社会技术问题,最终涉及到一系列复杂的人为因素和多维关系,这些因素可能出现在代理、人类、组织甚至政府和法律机构之间,每个机构对信任都有自己的理解和定义。这种复杂性对开发值得信赖的人工智能和 HRI 系统构成了重大障碍——虽然系统开发人员可能希望他们的系统“始终做正确的事情”,但他们通常缺乏确保这一结果的实用工具和法律、法规、政策和道德方面的专业知识。在本文中,我们强调了信任的“模糊”社会技术方面,以及在设计和部署过程中仔细考虑它们的必要性。我们希望通过以下方式为人工智能和 HRI 中的可信工程讨论做出贡献:i)描述在处理可信计算和可用信任模型的需求时必须考虑的策略前景,ii)强调在系统工程过程中进行可信设计干预的机会,以及 iii)引入“策略即服务”(PaaS)框架的概念,人工智能系统工程师可以随时应用该框架来解决开发和(最终)运行时过程中的模糊信任问题。我们设想,PaaS 方法将策略设计参数的开发和策略标准的维护工作转移给策略专家,这将使自然界的智能系统具有运行时信任能力。