1. 本提案由 GPAI 秘书处根据 GPAI 成员的要求制定,是在 2024 年 3 月 7 日和 6 月 4 日举行的 GPAI 执行理事会会议之后制定的,并参考了小型工作组关于 GPAI 及其秘书处未来的讨论。它反映了 6 月 4 日 GPAI 执行委员会会议上的意见,该提案 [ GPAI(2024)4/REV1 ] 在该次会议上获得批准,但须纳入关于专家支持中心 (ESC) 作用的更多说明。随后,修订文件于 2024 年 6 月 7 日发布,编号为 GPAI(2024)5。应一名成员的要求,第 9 段、第 2.2.1 节 iii、iv) 和第 16 段中加入了更多说明。当前文件 [ GPAI(2024)5/REV1 ] 介绍了这些修订,并详细介绍了拟议综合伙伴关系的治理结构、成员资格、决策、预算、品牌和其他运营方面。该文件已提交 GPAI 执行理事会 2024 年 6 月 26 日会议,以期通过书面程序提交 GPAI 部长理事会批准。
目前对 GPAI 的讨论往往集中在 AI 研究前沿的大型语言或大型视觉模型上,例如 OpenAI 的 GPT-3 和 DALL·E 2 或 Google 的 PaLM。但拟议的定义还将涵盖许多预先训练的、多用途的 AI 模型(例如用于对象检测),这些模型作为云 AI 服务提供——例如通过 AWS、Google Cloud 或 Microsoft Azure 提供的服务——已经得到广泛使用。这些也通常没有《AI 法案》所规定的特定预期用途。委员会和其他提案可能会让合规负担落在中小企业和其他调整 GPAI 系统以供下游使用的参与者身上,同时(无意中)减轻了一些全球最大公司对其开发的技术可能造成的危害的责任。
注: • 欧盟人工智能法案的主要目的是确保在欧盟使用安全可靠的人工智能系统。因此,欧盟立法者决定采取基于风险的方法,将风险的概念定义为“发生伤害的概率与伤害严重程度的组合”。 • 这种分类并不互相排斥,例如,一个人工智能系统可以被归类为高风险,同时又要承担特定的透明度义务。 • 对人工智能系统/GPAI模型的分类评估必须逐案进行,记录在案,定期审查并保持最新。 • 欧盟人工智能法案不包括对有限风险人工智能系统的任何具体义务;然而,有限风险人工智能系统的提供者和部署者仍将受人工智能素养义务的约束,该义务需要采取措施确保其员工和其他涉及人工智能系统操作和使用的人员具备适当的技能、知识和理解,使他们能够明智地部署人工智能系统,并意识到人工智能系统可能带来的机会、风险和可能的危害。
征集摘要 - 推进公共部门应用中负责任的人工智能:GPAI 版 全球人工智能伙伴关系 (GPAI) 是一项国际和多利益相关方倡议,旨在指导负责任地开发和使用人工智能,以人权、包容性、多样性、创新和经济增长为基础。作为 GPAI 的理事会主席,印度将于 2023 年 12 月 12 日至 14 日在印度主办年度 GPAI 峰会。来自 28 多个 GPAI 成员国和欧盟的人工智能专家、多边组织和其他相关利益相关者将参加峰会。作为年度 GPAI 峰会的一部分,电子和信息技术部 (MeitY) 与印度理工学院马德拉斯分校负责任人工智能中心 (CeRAI) 合作组织了一次研究研讨会。研究研讨会将为印度和国际学者和研究人员提供一个平台,与其他人工智能专家合作,并在全球观众面前展示他们关于负责任人工智能的可行研究。
GPAI模型是具有系统风险的模型,如果它具有“高影响力能力”,则可以“根据适当的技术工具和方法进行评估,包括指标和基准,或“基于委员会的决定,Ex Officio,或遵循来自科学小组的合格警报的决定”(第51(1)))。GPAI模型具有很高的影响能力,因此当“在浮点操作中测量的用于训练的累积计算量的累计计算量大于10(^25)”(第51(2)条)。这些标准将通过委托行为对委员会进行修改和补充,以反映技术的发展(第51(3)条)。委员会将发布并继续更新具有系统性风险的GPAI模型清单(第52(6)条)。GPAI模型提供商有一个过程,其模型符合相关标准,可以向委员会提交论据,以证明该模型由于其特定特征而不会出现系统性风险(第52条)。
虽然基础模型有时被认为与“通用人工智能”(GPAI)完全相同,但实际上它们只是众多 GPAI 类型中的一种(尽管非常强大)。其他 GPAI 类型包括(通常非常基础的)用于一系列任务(例如模式检测或翻译)的 AI 系统。
人工智能 (AI) 技术的进步已导致我们在算法上玩电子游戏的能力方面取得了巨大突破。然而,对游戏 AI (GPAI) 技术的投资增加并没有转化为玩家游戏体验的切实改善。本文的灵感来自近期游戏中可访问性模式的积极影响以及游戏研究文献中之前呼吁关注玩家体验的呼吁。响应这些呼吁,我们建议利用 GPAI 技术,而不是像传统那样打败玩家,而是支持他们充分体验游戏。我们声称,利用 GPAI 代理帮助玩家克服障碍是重新利用这些代理功能的有效方法。我们进一步贡献了一个设计练习,以帮助开发人员探索可能的 GPAI 驱动辅助方法的空间。此练习可帮助开发人员发现挑战类型并构思不同规模和辅助类型的方法。我们首先应用此设计练习来探索动作平台游戏 Celeste 的可能辅助方法的设计空间。然后,我们在 Celeste 的 Unity 克隆中实现了针对不同挑战类型的两种发现的方法。通过此实现,我们发现了几个额外的研究问题,我们必须回答这些问题,然后 GPAI 驱动的辅助方法才能真正有效。我们相信这个研究方向进一步讨论了如何利用 GPAI 来服务于玩家体验,也有助于创造更具包容性的游戏。