与上述能源等级的第二阶段一致,开发项目将有望提供足够的可再生能源发电,以将建筑物剩余能源使用产生的二氧化碳排放量减少至少 20%。只有在开发项目合适且必要,但证明无法达到要求的标准的情况下,才会例外。将鼓励使用热电联产 (CHP)、冷热电联产 (CCHP) 和区域供热。在热能优先区域内,主要开发项目将在可行的情况下纳入区域供热基础设施,并有望在现有系统可用的情况下与其连接。新开发项目将证明已根据以下热能等级选择了供热和制冷系统:
开发、部署和使用先进的人工智能系统,特别是基础模型和生成式人工智能。这些指导原则将成为开发先进人工智能系统的组织的国际行为准则的基础。我们还将继续考虑与知识产权有关的问题,例如版权保护和与数据保护有关的问题,作为这些原则的一部分。
可访问性、公平性、风险和道德:特定学生可能更熟悉生成式 AI 工具。根据 2023 年 5 月的皮尤研究中心的一项研究,家庭收入较高且受过正规教育的美国人更有可能了解 ChatGPT,而听说过 ChatGPT 的白人成年人使用聊天机器人进行娱乐、工作或教育的可能性始终低于亚裔、西班牙裔或黑人同龄人。有些人将这项技术视为弥补不平等的一种方式。目前,许多生成式 AI 工具都是免费的,但这些工具的更强大版本开始收取订阅费。有一些风险和实际预防措施需要牢记并与学生讨论:拥有这些工具的公司会收集信息,因此您和您的学生不应输入机密信息。查看您使用或建议作为课堂材料的任何工具的隐私政策。大型语言模型是根据来自互联网的信息进行训练的,因此它们的输出包含存在于这些数据中的误解、偏见、暴力、种族主义、性别歧视等。大型语言模型对知识产权的使用存在争议;有关侵犯知识产权的诉讼正在审理中。生成式人工智能会编造(产生)不存在但听起来合理的信息。生成式人工智能也会受到人类书写提示的偏见的影响。生成式人工智能工具不是搜索引擎;输出需要检查。并非所有生成式人工智能工具都符合《美国残疾人法案》定义的无障碍要求。人工智能公司因不公平的劳工行为而受到批评。
对当前 AI 格局的简要调查证明了这一点。在经济的所有领域,企业、组织和个人用户都在决定是否采用 AI 工具和系统——他们需要对这些系统的设计、测试和部署方式有信心。今天,小企业主在决定是否使用自动化 AI 招聘工具时,没有有意义的评估标准或可见性来评估该工具是否会歧视某些求职者,从而使企业面临法律和声誉风险以及人才流失。决定是否使用生成式 AI 工具的人必须依赖公司关于准确性、偏见缓解、数据隐私和安全性的难以判断的断言。鉴于技术进步的快速步伐以及 AI 公司和客户之间权力和信息的不对称,立法将在制定赢得人们信任的基准标准方面发挥重要作用。
我之所以感到乐观,是因为就在去年,我们通过了另一种公平科学创新和部署的两党框架,即《高级卫生研究计划署法案》(ARPA-H)。ARPA-H 向我们展示了当政府在某个领域设置护栏并因此能够刺激公平创新时,它会有多么有效。ARPA-H 通过与学术界和工业界合作,为科学创建新的选择架构和价值链,大规模推进技术和公平。这是我们在开发我们自己的负责任的人工智能开发前瞻性框架时可以借鉴的教训。
随着世界各国政府和企业采取措施向以可再生能源为基础的绿色经济转型,企业将需要增加镍、钴、锂和石墨等关键矿物的供应。与此同时,有关采矿活动对环境和社会产生负面影响的报告越来越多。为确保全球公正、负责任地向可再生能源转型,原材料和矿物的开采必须避免对土著人民、当地社区和环境造成损害。在我们能源转型所需的关键矿物中,镍正受到公众越来越多的关注,因为预计未来十年镍的需求将急剧增加,而且镍的开采还会带来重大的环境和社会风险 1 。
人类正处于人工智能 (AI) 加速发展的轨道上。2019 年,最先进的模型是 GPT-2,该模型无法可靠地数到十。仅仅四年后,同样基于深度学习的类似但更大的人工智能系统可以编写软件并就智力主题提供建议。科技公司现在正竞相创造通用人工智能 (AGI):在大多数或所有知识工作中匹敌或超越人类能力的通才和自主系统。2018 年深度学习图灵奖的三位获奖者(Geoffrey Hinton、Yann LeCun 和我)将 AGI 的时间线定在几年到几十年的区间内。在本文中,我研究了这其中涉及的一些更大规模的风险,并提出了减轻灾难性后果风险的方法。