当我们思考未来人类和人工智能合作进行创造性活动时,我们会思考生成模型[40、41、51、53、60] 会如何影响现有业务并可能创造出新业务。虽然深度伪造和与媒体和艺术相关的生成人工智能突破最近引起了人们的注意和想象[2、23、27、28、45],但总体而言,该领域在商业应用方面还处于起步阶段。在本文中,我们采取了一种逆向的商业案例方法,并从“坏人”的角度提出了商业“滥用”案例。使用一种称为设计虚构[8、18、19、48–50]的做法,我们与精通人工智能技术的软件工程师进行了交流。我们提供了三个半页的虚构故事,讲述了生成技术可能产生的有害应用,作为我们共同创作练习中使用的探针。当我们指导工程师探索
2016 年夏天,我驾驶 F-16 战机在叙利亚西北部城市曼比季上空执行了一场奇怪的长达七小时的战斗任务,为该城市提供近距离空中支援。我的僚机和我投下了我们所有的炸弹,其中大部分都在我们的伙伴叙利亚民主力量的“危险近距离”范围内,而特种作战战斗控制员则通过卫星无线电描述了我们的目标。在城市地面战最激烈的部分,一架俄罗斯 SU-30 侧卫战机在我们的空战范围内飞行,打断了我们的行动。我让我的僚机负责近距离空中支援任务几分钟,同时我拦截了侧卫战机飞行员,以防止他干扰。这不是一次无聊的出击——我们驾驶着装载实弹的超音速战斗机,在最近将一名被俘的战斗机飞行员活活烧死在笼子里的坏人上方几英里处飞行,在城市战中投掷炸弹,拦截一架敌方战斗机,除非他实施敌对行为,否则我们无权击落他。在那个世界里,界限变得模糊。这似乎是不明智的
量子计算机的功能越来越强大,随着技术的进步,它们有朝一日可能会被用来破解当今的加密标准,例如 RSA。这意味着,如果一台加密相关的量子计算机(一台强大到足以破解当今加密的量子计算机)落入坏人之手,那么今天被认为是安全的数据很快就会变得脆弱。为了做好准备,组织必须开始探索向后量子加密的过渡。该工作组旨在帮助定义需求、确定依赖关系、用例,并创建实施后量子网络的路线图,以减轻与未来加密相关的量子计算机相关的预期风险。如果没有后量子解决方案,机密商业信息、支付文件和其他业务关键数据等敏感资产可能会受到攻击者的威胁。世界经济论坛在 2022 年的一份报告中最近估计,未来 10-20 年,将有超过 200 亿台数字设备需要升级或更换,以使用新形式的后量子加密通信。
• 两年后,在等待全面治理框架的过程中,我的办公室与安大略省人权委员会发表了一份联合声明,敦促安大略省政府为公共部门使用人工智能技术制定一套更强大、更细致的约束性规则。我们呼吁制定明确有效的护栏,以解决安全、隐私、问责、透明度和人权问题。 • 我们的办公室致力于与政府合作,确保以合乎道德的方式开发和部署人工智能,使所有安大略省人受益。 • 如您所知,安大略省并不是唯一面临人工智能治理挑战的地方。人工智能是一首让全世界都唱的歌。 • 而生成人工智能是最新的主题,每个人都在发声。 • 在坏人手中,生成人工智能可以产生对现实世界造成伤害的材料——传播虚假或误导性信息,破坏人们的生活和声誉,破坏对公共机构的信任,导致股价暴跌,严重破坏选举和其他民主进程。 • 去年 12 月,IPC 与联邦、省和地区同行一起发布了《负责任、值得信赖和隐私保护的生成式人工智能技术原则》。
这是一个关于数据的故事,它始于 2016 年夏天的叙利亚。我刚刚驾驶 F-16 完成了一场奇怪的长达七小时的战斗飞行,在叙利亚西北部城市曼比季上空提供近距离空中支援。我和我的僚机投下了我们所有的炸弹——其中大部分都在我们伙伴叙利亚民主力量的“危险近距离”范围内——而特种作战战斗控制员则通过卫星无线电描述了我们的目标。在城市地面战最激烈的部分,一架俄罗斯 SU-30 侧卫战斗机在我们的空战范围内飞行,打断了我们的行动。我让我的僚机负责近距离空中支援任务几分钟,同时我拦截了侧卫战斗机飞行员,以防止他干扰。这不是一次无聊的出击——我们驾驶着装载实弹的超音速战斗机,在最近将一名被俘的战斗机飞行员活活烧死在笼子里的坏人上方几英里处飞行,在城市战中投掷炸弹,拦截一架敌方战斗机,除非他采取敌对行动,否则我们无权击落他。在那个世界里,界限变得模糊。这似乎是不明智的
这是一个关于数据的故事,它始于 2016 年夏天的叙利亚。我刚刚驾驶 F-16 完成了一场奇怪的长达七小时的战斗飞行,在叙利亚西北部城市曼比季上空提供近距离空中支援。我和我的僚机投下了我们所有的炸弹——其中大部分都在我们伙伴叙利亚民主力量的“危险近距离”范围内——而特种作战战斗控制员则通过卫星无线电描述了我们的目标。在城市地面战最激烈的部分,一架俄罗斯 SU-30 侧卫战斗机在我们的空战范围内飞行,打断了我们的行动。我让我的僚机负责近距离空中支援任务几分钟,同时我拦截了侧卫战斗机飞行员,以防止他干扰。这不是一次无聊的出击——我们驾驶着装载实弹的超音速战斗机,在最近将一名被俘的战斗机飞行员活活烧死在笼子里的坏人上方几英里处飞行,在城市战中投掷炸弹,拦截一架敌方战斗机,除非他采取敌对行动,否则我们无权击落他。在那个世界里,界限变得模糊。这似乎是不明智的
这是一个关于数据的故事,它始于 2016 年夏天的叙利亚。我刚刚驾驶 F-16 完成了一场奇怪的长达七小时的战斗飞行,在叙利亚西北部城市曼比季上空提供近距离空中支援。我和我的僚机投下了我们所有的炸弹——其中大部分都在我们伙伴叙利亚民主力量的“危险近距离”范围内——而特种作战战斗控制员则通过卫星无线电描述了我们的目标。在城市地面战最激烈的部分,一架俄罗斯 SU-30 侧卫战斗机在我们的空战范围内飞行,打断了我们的行动。我让我的僚机负责近距离空中支援任务几分钟,同时我拦截了侧卫战斗机飞行员,以防止他干扰。这不是一次无聊的出击——我们驾驶着装载实弹的超音速战斗机,在最近将一名被俘的战斗机飞行员活活烧死在笼子里的坏人上方几英里处飞行,在城市战中投掷炸弹,拦截一架敌方战斗机,除非他采取敌对行动,否则我们无权击落他。在那个世界里,界限变得模糊。这似乎是不明智的
这是一个关于数据的故事,它始于 2016 年夏天的叙利亚。我刚刚驾驶 F-16 完成了一场奇怪的长达七小时的战斗飞行,在叙利亚西北部城市曼比季上空提供近距离空中支援。我和我的僚机投下了我们所有的炸弹——其中大部分都在我们伙伴叙利亚民主力量的“危险近距离”范围内——而特种作战战斗控制员则通过卫星无线电描述了我们的目标。在城市地面战最激烈的部分,一架俄罗斯 SU-30 侧卫战斗机在我们的空战范围内飞行,打断了我们的行动。我让我的僚机负责近距离空中支援任务几分钟,同时我拦截了侧卫战斗机飞行员,以防止他干扰。这不是一次无聊的出击——我们驾驶着装载实弹的超音速战斗机,在最近将一名被俘的战斗机飞行员活活烧死在笼子里的坏人上方几英里处飞行,在城市战中投掷炸弹,拦截一架敌方战斗机,除非他采取敌对行动,否则我们无权击落他。在那个世界里,界限变得模糊。这似乎是不明智的
人工智能 (AI) 的最新进展可能会在未来几年提高生活水平。蛋白质折叠、语音识别以及生成模型在生成文本和图像方面的惊人成就已经超出了几年前的预期(Bubeck 等人,2023 年)。人工智能似乎很可能在短期内增强我们的创新能力,而且人工智能在许多认知任务上匹敌甚至超越人类智能并开始自我创新肯定是有可能的。一旦机器能够产生想法,研究人员的数量和质量所设定的增长限制可能不再存在,增长率可能会加快,甚至有可能导致所谓的无限消费的“奇点”。Aghion、B. Jones 和 C. Jones(2019 年);Trammell 和 Korinek(2020 年);Davidson(2021 年); Nordhaus ( 2021 );以及 Erdil 和 Besiroglu ( 2023 )。另一方面,这些进步并非没有风险。包括 OpenAI 和谷歌的顶尖研究人员在内的人工智能社区的相当一部分人警告说,这些进步可能对人类构成生存风险,要么来自“坏人”对人工智能的恶意使用,要么甚至可能来自超级智能人工智能本身。更简洁地说,人工智能可以比电力或互联网提高生活水平。但它可能带来超过核武器的风险。此外,这些可能性——无论可能性如何——都是相互关联的。正是在这样的世界状态下,人工智能足够强大,可以带来深刻的增长
工作人员对原始法案的公开证词总结:委员会建议的法案版本与所听到的版本不同。赞成:这是一项遗留法案,在参议院第一次审议时就通过了。刑事法律制度和问责制的基础是人们了解他们正在做的事情。八岁的孩子无法完全理解。身处这个系统会影响一个人的生活轨迹,一旦他们进入这个系统,他们很可能会继续与这个系统接触。应该制定有意识的政策来保护我们的年轻人。伤害其他孩子的孩子也会受到伤害,我们需要帮助他们。没有人愿意叫执法人员来抓他们的孩子,应该有更好的选择。这个系统应该与科学保持一致。决策不应该基于最坏的情况。孩子们试图从别人的角度看问题,但他们非常关注自身利益和同伴的接受。直到 13 岁及以上,他们才真正开始形成道德准则。年幼的孩子没有能力理解所有指控和刑事法律程序的含义。我们需要把孩子当孩子对待。将孩子定罪会让他们相信自己是坏人,并鼓励他们做坏事。如果我们不照顾孩子,我们这个社会会是什么样子?我们必须调查为什么这个系统热衷于投入数百万美元来惩罚我们的孩子,而不是投资和培养他们的福祉。逮捕这些孩子对他们没有帮助,系统之外还有更有效的干预措施。年轻人