谷歌研究人员揭示恶意行为者滥用生成式人工智能的无数方式

这项研究还揭示了全新的沟通方式,模糊了人工智能的好坏用途之间的区别

来源:《Discover》杂志

现代人最大的担忧之一是,生成式人工智能系统赋予恶意行为者前所未有的权力,以前所未有的规模撒谎、操纵和偷窃,这将破坏我们的信任、民主和社会体系。

现代人最大的担忧之一是,生成式人工智能系统赋予恶意行为者前所未有的权力,以前所未有的规模撒谎、操纵和偷窃,这将破坏我们的信任、民主和社会体系。

从干预选举到大量制作虚假评论,例子比比皆是。事实上,很容易想象,这些只是目前正在破坏我们生活方式的阴险行为的一小部分。

从干预选举到大量制作虚假评论,例子比比皆是。事实上,很容易想象,这些只是目前正在破坏我们生活方式的阴险行为的一小部分。

事实当然更加微妙,但它提出了一个更广泛的问题:如何更好地理解这些恶意的人工智能技术,它们被应用在哪里,由谁应用,规模多大,目的是什么。

事实当然更加微妙,但它提出了一个更广泛的问题:如何更好地理解这些恶意的人工智能技术,它们被应用在哪里,由谁应用,规模多大,目的是什么。

现在,我们得到了某种答案,这要感谢 Google DeepMind 的 Nahema Marchal 和 Google Jigsaw 的 Rachel Xu 及其同事的工作,他们研究了生成式人工智能的滥用及其在过去几年的发展方式。他们的方法揭示了他们分类的各种恶意活动。“我们阐明了这一时期滥用的关键和新模式,包括潜在动机、策略以及攻击者如何利用和滥用系统功能,”他们说。

紧急沟通

紧急沟通

紧急沟通 一个例子是 PBS 新闻上播出的关于 的故事。”

扩大货币化