详细内容或原文请订阅后点击阅览
谷歌:人工智能超现实主义扭曲了我们的现实
研究人员谈论生成式人工智能的隐患。
来源:安全实验室新闻频道研究人员谈论生成式人工智能的隐患。
根据谷歌的研究,生成式人工智能有可能扭曲对社会政治现实或科学共识的集体理解,并且在许多情况下已经这样做了。
研究与萨姆·奥尔特曼和埃隆·马斯克对人工智能“存在风险”的警告不同,谷歌的研究重点是已经造成的、未来可能会恶化的真正危害。
谷歌生成式人工智能的大多数恶意使用都不是明显的恶意,也没有违反明确的内容政策或服务条款。问题在于系统地使用技术来创建难以与真实内容区分开来的内容。
在审查的 200 个滥用案例中,大多数涉及人工智能功能的使用,而不是对模型的直接攻击。生成式人工智能经常被用来创建虚假身份、传播错误信息或未经同意创建亲密图像,对公众信任和信息安全构成严重风险。
生成人工智能结果的可访问性和超现实性正在助长新形式的滥用,模糊了真假想法之间的界限。内容的大规模创建和使用可能会产生重大影响,即使它不是明显的恶意。
使用生成式人工智能进行政治宣传会导致材料与真实图像难以区分,从而损害了公众的信任。低质量、类似垃圾邮件的内容的大规模生产增加了人们对数字信息的怀疑,并使用户承担过多的事实核查任务。
泰勒·斯威夫特。