暗物质的隐形“流氓波”可以改变恒星的轨道

双星分析为理解暗物质提供了新方法。

来源:安全实验室新闻频道

更新后的搜索系统会误导用户。

Google 最近更新的搜索引擎由于集成了人工智能 (AI),可以为用户查询生成答案,因此引起了专家们的警钟。谷歌不再像以前那样提供网站链接列表,而是提供可能错误的即时答案。

例如,对于“月球上有猫吗?”这个问题,谷歌回答:“是的,宇航员在月球上遇见、玩耍和照顾猫。尼尔·阿姆斯特朗说出了他那句著名的台词,因为那是猫步。”这个答案完全不真实。新的人工智能功能推出后,类似的错误开始在社交媒体上传播,有时很有趣,有时很危险。

专家担心这一变化可能会增加偏见和错误信息,并对在紧急情况下寻求帮助的人们构成威胁。圣达菲研究所的人工智能研究员梅兰妮·米切尔 (Melanie Mitchell) 询问谷歌有多少名穆斯林担任过美国总统。回应称巴拉克·奥巴马是穆斯林,这是一个早已被揭穿的阴谋论。谷歌引用了一本学术书籍的一章,其中讨论了人工智能未能正确解释的错误理论。

谷歌表示,正在采取行动纠正错误,例如有关奥巴马的虚假言论,并正在努力改进该系统。然而,尽管经过了测试,错误仍然不断发生,因为人工智能模型很容易产生虚构的事实,即所谓的“幻觉”。

我们通过几个问题测试了 Google 的新功能。例如,当被问到如果被蜜蜂蜇了怎么办时,谷歌给出了“最详细”的答案。然而,即使人工智能响应中出现一个小错误,在危急情况下也可能成为一个问题。

在有压力的情况下,人们可能会采取第一个答案,这可能很危险。此类系统可能会强化其训练数据中存在的种族主义和性别歧视。