从 AI 获取新闻?小心 - 几乎一半的时间都是错误的

欧洲广播联盟和 BBC 的新研究发现,四个领先的聊天机器人通常会生成有缺陷的新闻报道摘要。

来源:ZDNet | 机器人新闻
Iana Kunitsa/Moment 来自 Getty

关注 ZDNET:将我们添加为 Google 上的首选来源。

将我们添加为首选来源

ZDNET 的关键要点

    新研究表明,AI 聊天机器人经常歪曲新闻报道。分析的 AI 响应中有 45% 被发现存在问题。作者警告称,这可能会带来严重的政治和社会后果。
  • 新研究表明人工智能聊天机器人经常歪曲新闻报道。
  • 45% 的分析人工智能响应被发现存在问题。
  • 作者警告说,这会带来严重的政治和社会后果。
  • 欧洲广播联盟 (EBU) 和 BBC 进行的一项新研究发现,领先的人工智能聊天机器人经常歪曲和歪曲新闻报道。这些组织警告说,其后果可能是公众对新闻机构的信任以及民主本身的稳定性大规模削弱。

    这项研究涵盖 18 个国家和 14 种语言,涉及专业记者,根据准确性、来源以及事实与观点的区分等标准,评估了 ChatGPT、Copilot、Gemini 和 Perplexity 对近期新闻报道的数千条回复。

    另外:这个免费的 Google AI 课程可以改变您研究和写作的方式 - 但要快速行动

    这门免费的 Google AI 课程可以改变您研究和写作的方式 - 但要快速行动

    据 BBC 报道,研究人员发现,四个人工智能系统生成的所有响应中,近一半(45%)“至少存在一个重大问题”,而许多(20%)“包含重大准确性问题”,例如幻觉——即捏造信息并将其呈现为事实——或提供过时的信息。 Google 的 Gemini 表现最差,76% 的回复包含重大问题,尤其是在采购方面。

    据 BBC

    含义

    2025 年数字新闻报道 皮尤研究中心民意调查 显示 Google 的 AI 概述

    视频因素

    索拉

    另外:Sora 2 和其他 AI 视频工具使用有风险吗?这是一位法律学者的说法

    过去和现在