AI垃圾的证明,垃圾输出:不正确的结果可追溯到Reddit和Quora

就像您想的那样糟糕,情况更糟。

来源:《Naked Capitalism》

我们反复按下读者不使用AI,因为其输出不可靠。例如,评论者设法发布了AI生成的信托义务定义。它错过了关键方面,即受托义务是法律下的最高护理标准,并要求代理商将委托人的利益放在其自己面前。如果AI无法获得如此基本的东西,如此广泛讨论,并且不难正确正确地正确,那么如何才能被任何话题信任呢?

那是在考虑AI使常规用户屈服之前。或者Sam Altman警告说:您与Chatgpt分享的内容可能会与您使用。

您与Chatgpt共享的内容可以对您

如果您仍然很不幸,以至于使用Google进行搜索并将其AI搜索结果贴在您的脸上,那也不可靠。 AI甚至无法正确编译新闻来源。来自ARS Technica:

来自ARS Technica
哥伦比亚新​​闻评论的一项新研究的数字新闻中心发现了用于新闻搜索的生成AI模型的严重准确性问题。研究人员通过提供真实新闻文章的直接摘录并要求模型来识别每篇文章的原始标题,发布者,出版日期和URL,从而测试了八种AI驱动的搜索工具。他们发现,AI模型中有60%以上的查询中的资源错误地引用了来源,这引起了人们对正确归因新闻内容的可靠性的重大关注。

我们通过电子邮件从东南亚的个人联系中获得了另一个示例。他在野兔和英国大学教授了它。他还是发明家,并根据他的创作之一拥有40多名员工的英国业务。他现在正在另外两台设备上工作,并获得了其中一项专利。他向我展示了一个早期的模型和他制作的超强的定制磁铁,以使其正常工作。他的信息:

从2024年2月开始

这就是我所知道的

klg有一个更平凡的例子:

查询: