详细内容或原文请订阅后点击阅览
ai“幻觉”不断,但是有一个解决方案
对死海卷轴的AI分析,其中包括希伯来语圣经的文字,可能意味着它们比专家想象的要早。
来源:LiveScienceBig Tech对人工智能(AI)实验的主要问题并不是它可以接管人类。正是大型语言模型(LLM),例如Open AI的Chatgpt,Google的Gemini和Meta的Llama继续弄错了问题,问题很棘手。
人工智能被称为幻觉,最突出的例子也许就是美国法学教授乔纳森·图里(Jonathan Turley)的案例,他在2023年被错误地指控chantgpt性骚扰。
错误被指控Openai的解决方案似乎是通过编程Chatgpt说出无法回答有关他的问题的基本上“消失”的Turley,这显然不是一个公平或令人满意的解决方案。事件发生后,试图解决幻觉和案件案显然不是要走的路。
也可以说,LLMS会放大刻板印象或给出以西方为中心的答案。面对这种广泛的错误信息,完全缺乏问责制,因为很难确定LLM首先是如何得出这一结论的。
放大刻板印象 以西方为中心的答案在2023年发布GPT-4之后,我们看到了关于这些问题的激烈辩论,GPT-4是OpenAI LLM开发中最近的主要范式。可以说,自那时以来,辩论一直冷却,尽管没有理由。
欧盟在2024年在创纪录的时间内通过了其AI法案,以成为监督该领域的世界领导者。但是该行为在很大程度上依靠AI公司来规范自己,而没有真正解决有关问题。它并没有阻止科技公司在全球范围内释放LLM,并在未经审查的情况下收集数据并收集数据。
AI ACT 没有真正解决相关:“充其量是愚蠢的,最坏的欺骗性和危险”:不要相信炒作 - 这就是为什么人工通用情报不是亿万富翁告诉您的原因
相关: 最新 表示 仍然抵制承担责任 代理AI