详细内容或原文请订阅后点击阅览
人工智能泡沫:它能做什么和不能做什么
在当今的科技领域,人工智能初创公司正以惊人的速度涌现,吸引了投资者的注意力。然而,随着人们对人工智能真正能力的怀疑与日俱增,这种兴奋蒙上了一层阴影。人们开始担心人工智能产生的错误信息普遍存在,以及开发人员在使用这些先进工具时面临的意外延迟。
来源:经济时报初创公司正在迅速发展,并吸引了越来越多的市场投资份额。随着人工智能的炒作达到新的高度,投资者对其变革能力下了很大的赌注。代理人工智能的出现进一步强化了这些希望。虽然不可否认的是,大型语言模型(LLM)已成为许多工作场所的主要内容,但人工智能能做什么和不能做什么的持续不确定性增加了其崛起实际上可能只是泡沫的可能性。人工智能是否走上可持续增长的道路很大程度上取决于我们对它真正的能力和局限性的了解程度。
厌倦了太多广告?删除广告
删除广告LLM 本质上是高级文本预测器。他们的主要任务是预测给定单词序列最可能的延续,这是从互联网上大量文本数据中学习的过程。与简单模型不同,法学硕士并不总是选择单个最有可能的单词;相反,他们可以从一系列选项中进行采样,这常常给人一种“创造力”的错觉。
然而,仅原始文本预测就可以生成连贯但漫无目的的文本。为了使法学硕士能够响应用户指令,他们需要进行指令调整,即在高质量的指令-响应对上对模型进行重新训练。这允许简单的文本预测器遵循指示并将输出与用户意图对齐。最后,通过对人类反馈的强化学习,该模型根据人类的价值观和偏好进一步完善其响应。
显然,人工智能系统的质量在很大程度上取决于它所训练的数据以及它与用户意图的一致性。然而,这就是该系统的局限性所在。最常见的问题之一是幻觉——当人工智能生成未经验证或错误的信息时。
2024 年一项题为“幻觉率和参考准确性”的研究
聊天GPT AI幻觉2025 年 6 月,Gartner 报告称,超过 40%
代理人工智能 www.economictimes.com.)
