ChatLLM 提出了解决 AI 真正瓶颈的简化解决方案

在过去的几年里,围绕人工智能的许多讨论都围绕着一个看似简单的问题:哪种模型是最好的?但下一个问题始终是,什么是最好的?最适合推理?写作?编码?或者它可能最适合图像、音频或视频?这一框架使得 […]ChatLLM 提出了解决人工智能真正瓶颈的简化解决方案一文首先出现在《走向数据科学》上。

来源:走向数据科学

在过去的几年里,围绕人工智能的许多讨论都围绕着一个看似简单的问题:哪种模型是最好的?

但下一个问题始终是,什么是最好的?

最适合推理?写作?编码?或者它可能最适合图像、音频或视频?

当技术是新的且不平衡的时候,这个框架是有意义的。当模型之间的差距显而易见时,辩论基准会显得富有成效并且几乎是必要的。选择正确的模型可以有意义地改变你能完成或不能完成的事情。

但如果你今天将人工智能用于实际工作——写作、规划、研究、分析和综合信息——或者甚至只是将半成形的想法变成可用的东西,这个问题就会开始让人感觉奇怪地偏离了重点。因为事实是这样的:模型不久前就不再是瓶颈了。

现在让人们放慢脚步的不是智能、人工或其他方式。而是围绕它的日益复杂的开销,例如多个订阅、碎片化的工作流程和不断的上下文切换。你有一个充满选项卡的浏览器,每个选项卡只擅长一小部分工作,但完全忽视其余部分。因此,您会发现自己从一个工具跳到另一个工具,重新解释上下文,重新设计提示,重新上传文件并重新陈述目标。

在此过程中的某个时刻,最初的前提,即人工智能可以带来大量的时间和成本效率,开始变得空洞。从那时起,从业者问自己的问题也发生了变化。我们不再问“我应该使用哪种模型?”,而是出现了一种更平凡、更具有启发性的想法:为什么使用人工智能的工作往往比它应该简化的工作更困难、更笨拙?

模型正在改进。工作流程则不然。

讽刺的是,人工智能用户今天的做法破坏了这四个方面。

单独来看,这些工具都很强大。总的来说,它们让人筋疲力尽,而且可能适得其反。

认知开销的隐性税收

上下文才是真正的护城河