液体AI启动LFM2是手机和计算机最快的AI模型

液体AI刚刚呈现了LFM2第二代液体粉底液模型,并且已经谈论了直接在单位上直接对生成AI感兴趣的人向前迈出的一大步 - 因此而不依赖云。为什么在device AI方面很有趣,LFM2显示出令人印象深刻的结果[…] Post Liquid AI启动LFM2是Mobiles和计算机最快的AI模型,首次出现在AI News上。

来源:AI新闻
Liquid AI引入了其开源LFM2模型,该模型以速度,能效和质量超过竞争对手。LFM2向具有0.35B,0.7B和1.2B参数的可用检查点的小型公司开放学术研究和商业用途。支持许多单元,例如智能手机,笔记本电脑和车辆。现在可以在拥抱面孔上使用开源型号LFM2,并计划将它们集成到液体AIS Edge AI平台和iOS本地消费者中。直接在单位上的AI将军 - 在不依赖云的情况下。为什么在device AI方面很有趣,LFM2在测试中显示出令人印象深刻的结果。在三星Galaxy S24 Ultra和AMD Ryzen处理器等单元上,LFM2接近速度和质量之间的最佳平衡。在实践中,这意味着什么? LFM2在三星Galaxy S24市场和AMD Ryzen PC中提供了最快的生成AI体验。与相同大小的竞争模型相比,它的响应时间大约要快得多。有趣的是:尽管许多AI型号需要强大的图形卡或云计算,但LFM2可以在常规CPU上平稳运行。它为以前无法处理此类计算能力的设备上的AI功能打开。因此,在这里,您可以测试LFM2自身测试LFM2的最佳方法是通过液体AI启动的Apollo AI应用程序。 Apollo是一个轻巧的iOS应用程序,可让您直接在手机上下载和测试LEAP模型。对于开发人员而言,还有LEAP(液体AI边缘平台),它是液体AIS开发人员平台,用于使用设备AI构建应用程序。 LEAP使将LFM2集成到您自己的应用程序和服务中成为可能。更多信息:CHAT