MM-Ego: Towards Building Egocentric Multimodal LLMs
这项研究旨在全面探索建立以自我为中心视频理解的多模式基础模型。为了实现这一目标,我们在三个方面工作。首先,由于缺乏质量为中心的视频理解的质量检查数据,因此我们将自动生成7m高质量的质量质量样本,用于基于人类通知数据的ego4d的自我中心视频。这是最大的中心QA数据集之一。其次,我们通过629个视频和7,026个问题来贡献一个具有挑战性的QA基准,以评估模型的识别能力和…
Hussein Osman, Segment Marketing Director at Lattice Semiconductor – Interview Series
侯赛因·奥斯曼(Hussein Osman)是一位半导体行业的资深人士,拥有超过二十年的经验,这些经验带给了市场硅和软件产品,这些产品将感知,处理和连接解决方案集成到了为最终用户带来价值的创新体验。在过去的五年中,他领导了Sensai解决方案策略和在格林特的努力[…] Lattice Semiconductor的细分市场总监侯赛因·奥斯曼(Hussein Osman) - 访谈系列首次出现在Unite.ai上。
Do LLMs Know Internally When They Follow Instructions?
指令遵循的内容对于建立具有大语言模型(LLMS)的AI代理至关重要,因为这些模型必须严格遵守用户提供的约束和准则。但是,LLM通常甚至无法遵循简单明了的说明。为了改善跟随指导行为并防止不良产出,需要更深入地了解LLMS内部状态与这些结果的关系。在这项工作中,我们调查了LLMS是否在其表示中编码与指导跟踪成功相关的信息 - 我们“内部知识”的属性。我们的分析…
TiC-LM: A Web-Scale Benchmark for Time-Continual LLM Pretraining
在Neurips 2024的终身基础模型(SCLLFM)讲习班的可伸缩持续学习中接受了本文。LARGE语言模型(LLMS)受过历史网络数据的培训不可避免地会过时。随着新数据的可用,我们调查了LLMS的评估策略和更新方法。我们引入了一个网络尺度数据集,以用于从114个常见爬网(CC)垃圾场得出的LLMS的时间预处理 - 比以前的持续语言建模基准测试的数量级。我们还设计了一般CC数据和特定域的时间分层评估……
Could LLMs help design our next medicines and materials?
一种新方法使用户可以用简单的语言询问具有某些属性的新分子,并收到有关如何合成它的详细说明。
Clarifai 11.3: Introducing AI Playground — LLM Battleground to Test Powerful AI Models
发现新的AI游乐场,这是一种使用强大的AI模型进行探索,测试和构建的方法。了解改进的标签工具,平台更新和Python SDK增强功能。
OpenAi刚刚筹集了惊人的40B美元来建造AGI,而且它可能与您想象的那样遥不可及。在这一集中,Paul和Mike打破了有关AGI的新预测,为什么Google为Agi的影响做好准备,以及亚马逊如何悄悄踏入AI Agent Artim Arms Race。另外:Openai的“开放”是克劳德(Claude)发起了全面的AI教育推动力,辩论AI是否可以通过Turing测试,跑道筹集了3亿美元以重写好莱坞规范。
Do LLMs Estimate Uncertainty Well in Instruction-Following?
大型语言模型(LLMS)可能是各个域中有价值的个人AI代理,只要它们可以准确地遵循用户说明即可。但是,最近的研究表明,LLMS的指导遵循功能有显着局限性,这引起了人们对其在高风险应用中的可靠性的担忧。准确地估计LLM在遵守指令中的不确定性对于减轻部署风险至关重要。据我们所知,我们介绍了在遵循教学的背景下对LLM的不确定性估计能力的第一个系统评估。我们的研究确定了……
Bespoke LLMs for Every Business? DeepSeek Shows Us the Way
曾经,技术克拉里昂的电话是“每个人的手机” - 实际上,移动通信已经彻底改变了业务(和世界)。今天,相当于该呼吁的等同于使每个人都可以访问AI应用程序。但是,AI的真正力量在于利用它来满足企业和组织的特定需求。这条路为每家业务的定制后LLM命名吗? DeepSeek向我们展示了首先出现在Unite.ai上的方式。
SeedLM: Compressing LLM Weights into Seeds of Pseudo-Random Generators
大型语言模型(LLM)已改变了自然语言处理,但是由于其运行时的成本很高,因此在广泛部署方面面临着巨大的挑战。在本文中,我们介绍了一种新型的培训后压缩方法,该方法使用伪随机生成器的种子来编码和压缩模型权重。具体而言,对于每个权重,请在推断过程中为被馈入线性反馈移位寄存器(LFSR)的种子,以有效地生成随机矩阵。然后将该矩阵与压缩系数线性结合,以重建重量块……
在这项工作中,我们提出了LLMS中相互加强数据合成(MRDS),以改善几片对话摘要任务。与需要外部知识的先前方法不同,我们相互加强LLM的对话综合和摘要功能,从而使他们在培训期间可以相互补充并增强整体性能。对话综合能力通过定向偏好优化和摘要能力的偏好评分来增强。通过产生的其他高质量对话 - 苏姆及配对数据来增强汇总功能…
Researchers teach LLMs to solve complex planning challenges
这个新框架利用了模型的推理能力来创建一个“智能助手”,从而找到了多步问题的最佳解决方案。
How Well Can LLMs Actually Reason Through Messy Problems?
生成AI的引入和演变是如此突然和强烈,以至于很难充分理解这项技术改变了我们的生活。放大到三年前。是的,至少在理论上,人工智学变得越来越普遍。越来越多的人知道其中的一些事情[…]帖子LLM实际上可以通过凌乱的问题推理到多么好吗?首先出现在unite.ai上。
The Rise of Smarter Robots: How LLMs Are Changing Embodied AI
多年来,创建可以像人类一样移动,交流和适应的机器人一直是人工智能的主要目标。尽管已经取得了重大进展,但开发能够适应新环境或学习新技能的机器人仍然是一个复杂的挑战。大型语言模型(LLM)的最新进展正在改变这一点。 […]较智能机器人的崛起:LLM如何变化体现的AI首先出现在unite.ai上。
最近的大型语言模型(LLMS)的进步引发了人们对工具协助LLMS解决现实世界挑战的越来越多的研究兴趣,该挑战要求对工具使用功能进行全面评估。虽然先前的作品重点是根据单个转弯用户提示进行评估对无状态的Web服务(RESTFUL API),或者是基于单个转弯的对话框轨迹,但ToolsAndbox包括已实行的工具执行,工具之间的隐式状态依赖关系,工具之间的内置用户模拟器,支持机上的对话评估和用于Intermediped和entermediped和最终的动态评估策略的内置用户模拟器
Top 20 Open-Source LLMs to Use in 2025
随着AI的继续发展,开源大语模型(LLMS)正变得越来越强大,使获得最先进的AI功能的访问权力变得越来越强大。 2025年,几种关键模型在开源生态系统中脱颖而出,为各种应用提供了独特的优势。大型语言模型(LLM)处于生成AI革命的最前沿。