llm关键词检索结果

NarrativeTrack:评估框架之外的视频语言模型

NarrativeTrack: Evaluating Video Language Models Beyond the Frame

多模态大语言模型 (MLLM) 在视觉语言推理方面取得了令人瞩目的进展,但它们理解视频中暂时展开的叙述的能力仍未得到充分探索。真正的叙事理解需要以谁在做什么、何时何地为基础,在动态视觉和时间上下文中保持连贯的实体表示。我们引入了 NarrativeTrack,这是第一个通过细粒度的以实体为中心的推理来评估 MLLM 中叙事理解的基准。与仅限于短剪辑或粗略场景级语义的现有基准不同......

概率多变量推理:将流利的 LLM 答案转化为加权选项

Probabilistic Multi-Variant Reasoning: Turning Fluent LLM Answers Into Weighted Options

人类引导的 AI 协作概率多变量推理:将流畅的 LLM 答案转化为加权选项一文首先出现在《走向数据科学》上。

LLM 包含很多参数。但参数是什么?

LLMs contain a LOT of parameters. But what’s a parameter?

麻省理工学院技术评论解释:让我们的作者解开复杂、混乱的技术世界,帮助您了解接下来会发生什么。您可以在此处阅读该系列的更多内容。我写这篇文章是因为我的一位编辑在半夜醒来并在床头记事本上潦草写下:“什么是……

戒酒可以从根本上延缓衰老

Giving Up Alcohol Could Radically Slow Aging

Hatty Willmoth,科学焦点 一月感觉像是戒酒的完美月份 - 不仅因为“干燥一月”已成为......

在 Amazon SageMaker AI 上部署 Mistral AI 的 Voxtral

Deploy Mistral AI’s Voxtral on Amazon SageMaker AI

在本文中,我们演示了使用 vLLM 和自带容器 (BYOC) 方法在 Amazon SageMaker AI 终端节点上托管 Voxtral 模型。 vLLM 是一个用于服务大型语言模型 (LLM) 的高性能库,具有分页注意力以改进内存管理和张量并行性,以便跨多个 GPU 分发模型。

ChatLLM 提出了解决 AI 真正瓶颈的简化解决方案

ChatLLM Presents a Streamlined Solution to Addressing the Real Bottleneck in AI

在过去的几年里,围绕人工智能的许多讨论都围绕着一个看似简单的问题:哪种模型是最好的?但下一个问题始终是,什么是最好的?最适合推理?写作?编码?或者它可能最适合图像、音频或视频?这一框架使得 […]ChatLLM 提出了解决人工智能真正瓶颈的简化解决方案一文首先出现在《走向数据科学》上。

BED-LLM:利用法学硕士和贝叶斯实验设计进行智能信息收集

BED-LLM: Intelligent Information Gathering with LLMs and Bayesian Experimental Design

我们提出了一种通用方法,用于提高大型语言模型 (LLM) 使用顺序贝叶斯实验设计 (BED) 框架智能、自适应地从用户或其他外部源收集信息的能力。这使得法学硕士能够充当有效的多轮会话代理并与外部环境进行交互。我们的方法称为 BED-LLM(大型语言模型的贝叶斯实验设计),基于迭代选择问题或查询,最大化关于任务的预期信息增益 (EIG)

当您仅使用 1 和 0 构建 LLM 时会发生什么

What Happens When You Build an LLM Using Only 1s and 0s

比当今标准模型效率提高 41 倍、速度提高 9 倍的 LLM 帖子“仅使用 1 和 0 构建 LLM 时会发生什么”首先出现在《走向数据科学》上。

IEEE 游戏汇刊,第 17 卷,第 4 期,2025 年 12 月

IEEE Transactions on Games, Volume 17, Issue 4, December 2025

1) 以人为中心的格斗游戏人工代理开发调查作者:Martinho Tavares、João M. Carvalho、Armando J. Pinho 页数:839 - 8582) 重新发现过去:考古学的严肃游戏作者:Vittorio Murtas、Vincenzo Lombardo 页数:859 - 8723) 综合视频游戏中的多智能体强化学习综述作者:Zhengyang Li、Qijin Ji、Xinghong Ling、Quan Liu页数:873 - 8924) 游戏化文化沉浸:城市遗产中的虚拟现实和混合现实作者:Filippo Sanfilippo、Marius Tataru、Minh

AI 代理的生产级可观测性:最少代码、配置优先的方法

Production-Grade Observability for AI Agents: A Minimal-Code, Configuration-First Approach

LLM 作为法官、回归测试和多代理 LLM 系统的端到端可追溯性人工智能代理的后期生产级可观察性:最少代码、配置优先的方法首先出现在《走向数据科学》上。

正在酝酿的 GenAI 数据科学革命

The brewing GenAI data science revolution

如果您现在领导一个企业数据科学团队或定量研究部门,您可能会感觉自己生活在两个平行的宇宙中。在一个宇宙中,你会看到“GenAI”爆炸。聊天机器人现在可以编写代码并创造艺术,而董事会则痴迷于大型语言模型(LLM)将如何改变世界。正在酝酿中的 GenAI 数据科学革命首先出现在 DataRobot 上。

新的 HEPI 辩论论文:《贝克一打:十三年高等教育书评,2013 年至 2025 年》

New HEPI Debate Paper: ‘A Baker’s Dozen: Thirteen years of book reviews on higher education, 2013 to 2025’

HEPI 2025 年最终出版物及时回顾,反思了高等教育政策和辩论发生深刻变化的时期。 《贝克一打:高等教育十三年书评,2013 年至 2025 年》(HEPI 辩论论文 42),由 HEPI 主任 Nick Hillman OBE 撰写,汇集了已发表的 30 篇书评 […]新 HEPI 辩论论文:《贝克一打:高等教育十三年书评,2013 年至 2025 年》首先出现在 HEPI 上。

对于婴儿潮一代来说,人工智能关系并不是欺骗

To Boomers, An AI Relationship Is Not Cheating

最近的一项调查发现,超过 28% 的成年人声称他们与 LLM(大语言模型)保持着亲密甚至浪漫的关系,俗称人工智能 - “AI”。(1)这似乎是合理的,因为 41% 的人相信通灵和鬼魂。令人惊讶的是接受这项新技术的人群的人口统计数据。这不是年轻人,他们知道这不是真实的,而是婴儿潮一代。他们不仅对人工智能关系感到满意,超过 50% 的人表示他们可以毫无愧疚地与人工智能建立浪漫关系。阅读更多

UniGen-1.5:通过强化学习中的奖励统一增强图像生成和编辑

UniGen-1.5: Enhancing Image Generation and Editing through Reward Unification in Reinforcement Learning

我们推出 UniGen-1.5,这是一种用于高级图像理解、生成和编辑的统一多模态大语言模型 (MLLM)。在UniGen的基础上,我们全面增强了模型架构和训练流程,以增强图像理解和生成能力,同时释放强大的图像编辑能力。特别是,我们提出了一种统一的强化学习(RL)策略,通过共享奖励模型共同改进图像生成和图像编辑。为了进一步增强图像编辑性能,我们提出了一个轻型编辑指令对齐阶段......

就这些了,伙计们? 2025年高等教育五个注意点

That’s All, Folks? Five points of note about higher education in 2025

HEPI 主任尼克·希尔曼 (Nick Hillman) 探讨了 2025 年影响高等教育的一些变化。(这些言论最初于 2025 年 12 月 15 日晚提交给 HEPI 合作伙伴 Ellucian 的执行咨询委员会。) 高层的房间 高等教育部门继续看到那些监督者的巨大流失 […] 帖子就这样了,伙计们? HEPI首先出现了关于2025年高等教育的五点注意事项。