Dynamic language understanding: adaptation to new knowledge in parametric and semi-parametric models
为了研究半参数 QA 模型及其底层参数语言模型 (LM) 如何适应不断发展的知识,我们构建了一个新的大型数据集 StreamingQA,其中包含在给定日期提出的人工编写和生成的问题,这些问题将从 14 年的带时间戳的新闻文章中得到解答。我们每季度对我们的模型进行评估,因为它们会阅读预训练中未见过的新文章。我们表明,参数模型可以在不进行完全重新训练的情况下进行更新,同时避免灾难性的遗忘。
云分数昼夜变化(CDV)调节地球系统的辐射预算和平衡,影响大气变量,例如温度和湿度,以及降水和热带气旋等物理过程。但是,气候模型中存在明显的CDV偏差。迄今为止,大多数模型评估都集中在每日平均云部分(CFR)上,而CDV受到了较少的关注。
Elevenlabs nya V3 kan vara perfekt för audioböcker
ElevenLabs刚刚推出了其最雄心勃勃的文本对数模型,以迄今为止 - 学生V3(Alpha)。学生V3与以前的模型具有明显不同,其能力通过深厚的情感范围传达出非常富有表现力的语音。该模型可以产生叹息,窃窃私语,大笑和反应的言论,以真正人性化的方式。以前曾经是一个限制[…] Elevenlab帖子的新V3非常适合首次出现在AI新闻中的音频书籍。
从大型语言模型(LLM)到推理代理,当今的AI工具带来了前所未有的计算需求。数万亿参数模型,运行在设备上的工作负载以及成群以完成任务的代理商都需要新的计算范式,才能变得真正无缝且无处不在。首先,硬件和硅设计方面的技术进步对于突破边界至关重要……
How Phi-4-Reasoning Redefines AI Reasoning by Challenging “Bigger is Better” Myth
Microsoft最近发布的PHI-4-RONOAGING挑战是建立能够推理的人工智能系统的关键假设。自2022年引入了经过思考的推理以来,研究人员认为,高级推理需要具有数千亿个参数的非常大的语言模型。但是,微软的新的140亿个参数模型,PHI-4 - 策划了这种信念。使用以数据为中心的方法[…]帖子如何通过挑战“更大”的神话来重新定义AI推理,这是在Unite.ai上首先出现的。
Customize DeepSeek-R1 671b model using Amazon SageMaker HyperPod recipes – Part 2
在这篇文章中,我们使用食谱来微调原始的DeepSeek-R1 671b参数模型。我们通过使用Sagemaker培训工作和Sagemaker Hyperpod的逐步实施这些食谱来证明这一点。
Prominent chatbots routinely exaggerate science findings, study shows
根据UWE Peters(Uwe Peters(Utrecht University)和Benjamin Chin-ee(加拿大加拿大剑桥大学/英国剑桥大学)的一项研究,总结了Chatgpt和DeepSeek等大型语言模型(LLM)在多达73%的病例中产生不准确的结论。研究人员测试了最杰出的LLM,并分析了数千个聊天机器人生成的科学摘要,揭示了大多数模型始终产生的结论比摘要文本中的结论更广泛。
The Uncertain Fate of the Beaufort Gyre
气候模型对这种有影响力的海洋电流会发生的事情产生广泛的预测,但是大多数模型预测其将会削弱或停止。
The Role of Prosody in Spoken Question Answering
口语理解迄今为止的研究通常具有沉重的文本视角。大多数数据集源自文本,然后将其合成到语音中,大多数模型通常依赖于语音的自动转录。这损害了韵律 - 语音信号所携带的添加信息超出了单词本身的语音,并且很难单独从文本中恢复。在这项工作中,我们调查了韵律在口头问题回答中的作用。通过在SLUE-SQA-5数据集上隔离韵律和词汇信息,该信息由…
Mistral släpper Small 3.1 den bästa modellen i sin viktklassi
Mistral Small 3是AI模型的新发布,其体重类别具有令人印象深刻的性能和效率。它代表了240亿个参数模型,不仅挑战了较大的模型,例如700亿参数,而且在许多情况下都超过了它们的速度和效率。奥德伦(Odellen)在其[…]帖子中脱颖而出,米斯特拉尔(Mistral)释放了小型3.1体重Classi中最佳模型首次出现在AI新闻中。
Transfer Learning in Scalable Graph Neural Network for Improved Physical Simulation
近年来,基于图形神经网络(GNN)模型在模拟复杂物理系统方面显示出令人鼓舞的结果。但是,培训专用的图形网络模拟器可能会昂贵,因为大多数模型都局限于完全监督的培训。训练模型需要从传统模拟器产生的大量数据。如何应用转移学习来提高模型性能和训练效率。在这项工作中,我们引入了图形网络模拟器的预处理和转移学习范式。首先,我们提出了可扩展的图形u-net…
Reducing the Size of AI Models
在边缘设备上运行大型 AI 模型使用 Pixlr 创建的图像AI 模型,尤其是大型语言模型 (LLM),需要大量的 GPU 内存。例如,对于 2024 年 7 月发布的 LLaMA 3.1 模型,内存要求如下:80 亿参数模型需要 16 GB 内存(16 位浮点权重)更大的 4050 亿参数模型需要 810 GB(使用 16 位浮点数)在全尺寸机器学习模型中,权重表示为 32 位浮点数。现代模型具有数亿到数百亿(甚至数千亿)的权重。训练和运行如此大的模型非常耗费资源:它需要大量的计算(处理能力)。它需要大量的 GPU 内存。它会消耗大量的能源,特别是,造成这种能源消耗的最大因素是:- 使用 3
俄罗斯最大的微电子制造商和出口商米克朗与俄罗斯领先的数字和数模芯片开发设计中心NIIMA Progress将开发和生产首款采用RISC-V内核的国产32位微控制器以及符合 GOST 的内置功能加密保护。
本月我的阅读清单与往常略有不同。我回顾了《计量经济学》和《计量经济学杂志》的往期期刊,并挑选了一些恰好发表在这些期刊 7 月期刊上的重要且有趣的论文。以下是我为您推荐的:Aigner, D.、C. A. K. Lovell 和 P. Schmidt,1977 年。《随机前沿生产函数模型的公式和估计》。《计量经济学杂志》,6,21-37。Chow, G. C.,1960 年。《两个线性回归系数集之间的相等性检验》。《计量经济学》,28,591-605。Davidson, R. 和 J. G. MacKinnon,1984 年。《logit 和 probit 模型的便捷规范检验》。计量经济学杂志,