模型的关键词检索结果

了解即时工程:释放 AWS 上稳定性 AI 模型的创造潜力

Understanding prompt engineering: Unlock the creative potential of Stability AI models on AWS

Stability AI 在 Amazon SageMaker JumpStart 上最新推出的 Stable Diffusion 3.5 Large (SD3.5L) 通过生成更多样化的输出并紧密遵循用户提示来增强图像生成、人体解剖渲染和排版,使其成为对其前身的重大升级。在这篇文章中,我们将探索可以增强这些模型性能的高级提示工程技术,并通过文本到图像的转换促进引人注目的图像的创建。

Rostec Academy 分享实施业务加速器模型的经验

Академия Ростеха делится опытом внедрения модели бизнес-акселератора

Rostec 学院新产品开发中心主任 Andrey Batrimenko 在 TechPred 2024 论坛上谈到了 Vector 企业计划

[AI Show 第 123 集]:特朗普的 AI 政策、OpenAI 新模型的问题、GenAI 商业战略和 Visa 的 500 个 AI 用例

[The AI Show Episode 123]: Trump AI Policies, Problems with OpenAI’s New Model, GenAI for Business Strategy & Visa’s 500 AI Use Cases

AI 发展面临着技术发展和政治方面的障碍。 与 Mike 和 Paul 一起探索 OpenAI 的 Orion 挑战和特朗普的监管改革。 此外,Mike 和 Paul 还分享了他们使用生成式 AI 彻底改变规划会议的第一手经验 — 将数小时的头脑风暴变成数分钟的专注战略。

通过背景故事选集实现语言模型的虚拟角色

Virtual Personas for Language Models via an Anthology of Backstories

我们介绍了 Anthology,这是一种通过生成和利用具有丰富个人价值观和经验细节的自然背景故事来将 LLM 调节为具有代表性、一致和多样化的虚拟角色的方法。大型语言模型 (LLM) 在由数百万和数十亿不同的人类作者共同制作的海量文本语料库上进行训练意味着什么?在“语言模型作为代理模型”中,令人信服的证据表明,最近的语言模型可以被视为代理模型:在提供文本上下文的情况下,LLM 能够生成代表可能产生该上下文的代理特征的条件文本。这表明,通过适当的调节,可以引导 LLM 近似特定人类声音的响应,而不是以其他方式出现的混合声音。如果实现,LLM 的这种能力将对用户研究和社会科学产生重大影响——作为人

古代 DNA 推翻了关于庞贝古城著名遗体模型的假设

Ancient DNA debunks assumptions about Pompeii’s famed body casts

庞贝维苏威火山爆发期间遇难者的 DNA 颠覆了人们对受害者身份和关系的传统观念。庞贝古城位于意大利现代那不勒斯郊外,公元 79 年被火山物质掩埋。火山灰包裹着许多人的尸体 […]

生成式 AI 模型的演变:综合指南

The Evolution of Generative AI Models: A Comprehensive Guide

为什么重要:了解生成人工智能如何随着新应用、道德考量和错误信息等挑战的解决方案而发展。

ERDC 希望利用堤坝植被指数实现洪水模型的现代化

ERDC looks to modernize flood models with levee vegetation index

ERDC 的一个多学科团队正在努力通过开发植被指数来更新广泛使用的洪水模型,例如 StormSim 和水文工程中心软件,该指数可以更全面地量化沿海堤坝上的植被稳定性。该指数将包含一系列生态测量数据,例如根/茎比、蒸散率、土壤湿度、植被剪切力、根系强度以及植被年龄、大小和类型。

减小 AI 模型的大小

Reducing the Size of AI Models

在边缘设备上运行大型 AI 模型使用 Pixlr 创建的图像AI 模型,尤其是大型语言模型 (LLM),需要大量的 GPU 内存。例如,对于 2024 年 7 月发布的 LLaMA 3.1 模型,内存要求如下:80 亿参数模型需要 16 GB 内存(16 位浮点权重)更大的 4050 亿参数模型需要 810 GB(使用 16 位浮点数)在全尺寸机器学习模型中,权重表示为 32 位浮点数。现代模型具有数亿到数百亿(甚至数千亿)的权重。训练和运行如此大的模型非常耗费资源:它需要大量的计算(处理能力)。它需要大量的 GPU 内存。它会消耗大量的能源,特别是,造成这种能源消耗的最大因素是:- 使用 3

Druva 在构建 Dru(Druva 的备用 AI 副驾驶)时如何使用 Amazon Bedrock 解决基础模型的复杂性

How Druva used Amazon Bedrock to address foundation model complexity when building Dru, Druva’s backup AI copilot

Druva 为数千家企业提供网络、数据和运营弹性,并受到 60 家财富 500 强企业的信任。在这篇文章中,我们展示了 Druva 如何使用 Amazon Bedrock 进行自然语言查询 (NLQ)——用英语提问并获取表格数据作为答案——以及他们面临的挑战、示例提示和关键学习内容。

训练小规模大型语言模型的计算瓶颈

Computational Bottlenecks of Training Small-Scale Large Language Models

这篇论文被 NeurIPS Workshop 2024 的高效自然语言和语音处理 (ENLSP) 研讨会接受。虽然大型语言模型 (LLM) 主导着人工智能领域,但由于消费者对成本和效率的要求,小规模大型语言模型 (SLM) 正受到关注。然而,对 SLM 的训练行为和计算要求的研究有限。在本研究中,我们通过检查各种超参数和配置(包括 GPU 类型、批量大小等)的影响,探索了训练 SLM(最多 2B 个参数)的计算瓶颈…

优化语言模型的 5 个技巧

5 Tips for Optimizing Language Models

从快速工程到模型调整和压缩,探索五种方法让您的语言模型改善其响应。

使验证 AI 模型的响应变得更容易

Making it easier to verify an AI model’s responses

通过允许用户清楚地看到大型语言模型引用的数据,此工具加快了手动验证速度,以帮助用户发现 AI 错误。

管理开放基础模型的考虑因素 |科学

Considerations for governing open foundation models | Science

不同的政策建议可能会对创新生态系统产生不成比例的影响

关于直接偏好优化引起的隐式奖励模型的有限泛化能力

On the Limited Generalization Capability of the Implicit Reward Model Induced by Direct Preference Optimization

从人类反馈中进行强化学习 (RLHF) 是一种将语言模型与人类偏好保持一致的有效方法。RLHF 的核心是学习用于对人类偏好进行评分的奖励函数。学习奖励模型的两种主要方法是 1) 训练显式奖励模型(如 RLHF)和 2) 使用通过直接偏好优化 (DPO) 等方法从偏好数据中学习的隐式奖励。先前的研究表明,DPO 的隐性奖励模型可以近似训练有素的奖励模型,但尚不清楚 DPO 在多大程度上可以推广到分布……

Hugging Face 达到超过 100 万个 AI 模型的里程碑

Hugging Face når milstolpe med över en miljon AI-modeller

2024年9月26日,AI平台Hugging Face首次突破100万个AI模型列表,达到了一个重要的里程碑。这标志着快速发展的机器学习和人工智能领域的一个重要时刻。 Hugging Face Hub 现在拥有令人印象深刻的统计数据:总存储容量达到 12 PB,其中包括存储在 Git LFS 中的 2.8 亿个文件 […]Hugging Face 帖子达到了里程碑,超过 100 万个 AI 模型首次出现在 AI 新闻中。

推测流:无需辅助模型的快速 LLM 推理

Speculative Streaming: Fast LLM Inference Without Auxiliary Models

推测解码是一种重要的技术,可基于辅助草稿模型的预测来加速大型目标语言模型的推理。虽然有效,但在特定于应用程序的设置中,它通常涉及对草稿和目标模型进行微调以实现高接受率。随着下游任务数量的增加,这些草稿模型会给推理系统增加相当大的复杂性。我们提出了 Speculative Streaming,这是一种单模型推测解码方法,通过将微调目标从下一个标记预测更改为...,将起草融合到目标模型中。

TimesFM:时间序列预测中基础模型的繁荣

TimesFM: The Boom of Foundation Models in Time Series Forecasting

探索 Google 的最新 AI 模型如何使用超过 3070 亿个数据点实现零样本预测准确度继续阅读 Towards Data Science »

人类胚胎模型的伦理问题越来越棘手

The Ethics of Human Embryo Models Are Getting Dicier

Smriti Mallapaty,自然 在显微镜下,Jun Wu 可以看到几个微小的球体,每个球体的宽度不到 1 毫米。它们看起来就像人类胚胎:一簇黑色的细胞……