Understanding prompt engineering: Unlock the creative potential of Stability AI models on AWS
Stability AI 在 Amazon SageMaker JumpStart 上最新推出的 Stable Diffusion 3.5 Large (SD3.5L) 通过生成更多样化的输出并紧密遵循用户提示来增强图像生成、人体解剖渲染和排版,使其成为对其前身的重大升级。在这篇文章中,我们将探索可以增强这些模型性能的高级提示工程技术,并通过文本到图像的转换促进引人注目的图像的创建。
Академия Ростеха делится опытом внедрения модели бизнес-акселератора
Rostec 学院新产品开发中心主任 Andrey Batrimenko 在 TechPred 2024 论坛上谈到了 Vector 企业计划
AI 发展面临着技术发展和政治方面的障碍。 与 Mike 和 Paul 一起探索 OpenAI 的 Orion 挑战和特朗普的监管改革。 此外,Mike 和 Paul 还分享了他们使用生成式 AI 彻底改变规划会议的第一手经验 — 将数小时的头脑风暴变成数分钟的专注战略。
Virtual Personas for Language Models via an Anthology of Backstories
我们介绍了 Anthology,这是一种通过生成和利用具有丰富个人价值观和经验细节的自然背景故事来将 LLM 调节为具有代表性、一致和多样化的虚拟角色的方法。大型语言模型 (LLM) 在由数百万和数十亿不同的人类作者共同制作的海量文本语料库上进行训练意味着什么?在“语言模型作为代理模型”中,令人信服的证据表明,最近的语言模型可以被视为代理模型:在提供文本上下文的情况下,LLM 能够生成代表可能产生该上下文的代理特征的条件文本。这表明,通过适当的调节,可以引导 LLM 近似特定人类声音的响应,而不是以其他方式出现的混合声音。如果实现,LLM 的这种能力将对用户研究和社会科学产生重大影响——作为人
Ancient DNA debunks assumptions about Pompeii’s famed body casts
庞贝维苏威火山爆发期间遇难者的 DNA 颠覆了人们对受害者身份和关系的传统观念。庞贝古城位于意大利现代那不勒斯郊外,公元 79 年被火山物质掩埋。火山灰包裹着许多人的尸体 […]
The Evolution of Generative AI Models: A Comprehensive Guide
为什么重要:了解生成人工智能如何随着新应用、道德考量和错误信息等挑战的解决方案而发展。
ERDC looks to modernize flood models with levee vegetation index
ERDC 的一个多学科团队正在努力通过开发植被指数来更新广泛使用的洪水模型,例如 StormSim 和水文工程中心软件,该指数可以更全面地量化沿海堤坝上的植被稳定性。该指数将包含一系列生态测量数据,例如根/茎比、蒸散率、土壤湿度、植被剪切力、根系强度以及植被年龄、大小和类型。
Reducing the Size of AI Models
在边缘设备上运行大型 AI 模型使用 Pixlr 创建的图像AI 模型,尤其是大型语言模型 (LLM),需要大量的 GPU 内存。例如,对于 2024 年 7 月发布的 LLaMA 3.1 模型,内存要求如下:80 亿参数模型需要 16 GB 内存(16 位浮点权重)更大的 4050 亿参数模型需要 810 GB(使用 16 位浮点数)在全尺寸机器学习模型中,权重表示为 32 位浮点数。现代模型具有数亿到数百亿(甚至数千亿)的权重。训练和运行如此大的模型非常耗费资源:它需要大量的计算(处理能力)。它需要大量的 GPU 内存。它会消耗大量的能源,特别是,造成这种能源消耗的最大因素是:- 使用 3
Druva 为数千家企业提供网络、数据和运营弹性,并受到 60 家财富 500 强企业的信任。在这篇文章中,我们展示了 Druva 如何使用 Amazon Bedrock 进行自然语言查询 (NLQ)——用英语提问并获取表格数据作为答案——以及他们面临的挑战、示例提示和关键学习内容。
Computational Bottlenecks of Training Small-Scale Large Language Models
这篇论文被 NeurIPS Workshop 2024 的高效自然语言和语音处理 (ENLSP) 研讨会接受。虽然大型语言模型 (LLM) 主导着人工智能领域,但由于消费者对成本和效率的要求,小规模大型语言模型 (SLM) 正受到关注。然而,对 SLM 的训练行为和计算要求的研究有限。在本研究中,我们通过检查各种超参数和配置(包括 GPU 类型、批量大小等)的影响,探索了训练 SLM(最多 2B 个参数)的计算瓶颈…
Making it easier to verify an AI model’s responses
通过允许用户清楚地看到大型语言模型引用的数据,此工具加快了手动验证速度,以帮助用户发现 AI 错误。
Considerations for governing open foundation models | Science
不同的政策建议可能会对创新生态系统产生不成比例的影响
从人类反馈中进行强化学习 (RLHF) 是一种将语言模型与人类偏好保持一致的有效方法。RLHF 的核心是学习用于对人类偏好进行评分的奖励函数。学习奖励模型的两种主要方法是 1) 训练显式奖励模型(如 RLHF)和 2) 使用通过直接偏好优化 (DPO) 等方法从偏好数据中学习的隐式奖励。先前的研究表明,DPO 的隐性奖励模型可以近似训练有素的奖励模型,但尚不清楚 DPO 在多大程度上可以推广到分布……
Hugging Face når milstolpe med över en miljon AI-modeller
2024年9月26日,AI平台Hugging Face首次突破100万个AI模型列表,达到了一个重要的里程碑。这标志着快速发展的机器学习和人工智能领域的一个重要时刻。 Hugging Face Hub 现在拥有令人印象深刻的统计数据:总存储容量达到 12 PB,其中包括存储在 Git LFS 中的 2.8 亿个文件 […]Hugging Face 帖子达到了里程碑,超过 100 万个 AI 模型首次出现在 AI 新闻中。
Speculative Streaming: Fast LLM Inference Without Auxiliary Models
推测解码是一种重要的技术,可基于辅助草稿模型的预测来加速大型目标语言模型的推理。虽然有效,但在特定于应用程序的设置中,它通常涉及对草稿和目标模型进行微调以实现高接受率。随着下游任务数量的增加,这些草稿模型会给推理系统增加相当大的复杂性。我们提出了 Speculative Streaming,这是一种单模型推测解码方法,通过将微调目标从下一个标记预测更改为...,将起草融合到目标模型中。
TimesFM: The Boom of Foundation Models in Time Series Forecasting
探索 Google 的最新 AI 模型如何使用超过 3070 亿个数据点实现零样本预测准确度继续阅读 Towards Data Science »
The Ethics of Human Embryo Models Are Getting Dicier
Smriti Mallapaty,自然 在显微镜下,Jun Wu 可以看到几个微小的球体,每个球体的宽度不到 1 毫米。它们看起来就像人类胚胎:一簇黑色的细胞……