扩散模型关键词检索结果

稳定的扩散模型秘密地擅长视觉上下文学习

Stable Diffusion Models are Secretly Good at Visual In-Context Learning

自然语言处理 (NLP) 中的大型语言模型 (LLM) 已展现出上下文学习 (ICL) 的巨大潜力——能够利用几组示例提示来适应各种任务,而无需显式更新模型权重。 ICL 最近被探索用于计算机视觉任务,并取得了有希望的早期成果。这些方法涉及专门的培训和/或额外的数据,使过程复杂化并限制其普遍性。在这项工作中,我们展示了现成的稳定扩散模型可以重新用于视觉上下文学习……

新网络研讨会 - “人工智能和多媒体:使用生成式人工智能处理图像、视频和音频”

New Webinar - "AI and Multimedia: Using Generative AI for Images, Video, and Audio"

人工智能和多媒体:将生成式人工智能用于图像、视频和音频Nicole Hennig 主持的人工智能网络研讨会概述:在多媒体生成式人工智能工具之旅中,您将了解底层技术 – 如何仅通过文本输入创建图像、视频、音乐和语音?您将了解各种类型的可用工具及其功能。您将看到这些工具可以生成的许多示例。接下来我们将讨论与版权、偏见和深度伪造问题相关的道德问题。我们将学习如何以避免偏见的方式提示图像生成。我们还将展示以创造性和有益的方式使用这些工具的艺术家的示例。您将了解如何使用 genAI 创作艺术品是一个复杂得多的过程,而不仅仅是输入提示并接受第一个输出。我们会听到残疾艺术家的意见,他们发现当他们无法再使用物

条件扩散中组合泛化的局部机制

Local Mechanisms of Compositional Generalization in Conditional Diffusion

条件扩散模型似乎能够进行成分泛化,即为调节器的分布外组合生成令人信服的样本,但这种能力背后的机制仍不清楚。为了使这一点具体化,我们研究了长度泛化,即生成具有比训练期间看到的更多对象的图像的能力。在受控的 CLEVR 设置中(Johnson 等人,2017),我们发现在某些情况下可以实现长度泛化,但在其他情况下则不能,这表明模型有时只能学习底层的组成结构。然后我们调查......

GPU 的终结?光学人工智能接管

The End of GPUs? Optical AI takes over

加州大学洛杉矶分校的研究人员开发了光学生成模型——利用光而不是传统电子计算来创建图像的人工智能技术。这项创新提供了高速、节能的图像生成,其质量可与数字扩散模型相媲美。

科学家揭露了在光线下运行的AI,而不是渴望耗电的筹码

Scientists Unveil AI That Runs on Light, Not Power-Hungry Chips

在发现相等的科幻小说和环境突破的发现中,加州大学洛杉矶分校的研究人员设计了一个AI图像发生器,该生成器用光而不是电力解码。他们的系统在流行力学中描述,使用激光和空间光调节器立即产生图像,同时减少了传统扩散模型的重量需求。这很重要,因为AI的碳足迹并不小。 Openai曾经透露,在今年早些时候的一周中,用户产生了超过7亿张图像,引发了有关可持续性作为收养飞机的疑问。通过避开大部分数字咕unt作品,光学AI可以提供[…]