文本关键词检索结果

为 AI 文本和合成蛋白质添加水印:打击错误信息和生物恐怖主义

Watermarking for AI Text and Synthetic Proteins: Fighting Misinformation and Bioterrorism

Nataliya Smirnova 在 UnSplash 上拍摄的彩色病毒突变图像 人工智能文本和合成蛋白的水印 机器学习工程师了解人工智能在生物领域的应用 错误信息和生物恐怖主义并不是新威胁,但它们的规模和易用性迅速增加。法学硕士让制造挑拨离间自主聊天机器人变得轻而易举,而生成蛋白质设计模型则大大扩大了能够进行生物战的参与者的数量。作为一个社会,我们需要的工具多种多样,但一个重要的组成部分是我们检测它们存在的能力。这就是水印的作用所在。水印或数字水印与用来劫持您孩子的学校照片的物理水印不同,是一种用于识别所有权的秘密信号。有效的水印必须坚固耐用,经得起修改,同时在没有专门方法的情况下无法被检

人们不喜欢人工智能编写的文本 - 即使它们实际上是由人类编写的

Людям не нравятся тексты за авторством ИИ — даже если на самом деле их написал человек

实际上由人工智能编写的文本往往不太吸引人,但它们不会产生任何更多的争论欲望。

如何使用 BART 模型和 Hugging Face Transformers 总结文本

How to Summarize Texts Using the BART Model with Hugging Face Transformers

要使用 Hugging Face 的 BART 模型总结文本,请加载模型和标记器,输入文本,然后模型会生成简明的摘要。

哈佛纪念教堂将举办“将泰勒·斯威夫特作为神圣文本阅读”活动

Harvard Memorial Church To Host "Reading Taylor Swift As A Sacred Text" Event

哈佛纪念教堂将举办“将泰勒·斯威夫特作为神圣文本阅读”活动作者:Jennifer Kabbany,来自 The College Fix,哈佛纪念教堂学生计划计划于今晚举办“将泰勒·斯威夫特作为神圣文本阅读”活动。周二晚上的活动由纪念教堂学生计划协调员兼多信仰参与研究员组织。“阅读那些对我们来说神圣的文本能告诉我们关于我们自己和我们的生活什么?发现一种与泰勒·斯威夫特经典互动的新方式,以纪念她的作品在许多人生活中扮演的重要情感和精神角色。带上您最喜欢的泰勒·斯威夫特歌曲,我们将带来神圣的阅读练习,”活动描述指出。RSVP 页面还指出,聚会“向所有宗教、道德和精神背景的人开放。”“我们将使用 Le

哈佛纪念教堂将举办“将泰勒·斯威夫特作为神圣文本阅读”活动

Harvard Memorial Church to host ‘Reading Taylor Swift as a Sacred Text’ event

“发现一种与泰勒·斯威夫特经典作品互动的新方式,以纪念她的作品在许多人生活中发挥的重要情感和精神作用。”

科学家认为在井中发现的骨骼与 800 年前的挪威文本中描述的是同一个人

Scientists Think a Skeleton Found in a Well Is the Same Man Described in an 800-Year-Old Norse Text

这些遗骸是在 1938 年的挖掘过程中发现的。现在,研究人员通过分析他牙齿中的 DNA 获得了有关他身份的新信息

Gen-AI 安全概况:文本转图像模型缓解堆栈指南

Gen-AI Safety Landscape: A Guide to the Mitigation Stack for Text-to-Image Models

AI 不再狂野:了解驯服 T2I 模型的安全组件了解文本转图像 AI 模型的功能和风险文本转图像模型 (T2I) 是根据文本提示描述生成图像的 AI 系统。潜在扩散模型 (LDM) 正在成为最流行的图像生成架构之一。LDM 首先将图像压缩到“潜在空间”,这是表示图像所需的核心信息的压缩、简化表示,而无需在较少的维度上提供所有详细的像素数据。该模型从此潜在空间中的随机噪声开始,并通过称为扩散的过程逐渐将其细化为清晰的图像,由输入文本引导。LDM 用途广泛,不仅能够生成文本转图像输出,还具有修复等功能,允许用户通过简单描述所需的更改来编辑现有图像的特定部分。例如,您可以通过文本命令无缝地从照片中删

2025 年排名前 3 的文本转图像 AI 生成器:功能、工具和技巧

Top 3 Text-to-Image AI Generators for 2025: Features, Tools, and Tips

从文本生成图像已成为一种为个人和商业目的创建引人入胜的视觉内容的新方式。随着专用工具数量的增加,AI 内容生成行业蓬勃发展,从而导致简化创作者工作的生成器的出现。无论您是在寻找有效的 AI 图像生成器来提升 […]

支持多语言学习者获取 CTE 文本

Supporting Multilingual Learners in Accessing CTE Texts

职业技术教育,通常称为职业技术教育或 CTE,涵盖了广泛的行业特定课程,旨在使高中生能够探索职业选择并培养 21 世纪的现代职场技能。课程范围从为不需要大学学位的毕业后立即从事的工作做准备,例如兽医技师和美容师 […] 支持多语言学习者获取 CTE 文本的文章首次出现在《语言杂志》上。

如何将 Hugging Face Transformers 用于文本转语音应用程序

How to Use Hugging Face Transformers for Text-to-Speech Applications

要使用 Hugging Face Transformers 进行文本转语音,请加载预先训练的 TTS 模型并输入要转换为语音的文本。 该模型将生成音频,您可以直接保存或播放。

我们能否给 AI 生成的文本“加水印”,以便知道其来源?

Can we 'watermark' AI-generated text so we know where it came from?

谷歌研究人员表示,他们已经开发出一种可以给人工智能生成的文本加水印的系统,计算机模型能够区分加水印的文本和人类的书写。该团队表示,他们的策略使用一种算法来巧妙地偏向聊天机器人的词汇选择,这样计算机模型稍后就可以识别出文本是否由人工智能生成。研究人员为他们的技术开发了两条路径 - 一条路径中的水印更容易识别,但文本质量较低,另一条路径可以提高文本质量,但仍然比现有的水印方法更容易检测到。该团队表示,这种技术不需要太多的计算机能力来运行,虽然他们的系统可能会被人们故意改写内容所绕过,但在人工智能透明度方面,这是一个进步。

RAG GenAI 系统中的多模态数据:从文本到图像及其他

Multimodal Data in RAG GenAI Systems: From Text to Image and Beyond

在快速发展的人工智能领域,检索增强生成 (RAG) GenAI 通过结合实时数据检索突破了生成模型的界限。 RAG 技术与生成式人工智能 (GenAI) 的融合创建了一个动态、上下文丰富的系统,可增强各个行业的内容生成。最具变革性的进步之一是整合 […]

Google DeepMind 正在开源其 AI 文本水印

Google DeepMind is making its AI text watermark open source

Google DeepMind 开发了一种用于识别人工智能生成文本的工具,并将其开源。该工具名为 SynthID,是用于生成人工智能输出的大型水印工具系列的一部分。该公司去年推出了一种用于图像的水印,此后又推出了一种用于人工智能生成的视频的水印。今年 5 月,……

稳定扩散 3.5:文本到图像 AI 的架构进步

Stable Diffusion 3.5: Architectural Advances in Text-to-Image AI

Stability AI 推出了 Stable Diffusion 3.5,标志着文本到图像 AI 模型的又一次进步。此版本代表了一项全面的改革,由宝贵的社区反馈和致力于突破生成 AI 技术界限的承诺推动。继 6 月发布 Stable Diffusion 3 Medium 之后,Stability AI 承认该模型并未完全满足 […] 文章 Stable Diffusion 3.5:文本到图像 AI 的架构进步首先出现在 Unite.AI 上。

CtrlSynth:可控图像文本合成,实现数据高效的多模态学习

CtrlSynth: Controllable Image-Text Synthesis for Data-Efficient Multimodal Learning

预训练稳健的视觉或多模态基础模型(例如 CLIP)依赖于大规模数据集,这些数据集可能存在噪声、可能错位且具有长尾分布。先前的研究已显示出通过生成合成样本来扩充数据集的良好结果。但是,它们仅支持特定领域的临时用例(例如,仅支持图像或文本,但不能同时支持两者),并且由于缺乏对合成过程的细粒度控制,数据多样性有限。在本文中,我们设计了一个可控的图像文本合成管道 CtrlSynth,用于数据高效且稳健的……

微调 BERT 进行文本分类

Fine-Tuning BERT for Text Classification

一个带有 Python 代码的可破解示例尽管当今的 100B+ 参数转换器模型是 AI 领域最先进的模型,但我们仍然可以使用较小的(<1B 参数)模型完成很多工作。在本文中,我将介绍一个这样的示例,即微调 BERT(1.1 亿个参数)以对网络钓鱼 URL 进行分类。我将首先介绍关键概念,然后分享示例 Python 代码。图片来自 Canva。微调微调涉及通过额外的训练将预训练模型调整到特定用例。预训练模型是通过无监督学习开发的,从而无需大规模标记数据集。然后,与从头开始训练相比,经过微调的模型可以利用预先训练的模型表示来显着降低训练成本并提高模型性能 [1]。微调大型语言模型 (LLM)将训练

Yandex 教授如何从图像翻译文本,同时保留文字游戏

«Яндекс» научил переводить текст с изображений с сохранением игры слов

本作品改编的YandexGPT模型不仅保留了原文的风格,还保留了原来的布局、字体和字号。

移动应用程序“Alice”可处理文本和图片

Мобильное приложение «Алиса» работает с текстами и картинками

未来,AI助手将学会通过智能手机摄像头识别和分析物体。