transformers关键词检索结果

使用 transformers 教程进行 3D 医学图像分割

3D Medical image segmentation with transformers tutorial

实现 UNETR 在 BRATS 数据集上执行 3D 医学图像分割

高盛重申“谨慎的观点”,这是政府的“谨慎”和服务的覆盖范围,并在持续的大约削减中

An Overlooked Vulnerability That Could Cripple America's Power Grid

一个被忽视的脆弱性,可能会削弱库尔特·科布(Kurt Cobb)通过美国库尔特·科布(Kurt Cobb)的力量。 transformer wait times have ballooned from 50 to 127 weeks, crippling grid resilience in the face of wildfires, storms, or attacks.The Build America, Buy America Act and global demand for transformers have limited supply, with domestic produc

了解Mamba中的输入选择性

Understanding Input Selectivity in Mamba

State-Space Models (SSMs), and particularly Mamba, have recently emerged as a promising alternative to Transformers.Mamba introduces input selectivity to its SSM layer (S6) andincorporates convolution and gating into its block definition.While these modifications do improve Mamba's performance over

IEEE关于计算智能第9卷中新兴主题的交易,第2期,2025年4月

IEEE Transactions on Emerging Topics in Computational Intelligence Volume 9, Issue 2, April 2025

1) IDET: Iterative Difference-Enhanced Transformers for High-Quality Change DetectionAuthor(s): Qing Guo, Ruofei Wang, Rui Huang, Renjie Wan, Shuifa Sun, Yuxiang ZhangPages: 1093 - 11062) CVIformer: Cross-View Interactive Transformer for Efficient Stereoscopic Image Super-ResolutionAuthor(s): Dongya

Transformers 及其他:重新思考用于专门任务的 AI 架构

Transformers and Beyond: Rethinking AI Architectures for Specialized Tasks

2017 年,一场重大变革重塑了人工智能 (AI)。一篇题为《注意力就是你所需要的一切》的论文介绍了 transformers。这些模型最初是为了增强语言翻译而开发的,现在已经发展成为一个强大的框架,在序列建模方面表现出色,在各种应用中实现了前所未有的效率和多功能性。如今,transformers 不仅仅是自然 […] 文章《Transformers 及其他:重新思考用于专门任务的 AI 架构》首先出现在 Unite.AI 上。

使用 Hugging Face Transformers 构建多语言应用程序:初学者指南

Building Multilingual Applications with Hugging Face Transformers: A Beginner’s Guide

查看使用 Hugging Face 构建多语言应用程序的实用指南。

2025 年的 AGI | 您认为今天重要的事情在未来几个月仍然重要吗? TL;DR:不!

AGI in 2025 |Do you think what matters today will still matter in the coming months? TL;DR: No!

OpenAI、Sam Altman、Elon Musk、xAI、Anthropic、Gemini、谷歌、苹果……所有这些公司都在竞相在 2025 年前打造 AGI,一旦实现,将在数周内被数十家公司复制。创建压缩的人类知识库、提取信息并迭代输出以优化结果的想法已不再是革命性的。全球数千名工程师可以复制 OpenAI 所取得的成就,因为它主要涉及扩大 Transformers——谷歌开发的一种模型,而它本身只是先前 AI 研究的一个进步。但接下来会发生什么?劳动力下一个重大转变:地球上的每家公司都将尽可能开始用 AGI 取代工作负载,以最大化利润率。公司不会雇佣那么多人,因为有了 AI 代理,现有

从文本到 3D:NVIDIA 的 Edify 3D 背后的魔力

From text to 3D: the magic behind Edify 3D by NVIDIA

NVIDIA 的 Edify 3D 使用 AI 在 2 分钟内创建高质量的 3D 模型。通过结合多视图扩散模型和 Transformers,它可以从文本或图像快速、准确且可扩展地生成 3D,使其成为游戏、动画和设计行业的完美解决方案。

如何使用 Vision Transformer (ViT) 和 Hugging Face Transformers 实现图像字幕

How to Implement Image Captioning with Vision Transformer (ViT) and Hugging Face Transformers

使用 HuggingFace 开始使用图像字幕模型的初学者指南。

使用 Hugging Face 实现多模态 RAG

Multimodal RAG Implementation with Hugging Face

了解如何通过使用 Hugging Face Transformers 结合文本和视觉输入来增强 RAG 模型。

如何使用 LayoutLM 和 Hugging Face Transformers 进行文档理解和信息提取

How to Use LayoutLM for Document Understanding and Information Extraction with Hugging Face Transformers

让我们学习如何将 LayoutLM 与 Hugging Face Transformers 结合使用

如何使用 Hugging Face Transformers 构建文本分类模型

How to Build a Text Classification Model with Hugging Face Transformers

了解从头开始训练基于转换器的文本分类模型的关键步骤。

如何在 Hugging Face Transformers 中使用 mBERT 实现跨语言迁移学习

How to Implement Cross-Lingual Transfer Learning with mBERT in Hugging Face Transformers

让我们学习如何使用 mBERT 执行多语言任务。

如何使用 Hugging Face Transformers 实现命名实体识别

How to Implement Named Entity Recognition with Hugging Face Transformers

让我们看看如何使用 NLP 和 LLM 库的瑞士军刀 Hugging Face 的 Transformers 执行 NER。

如何使用 BART 模型和 Hugging Face Transformers 总结文本

How to Summarize Texts Using the BART Model with Hugging Face Transformers

要使用 Hugging Face 的 BART 模型总结文本,请加载模型和标记器,输入文本,然后模型会生成简明的摘要。

如何使用 Hugging Face Transformers 对 T5 进行微调以完成问答任务

How to Fine-Tune T5 for Question Answering Tasks with Hugging Face Transformers

使用 Hugging Face Transformers 对 T5 模型进行微调以完成问答任务非常简单:向模型提供问题和上下文,它就会学习生成正确的答案。

最小可行 MLE

Minimum Viable MLE

构建最小的可用于生产的情绪分析模型照片由 Stephen Dawson 在 Unsplash 上拍摄什么是可用于生产的模型?我们听到了很多关于生产化机器学习的消息,但拥有一个可以在实际应用中蓬勃发展的模型到底意味着什么?有很多因素会影响机器学习模型在生产中的有效性。为了本文的目的,我们将重点介绍其中的五个。可重复性监控测试自动化版本控制服务推理构建可用于生产的机器学习模型的最重要部分是能够访问它。为此,我们构建了一个提供情绪分析响应的 fastapi 客户端。我们利用 pydantic 来确保输入和输出的结构。我们使用的模型是 huggingface 的 transformers 库中的基础情

如何将 Hugging Face Transformers 用于文本转语音应用程序

How to Use Hugging Face Transformers for Text-to-Speech Applications

要使用 Hugging Face Transformers 进行文本转语音,请加载预先训练的 TTS 模型并输入要转换为语音的文本。 该模型将生成音频,您可以直接保存或播放。