transformer关键词检索结果

如何在 Hugging Face Transformers 中使用 mBERT 实现跨语言迁移学习

How to Implement Cross-Lingual Transfer Learning with mBERT in Hugging Face Transformers

让我们学习如何使用 mBERT 执行多语言任务。

如何使用 Hugging Face Transformers 实现命名实体识别

How to Implement Named Entity Recognition with Hugging Face Transformers

让我们看看如何使用 NLP 和 LLM 库的瑞士军刀 Hugging Face 的 Transformers 执行 NER。

如何使用 BART 模型和 Hugging Face Transformers 总结文本

How to Summarize Texts Using the BART Model with Hugging Face Transformers

要使用 Hugging Face 的 BART 模型总结文本,请加载模型和标记器,输入文本,然后模型会生成简明的摘要。

论文演练:注意力就是你所需要的一切

Paper Walkthrough: Attention Is All You Need

从头开始​​实现 Transformer 的完整指南继续阅读 Towards Data Science »

如何使用 Hugging Face Transformers 对 T5 进行微调以完成问答任务

How to Fine-Tune T5 for Question Answering Tasks with Hugging Face Transformers

使用 Hugging Face Transformers 对 T5 模型进行微调以完成问答任务非常简单:向模型提供问题和上下文,它就会学习生成正确的答案。

最小可行 MLE

Minimum Viable MLE

构建最小的可用于生产的情绪分析模型照片由 Stephen Dawson 在 Unsplash 上拍摄什么是可用于生产的模型?我们听到了很多关于生产化机器学习的消息,但拥有一个可以在实际应用中蓬勃发展的模型到底意味着什么?有很多因素会影响机器学习模型在生产中的有效性。为了本文的目的,我们将重点介绍其中的五个。可重复性监控测试自动化版本控制服务推理构建可用于生产的机器学习模型的最重要部分是能够访问它。为此,我们构建了一个提供情绪分析响应的 fastapi 客户端。我们利用 pydantic 来确保输入和输出的结构。我们使用的模型是 huggingface 的 transformers 库中的基础情

如何将 Hugging Face Transformers 用于文本转语音应用程序

How to Use Hugging Face Transformers for Text-to-Speech Applications

要使用 Hugging Face Transformers 进行文本转语音,请加载预先训练的 TTS 模型并输入要转换为语音的文本。 该模型将生成音频,您可以直接保存或播放。

IEEE 人工智能学报,第 5 卷,第 10 期,2024 年 10 月

IEEE Transactions on Artificial Intelligence, Volume 5, Issue 10, October 2024

1) 基于 Transformer 的计算机视觉生成对抗网络:综合调查作者:Shiv Ram Dubey、Satish Kumar Singh页数:4851 - 48672) 数据驱动技术在智能家居社区规划、需求侧管理和网络安全中的应用作者:Dipanshu Naware、Arghya Mitra页数:4868 - 48833) 针对物体检测系统的中间人攻击作者:Han Wu、Sareh Rowlands、Johan Wahlström页数:4884 - 48924) 夜间色热语义分割的测试时间自适应作者:Yexin Liu、Weiming Zhang、Guoyang Zhao、Jinjing

复杂与智能系统。第 10 卷,第 6 期,2024 年 12 月

Complex & Intelligent Systems. Volume 10, Issue 6, December 2024

1) PD-DETR:面向光伏电池缺陷检测的高效并联混合匹配变压器作者:赵朗月、吴义全、袁玉斌页数:7421 - 74342) 基于新型混沌优化热力学进化算法的智能散货码头调度作者:刘诗达、刘庆生、陈先龙页数:7435 - 74503) 智能校准和监控:利用人工智能改进基于 MEMS 的惯性传感器校准作者:Itilekha Podder、Tamas Fischl、Udo Bub页数:7451 - 74744) 具有广义高斯分布的开关门控循环单元神经网络的识别作者:白文涛、郭帆、张浩宇页数:7475 - 74855) 用于自监督 3D 动作的注意力引导掩模学习识别作者:张浩远页数:7487 -

微调 BERT 进行文本分类

Fine-Tuning BERT for Text Classification

一个带有 Python 代码的可破解示例尽管当今的 100B+ 参数转换器模型是 AI 领域最先进的模型,但我们仍然可以使用较小的(<1B 参数)模型完成很多工作。在本文中,我将介绍一个这样的示例,即微调 BERT(1.1 亿个参数)以对网络钓鱼 URL 进行分类。我将首先介绍关键概念,然后分享示例 Python 代码。图片来自 Canva。微调微调涉及通过额外的训练将预训练模型调整到特定用例。预训练模型是通过无监督学习开发的,从而无需大规模标记数据集。然后,与从头开始训练相比,经过微调的模型可以利用预先训练的模型表示来显着降低训练成本并提高模型性能 [1]。微调大型语言模型 (LLM)将训练

通过功能叙述对时间序列进行可推广的自回归建模

Generalizable Autoregressive Modeling of Time Series Through Functional Narratives

时间序列数据本质上是时间的函数,但当前的 Transformer 通常通过将时间序列建模为时间段的简单连接来学习时间序列,而忽略了它们的功能属性。在这项工作中,我们为 Transformer 提出了一个新的目标,即通过将时间序列重新解释为时间函数来学习时间序列。我们通过在功能空间中构建不同强度的退化算子来构建时间序列的替代序列,从而创建原始样本的增强变体,这些变体被抽象或简化到不同的程度。基于新的...

一劳永逸地戳破 AI 炒作泡沫

Bursting the AI Hype Bubble Once and for All

错误信息和不良研究:案例研究人们不能忽视这样一个事实:ChatGPT 等人工智能模型已经占领了互联网,并进入了互联网的每个角落。大多数人工智能应用程序对于广泛的任务(医疗保健、工程、计算机视觉、教育等)都非常有用和有益,我们没有理由不投入时间和金钱来开发它们。但生成式人工智能 (GenAI) 的情况并非如此,我将在本文中特别提到它。这包括 LLM 和 RAG,例如 ChatGPT、Claude、Gemini、Llama 和其他模型。对于我们所说的人工智能、我们使用的模型及其环境影响,必须非常具体。[1]:人们对“AI”和“ChatGPT”一词的兴趣随时间变化(过去四年)。截图由我拍摄。来源:G

IEEE 人工智能学报,第 5 卷,第 9 期,2024 年 9 月

IEEE Transactions on Artificial Intelligence, Volume 5, Issue 9, September 2024

1) 社论:从可解释的人工智能 (xAI) 到可理解的人工智能 (uAI)作者:Hussein Abbass、Keeley Crockett、Jonathan Garibaldi、Alexander Gegov、Uzay Kaymak、Joao Miguel C. Sousa页数:4310 - 43142) 通过部分图卷积网络进行不完全图学习作者:Ziyan Zhang、Bo Jiang、Jin Tang、Jinhui Tang、Bin Luo页数:4315 - 43213) 用于社会公益的对抗性机器学习:将对手重新定义为盟友作者:Shawqi Al-Maliki、Adnan Qayyum、H

主题建模您的个人数据

Topic Modelling Your Personal Data

使用传统和 Transformer 模型探索经纪人存储的个人数据继续阅读 Towards Data Science »

Transformer?扩散?输血!

Transformer? Diffusion? Transfusion!

最新多模态转输模型的简单介绍最近,Meta 和 Waymo 发布了他们的最新论文 —Transfusion: Predict the Next Token and Diffuse Images with One Multi-Modal Model,该论文将流行的 Transformer 模型与扩散模型相结合,用于多模态训练和预测目的。与 Meta 之前的工作一样,Transfusion 模型基于带有早期融合的 Llama 架构,它同时采用文本 token 序列和图像 token 序列,并使用单个 Transformer 模型来生成预测。但与以前的技术不同,Transfusion 模型对图像 t

IEEE 认知和发展系统汇刊,第 16 卷,第 4 期,2024 年 8 月

IEEE Transactions on Cognitive and Developmental Systems, Volume 16, Issue 4, August 2024

1) 基于多模态生理信号的用户感知多层级认知工作量估计作者:Pierluigi Vito Amadori、Yiannis Demiris页数:1212 - 12222) TR-TransGAN:用于纵向 MRI 数据集扩展的时间递归 Transformer 生成对抗网络作者:Chen-Chen Fan、Hongjun Yang、Liang Peng、Xiao-Hu Zhou、Shiqi Liu、Sheng Chen、Zeng-Guang Hou页数:1223 - 12323) 基于多标准 TD3 的深度强化学习用于分散式多机器人路径规划作者:Heqing Yin、Chang Wang、Chao

释放 Hugging Face 的力量以完成 NLP 任务

Unlocking the Power of Hugging Face for NLP Tasks

近年来,自然语言处理 (NLP) 领域取得了重大进展,这在很大程度上得益于能够理解和生成人类语言的复杂模型的发展。这场革命的关键参与者之一是 Hugging Face,这是一家开源 AI 公司,为各种 NLP 任务提供最先进的模型。Hugging Face 的 Transformers 库已成为希望实现强大 NLP 解决方案的开发人员和研究人员的首选资源。Inbound-leads-automatically-with-ai。这些模型在大量数据上进行训练,并经过微调以在特定任务上实现出色的性能。该平台还提供工具和资源,帮助用户在自己的数据集上微调这些模型,使其具有高度的通用性和用户友好性。在这

复杂与智能系统,第 10 卷,第 4 期,2024 年 8 月

Complex & Intelligent Systems, Volume 10, Issue 4, August 2024

1) 一种用于动作识别的人体骨骼关键帧选择优化方法作者:陈浩,潘悦凯,王晨武页数:4659 - 46732) 城市轨道交通网络短期起讫点流量预测:基于多源大数据的深度学习方法作者:崔红萌,司冰峰……潘伟婷页数:4675 - 46963) 用于社区检测的多约束非负矩阵分解:正交正则稀疏约束非负矩阵分解作者:陈子刚,肖奇……李晓勇页数:4697 - 47124) 使用多层时间图神经网络预测社交媒体网络中的流行趋势作者:金瑞东,刘欣,村田刚页数:4713 - 47295) 受全变分和深度去噪先验启发的混合正则化用于图像恢复作者:Hu Liang, Jiahao Zhang...Jinbo Zhu页数