transform关键词检索结果

如何使用 LayoutLM 和 Hugging Face Transformers 进行文档理解和信息提取

How to Use LayoutLM for Document Understanding and Information Extraction with Hugging Face Transformers

让我们学习如何将 LayoutLM 与 Hugging Face Transformers 结合使用

如何使用 Hugging Face Transformers 构建文本分类模型

How to Build a Text Classification Model with Hugging Face Transformers

了解从头开始训练基于转换器的文本分类模型的关键步骤。

如何在 Hugging Face Transformers 中使用 mBERT 实现跨语言迁移学习

How to Implement Cross-Lingual Transfer Learning with mBERT in Hugging Face Transformers

让我们学习如何使用 mBERT 执行多语言任务。

人工智能协作机器人如何改变物流行业

How AI-powered Cobots Transform the Logistics Industry

随着物流公司越来越多地采用自动化技术,人工智能驱动的协作机器人(通过人工智能增强的协作机器人)提供了可扩展的解决方案,可提高生产率并减少操作错误。 它们从数据中学习、识别模式和实时适应的能力使它们在灵活性至关重要的环境中变得无价。 随着工业4.0和智能工厂的兴起,[…]The post AI-powered Cobots How AI-powered Cobots Transform the Logistics Industry appeared first on Techman Robot.

每周回顾 2024 年 11 月 22 日

Weekly Review 22 November 2024

我上周在推特上发布的一些有趣链接(我也在 Mastodon、Threads、Newsmast 和 Bluesky 上发布了这些链接):学术界在采用生成式人工智能方面进展缓慢。有充分理由的是,它确实会把事情搞砸:https://www.insidehighered.com/news/tech-innovation/digital-publishing/2024/11/14/scholarly-publishing-world-slow-embraceYouTube 的音乐修改人工智能:https://www.theverge.com/2024/11/12/24294891/youtube-ai-

如何使用 Hugging Face Transformers 实现命名实体识别

How to Implement Named Entity Recognition with Hugging Face Transformers

让我们看看如何使用 NLP 和 LLM 库的瑞士军刀 Hugging Face 的 Transformers 执行 NER。

如何使用 BART 模型和 Hugging Face Transformers 总结文本

How to Summarize Texts Using the BART Model with Hugging Face Transformers

要使用 Hugging Face 的 BART 模型总结文本,请加载模型和标记器,输入文本,然后模型会生成简明的摘要。

论文演练:注意力就是你所需要的一切

Paper Walkthrough: Attention Is All You Need

从头开始​​实现 Transformer 的完整指南继续阅读 Towards Data Science »

如何使用 Hugging Face Transformers 对 T5 进行微调以完成问答任务

How to Fine-Tune T5 for Question Answering Tasks with Hugging Face Transformers

使用 Hugging Face Transformers 对 T5 模型进行微调以完成问答任务非常简单:向模型提供问题和上下文,它就会学习生成正确的答案。

最小可行 MLE

Minimum Viable MLE

构建最小的可用于生产的情绪分析模型照片由 Stephen Dawson 在 Unsplash 上拍摄什么是可用于生产的模型?我们听到了很多关于生产化机器学习的消息,但拥有一个可以在实际应用中蓬勃发展的模型到底意味着什么?有很多因素会影响机器学习模型在生产中的有效性。为了本文的目的,我们将重点介绍其中的五个。可重复性监控测试自动化版本控制服务推理构建可用于生产的机器学习模型的最重要部分是能够访问它。为此,我们构建了一个提供情绪分析响应的 fastapi 客户端。我们利用 pydantic 来确保输入和输出的结构。我们使用的模型是 huggingface 的 transformers 库中的基础情

如何将 Hugging Face Transformers 用于文本转语音应用程序

How to Use Hugging Face Transformers for Text-to-Speech Applications

要使用 Hugging Face Transformers 进行文本转语音,请加载预先训练的 TTS 模型并输入要转换为语音的文本。 该模型将生成音频,您可以直接保存或播放。

IEEE 人工智能学报,第 5 卷,第 10 期,2024 年 10 月

IEEE Transactions on Artificial Intelligence, Volume 5, Issue 10, October 2024

1) 基于 Transformer 的计算机视觉生成对抗网络:综合调查作者:Shiv Ram Dubey、Satish Kumar Singh页数:4851 - 48672) 数据驱动技术在智能家居社区规划、需求侧管理和网络安全中的应用作者:Dipanshu Naware、Arghya Mitra页数:4868 - 48833) 针对物体检测系统的中间人攻击作者:Han Wu、Sareh Rowlands、Johan Wahlström页数:4884 - 48924) 夜间色热语义分割的测试时间自适应作者:Yexin Liu、Weiming Zhang、Guoyang Zhao、Jinjing

复杂与智能系统。第 10 卷,第 6 期,2024 年 12 月

Complex & Intelligent Systems. Volume 10, Issue 6, December 2024

1) PD-DETR:面向光伏电池缺陷检测的高效并联混合匹配变压器作者:赵朗月、吴义全、袁玉斌页数:7421 - 74342) 基于新型混沌优化热力学进化算法的智能散货码头调度作者:刘诗达、刘庆生、陈先龙页数:7435 - 74503) 智能校准和监控:利用人工智能改进基于 MEMS 的惯性传感器校准作者:Itilekha Podder、Tamas Fischl、Udo Bub页数:7451 - 74744) 具有广义高斯分布的开关门控循环单元神经网络的识别作者:白文涛、郭帆、张浩宇页数:7475 - 74855) 用于自监督 3D 动作的注意力引导掩模学习识别作者:张浩远页数:7487 -

微调 BERT 进行文本分类

Fine-Tuning BERT for Text Classification

一个带有 Python 代码的可破解示例尽管当今的 100B+ 参数转换器模型是 AI 领域最先进的模型,但我们仍然可以使用较小的(<1B 参数)模型完成很多工作。在本文中,我将介绍一个这样的示例,即微调 BERT(1.1 亿个参数)以对网络钓鱼 URL 进行分类。我将首先介绍关键概念,然后分享示例 Python 代码。图片来自 Canva。微调微调涉及通过额外的训练将预训练模型调整到特定用例。预训练模型是通过无监督学习开发的,从而无需大规模标记数据集。然后,与从头开始训练相比,经过微调的模型可以利用预先训练的模型表示来显着降低训练成本并提高模型性能 [1]。微调大型语言模型 (LLM)将训练

通过功能叙述对时间序列进行可推广的自回归建模

Generalizable Autoregressive Modeling of Time Series Through Functional Narratives

时间序列数据本质上是时间的函数,但当前的 Transformer 通常通过将时间序列建模为时间段的简单连接来学习时间序列,而忽略了它们的功能属性。在这项工作中,我们为 Transformer 提出了一个新的目标,即通过将时间序列重新解释为时间函数来学习时间序列。我们通过在功能空间中构建不同强度的退化算子来构建时间序列的替代序列,从而创建原始样本的增强变体,这些变体被抽象或简化到不同的程度。基于新的...

一劳永逸地戳破 AI 炒作泡沫

Bursting the AI Hype Bubble Once and for All

错误信息和不良研究:案例研究人们不能忽视这样一个事实:ChatGPT 等人工智能模型已经占领了互联网,并进入了互联网的每个角落。大多数人工智能应用程序对于广泛的任务(医疗保健、工程、计算机视觉、教育等)都非常有用和有益,我们没有理由不投入时间和金钱来开发它们。但生成式人工智能 (GenAI) 的情况并非如此,我将在本文中特别提到它。这包括 LLM 和 RAG,例如 ChatGPT、Claude、Gemini、Llama 和其他模型。对于我们所说的人工智能、我们使用的模型及其环境影响,必须非常具体。[1]:人们对“AI”和“ChatGPT”一词的兴趣随时间变化(过去四年)。截图由我拍摄。来源:G

每周回顾 2024 年 10 月 4 日

Weekly Review 4 October 2024

我上周在 Twitter 上发布的一些有趣的链接(我也在 Mastodon、Threads、Newsmast 和 Bluesky 上发布了这些链接):使用 AI 避免碰撞的自动驾驶船:https://www.stuff.co.nz/nz-news/350423932/unmanned-vessel-makes-waves-science-minister 帮助研究文献和引用的 AI:https://dataconomy.com/2024/09/27/scite-ai-review-can-it-research-well/ 微软纠正生成性 AI 幻觉的方法:https://www.comput

IEEE 人工智能学报,第 5 卷,第 9 期,2024 年 9 月

IEEE Transactions on Artificial Intelligence, Volume 5, Issue 9, September 2024

1) 社论:从可解释的人工智能 (xAI) 到可理解的人工智能 (uAI)作者:Hussein Abbass、Keeley Crockett、Jonathan Garibaldi、Alexander Gegov、Uzay Kaymak、Joao Miguel C. Sousa页数:4310 - 43142) 通过部分图卷积网络进行不完全图学习作者:Ziyan Zhang、Bo Jiang、Jin Tang、Jinhui Tang、Bin Luo页数:4315 - 43213) 用于社会公益的对抗性机器学习:将对手重新定义为盟友作者:Shawqi Al-Maliki、Adnan Qayyum、H