Hugging关键词检索结果

释放 Hugging Face 的力量以完成 NLP 任务

Unlocking the Power of Hugging Face for NLP Tasks

近年来,自然语言处理 (NLP) 领域取得了重大进展,这在很大程度上得益于能够理解和生成人类语言的复杂模型的发展。这场革命的关键参与者之一是 Hugging Face,这是一家开源 AI 公司,为各种 NLP 任务提供最先进的模型。Hugging Face 的 Transformers 库已成为希望实现强大 NLP 解决方案的开发人员和研究人员的首选资源。Inbound-leads-automatically-with-ai。这些模型在大量数据上进行训练,并经过微调以在特定任务上实现出色的性能。该平台还提供工具和资源,帮助用户在自己的数据集上微调这些模型,使其具有高度的通用性和用户友好性。在这

如何使用 Hugging Face Tokenizers 库预处理文本数据

How to Use the Hugging Face Tokenizers Library to Preprocess Text Data

文本预处理是 NLP 中的重要步骤。让我们学习如何使用 Hugging Face Tokenizers 库来预处理文本数据。

阿里巴巴法学硕士获得全球Hugging Face排名最高分

LLM от Alibaba получила наивысший балл в мировом рейтинге Hugging Face

硅谷在场边冒烟,而天朝则在AI市场抢占先机。

使用 HuggingFace 实现一个简单易行的端到端项目

A Simple to Implement End-to-End Project with HuggingFace

使用 FastAPI 和 Docker 生成现成的 HuggingFace 模型

Hugging Face 推出 Reachy2:革命性的开源机器人

Hugging Face представляет Reachy2: революционный робот с открытым кодом

来自 Reachy2 的 Tesla Optimus:雷米·卡德内尔将拯救机器人。

Hugging Face 集成

Hugging Face Integrations

Hugging Face 迅速成为一个非常受欢迎的平台,用于构建、共享和协作深度学习应用程序。我们致力于将 Torch for R 生态系统与 Hugging Face 工具集成,允许用户从他们的平台加载和执行语言模型。

完整的 Hugging Face 教程:如何构建和训练视觉转换器

A complete Hugging Face tutorial: how to build and train a vision transformer

通过数据集和 transformers 库的动手教程了解 Hugging Face 生态系统。探索如何微调 Vision Transformer (ViT)

Baidu将Ernie 4.5作为开源代码

Baidu släpper ERNIE 4.5 som öppen källkod

中国技术巨头Baidu最近发布了其生成的AI模型Ernie,这是一种大型语言模型,现在可以作为Hugging Face的开源。作为百度战略的一部分,这项投资将提高其在AI领域的竞争力,并为全球研究人员和开发人员提供强大的工具。有关Ernie模型Ernie的简短信息(增强[…] Baidu首次出现在AI新闻上的开源代码。

代码代理:代理AI

Code Agents: The Future of Agentic AI

huggingface smolagents框架在Action the Post Code Agents:AgentIC AI的未来首先出现在数据科学方面。

与Ollama一起在Jupyterlab中建立自己的AI编码助手,并拥抱Face

Build Your Own AI Coding Assistant in JupyterLab with Ollama and Hugging Face

逐步指南,用于创建本地编码助手而不将您的数据发送到Cloud The Post与Ollama一起在Jupyterlab中构建您自己的AI编码助手,而Hugging Face首先出现在数据科学上。

如何使用拥抱的面部库在AWS AI芯片上运行QWEN 2.5

How to run Qwen 2.5 on AWS AI chips using Hugging Face libraries

在这篇文章中,我们概述了如何使用拥抱脸部文本生成推断(TGI)容器(TGI)容器(TGI)容器(TGI)和TheHugging Optimum face face face facimum neuron库来使用使用Amazon弹性Compute Cloud(Amazon EC2)和Amazon Sagemaker部署QWEN 2.5模型家族。还支持QWEN2.5编码器和数学变体。

困惑释放R1-1776 DeepSeek-R1调整可去除中国审查制度

Perplexity släpper R1-1776 en DeepSeek-R1-justering som tar bort kinesisk censur

Perplexityai已启动了R1-1776语言模型DeepSeek-R1的修改版本。该新模型是专门设计的,目的是消除与中国审查制度相关的限制,同时保留其令人印象深刻的推理和分析能力,它是开源代码,可以从Huggingface下载。 R1-1776对创建R1-1776的无审查响应后的培训,Perplexityai进行了[…]邮政的困惑释放R1-1776 R1-1776 A DeepSeek-R1调整,该调整最初出现在AI新闻上。

使用 DeepSeek-R1、CrewAI 和 Amazon SageMaker AI 构建代理式 AI 解决方案

Build agentic AI solutions with DeepSeek-R1, CrewAI, and Amazon SageMaker AI

在这篇文章中,我们将演示如何将 DeepSeek-R1 等 LLM(或您选择的其他 FM)从 SageMaker JumpStart 或 Hugging Face Hub 等热门模型中心部署到 SageMaker AI 进行实时推理。我们探索了 Hugging Face TGI 等推理框架,它有助于简化部署,同时集成内置性能优化以最大限度地减少延迟并最大限度地提高吞吐量。此外,我们还展示了 SageMaker 开发人员友好的 Python SDK 如何简化端点编排,从而实现 LLM 支持的应用程序的无缝实验和扩展。

使用 AWS Trainium 在 SageMaker HyperPod 上对 Llama 3 进行 PEFT 微调 ​​

PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium

在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。

一家价值 45 亿美元的人工智能公司的首席执行官表示,2025 年将首次出现与人工智能相关的重大公众抗议,他还预测了中国的情况

2025 will see first major public protest related to AI, says CEO of a $4.5 billion AI company, he also predicted this about China

Hugging Face 确实是一家非常受欢迎的人工智能公司,估值数十亿美元,但更有趣的是,其首席执行官预测 2025 年将迎来第一次关于人工智能的重大抗议,以及其他一些重大的揭露和预测

选择和实施拥抱脸模型

Choosing and Implementing Hugging Face Models

将预先训练好的模型从盒子中取出,用于您的用例照片由 Erda Estremera 在 Unsplash 上拍摄我最近在日常工作中尝试使用 Hugging Face 目录中的模型,从中获得了很多乐趣,我认为这可能是一个很好的时机来分享我所学到的知识,并为读者提供一些如何以最小的压力应用这些模型的提示。我最近的具体任务是查看大量非结构化文本数据(如备忘录、电子邮件、自由文本注释字段等)并根据与业务用例相关的类别对其进行分类。有很多方法可以做到这一点,我一直在尽可能多地探索,包括模式匹配和词典搜索等简单的东西,也扩展到使用预构建的神经网络模型来实现许多不同的功能,我对结果感到相当满意。我认为最好的策

最小可行 MLE

Minimum Viable MLE

构建最小的可用于生产的情绪分析模型照片由 Stephen Dawson 在 Unsplash 上拍摄什么是可用于生产的模型?我们听到了很多关于生产化机器学习的消息,但拥有一个可以在实际应用中蓬勃发展的模型到底意味着什么?有很多因素会影响机器学习模型在生产中的有效性。为了本文的目的,我们将重点介绍其中的五个。可重复性监控测试自动化版本控制服务推理构建可用于生产的机器学习模型的最重要部分是能够访问它。为此,我们构建了一个提供情绪分析响应的 fastapi 客户端。我们利用 pydantic 来确保输入和输出的结构。我们使用的模型是 huggingface 的 transformers 库中的基础情

如何以及为何使用 LLM 进行基于块的信息检索

How and Why to use LLMs for Chunk-Based Information Retrieval

如何以及为何使用 LLM 进行基于块的信息检索检索管道 - 作者提供的图片在本文中,我旨在解释如何以及为何使用大型语言模型 (LLM) 进行基于块的信息检索是有益的。我以 OpenAI 的 GPT-4 模型为例,但这种方法可以应用于任何其他 LLM,例如 Hugging Face、Claude 和其他人的模型。每个人都可以免费访问这篇文章。标准信息检索的注意事项主要概念涉及将文档列表(文本块)存储在数据库中,可以根据某些过滤器和条件进行检索。通常,使用工具来启用混合搜索(例如 Azure AI Search、LlamaIndex 等),它允许:使用 TF-IDF 等词频算法执行基于文本的搜索(