huggingface关键词检索结果

困惑释放R1-1776 DeepSeek-R1调整可去除中国审查制度

Perplexity släpper R1-1776 en DeepSeek-R1-justering som tar bort kinesisk censur

Perplexityai已启动了R1-1776语言模型DeepSeek-R1的修改版本。该新模型是专门设计的,目的是消除与中国审查制度相关的限制,同时保留其令人印象深刻的推理和分析能力,它是开源代码,可以从Huggingface下载。 R1-1776对创建R1-1776的无审查响应后的培训,Perplexityai进行了[…]邮政的困惑释放R1-1776 R1-1776 A DeepSeek-R1调整,该调整最初出现在AI新闻上。

如何使用 Vision Transformer (ViT) 和 Hugging Face Transformers 实现图像字幕

How to Implement Image Captioning with Vision Transformer (ViT) and Hugging Face Transformers

使用 HuggingFace 开始使用图像字幕模型的初学者指南。

使用 AWS Trainium 在 SageMaker HyperPod 上对 Llama 3 进行 PEFT 微调 ​​

PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium

在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。

最小可行 MLE

Minimum Viable MLE

构建最小的可用于生产的情绪分析模型照片由 Stephen Dawson 在 Unsplash 上拍摄什么是可用于生产的模型?我们听到了很多关于生产化机器学习的消息,但拥有一个可以在实际应用中蓬勃发展的模型到底意味着什么?有很多因素会影响机器学习模型在生产中的有效性。为了本文的目的,我们将重点介绍其中的五个。可重复性监控测试自动化版本控制服务推理构建可用于生产的机器学习模型的最重要部分是能够访问它。为此,我们构建了一个提供情绪分析响应的 fastapi 客户端。我们利用 pydantic 来确保输入和输出的结构。我们使用的模型是 huggingface 的 transformers 库中的基础情

构建更智能的视觉系统:在 Viam 上部署 Hugging Face 模型 | Viam

Building smarter vision systems: Deploying Hugging Face models on Viam | Viam

Viam 通过我们注册表中的自定义视觉服务集成,为在现实世界中的机器上使用 HuggingFace 模型开辟了可能性。

微软推出 Github Models 作为 Hugging Face 的竞争对手

Microsoft lanserar Github Models som en konkurrent till Hugging Face

Microsoft 最近推出了 Github Models 一项新功能,旨在通过将生成式 AI 模型直接与 GitHub 上的现有工具和功能集成,使开发人员更容易使用生成式 AI 模型。 Github Models 主要是 GitHub 上提供的 Azure AI-Playground/集成,令人惊讶的是,Huggingface 不仅仅是一个权重 CDN,[…]微软推出 Github Models 作为 Hugging Face 的竞争对手的帖子首次出现在 AI 上。消息。

扩展您的 RAG:使用 LanceDB 和 Candle 的 Rust 驱动索引管道

Scale Up Your RAG: A Rust-Powered Indexing Pipeline with LanceDB and Candle

为大规模文档处理构建高性能嵌入和索引系统照片由 Marc Sendra Martorell 在 Unsplash 上拍摄1. 简介最近,检索增强生成 (或简称 RAG) 已成为使用大型语言模型构建生成式 AI 应用程序的事实标准。RAG 通过确保生成模型使用适当的上下文来增强文本生成,同时避免了为同一任务微调 LLM 所涉及的时间、成本和复杂性。RAG 还允许更有效地使用外部数据源并更轻松地更新模型的“知识”。尽管基于 RAG 的 AI 应用程序通常可以使用更适中或更小的 LLM,但它们仍然依赖于嵌入和索引所需知识库的强大管道,以及能够有效地检索并将相关上下文注入模型提示。在许多用例中,可以使

使用 HuggingFace 实现一个简单易行的端到端项目

A Simple to Implement End-to-End Project with HuggingFace

使用 FastAPI 和 Docker 生成现成的 HuggingFace 模型

介绍 MPT-7B:一种新的开源、可商业使用的 LLM

Introducing MPT-7B: a new open-source, commercially usable LLM

MPT-7B 提供优化的架构和性能增强,包括与 HuggingFace 生态系统的兼容性。该模型在 1 万亿个文本和代码标记上进行了训练,并为可商业使用的 LLM 树立了新标准。

介绍文本包

Introducing the text package

文本包试图为 R 中的 HuggingFace 转换器语言模型提供用户友好的访问和管道。

如何在短短 5 分钟内仅使用合成数据构建可运行的 AI

How to build a working AI only using synthetic data in just 5 minutes

合成数据在人工智能中日益流行。它将使人工智能更便宜、更好、更少偏见。它也非常容易获得和使用。在很短的时间内,它已经从一项实验技术变成了某种东西,我会毫不犹豫地将其用于生产人工智能解决方案。为了说明这一点,我将构建一个可以区分苹果和香蕉之间差异的人工智能。我将只使用另一个人工智能生成的两个类别的图像——在本例中,使用 DALL-E Mini。苹果或香蕉识别器我将仅使用易于访问的免费 AutoAI 工具构建一个图像分类器。生成数据我们需要大约 30 张每个标签(香蕉和苹果)的图像。我们将使用 DALL-E Mini,这是 NVIDIA 文本到图像模型 DALL-E 2 的开源版本。要生成图像,您可