Is Reflection 70B the most powerful open-source LLM or a scam?
HyperWrite 创始人兼首席执行官 Matt Shumer 宣布,他的新模型 Reflection 70B 使用一个简单的技巧来解决 LLM 幻觉,并提供了令人印象深刻的基准测试结果,击败了 GPT-4o 等更大甚至封闭的模型。 Shumer 与合成数据提供商 Glaive 合作创建了基于 Meta 的 Llama 3.1-70B Instruct 模型的新模型。在 Hugging Face 的发布公告中,Shumer 表示:“Reflection Llama-3.1 70B 是(目前)全球顶级的开源 LLM,采用名为 Reflection-Tuning 的新技术进行训练,该技术可教导
Scale Up Your RAG: A Rust-Powered Indexing Pipeline with LanceDB and Candle
为大规模文档处理构建高性能嵌入和索引系统照片由 Marc Sendra Martorell 在 Unsplash 上拍摄1. 简介最近,检索增强生成 (或简称 RAG) 已成为使用大型语言模型构建生成式 AI 应用程序的事实标准。RAG 通过确保生成模型使用适当的上下文来增强文本生成,同时避免了为同一任务微调 LLM 所涉及的时间、成本和复杂性。RAG 还允许更有效地使用外部数据源并更轻松地更新模型的“知识”。尽管基于 RAG 的 AI 应用程序通常可以使用更适中或更小的 LLM,但它们仍然依赖于嵌入和索引所需知识库的强大管道,以及能够有效地检索并将相关上下文注入模型提示。在许多用例中,可以使
LLM Portfolio Projects Ideas to Wow Employers
使用 LangChain、VectorDB、FastAPI、OpenAI API、Zyte、Ollama 和 Hugging Face 构建有趣的 AI 项目。
Introducing MPT-7B: a new open-source, commercially usable LLM
MPT-7B 提供优化的架构和性能增强,包括与 HuggingFace 生态系统的兼容性。该模型在 1 万亿个文本和代码标记上进行了训练,并为可商业使用的 LLM 树立了新标准。
Unlocking new horizons in geospatial AI
IBM 和 NASA 在 Hugging Face 上部署了一个开源地理空间人工智能模型。他们的目标是扩大 NASA 卫星数据的可访问性,并加快与气候相关的发现速度。
从头开始实现语言模型可以说是准确了解其引擎工作原理的最佳方式。在这里,我们使用 torch 来编码 GPT-2,这是原始 GPT 的直接后继者。最后,您将处理一个 R 原生模型,该模型可以直接使用 Hugging Face 的预训练 GPT-2 模型权重。
How to build a working AI only using synthetic data in just 5 minutes
合成数据在人工智能中日益流行。它将使人工智能更便宜、更好、更少偏见。它也非常容易获得和使用。在很短的时间内,它已经从一项实验技术变成了某种东西,我会毫不犹豫地将其用于生产人工智能解决方案。为了说明这一点,我将构建一个可以区分苹果和香蕉之间差异的人工智能。我将只使用另一个人工智能生成的两个类别的图像——在本例中,使用 DALL-E Mini。苹果或香蕉识别器我将仅使用易于访问的免费 AutoAI 工具构建一个图像分类器。生成数据我们需要大约 30 张每个标签(香蕉和苹果)的图像。我们将使用 DALL-E Mini,这是 NVIDIA 文本到图像模型 DALL-E 2 的开源版本。要生成图像,您可