Llama关键词检索结果

生成逻辑

Generative Logic

阿里巴巴的最新模型 QwQ-32B-Preview 因其推理能力而获得了一些令人印象深刻的评价。与 OpenAI 的 GPT-4 o1,1 一样,它的训练强调推理,而不仅仅是再现语言。这似乎是一件值得尝试的事情——或者至少值得尝试一下——所以当我听说它很快就在 Ollama 上可用,而且规模不大时 […]

联想和摩托罗拉在 Tech World 2024 上推出超个性化 AI 助手:个性化 AI 的未来还是侵犯隐私?

Lenovo and Motorola Unveil Hyper-Personalized AI Assistants at Tech World 2024: The Future of Personalized AI or Privacy Infringers?

在联想的 Tech World 2024 上,联想和摩托罗拉都展示了突破性的人工智能 (AI) 创新,旨在突破消费技术超个性化的界限。联想推出了“AI Now”,这是一款基于 Meta 的 Llama 3.1 AI 模型构建的生成人工智能 (genAI) 系统,它有望通过将 PC 变成个性化数字助理来使其变得更智能。 […] 帖子联想和摩托罗拉在 Tech World 2024 上推出超个性化 AI 助理:个性化 AI 的未来还是侵犯隐私?首次出现在 Unite.AI 上。

Meta 现在允许军事机构访问其人工智能软件。它给使用它的每个人带来了道德困境

Meta now allows military agencies to access its AI software. It poses a moral dilemma for everybody who uses it

作者:Zena Assaad,澳大利亚国立大学 Meta 将向美国政府提供其生成人工智能 (AI) 模型,这家科技巨头宣布,这一有争议的举动给使用该软件的每个人带来了道德困境。Me​​ta 上周透露,它将向美国政府提供这些名为 Llama 的模型 […]

使用 Cortex 运行本地 LLM

Run Local LLMs with Cortex

查看这个类似于 Ollama 但更好的本地 AI 模型管理器。

Meta 和其他公司现在允许军事机构访问他们的 AI 软件

Meta and others now allow military agencies to access their AI software

科技巨头 Meta 宣布,将向美国政府提供其生成式人工智能 (AI) 模型,这一有争议的举动给使用该软件的每个人都带来了道德困境。Me​​ta 上周透露,它将向政府机构提供这些名为 Llama 的模型,“包括那些 […]

在 Amazon SageMaker JumpStart 上微调用于视觉和文本用例的多模态模型

Fine-tune multimodal models for vision and text use cases on Amazon SageMaker JumpStart

在本文中,我们将展示如何微调文本和视觉模型(例如 Meta Llama 3.2),以便在视觉问答任务中表现更好。Meta Llama 3.2 Vision Instruct 模型在具有挑战性的 DocVQA 视觉问答基准上表现出色。通过利用 Amazon SageMaker JumpStart 的强大功能,我们展示了调整这些生成式 AI 模型以更好地理解和回答有关图像的自然语言问题的过程。

#452 – Dario Amodei:Anthropic 首席执行官谈 Claude、AGI 以及人工智能和人类的未来

#452 – Dario Amodei: Anthropic CEO on Claude, AGI & the Future of AI & Humanity

Dario Amodei 是 Anthropic 公司的首席执行官,该公司创造了 Claude。Amanda Askell 是一名人工智能研究员,致力于研究 Claude 的性格和个性。 Chris Olah 是一位致力于机械可解释性的人工智能研究员。感谢您的聆听❤查看我们的赞助商:https://lexfridman.com/sponsors/ep452-sc请参阅下面的时间戳、成绩单,并提供反馈、提交问题、联系 Lex 等。成绩单:https://lexfridman.com/dario-amodei-transcript联系 LEX:反馈 - 向 Lex 提供反馈:https://lex

预算法案提交参议院全体会议

Budget bill elevated to Senate plenary

参议院的 6.352 万亿比索国家预算法案已提交全体会议辩论,国会预计将在 12 月中旬休会前批准该支出计划。在周二的全体会议上,参议员兼财务委员会主席 Mary Grace Natividad S. Poe-Llamanzares 表示,预算法案增加了对卫生和教育项目的资金投入,包括额外的 […]

减小 AI 模型的大小

Reducing the Size of AI Models

在边缘设备上运行大型 AI 模型使用 Pixlr 创建的图像AI 模型,尤其是大型语言模型 (LLM),需要大量的 GPU 内存。例如,对于 2024 年 7 月发布的 LLaMA 3.1 模型,内存要求如下:80 亿参数模型需要 16 GB 内存(16 位浮点权重)更大的 4050 亿参数模型需要 810 GB(使用 16 位浮点数)在全尺寸机器学习模型中,权重表示为 32 位浮点数。现代模型具有数亿到数百亿(甚至数千亿)的权重。训练和运行如此大的模型非常耗费资源:它需要大量的计算(处理能力)。它需要大量的 GPU 内存。它会消耗大量的能源,特别是,造成这种能源消耗的最大因素是:- 使用 3

私下运行大型语言模型

Running Large Language Models Privately

框架、模型和成本的比较 Robert Corwin,Austin Artificial Intelligence 首席执行官 David Davalos,Austin Artificial Intelligence ML 工程师 2024 年 10 月 24 日大型语言模型 (LLM) 迅速改变了技术格局,但安全问题仍然存在,尤其是在将私人数据发送给外部第三方方面。在这篇博文中,我们深入探讨了在本地和私下(即在自己的计算机上)部署 Llama 模型的选项。我们让 Llama 3.1 在本地运行,并调查了速度、功耗和不同版本和框架中的整体性能等关键方面。无论您是技术专家还是只是对所涉及的内容感到

摘下面具:OSI 定义了真正开放的 AI

Маски сброшены: OSI определила истинно открытый ИИ

Meta 的 Llama 模型不再符合开放 AI 的标准。

如何以及为何使用 LLM 进行基于块的信息检索

How and Why to use LLMs for Chunk-Based Information Retrieval

如何以及为何使用 LLM 进行基于块的信息检索检索管道 - 作者提供的图片在本文中,我旨在解释如何以及为何使用大型语言模型 (LLM) 进行基于块的信息检索是有益的。我以 OpenAI 的 GPT-4 模型为例,但这种方法可以应用于任何其他 LLM,例如 Hugging Face、Claude 和其他人的模型。每个人都可以免费访问这篇文章。标准信息检索的注意事项主要概念涉及将文档列表(文本块)存储在数据库中,可以根据某些过滤器和条件进行检索。通常,使用工具来启用混合搜索(例如 Azure AI Search、LlamaIndex 等),它允许:使用 TF-IDF 等词频算法执行基于文本的搜索(

构建和部署多文件、多格式 RAG 应用程序到 Web

Build and Deploy a Multi-File, Multi-Format RAG App to the Web

第 1 部分 — 使用 Python、Gradio、GROQ 和 LlamaIndex 开发代码继续阅读 Towards Data Science »

精彩的文字,精彩的写作:使用 AWS AI 芯片快速部署 Meta LLama 3 支持的应用程序

Brilliant words, brilliant writing: Using AWS AI chips to quickly deploy Meta LLama 3-powered applications

在本文中,我们将介绍如何使用 Amazon EC2 Inf2 实例在专用 AWS AI 芯片 AWS Inferentia2 上经济高效地部署多个行业领先的 LLM,帮助客户快速测试并开放 API 接口,以同时促进性能基准测试和下游应用程序调用。

微调 BERT 进行文本分类

Fine-Tuning BERT for Text Classification

一个带有 Python 代码的可破解示例尽管当今的 100B+ 参数转换器模型是 AI 领域最先进的模型,但我们仍然可以使用较小的(<1B 参数)模型完成很多工作。在本文中,我将介绍一个这样的示例,即微调 BERT(1.1 亿个参数)以对网络钓鱼 URL 进行分类。我将首先介绍关键概念,然后分享示例 Python 代码。图片来自 Canva。微调微调涉及通过额外的训练将预训练模型调整到特定用例。预训练模型是通过无监督学习开发的,从而无需大规模标记数据集。然后,与从头开始训练相比,经过微调的模型可以利用预先训练的模型表示来显着降低训练成本并提高模型性能 [1]。微调大型语言模型 (LLM)将训练

一劳永逸地戳破 AI 炒作泡沫

Bursting the AI Hype Bubble Once and for All

错误信息和不良研究:案例研究人们不能忽视这样一个事实:ChatGPT 等人工智能模型已经占领了互联网,并进入了互联网的每个角落。大多数人工智能应用程序对于广泛的任务(医疗保健、工程、计算机视觉、教育等)都非常有用和有益,我们没有理由不投入时间和金钱来开发它们。但生成式人工智能 (GenAI) 的情况并非如此,我将在本文中特别提到它。这包括 LLM 和 RAG,例如 ChatGPT、Claude、Gemini、Llama 和其他模型。对于我们所说的人工智能、我们使用的模型及其环境影响,必须非常具体。[1]:人们对“AI”和“ChatGPT”一词的兴趣随时间变化(过去四年)。截图由我拍摄。来源:G

Clarifai 10.9:控制中心:您的统一 AI 仪表板

Clarifai 10.9: Control Center: Your Unified AI Dashboard

推出控制中心、Llama 3.2、o1-preview 和 o1-mini 型号,以及新的上传功能等。

在 LLM 代理框架之间进行选择

Choosing Between LLM Agent Frameworks

构建定制的基于代码的代理和主要代理框架之间的权衡。作者提供的图片感谢 John Gilhuly 对本文的贡献。代理正处于发展阶段。随着多个新框架和该领域的新投资,现代 AI 代理正在克服不稳定的起源,迅速取代 RAG 成为实施优先事项。那么 2024 年最终会成为自主 AI 系统接管编写电子邮件、预订航班、与我们的数据对话或任何其他任务的一年吗?也许,但要达到这一点还有很多工作要做。任何构建代理的开发人员不仅必须选择基础——使用哪种模型、用例和架构——还必须选择要利用哪个框架。您会选择长期存在的 LangGraph 还是新进入的 LlamaIndex Workflows?或者你走传统路线,自己