LLM关键词检索结果

印度与 Lexlegis.AI 一起加入法律特定的 LLM 运动

India Joins Legal-Specific LLM Movement With Lexlegis.AI

总部位于孟买的法律研究公司 Lexlegis.AI 推出了看似是法律特定的 LLM。它接受了超过 1000 万份印度法律文件的培训。...

通过检索增强微调增强您的 LLM

Supercharge your LLM via Retrieval Augmented Fine-tuning

了解检索增强微调 (RAFT),这是一种将检索增强生成 (RAG) 的优势与微调功能相结合的方法。

什么是大型语言模型 (LLM)

What are Large Language Models (LLMs)

大型语言模型 (LLM) 是可以理解人类语言并在此基础上生成情境感知响应的 AI 系统。

解锁未来:2024 年聊天机器人大会上的 AI 代理和 LLM

Unlock the Future: AI Agents and LLMs at Chatbot Conference 2024

公布 2024 年聊天机器人大会的演讲者、议程和主题亲爱的人工智能爱好者,我们很高兴公布今年聊天机器人大会的议程,该大会定于 9 月 24 日至 26 日在科技发达的旧金山举行。今年,我们的重点是一个开创性的主题:人工智能代理和法学硕士——不仅仅是回答的工具;他们行动。为什么是人工智能代理?我们之前的尝试包括 2019 年对 ChatGPT 和 NLG 等革命性技术的早期讨论,我们甚至在 2022 年开创了 Metaverse 虚拟会议。今年,我们将深入研究人工智能代理——LLM 不仅旨在响应,还旨在执行操作,推动各个部门的自动化和效率。特邀演讲嘉宾:今年的阵容包括人工智能和对话设计领域的一些

优化 LLM 部署:vLLM PagedAttention 和高效 AI 服务的未来

Optimizing LLM Deployment: vLLM PagedAttention and the Future of Efficient AI Serving

在实际应用程序上部署大型语言模型 (LLM) 面临着独特的挑战,特别是在计算资源、延迟和成本效益方面。在本综合指南中,我们将探索 LLM 服务的前景,特别关注 vLLM(矢量语言模型),这是一种正在重塑我们部署和与这些强大模型交互的方式的解决方案。[…] 文章优化 LLM 部署:vLLM PagedAttention 和高效 AI 服务的未来首先出现在 Unite.AI 上。

基于企业用例的 LLM 评估

Enterprise Use Case-Based Evaluation of LLMs

生成式 AI 评估策略继续阅读 Towards Data Science »

评判 LLM Judge:用于持续改进 LLM 评估的双层评估框架

Judge an LLM Judge: A Dual-Layer Evaluation Framework for Continuous Improvement of LLM Evaluation

“评判 LLM 评委”:用于持续改进 LLM 申请评估的双层评估框架“LLM 评委对 LLM 应用程序的评估”是否可以由另一位 LLM 评委审核,以持续改进评估过程?采用无参考方法的 LLM 应用程序评估持续改进框架 - 图片来自作者TLDR本文解释了雇用 LLM 评委评估另一位 LLM 评委的概念和低抽象实现。目的是改进 LLM 申请的评估流程,减少 LLM 评委未能做出公正评估的情况。目录介绍研究问题实验设计实施实验结果结论👉 简介❇️ 在构建 LLM 应用程序领域,如何确保一致且可靠的性能是讨论最多的主题之一。由于其不确定性,LLM 模型会在输出中产生很大的变化。因此,严格要求对 LLM

利用 LLM 聊天机器人彻底改变商业智能

Revolutionizing Business Intelligence with LLM Chatbots

在当今快节奏的商业环境中,迅速获得可操作的见解至关重要。大型语言模型 (LLM) 聊天机器人正在成为商业智能 (BI) 平台中的强大工具,提供与复杂数据交互的直观方式。这些先进的聊天机器人利用类似于 WhatsApp 和 Slack 等流行消息应用程序的对话界面的熟悉度来提供 […] 这篇文章《用 LLM 聊天机器人革新商业智能》首先出现在 happy future AI 上。

使用 LLM 可视化和集成复杂想法,第 1 部分:Napkin AI

Visualizing and Integrating Complex Ideas with LLMs, Part 1: Napkin AI

了解 AI 工具如何将复杂的概念转化为清晰、实用的框架和图表图片由作者提供,使用 Napkin AI 制作简介Chat GPT 等 AI 工具正在改变我们处理复杂想法的方式。我喜欢使用 Chat GPT 做的事情之一是整合不同思想家的观点和想法,并区分它们以更好地理解它们的细微差别。这无疑是我最喜欢的 AI 应用之一。图片由作者提供,使用 Napkin AI 制作动机Napkin AI 引起了我的注意,因为它可以根据文本输入自动生成有趣的图表,使其高度灵活且易于使用。我一直在寻找好的概念图和知识图软件,这似乎是一个不错的起点。图片由作者提供,使用 Napkin AI 制作目标这篇文章是系列文章

使用 LLM 可视化和集成复杂想法,第 1 部分:Napkin AI | 作者:Kunal Kambo Puri | 2024 年 7 月

Visualizing and Integrating Complex Ideas with LLMs, Part 1: Napkin AI | by Kunal Kambo Puri | Jul, 2024

了解 AI 工具如何将复杂的概念转化为清晰、实用的框架和图表 图片由作者制作,在 Napkin AI 中制作 像 Chat GPT 这样的 AI 工具正在改变我们处理复杂想法的方式。我喜欢用 Chat GPT 做的事情之一是整合不同思想家的观点和想法,以及区分帖子使用 LLM 可视化和集成复杂想法,第 1 部分:Napkin AI | 作者 Kunal Kambo Puri | 2024 年 7 月首先出现在 AI Quantum Intelligence 上。

构建可靠 AI 应用程序的 LLM 三角原则

The LLM Triangle Principles to Architect Reliable AI Apps

软件设计原则,用于精心设计可靠、高性能的 LLM 应用程序。一个框架,用于弥合潜在性能和生产级性能之间的差距。大型语言模型 (LLM) 具有巨大的潜力,但开发可靠的生产级应用程序仍然具有挑战性。在构建了数十个 LLM 系统之后,我将成功的公式提炼为任何团队都可以应用的四个基本原则。“LLM 原生应用程序 10% 是复杂的模型,90% 是实验数据驱动的工程工作。”构建可用于生产的 LLM 应用程序需要谨慎的工程实践。当用户无法直接与 LLM 交互时,必须精心编写提示以涵盖所有细微差别,因为可能无法获得迭代用户反馈。介绍 LLM 三角原则LLM 三角原则概括了构建有效 LLM 原生应用程序的基本准

CodeAct:您的 LLM 代理在生成代码时表现更好

CodeAct: Your LLM Agent Acts Better when Generating Code

大型语言模型 (LLM) 代理能够执行广泛的操作,例如调用工具和控制机器人,在应对现实世界的挑战方面表现出巨大潜力。LLM 代理通常通过生成预定义格式的 JSON 或文本来提示其产生操作,这通常受到受限的操作空间(例如,预定义工具的范围)和受限的灵活性(例如,无法组合多个工具)的限制。这项工作提出使用可执行的 Python 代码将 LLM 代理的操作整合到统一的操作空间 (CodeAct) 中。集成...

在 CPU 上优化大型语言模型 (LLM):增强推理和效率的技术

Optimizing Large Language Models (LLMs) on CPUs: Techniques for Enhanced Inference and Efficiency

基于 Transformer 架构构建的大型语言模型 (LLM) 最近取得了重要的技术里程碑。这些模型在理解和生成类似于人类的写作方面的卓越技能对各种人工智能 (AI) 应用产生了重大影响。尽管这些模型运行良好,但文章《在 CPU 上优化大型语言模型 (LLM):增强推理和效率的技术》首先出现在 AI Quantum Intelligence 上。

您不需要 LLM 代理

You Don’t Need an LLM Agent

原因与替代方案继续阅读 Towards Data Science »

时间序列对于 LLM 来说并没有那么不同

Time Series Are Not That Different for LLMs

利用 LLM 的力量进行时间序列建模基础模型推动了计算语言学和计算机视觉领域的最新进步,并在人工智能 (AI) 中取得了巨大成功。成功的基础模型的关键思想包括:海量数据:庞大而多样的训练数据涵盖了全面的分布,使模型能够近似任何潜在的测试分布。可转移性:记忆和回忆所学信息的机制,例如提示 [1] 和自我监督的预训练 [2],使模型能够有效地适应新任务。在 LLM 成功之后,时间序列基础模型的开发变得更加密集。图片来自论文 https://arxiv.org/pdf/2403.14735.大型时间序列基础模型 (LTSM)随着基础模型在计算语言学领域的成功,越来越多的研究工作旨在在另一种类型的序列

使用评估来优化 RAG 管道:从分块和嵌入到 LLM

Using Evaluations to Optimize a RAG pipeline: from Chunkings and Embeddings to LLMs

使用 Milvus 矢量数据库的最佳实践 RAG,第 2 部分继续阅读 Towards Data Science »

运行本地 LLM 比您想象的更有用、更容易

Running Local LLMs is More Useful and Easier Than You Think

使用 Python 在本地运行 Llama3 的分步指南继续阅读 Towards Data Science »

使用 Python 的 GenAI:LLM 与代理

GenAI with Python: LLM vs Agents

创建一个 AI 小队,无需 GPU 即可在笔记本电脑上自动执行任何操作继续阅读 Towards Data Science »