Streamline RAG applications with intelligent metadata filtering using Amazon Bedrock
在本文中,我们探索了一种创新方法,该方法使用 Amazon Bedrock 上的 LLM 智能地从自然语言查询中提取元数据过滤器。通过结合 LLM 函数调用和 Pydantic 数据模型的功能,您可以动态地从用户查询中提取元数据。这种方法还可以提高检索到的信息和 RAG 应用程序生成的响应的质量。
Amazon Bedrock Prompt Management is now available in GA
今天,我们宣布全面推出 Amazon Bedrock Prompt Management,其新功能提供了增强的选项来配置您的提示并实现无缝集成,以便在您的生成式 AI 应用程序中调用它们。
Device-Directed Speech Detection for Follow-up Conversations Using Large Language Models
这篇论文被 NeurIPS Workshop 2024 的自适应基础模型 (AFM) 研讨会接受。与虚拟助手 (VA) 的后续对话使用户能够无缝地与 VA 交互,而无需使用关键字反复调用它(在第一个查询之后)。因此,从后续查询中进行准确的设备导向语音检测 (DDSD) 对于实现自然的用户体验至关重要。为此,我们探索了大型语言模型 (LLM) 的概念,并在对后续查询进行推理时对第一个查询进行建模(基于 ASR 解码的文本),通过……
The Ultimate Guide to RAGs — Each Component Dissected
RAG 终极指南 — — 剖析每个组件视觉导览构建生产就绪的 LLM 管道所需的条件让我们学习 RAG 吧!(图片来自作者)如果您使用过大型语言模型,很有可能您至少听说过 RAG(检索增强生成)这个术语。RAG 的想法非常简单 — — 假设您想向 LLM 提问,您首先要从外部知识库中检索相关信息,而不是仅仅依赖 LLM 的预训练知识。然后,将检索到的信息与问题一起提供给 LLM,使其生成更明智、最新的响应。将标准 LLM 调用与 RAG 进行比较(来源:图片来自作者)那么,为什么要使用检索增强生成呢?当提供准确和最新的信息是关键时,您不能依赖 LLM 的内置知识。 RAG 是一种廉价实用的方法
The Complete Guide to the NetSuite REST API
了解 NetSuite REST API 的基础知识,进行第一次 REST API 调用,并学习如何使用 REST API 自定义 NetSuite 工作流。
Transforming Data Quality: Automating SQL Testing for Faster, Smarter Analytics
如何根据业务问题测试 SQL 和结果数据集的质量以增加客户的信任照片由 Caspar Camille Rubin 在 Unsplash 上拍摄在软件开发方面,有很多自动化测试工具和框架可以依赖。但对于分析团队来说,手动测试和数据质量保证 (QA) 仍然是常态。很多时候,首先发现数据质量或完整性问题的是客户或业务团队,而不是分析团队。这就是自动化可以发挥巨大作用的地方。通过设置带有脚本的自动化系统来大规模运行数据质量测试,您可以保持快速运行,而不会牺牲数据的准确性或完整性。当然,当业务问题模糊或开放式时,这会变得更加棘手。在这些情况下,基于规则的逻辑和大型语言模型 (LLM) 的混合可以真正有所
在本文中,我们将介绍如何使用 Amazon EC2 Inf2 实例在专用 AWS AI 芯片 AWS Inferentia2 上经济高效地部署多个行业领先的 LLM,帮助客户快速测试并开放 API 接口,以同时促进性能基准测试和下游应用程序调用。
Charlie Mnemonic - Update 5: Introducing Chain-of-Thought and Integrated Recall System
摘要:思路链实现集成回忆系统:回忆插件和 Charlie 回忆应用程序用户界面和体验改进新模型和未来更新我们很高兴地宣布对 Charlie Mnemonic 进行第五次重大更新,它是您的具有长期记忆功能的开源 AI 助手。此版本带来了突破性的功能,包括思路链推理和集成回忆系统,可让您轻松搜索和引用桌面上显示的过去信息,增强 Charlie 的上下文理解和响应能力。让我们深入了解新功能!思路链实现此更新中最重要的新增功能之一是思路链 (CoT) 插件。此功能增强了 Charlie 的推理能力,允许它将复杂问题分解为可管理的步骤。CoT 插件提供分步解释,提高 AI 响应的透明度和理解力。我们集成
美国政府问责署发现国防部 (DOD) 财务报表审计已产生一系列财务和运营结果,预计还将产生更多结果。根据国防部的信息,国防部的审计补救工作已产生财务效益,包括成本节约和避免,以及资金使用能力的提高。美国政府问责署还发现,国防部的努力已产生运营效益,包括财务系统和数据的改进、网络安全风险的降低、资产和库存的可见性增强以及流程效率的提高(见图)。国防部财务报表审计的财务和运营效益示例国防部已采取一些措施来收集财务报表审计结果的示例,但这些努力是有限的。例如,自 2019 年以来,国防部已进行数据调用以确定审计结果,但数据调用仅要求从选定的国防部组成部分获得三到五个积极结果,而不收集消极或中性结果。
Choosing Between LLM Agent Frameworks
构建定制的基于代码的代理和主要代理框架之间的权衡。作者提供的图片感谢 John Gilhuly 对本文的贡献。代理正处于发展阶段。随着多个新框架和该领域的新投资,现代 AI 代理正在克服不稳定的起源,迅速取代 RAG 成为实施优先事项。那么 2024 年最终会成为自主 AI 系统接管编写电子邮件、预订航班、与我们的数据对话或任何其他任务的一年吗?也许,但要达到这一点还有很多工作要做。任何构建代理的开发人员不仅必须选择基础——使用哪种模型、用例和架构——还必须选择要利用哪个框架。您会选择长期存在的 LangGraph 还是新进入的 LlamaIndex Workflows?或者你走传统路线,自己
Can AI Agents Do Your Day-to-Day Tasks on Apps?
在应用程序和人的世界中对编码代理进行基准测试想象这样一个世界,其中 AI 代理可以充当您的个人助理,为您完成任务,例如设置亚马逊退货或根据您的电子邮件取消会议。这将需要代理在复杂的工作流程中以交互方式操作您的应用程序,并且实际上还没有很好的方法来对此类代理进行基准测试。直到现在。🤖 1. 个人应用程序的编码代理随着底层 AI 模型的改进,AI 助手(例如,我们手机上的助手)正在不断改进。几年前,他们很难正确回答简单的事实问题。今天,他们已经开始达到可以代表我们操作应用程序来执行基本任务的程度。例如,最近的 GoogleIO 和 Apple WWDC 活动大部分都是关于 AI 助手成为代表我们工
Direct-to-consumer MRIs and the democratization of health care information
几年前,我对我的基因组进行了测序,并获得了变异调用文件,即我的基因序列与注释的人类基因组之间的所有差异的列表。虽然我的初级保健医生知道这一点,但我并不需要他的中介来获取或解释我的基因组数据。我对不利信息的反应可能是 […] 这篇文章直接面向消费者的 MRI 和医疗保健信息的民主化首先出现在 Angry Bear 上。
CodeAct: Your LLM Agent Acts Better when Generating Code
大型语言模型 (LLM) 代理能够执行广泛的操作,例如调用工具和控制机器人,在应对现实世界的挑战方面表现出巨大潜力。LLM 代理通常通过生成预定义格式的 JSON 或文本来提示其产生操作,这通常受到受限的操作空间(例如,预定义工具的范围)和受限的灵活性(例如,无法组合多个工具)的限制。这项工作提出使用可执行的 Python 代码将 LLM 代理的操作整合到统一的操作空间 (CodeAct) 中。集成...
Salesforce challenges trends in AI with the tiny yet mighty xLAM-1B and 7B models
企业软件公司 Salesforce 推出了两个紧凑型 AI 模型,挑战了 AI 中的“越大越好”范式。尽管体积小巧,但 10 亿和 70 亿参数的 xLAM 模型在函数调用任务中的表现优于许多更大的模型。这些任务涉及 AI 系统将自然语言请求解释和翻译成特定的函数调用或 API 请求。例如,如果您要求 AI 系统“查找下周末飞往纽约的 500 美元以下航班”,则模型需要理解此请求,识别相关函数(例如 search_flights、filter_by_price),并使用正确的参数执行它们。“我们展示了 Salesforce 用小巧但强大的 xLAM-1B 和 7B 模型挑战 AI 趋势的帖子首
Applying RLAIF for Code Generation with API-usage in Lightweight LLMs
这篇论文被 ACL 2024 的自然语言推理和结构化解释研讨会接受。人工智能反馈强化学习 (RLAIF) 已在各个领域展现出巨大潜力,包括减轻 LLM 输出的危害、增强文本摘要和数学推理。本文介绍了一个 RLAIF 框架,用于提高轻量级(<1B 个参数)LLM 的代码生成能力。我们特别关注需要编写适当 API 调用的代码生成任务,这很有挑战性,因为众所周知的问题......
How To Speed Up Python Code with Caching
了解如何通过使用内置 functools 模块中的缓存装饰器缓存昂贵的函数调用来加速 Python 代码。
Why I have an OpenAI subscription
每月 20 美元。以下是我重视和使用的功能:其他人的自定义 GPT我自己的自定义 GPT集成到电子邮件 (Thunderbird) 和文字处理 (适用于 Mac OS 的 MS Word)在许多情况下,自定义 GPT 只不过是某人上传成为主要信息来源的文档。创建者还可以通过向自定义 GPT 提出查询,然后指出错误或改进空间来训练它。在某些情况下,创建者还可以与 OpenAI 合作提供 Wolfram 所做的其他功能。无论如何,OpenAI 订阅可以访问自己创建的自定义 GPT,如果公开共享,还可以访问其他人创建的自定义 GPT。Wolfram 的自定义 GPT例如,Wolfram GPT 将大