下文关键词检索结果

利用人工智能驱动的上下文搜索打破知识孤岛

Breaking Knowledge Silos with AI-Driven Contextual Search

员工每天要花多少时间寻找所需信息?根据麦肯锡和 IDC 的独立研究,员工平均要花 1.8 到 2.5 小时寻找所需信息。Gartner 调查显示:47% 的数字工作者难以找到有效完成工作所需的信息。这种低效率可能导致延误、挫败感和错失机会。在这个快速获取相关信息对成功至关重要的世界里,传统的搜索方法往往不够用。

Claude 的模型上下文协议 (MCP):开发人员指南

Claude’s Model Context Protocol (MCP): A Developer’s Guide

Anthropic 的模型上下文协议 (MCP) 是一种开源协议,可实现 AI 助手与数据库、API 和企业工具等数据源之间的安全双向通信。通过采用客户端-服务器架构,MCP 标准化了 AI 模型与外部数据交互的方式,从而无需为每个新数据源进行自定义集成。关键组件 […]The post Claude 的模型上下文协议 (MCP):开发人员指南首先出现在 Unite.AI 上。

战略线性上下文老虎机

Strategic Linear Contextual Bandits

受战略代理操纵推荐系统以最大化向用户推荐的次数这一现象的启发,我们研究了线性上下文强盗问题的一个战略变体,其中手臂战略性地向学习者错误报告私下观察到的上下文。% 在战略背景操纵下。我们将算法设计问题视为不确定性下的 \emph{机制设计} 问题之一,并提出了乐观严峻触发机制 (OptGTM),该机制可最大限度地减少遗憾,同时激励代理大致诚实。我们表明……

使用生成式 AI 和上下文微调生成特定于金融行业的见解

Generate financial industry-specific insights using generative AI and in-context fine-tuning

在这篇博文中,我们演示了使用行业特定语言生成表格数据的准确且相关的分析的提示工程技术。这是通过在提示中提供具有特征和标签的上下文样本数据中的大型语言模型 (LLM) 来实现的。结果类似于微调 LLM,但没有微调模型的复杂性。

探索递归艺术:上下文无关的分形

Exploring Recursive Art: Fractals with Context Free

使用简单规则和形状生成复杂图像继续阅读 Towards Data Science »

使用矢量量化优化上下文语音识别以实现高效检索

Optimizing Contextual Speech Recognition Using Vector Quantization for Efficient Retrieval

神经语境偏差允许语音识别模型利用语境相关信息,从而提高转录准确性。然而,偏差机制通常基于音频和偏差条目目录之间的交叉注意模块,这意味着计算复杂性可能会对偏差目录的大小造成严重的实际限制,从而影响准确性的提高。这项工作提出了一种基于矢量量化的交叉注意评分近似值,并实现了计算和内存高效的大偏差使用……

NVIDIA 研究人员推出保序检索增强生成 (OP-RAG),用于通过大型语言模型 (LLM) 增强长上下文问答

NVIDIA Researchers Introduce Order-Preserving Retrieval-Augmented Generation (OP-RAG) for Enhanced Long-Context Question Answering with Large Language Models (LLMs)

检索增强生成 (RAG) 是一种提高大型语言模型 (LLM) 处理大量文本效率的技术,在自然语言处理中至关重要,特别是在问答等应用中,在这些应用中,保持信息的上下文对于生成准确的响应至关重要。随着语言模型的发展,研究人员努力突破界限 NVIDIA 研究人员引入了保序检索增强生成 (OP-RAG) 以增强大型语言模型 (LLM) 的长上下文问答 首次出现在 AI Quantum Intelligence 上。

2M 令牌上下文窗口世界中的高级检索技术第 1 部分

Advanced Retrieval Techniques in a World of 2M Token Context Windows Part 1

2M Token Context Windows 世界中的高级检索技术,第 1 部分探索 RAG 技术以提高检索准确性 Google DeepMind 启动的可视化 AI 项目。来自 Unsplash 图像。首先,我们还关心 RAG(检索增强生成)吗?Gemini Pro 可以处理惊人的 2M 令牌上下文,而 GPT-3.5 发布时我们惊讶的只有 15k。这是否意味着我们不再关心检索或 RAG 系统?基于 Needle-in-a-Haystack 基准测试,答案是,虽然需求正在减少,尤其是对于 Gemini 模型,但高级检索技术仍可显着提高大多数 LLM 的性能。基准测试结果表明,长上下文模型

Google DeepMind 研究人员展示 Mobility VLA:使用长上下文 VLM 和拓扑图进行多模态指令导航

Google DeepMind Researchers Present Mobility VLA: Multimodal Instruction Navigation with Long-Context VLMs and Topological Graphs

在过去的几十年里,传感器、人工智能和处理能力的技术进步将机器人导航推向了新的高度。为了将机器人技术提升到一个新的水平,并使它们成为我们生活中的常规部分,许多研究建议将 ObjNav 和 VLN 的自然语言空间转移到多模态空间,以便机器人 Google DeepMind 研究人员展示了 Mobility VLA:具有长上下文 VLM 和拓扑图的多模态指令导航,首先出现在 AI Quantum Intelligence 上。

斯坦福大学的研究人员推出了上下文向量 (ICV):一种可扩展且高效的 AI 方法,用于微调大型语言模型

Researchers at Stanford Introduces In-Context Vectors (ICV): A Scalable and Efficient AI Approach for Fine-Tuning Large Language Models

大型语言模型 (LLM) 对于推动人工智能和自然语言处理达到新高度至关重要。这些模型在理解和生成人类语言方面表现出了非凡的能力,其应用范围包括但不限于医疗保健、教育和社交互动。然而,LLM 需要提高情境学习的有效性和控制力。斯坦福大学的研究人员引入了情境向量 (ICV):一种可扩展且高效的 AI 方法,用于微调大型语言模型,该文章首先出现在 AI Quantum Intelligence 上。

WhatsApp 上下文卡将告诉您有关可疑群聊的所有信息

Контекстные карточки WhatsApp расскажут все о подозрительных групповых чатах

另一项新功能将如何保护我们免受诈骗?

如何在 Python 中创建自定义上下文管理器

How To Create Custom Context Managers in Python

Python 中的上下文管理器可帮助您高效管理资源。 了解如何编写自己的自定义上下文管理器。

双子座打破了新的地面:更快的模型,更长的上下文和AI代理

Gemini breaks new ground: a faster model, longer context and AI agents

我们正在介绍双子座模型家族的一系列更新,包括新的1.5 Flash,我们的速度和效率轻量级模型,以及Project Astra,我们对AI助手未来的愿景。

双子座打破了新的地面:更快的模型,更长的上下文和AI代理

Gemini breaks new ground: a faster model, longer context and AI agents

我们正在介绍双子座模型家族的一系列更新,包括新的1.5 Flash,我们的速度和效率轻量级模型,以及Project Astra,我们对AI助手未来的愿景。

双子座打破了新的地面:更快的模型,更长的上下文和AI代理

Gemini breaks new ground: a faster model, longer context and AI agents

我们正在介绍双子座模型家族的一系列更新,包括新的1.5 Flash,我们的速度和效率轻量级模型,以及Project Astra,我们对AI助手未来的愿景。

双子座打破了新的地面:更快的模型,更长的上下文和AI代理

Gemini breaks new ground: a faster model, longer context and AI agents

我们正在介绍双子座模型家族的一系列更新,包括新的1.5 Flash,我们的速度和效率轻量级模型,以及Project Astra,我们对AI助手未来的愿景。

Gemini 开辟新天地:更快的模型、更长的上下文和 AI 代理

Gemini breaks new ground: a faster model, longer context and AI agents

我们将在 Gemini 系列模型中推出一系列更新,包括新的 1.5 Flash(我们针对速度和效率的轻量级模型)和 Project Astra(我们对人工智能助手未来的愿景)。

CREATE:自主团队的上下文推理

CREATE: Context Reasoning for Autonomous Teaming

项目负责人:Aaron Kofford 先生 赞助组织:DARPA网站:https://www.darpa.mil/program/context-reasoning-for-autonomous-teaming 项目概要:CREATE 将探索人工智能 (AI) 在自主组建可扩展的机器对机器团队中的实用性,这些团队能够对