上下文关键词检索结果

模型上下文协议(MCP)如何使用工具和数据标准化AI连接

How Model Context Protocol (MCP) Is Standardizing AI Connectivity with Tools and Data

随着人工智能(AI)继续在整个行业中获得重要性,AI模型,数据源和工具之间需要集成的需求变得越来越重要。为了满足这一需求,模型上下文协议(MCP)已成为标准化AI连接性的关键框架。该协议允许AI模型,数据系统和工具进行交互[…]模型上下文协议(MCP)如何将AI连接标准化使用工具和数据首先出现在Unite.ai上。

OpenAI启动GPT-4.1-A新一代AI,具有改进的编码和更长的上下文

OpenAI lanserar GPT-4.1 – En ny generation AI med förbättrad kodning och längre kontext

所有三种新型号(GPT-4.1,GPT-4.1 MINI,GPT-4.1 NANO)都可以在上下文中处理多达100万个令牌 - 从以前版本的128,000个令牌中急剧增加。根据SWE-Bench的验证,与GPT-4O相比,GPT-4.1在编码方面的绝对改进为21.4%,使其成为代码开发的主要模型。 GPT-4.1的指示后果[…] OpenAI启动了GPT-4.1-A新一代AI,并首先出现在AI新闻中,并首次出现了更长的编码和更长的上下文。

[AI Show第143集]:ChatGpt收入激增,新AGI时间表,亚马逊的AI代理,Claude的教育,模型上下文协议和LLMS通过Turing Test

[The AI Show Episode 143]: ChatGPT Revenue Surge, New AGI Timelines, Amazon’s AI Agent, Claude for Education, Model Context Protocol & LLMs Pass the Turing Test

OpenAi刚刚筹集了惊人的40B美元来建造AGI,而且它可能与您想象的那样遥不可及。在这一集中,Paul和Mike打破了有关AGI的新预测,为什么Google为Agi的影响做好准备,以及亚马逊如何悄悄踏入AI Agent Artim Arms Race。另外:Openai的“开放”是克劳德(Claude)发起了全面的AI教育推动力,辩论AI是否可以通过Turing测试,跑道筹集了3亿美元以重写好莱坞规范。

McMaken谈论“上下文中的世界事务” podcast的黄金储备

McMaken Talks Gold Reserves on the 'World Affairs in Context' Podcast

“ DeepSeek Killer”将能够支持所有类型的图形并了解请求的上下文

«Убийца DeepSeek» сможет поддерживать все виды графики и понимать контекст запросов

izvestia从中国公司腾讯控股中测试了Hunyuan-T1 AI Modeli的Beta版本,并问她要更新的功能的问题。现在,对于中国最大的微信信使的用户,该模型正在以有限的功能进行测试。

具有代码示例的MCP(模型上下文协议)的明确介绍

A Clear Intro to MCP (Model Context Protocol) with Code Examples

MCP是民主化访问AI代理工具的一种方式。在本文中,我们涵盖了MCP的基本组成部分,它们如何共同工作以及MCP在实践中的工作方式。

区域和上下文特定的方法可以改善对海洋热浪的研究

Regional and context-specific approaches can improve study of marine heat waves

海洋热浪会在海洋生态系统中造成混乱,并破坏沿海经济体。近年来,他们成为了推动鱼类迁移以及更频繁发生有害藻类花朵以及加油风暴系统的急剧变化的头条新闻。然而,在某些情况下,海洋热浪的广泛定义(连续五天超过季节性阈值)的广泛定义留给答案多于答案。

使用 Amazon Bedrock 使用合成数据微调 LLM 以进行基于上下文的问答

Fine-tune LLMs with synthetic data for context-based Q&A using Amazon Bedrock

在本文中,我们将探讨如何使用 Amazon Bedrock 生成合成训练数据来微调 LLM。此外,我们还提供了具体的评估结果,展示了合成数据在数据稀缺时进行微调的强大功能。

EMOTION:具有上下文学习的人形机器人的富有表现力的运动序列生成

EMOTION: Expressive Motion Sequence Generation for Humanoid Robots with In-Context Learning

本文介绍了一种名为 EMOTION 的框架,用于在人形机器人中生成富有表现力的运动序列,从而增强它们进行类似人类的非语言交流的能力。面部表情、手势和身体动作等非语言线索在有效的人际互动中起着至关重要的作用。尽管机器人行为取得了进步,但现有方法往往无法模仿人类非语言交流的多样性和微妙性。为了解决这一差距,我们的方法利用大型语言模型 (LLM) 的上下文学习能力来……

利用人工智能驱动的上下文搜索打破知识孤岛

Breaking Knowledge Silos with AI-Driven Contextual Search

员工每天要花多少时间寻找所需信息?根据麦肯锡和 IDC 的独立研究,员工平均要花 1.8 到 2.5 小时寻找所需信息。Gartner 调查显示:47% 的数字工作者难以找到有效完成工作所需的信息。这种低效率可能导致延误、挫败感和错失机会。在这个快速获取相关信息对成功至关重要的世界里,传统的搜索方法往往不够用。

Claude 的模型上下文协议 (MCP):开发人员指南

Claude’s Model Context Protocol (MCP): A Developer’s Guide

Anthropic 的模型上下文协议 (MCP) 是一种开源协议,可实现 AI 助手与数据库、API 和企业工具等数据源之间的安全双向通信。通过采用客户端-服务器架构,MCP 标准化了 AI 模型与外部数据交互的方式,从而无需为每个新数据源进行自定义集成。关键组件 […]The post Claude 的模型上下文协议 (MCP):开发人员指南首先出现在 Unite.AI 上。

战略线性上下文老虎机

Strategic Linear Contextual Bandits

受战略代理操纵推荐系统以最大化向用户推荐的次数这一现象的启发,我们研究了线性上下文强盗问题的一个战略变体,其中手臂战略性地向学习者错误报告私下观察到的上下文。% 在战略背景操纵下。我们将算法设计问题视为不确定性下的 \emph{机制设计} 问题之一,并提出了乐观严峻触发机制 (OptGTM),该机制可最大限度地减少遗憾,同时激励代理大致诚实。我们表明……

使用生成式 AI 和上下文微调生成特定于金融行业的见解

Generate financial industry-specific insights using generative AI and in-context fine-tuning

在这篇博文中,我们演示了使用行业特定语言生成表格数据的准确且相关的分析的提示工程技术。这是通过在提示中提供具有特征和标签的上下文样本数据中的大型语言模型 (LLM) 来实现的。结果类似于微调 LLM,但没有微调模型的复杂性。

探索递归艺术:上下文无关的分形

Exploring Recursive Art: Fractals with Context Free

使用简单规则和形状生成复杂图像继续阅读 Towards Data Science »

使用矢量量化优化上下文语音识别以实现高效检索

Optimizing Contextual Speech Recognition Using Vector Quantization for Efficient Retrieval

神经语境偏差允许语音识别模型利用语境相关信息,从而提高转录准确性。然而,偏差机制通常基于音频和偏差条目目录之间的交叉注意模块,这意味着计算复杂性可能会对偏差目录的大小造成严重的实际限制,从而影响准确性的提高。这项工作提出了一种基于矢量量化的交叉注意评分近似值,并实现了计算和内存高效的大偏差使用……

NVIDIA 研究人员推出保序检索增强生成 (OP-RAG),用于通过大型语言模型 (LLM) 增强长上下文问答

NVIDIA Researchers Introduce Order-Preserving Retrieval-Augmented Generation (OP-RAG) for Enhanced Long-Context Question Answering with Large Language Models (LLMs)

检索增强生成 (RAG) 是一种提高大型语言模型 (LLM) 处理大量文本效率的技术,在自然语言处理中至关重要,特别是在问答等应用中,在这些应用中,保持信息的上下文对于生成准确的响应至关重要。随着语言模型的发展,研究人员努力突破界限 NVIDIA 研究人员引入了保序检索增强生成 (OP-RAG) 以增强大型语言模型 (LLM) 的长上下文问答 首次出现在 AI Quantum Intelligence 上。

2M 令牌上下文窗口世界中的高级检索技术第 1 部分

Advanced Retrieval Techniques in a World of 2M Token Context Windows Part 1

2M Token Context Windows 世界中的高级检索技术,第 1 部分探索 RAG 技术以提高检索准确性 Google DeepMind 启动的可视化 AI 项目。来自 Unsplash 图像。首先,我们还关心 RAG(检索增强生成)吗?Gemini Pro 可以处理惊人的 2M 令牌上下文,而 GPT-3.5 发布时我们惊讶的只有 15k。这是否意味着我们不再关心检索或 RAG 系统?基于 Needle-in-a-Haystack 基准测试,答案是,虽然需求正在减少,尤其是对于 Gemini 模型,但高级检索技术仍可显着提高大多数 LLM 的性能。基准测试结果表明,长上下文模型

Google DeepMind 研究人员展示 Mobility VLA:使用长上下文 VLM 和拓扑图进行多模态指令导航

Google DeepMind Researchers Present Mobility VLA: Multimodal Instruction Navigation with Long-Context VLMs and Topological Graphs

在过去的几十年里,传感器、人工智能和处理能力的技术进步将机器人导航推向了新的高度。为了将机器人技术提升到一个新的水平,并使它们成为我们生活中的常规部分,许多研究建议将 ObjNav 和 VLN 的自然语言空间转移到多模态空间,以便机器人 Google DeepMind 研究人员展示了 Mobility VLA:具有长上下文 VLM 和拓扑图的多模态指令导航,首先出现在 AI Quantum Intelligence 上。