自然语言关键词检索结果

DXC 使用 LLM 驱动的工具为其石油和天然气客户转变数据探索

DXC transforms data exploration for their oil and gas customers with LLM-powered tools

在本博文中,我们向您展示了 DXC 和 AWS 如何合作使用大型语言模型 (LLM) 构建 AI 助手,使用户能够访问和分析来自各种数据源的不同数据类型。AI 助手由智能代理提供支持,该代理将用户问题路由到针对不同数据类型(例如文本、表格和特定于域的格式)优化的专用工具。它利用 LLM 理解自然语言、编写代码和推理对话上下文的能力。

Molex 在新的行业报告中展望机器人技术的未来,该报告考虑了人机协作的上升潜力

Molex Envisions the Future of Robotics in New Industry Report that Considers the Rising Potential of Human-Machine Collaborations

-人工智能、机器学习和传感器融合方面的进步推动了机器人技术在工厂、家庭、教室、医疗保健和军事应用中的功能 -高速连接、边缘计算、网络冗余和故障安全程序方面的持续创新对于优化机器人技术机会至关重要 -自然语言处理和情感 AI 功能的出现有望推动更直观、响应更快、适应性更强的人机交互

Duo-LLM:用于研究大型语言模型中的自适应计算的框架

Duo-LLM: A Framework for Studying Adaptive Computation in Large Language Models

这篇论文被 NeurIPS 2024 的高效自然语言和语音处理 (ENLSP) 研讨会接受。大型语言模型 (LLM) 通常使用固定的计算预算逐个生成输出,导致资源利用率低下。为了解决这一缺点,混合专家 (MoE) 模型、推测解码和早期退出策略方面的最新进展利用了计算需求可能根据输入的复杂性和性质而有很大差异的洞察力。然而,确定动态执行的最佳路由模式仍然是一个开放的问题……

在 Amazon SageMaker JumpStart 上微调用于视觉和文本用例的多模态模型

Fine-tune multimodal models for vision and text use cases on Amazon SageMaker JumpStart

在本文中,我们将展示如何微调文本和视觉模型(例如 Meta Llama 3.2),以便在视觉问答任务中表现更好。Meta Llama 3.2 Vision Instruct 模型在具有挑战性的 DocVQA 视觉问答基准上表现出色。通过利用 Amazon SageMaker JumpStart 的强大功能,我们展示了调整这些生成式 AI 模型以更好地理解和回答有关图像的自然语言问题的过程。

智能扩展:通过小型模型初始化加速大型语言模型预训练

Scaling Smart: Accelerating Large Language Model Pre-training with Small Model Initialization

这篇论文被 NeurIPS 2024 的高效自然语言和语音处理 (ENLSP) 研讨会接受。语言模型的预训练阶段通常从随机初始化的参数开始。根据当前扩展模型的趋势,训练它们的大量参数可能非常缓慢且成本高昂。相比之下,小型语言模型的训练成本较低,但它们通常无法达到大型模型的准确性。在本文中,我们探索了一个将这两种不同机制联系起来的有趣想法:我们能否开发一种使用……初始化大型语言模型的方法

Jumio 人工智能副总裁 Alix Melchy – 访谈系列

Alix Melchy, VP of AI at Jumio – Interview Series

Alix Melchy 是 Jumio 的人工智能副总裁,他领导着全球的机器学习工程师团队,专注于计算机视觉、自然语言处理和统计建模。作为一名经验丰富的人工智能领导者,Melchy 热衷于将人工智能创新转化为企业级人工智能系统,促进人工智能的负责任实践并塑造 […]Jumio 人工智能副总裁 Alix Melchy - 访谈系列首次出现在 Unite.AI 上。

使用 Amazon Bedrock 将基础模型集成到您的代码中

Integrate foundation models into your code with Amazon Bedrock

大型语言模型 (LLM) 和基础模型 (FM) 的兴起彻底改变了自然语言处理 (NLP) 和人工智能 (AI) 领域。这些强大的模型经过大量数据训练,可以生成类似人类的文本、回答问题,甚至参与创意写作任务。但是,从头开始训练和部署此类模型是 […]

VQAScore:评估和改进视觉语言生成模型

VQAScore: Evaluating and improving vision-language generative models

简介 文本到图像/视频模型(如 Midjourney、Imagen3、Stable Diffusion 和 Sora)可以根据自然语言提示生成美观、逼真的视觉效果,例如,给定“几只巨大的猛犸象走近,穿过一片雪地草地……”,Sora 会生成:但我们如何知道这些模型是否生成了我们想要的东西?例如,如果提示是“棕色的狗在树周围追逐黑色的狗”,我们如何判断模型显示的是狗“在树周围追逐”而不是“在后院玩耍”?更一般地说,我们应该如何评估这些生成模型?虽然人类可以轻松判断生成的图像是否与提示一致,但大规模的人工评估成本高昂。为了解决这个问题,我们引入了一个新的评估指标 (VQAScore) 和基准数据集

人工智能治疗:聊天机器人可以取代人类治疗师吗?

AI Therapy: Can Chatbots Replace Human Therapists?

AI 治疗革命:聊天机器人如何改变心理健康护理随着人工智能 (AI) 不断渗透到日常生活的各个方面,其在心理健康护理中的应用受到了特别的关注。从简单的情绪跟踪应用程序到更复杂的 AI 驱动治疗聊天机器人,心理健康支持比以往任何时候都更容易获得。但这种可获得性引发了一个关键问题:AI 驱动的聊天机器人真的可以取代人类治疗师吗?在本文中,我们将探讨 AI 治疗的能力和局限性,深入研究其有效性背后的心理学,并讨论其伦理影响。通过借鉴现有研究和现实世界的例子,我们旨在阐明 AI 治疗聊天机器人是否是人类治疗师的可行替代品,还是仅仅是心理健康护理中的补充工具。AI 治疗师AI 治疗的演变:从支持工具到自

Druva 在构建 Dru(Druva 的备用 AI 副驾驶)时如何使用 Amazon Bedrock 解决基础模型的复杂性

How Druva used Amazon Bedrock to address foundation model complexity when building Dru, Druva’s backup AI copilot

Druva 为数千家企业提供网络、数据和运营弹性,并受到 60 家财富 500 强企业的信任。在这篇文章中,我们展示了 Druva 如何使用 Amazon Bedrock 进行自然语言查询 (NLQ)——用英语提问并获取表格数据作为答案——以及他们面临的挑战、示例提示和关键学习内容。

训练小规模大型语言模型的计算瓶颈

Computational Bottlenecks of Training Small-Scale Large Language Models

这篇论文被 NeurIPS Workshop 2024 的高效自然语言和语音处理 (ENLSP) 研讨会接受。虽然大型语言模型 (LLM) 主导着人工智能领域,但由于消费者对成本和效率的要求,小规模大型语言模型 (SLM) 正受到关注。然而,对 SLM 的训练行为和计算要求的研究有限。在本研究中,我们通过检查各种超参数和配置(包括 GPU 类型、批量大小等)的影响,探索了训练 SLM(最多 2B 个参数)的计算瓶颈…

AI 代理工作流程:关于使用 LangGraph 还是 LangChain 构建的完整指南

AI Agent Workflows: A Complete Guide on Whether to Build With LangGraph or LangChain

深入研究由同一创建者开发的两个库 — LangChain 和 LangGraph:它们的关键构建块、它们如何处理核心功能,以及如何根据你的用例决定使用哪个库语言模型已经为用户如何与 AI 系统交互以及这些系统如何通过自然语言相互通信提供了可能性。当企业想要使用 Agentic AI 功能构建解决方案时,第一个技术问题通常是“我使用什么工具?”对于那些急于入门的人来说,这是第一个障碍。来源:Dalle-3在本文中,我们将探讨用于构建 Agentic AI 应用程序的两个最流行的框架 — LangChain 和 LangGraph。在本文结束时,你应该彻底了解关键构建块,了解每个框架在处理核心功能

2024/09/27 教 AI 应该做什么和不应该做什么

2024/09/27 Teaching AI What it Should and Shouldn’t Do

DARPA 宣布了其新的道义推理 DevOps 人机通信计划,简称 CODORD。道义推理是一个哲学术语,指的是义务、许可和禁令。Devops 是指软件开发和 IT 运营的结合,包括在运营期间持续进行的开发。CODORD 旨在使人类通过自然语言(例如,口头或书面英语、法语、德语等)将道义知识自动传达为一种高度表达的逻辑编程语言。如果成功,CODORD 将大大减少将大量人类生成的关于义务、许可和禁令的知识转化为人工智能可以理解并严格推理以提供决策支持的逻辑语言所需的成本和时间。

一个 AI 模型统治所有机器人

One AI Model to Rule All Robots

用于控制机器人的软件通常高度适应其特定的物理设置。但现在研究人员已经创建了一种通用的机器人控制策略,可以操作机械臂、轮式机器人、四足动物甚至无人机。将机器学习应用于机器人技术的最大挑战之一是数据匮乏。虽然计算机视觉和自然语言处理可以搭载互联网上发现的大量图像和文本数据,但收集机器人数据既昂贵又耗时。为了解决这个问题,人们越来越多地努力汇集不同团体收集的不同类型机器人的数据,包括 Open X-Embodiment 和 DROID 数据集。希望对不同的机器人数据进行训练将导致“正向迁移”,即从一项任务的训练中学到的技能有助于提高另一项任务的表现。问题是机器人通常具有非常不同的实施(用于描述其物理

检索增强校正命名实体语音识别错误

Retrieval-Augmented Correction of Named Entity Speech Recognition Errors

近年来,端到端自动语音识别 (ASR) 系统已证明其具有出色的准确性和性能,但这些系统对于训练数据中不经常出现的实体名称仍然具有显着的错误率。随着端到端 ASR 系统的兴起,大型语言模型 (LLM) 已被证明是各种自然语言处理 (NLP) 任务的多功能工具。在具有相关知识数据库的 NLP 任务中,检索增强生成 (RAG) 与 LLM 一起使用时取得了令人印象深刻的结果。在这项工作中,我们提出……

NVIDIA 研究人员推出保序检索增强生成 (OP-RAG),用于通过大型语言模型 (LLM) 增强长上下文问答

NVIDIA Researchers Introduce Order-Preserving Retrieval-Augmented Generation (OP-RAG) for Enhanced Long-Context Question Answering with Large Language Models (LLMs)

检索增强生成 (RAG) 是一种提高大型语言模型 (LLM) 处理大量文本效率的技术,在自然语言处理中至关重要,特别是在问答等应用中,在这些应用中,保持信息的上下文对于生成准确的响应至关重要。随着语言模型的发展,研究人员努力突破界限 NVIDIA 研究人员引入了保序检索增强生成 (OP-RAG) 以增强大型语言模型 (LLM) 的长上下文问答 首次出现在 AI Quantum Intelligence 上。

汤森路透实验室如何利用 AWS MLOps 服务快速实现 AI/ML 创新

How Thomson Reuters Labs achieved AI/ML innovation at pace with AWS MLOps services

在本文中,我们将向您展示汤森路透实验室 (TR Labs) 如何通过采用使用 AWS SageMaker、SageMaker Experiments、SageMaker Model Registry 和 SageMaker Pipelines 的标准化 MLOps 框架来开发高效、灵活且功能强大的 MLOps 流程。目标是加快团队使用 AI 和机器学习 (ML) 进行实验和创新的速度——无论是使用自然语言处理 (NLP)、生成式 AI 还是其他技术。我们讨论了这如何帮助缩短新想法的上市时间并帮助构建具有成本效益的机器学习生命周期。

Nastia AI 定价、功能、详细信息、替代方案

Nastia AI Pricing, Features, Details, Alternatives

Nastia AI 是一款先进的 AI 伴侣,旨在为用户提供情感支持、心理健康指导和动态、个性化的互动。它利用卓越的 AI 算法和自然语言处理来促进有意义且真实的对话。Nastia AI 因其能够生成 AI 驱动的图像以增强互动并通过保密对话保护用户隐私而脱颖而出。Nastia AI 的优缺点 优点 动态对话:通过自适应和真实的对话吸引用户。情感支持:提供一个保密且支持的空间来分享感受。心理健康指导:提供改善心理健康和幸福感的指导。个性化回复:为 […] 量身定制的互动