亚马逊云科技 _机器学习领域信息情报检索

AWS的以下部分介绍了机器学习的文章。Amazon Web Services(AWS)是亚马逊公司内部一个充满活力且不断发展壮大的业务部门。订阅我们,获取关于Amazon Web Services机器学习的文章。

使用 Meta Llama 3 进行文本到 SQL 用例的提示工程最佳实践

Best practices for prompt engineering with Meta Llama 3 for Text-to-SQL use cases

在本文中,我们将探索一种解决方案,该解决方案使用向量引擎 ChromaDB 和 Meta Llama 3(托管在 SageMaker JumpStart 上的公开基础模型)来实现文本到 SQL 用例。我们分享了 Meta Llama 3 的简要历史、使用 Meta Llama 3 模型进行快速工程的最佳实践,以及使用少样本提示和 RAG 提取存储在 ChromaDB 中的相关模式的架构模式。

使用 Amazon SageMaker 上的 NVIDIA NIM 微服务加速生成式 AI 推理

Accelerate Generative AI Inference with NVIDIA NIM Microservices on Amazon SageMaker

在本文中,我们将演示客户如何通过 NVIDIA NIM 与 SageMaker 的集成来使用生成人工智能 (AI) 模型和 LLM。我们演示了这种集成的工作原理,以及如何在 SageMaker 上部署这些最先进的模型,以优化其性能和成本。

庆祝 AWS DeepRacer League 决赛和未来之路

Celebrating the final AWS DeepRacer League championship and road ahead

AWS DeepRacer League 是世界上第一个面向所有人开放并由机器学习 (ML) 提供支持的自动驾驶赛车联盟。AWS DeepRacer 将来自世界各地的建设者聚集在一起,创建一个社区,您可以通过友好的自动驾驶赛车比赛亲身学习 ML。在我们庆祝来自 150 多个国家/地区的 560,000 多名参与者在过去 6 年中通过 AWS DeepRacer League 磨练技能所取得的成就的同时,我们也准备以最后一季来结束这一篇章,这既是胜利圈,也是 AWS DeepRacer 世界下一步发展的起点。

使用 Amazon Bedrock 上的 Amazon Personalize 和 Amazon Titan Text Embeddings 为新闻读者提供个性化体验

Provide a personalized experience for news readers using Amazon Personalize and Amazon Titan Text Embeddings on Amazon Bedrock

在本文中,我们将展示如何使用 AWS AI/ML 服务向用户推荐突发新闻。通过利用 Amazon Bedrock 上的 Amazon Personalize 和 Amazon Titan Text Embeddings 的强大功能,您可以在文章发布后的几秒钟内向感兴趣的用户展示文章。

使用 Amazon Q GitHub(云)连接器将 Amazon Q Business 生成式 AI 编码伴侣连接到您的 GitHub 存储库

Connect the Amazon Q Business generative AI coding companion to your GitHub repositories with Amazon Q GitHub (Cloud) connector

在本文中,我们将向您展示如何使用 Amazon Q Business 提供的 AI 聊天界面对索引的 GitHub(云)数据执行自然语言查询。我们还介绍了 Amazon Q Business 如何应用与索引文档关联的访问控制列表 (ACL) 来提供权限过滤的响应。

使用 Amazon Bedrock 的智能电子邮件自动化解决方案提升客户体验

Elevate customer experience through an intelligent email automation solution using Amazon Bedrock

在本文中,我们向您展示了如何使用 Amazon Bedrock 自动回复客户查询的电子邮件。使用我们的解决方案,您可以识别客户电子邮件的意图,如果意图与您现有的知识库或数据源匹配,则发送自动回复。如果意图不匹配,电子邮件将发送给支持团队进行手动回复。

使用 Amazon Bedrock 和 AWS CDK 的知识库构建端到端 RAG 解决方案

Build an end-to-end RAG solution using Knowledge Bases for Amazon Bedrock and the AWS CDK

在本文中,我们演示了如何使用 Amazon Bedrock 知识库和 AWS 云开发工具包 (AWS CDK) 无缝地自动部署端到端 RAG 解决方案,从而使组织能够快速建立强大的问答系统。

使用 Amazon Lex 和 Amazon CloudWatch Logs 检测和保护敏感数据

Detect and protect sensitive data with Amazon Lex and Amazon CloudWatch Logs

在当今的数字环境中,保护个人身份信息 (PII) 不仅是监管要求,也是消费者信任和商业诚信的基石。组织使用先进的自然语言检测服务(如 Amazon Lex)来构建对话界面,使用 Amazon CloudWatch 来监控和分析运营数据。许多组织面临的一个风险是 [...]

AWS AI 芯片为 AWS 上的 Llama 3.1 模型提供高性能和低成本

AWS AI chips deliver high performance and low cost for Llama 3.1 models on AWS

今天,我们很高兴地宣布 AWS Trainium 和 AWS Inferentia 支持 Llama 3.1 模型的微调和推理。Llama 3.1 系列多语言大型语言模型 (LLM) 是一组预先训练和指令调整的生成模型,大小分别为 8B、70B 和 405B。在上一篇文章中,我们介绍了如何在 Amazon SageMaker JumpStart 中基于 AWS Trainium 和 Inferentia 的实例上部署 Llama 3 模型。在这篇文章中,我们概述了如何开始在 AWS AI 芯片上微调和部署 Llama 3.1 系列模型,以实现其性价比优势。

Llama 3.1 模型现已在 Amazon SageMaker JumpStart 中可用

Llama 3.1 models are now available in Amazon SageMaker JumpStart

今天,我们很高兴地宣布,最先进的 Llama 3.1 多语言大型语言模型 (LLM) 集合(包括 8B、70B 和 405B 大小的预训练和指令调整生成式 AI 模型)可通过 Amazon SageMaker JumpStart 部署以进行推理。Llama 是一种可公开访问的 LLM,专为开发人员、研究人员和企业设计,用于构建、试验和负责任地扩展他们的生成式人工智能 (AI) 创意。在这篇文章中,我们将介绍如何使用 SageMaker JumpStart 发现和部署 Llama 3.1 模型。

德勤意大利如何使用量子机器学习和 Amazon Braket 构建数字支付欺诈检测解决方案

How Deloitte Italy built a digital payments fraud detection solution using quantum machine learning and Amazon Braket

随着数字商务的扩展,欺诈检测已成为保护参与在线交易的企业和消费者的关键。实施机器学习 (ML) 算法可以实时分析大量交易数据,以快速识别欺诈活动。这种先进的功能有助于降低金融风险并在不断扩展的数字市场中保护客户隐私。德勤是一家全球战略 […]

Amazon SageMaker 推出 Cohere Command R 微调模型

Amazon SageMaker unveils the Cohere Command R fine-tuning model

AWS 宣布在 Amazon SageMaker 上推出 Cohere Command R 微调模型。SageMaker 机器学习 (ML) 功能套件的最新成员使企业能够利用大型语言模型 (LLM) 的强大功能,并充分发挥其在各种应用中的潜力。Cohere Command R 是一种可扩展的前沿 […]

使用 Amazon Q Business 从 AWS 获得有意义且可操作的运营见解

Derive meaningful and actionable operational insights from AWS Using Amazon Q Business

作为客户,您依赖 Amazon Web Services (AWS) 的专业知识来随时待命并了解您的特定环境和运营。今天,您可能会实施手动流程来总结经验教训、获得建议或加快事件的解决。这可能很耗时、不一致且不易访问。这篇文章展示了如何 [...]

使用 Amazon EKS 上的 NVIDIA NeMo 框架加速您的生成式 AI 分布式训练工作负载

Accelerate your generative AI distributed training workloads with the NVIDIA NeMo Framework on Amazon EKS

在当今快速发展的人工智能 (AI) 领域,训练大型语言模型 (LLM) 带来了重大挑战。这些模型通常需要大量的计算资源和复杂的基础设施来处理所涉及的大量数据和复杂算法。如果没有结构化的框架,这个过程可能会变得非常耗时、昂贵和复杂。企业在管理方面苦苦挣扎 […]

大规模管理 ML 生命周期,第 2 部分:多账户基础

Governing the ML lifecycle at scale, Part 2: Multi-account foundations

您的多账户策略是 AWS 上基础环境的核心。围绕多账户环境的设计决策对于大规模安全运营至关重要。将您的工作负载战略性地分组到多个 AWS 账户中,使您能够跨工作负载应用不同的控制、跟踪成本和使用情况、减少账户限制的影响并降低复杂性 […]

使用 Amazon Translate、Amazon Bedrock 和 Amazon Polly 进行视频自动配音

Video auto-dubbing using Amazon Translate, Amazon Bedrock, and Amazon Polly

这篇文章由 MagellanTV 和 Mission Cloud 共同撰写。视频配音或内容本地化是在同步音频和视频的同时用另一种语言替换视频中原始口语的过程。视频配音已成为打破语言障碍、增强观众参与度和扩大市场覆盖范围的重要工具。然而,[…]

Mixbook 如何使用生成式 AI 提供个性化的照片书体验

How Mixbook used generative AI to offer personalized photo book experiences

几年前,Mixbook 采取了一项战略举措,将其运营工作负载转移到 Amazon Web Services (AWS),此举不断带来显著优势。这一关键决定在推动他们完成使命方面发挥了重要作用,确保他们的系统操作具有可靠性、卓越性能和运营效率。在这篇文章中,我们将向您展示 Mixbook 如何使用 AWS 中的生成人工智能 (AI) 功能来个性化他们的相册体验——这是他们实现使命的一步。

BRIA AI 如何使用 Amazon SageMaker 中的分布式训练来训练潜在扩散基础模型以供商业使用

How BRIA AI used distributed training in Amazon SageMaker to train latent diffusion foundation models for commercial use

这篇文章是与 BRIA AI 的 Bar Fingerman 共同撰写的。这篇文章解释了 BRIA AI 如何快速且经济地在包含 PB 级许可图像的数据集上训练高分辨率 (1024×1024) 文本到图像传播模型 BRIA AI 2.0。Amazon SageMaker 训练作业和 Amazon SageMaker 分布式训练库承担了与基础设施相关的无差别繁重工作 [...]