Best practices for prompt engineering with Meta Llama 3 for Text-to-SQL use cases
在本文中,我们将探索一种解决方案,该解决方案使用向量引擎 ChromaDB 和 Meta Llama 3(托管在 SageMaker JumpStart 上的公开基础模型)来实现文本到 SQL 用例。我们分享了 Meta Llama 3 的简要历史、使用 Meta Llama 3 模型进行快速工程的最佳实践,以及使用少样本提示和 RAG 提取存储在 ChromaDB 中的相关模式的架构模式。
Accelerate Generative AI Inference with NVIDIA NIM Microservices on Amazon SageMaker
在本文中,我们将演示客户如何通过 NVIDIA NIM 与 SageMaker 的集成来使用生成人工智能 (AI) 模型和 LLM。我们演示了这种集成的工作原理,以及如何在 SageMaker 上部署这些最先进的模型,以优化其性能和成本。
Celebrating the final AWS DeepRacer League championship and road ahead
AWS DeepRacer League 是世界上第一个面向所有人开放并由机器学习 (ML) 提供支持的自动驾驶赛车联盟。AWS DeepRacer 将来自世界各地的建设者聚集在一起,创建一个社区,您可以通过友好的自动驾驶赛车比赛亲身学习 ML。在我们庆祝来自 150 多个国家/地区的 560,000 多名参与者在过去 6 年中通过 AWS DeepRacer League 磨练技能所取得的成就的同时,我们也准备以最后一季来结束这一篇章,这既是胜利圈,也是 AWS DeepRacer 世界下一步发展的起点。
在本文中,我们将展示如何使用 AWS AI/ML 服务向用户推荐突发新闻。通过利用 Amazon Bedrock 上的 Amazon Personalize 和 Amazon Titan Text Embeddings 的强大功能,您可以在文章发布后的几秒钟内向感兴趣的用户展示文章。
在本文中,我们将向您展示如何使用 Amazon Q Business 提供的 AI 聊天界面对索引的 GitHub(云)数据执行自然语言查询。我们还介绍了 Amazon Q Business 如何应用与索引文档关联的访问控制列表 (ACL) 来提供权限过滤的响应。
Elevate customer experience through an intelligent email automation solution using Amazon Bedrock
在本文中,我们向您展示了如何使用 Amazon Bedrock 自动回复客户查询的电子邮件。使用我们的解决方案,您可以识别客户电子邮件的意图,如果意图与您现有的知识库或数据源匹配,则发送自动回复。如果意图不匹配,电子邮件将发送给支持团队进行手动回复。
Build an end-to-end RAG solution using Knowledge Bases for Amazon Bedrock and the AWS CDK
在本文中,我们演示了如何使用 Amazon Bedrock 知识库和 AWS 云开发工具包 (AWS CDK) 无缝地自动部署端到端 RAG 解决方案,从而使组织能够快速建立强大的问答系统。
Detect and protect sensitive data with Amazon Lex and Amazon CloudWatch Logs
在当今的数字环境中,保护个人身份信息 (PII) 不仅是监管要求,也是消费者信任和商业诚信的基石。组织使用先进的自然语言检测服务(如 Amazon Lex)来构建对话界面,使用 Amazon CloudWatch 来监控和分析运营数据。许多组织面临的一个风险是 [...]
AWS AI chips deliver high performance and low cost for Llama 3.1 models on AWS
今天,我们很高兴地宣布 AWS Trainium 和 AWS Inferentia 支持 Llama 3.1 模型的微调和推理。Llama 3.1 系列多语言大型语言模型 (LLM) 是一组预先训练和指令调整的生成模型,大小分别为 8B、70B 和 405B。在上一篇文章中,我们介绍了如何在 Amazon SageMaker JumpStart 中基于 AWS Trainium 和 Inferentia 的实例上部署 Llama 3 模型。在这篇文章中,我们概述了如何开始在 AWS AI 芯片上微调和部署 Llama 3.1 系列模型,以实现其性价比优势。
Llama 3.1 models are now available in Amazon SageMaker JumpStart
今天,我们很高兴地宣布,最先进的 Llama 3.1 多语言大型语言模型 (LLM) 集合(包括 8B、70B 和 405B 大小的预训练和指令调整生成式 AI 模型)可通过 Amazon SageMaker JumpStart 部署以进行推理。Llama 是一种可公开访问的 LLM,专为开发人员、研究人员和企业设计,用于构建、试验和负责任地扩展他们的生成式人工智能 (AI) 创意。在这篇文章中,我们将介绍如何使用 SageMaker JumpStart 发现和部署 Llama 3.1 模型。
随着数字商务的扩展,欺诈检测已成为保护参与在线交易的企业和消费者的关键。实施机器学习 (ML) 算法可以实时分析大量交易数据,以快速识别欺诈活动。这种先进的功能有助于降低金融风险并在不断扩展的数字市场中保护客户隐私。德勤是一家全球战略 […]
Amazon SageMaker unveils the Cohere Command R fine-tuning model
AWS 宣布在 Amazon SageMaker 上推出 Cohere Command R 微调模型。SageMaker 机器学习 (ML) 功能套件的最新成员使企业能够利用大型语言模型 (LLM) 的强大功能,并充分发挥其在各种应用中的潜力。Cohere Command R 是一种可扩展的前沿 […]
Derive meaningful and actionable operational insights from AWS Using Amazon Q Business
作为客户,您依赖 Amazon Web Services (AWS) 的专业知识来随时待命并了解您的特定环境和运营。今天,您可能会实施手动流程来总结经验教训、获得建议或加快事件的解决。这可能很耗时、不一致且不易访问。这篇文章展示了如何 [...]
在当今快速发展的人工智能 (AI) 领域,训练大型语言模型 (LLM) 带来了重大挑战。这些模型通常需要大量的计算资源和复杂的基础设施来处理所涉及的大量数据和复杂算法。如果没有结构化的框架,这个过程可能会变得非常耗时、昂贵和复杂。企业在管理方面苦苦挣扎 […]
Governing the ML lifecycle at scale, Part 2: Multi-account foundations
您的多账户策略是 AWS 上基础环境的核心。围绕多账户环境的设计决策对于大规模安全运营至关重要。将您的工作负载战略性地分组到多个 AWS 账户中,使您能够跨工作负载应用不同的控制、跟踪成本和使用情况、减少账户限制的影响并降低复杂性 […]
Video auto-dubbing using Amazon Translate, Amazon Bedrock, and Amazon Polly
这篇文章由 MagellanTV 和 Mission Cloud 共同撰写。视频配音或内容本地化是在同步音频和视频的同时用另一种语言替换视频中原始口语的过程。视频配音已成为打破语言障碍、增强观众参与度和扩大市场覆盖范围的重要工具。然而,[…]
How Mixbook used generative AI to offer personalized photo book experiences
几年前,Mixbook 采取了一项战略举措,将其运营工作负载转移到 Amazon Web Services (AWS),此举不断带来显著优势。这一关键决定在推动他们完成使命方面发挥了重要作用,确保他们的系统操作具有可靠性、卓越性能和运营效率。在这篇文章中,我们将向您展示 Mixbook 如何使用 AWS 中的生成人工智能 (AI) 功能来个性化他们的相册体验——这是他们实现使命的一步。
这篇文章是与 BRIA AI 的 Bar Fingerman 共同撰写的。这篇文章解释了 BRIA AI 如何快速且经济地在包含 PB 级许可图像的数据集上训练高分辨率 (1024×1024) 文本到图像传播模型 BRIA AI 2.0。Amazon SageMaker 训练作业和 Amazon SageMaker 分布式训练库承担了与基础设施相关的无差别繁重工作 [...]