AWS关键词检索结果

AWS DeepRacer:如何掌握物理赛车?

AWS DeepRacer: How to master physical racing?

在这篇博文中,我将介绍物理 AWS DeepRacer 赛车(真实赛道上的真实汽车)与虚拟世界中的赛车(模拟 3D 环境中的模型)的不同之处。我将介绍基础知识、虚拟与物理之间的差异,以及我为深入了解挑战所采取的步骤。

AWS 云开发工具包漏洞导致 AWS 账户被完全接管

AWS Cloud Development Kit Vulnerability Enables Full AWS Account Takeover

安全公司 Aqua 在 AWS 云开发工具包 (CDK) 中发现的一个新漏洞可能导致攻击者由于手动删除工件 S3 存储桶而完全接管目标 AWS 帐户。虽然 AWS 修复了此漏洞,但如果您使用的是 CDK 版本 v2.148.1 或更早版本,您仍需要采取行动。作者:Sergio De Simone

使用 Amazon EKS 和 vLLM 在 AWS Inferentia 上部署 Meta Llama 3.1-8B

Deploy Meta Llama 3.1-8B on AWS Inferentia using Amazon EKS and vLLM

在本文中,我们将介绍使用 Amazon EKS 在 Inferentia 2 实例上部署 Meta Llama 3.1-8B 模型的步骤。此解决方案将 Inferentia 2 芯片的卓越性能和成本效益与 Amazon EKS 的强大和灵活的环境相结合。Inferentia 2 芯片提供高吞吐量和低延迟推理,非常适合 LLM。

使用 vLLM 和带有 AWS AI 芯片的 Amazon EC2 实例提供 LLM

Serving LLMs using vLLM and Amazon EC2 instances with AWS AI chips

在过去一年中,大型语言模型 (LLM) 和生成式 AI 的使用呈爆炸式增长。随着强大的公开基础模型的发布,用于训练、微调和托管您自己的 LLM 的工具也变得民主化。在 AWS Trainium 和 Inferentia 上使用 vLLM 可以托管 LLM 以实现高性能 [...]

使用 Datadog 增强 AWS Trainium 和 AWS Inferentia 的可观察性

Enhanced observability for AWS Trainium and AWS Inferentia with Datadog

本博文将引导您了解 Datadog 与 AWS Neuron 的新集成,它通过提供对资源利用率、模型执行性能、延迟和实时基础设施运行状况的深度可观察性来帮助您监控 AWS Trainium 和 AWS Inferentia 实例,使您能够优化机器学习 (ML) 工作负载并实现大规模高性能。

使用 AWS CDK 应用 Amazon SageMaker Studio 生命周期配置

Apply Amazon SageMaker Studio lifecycle configurations using AWS CDK

本篇文章是有关如何为您的 Amazon SageMaker Studio 域设置生命周期配置的分步指南。借助生命周期配置,系统管理员可以对其 SageMaker Studio 域及其用户应用自动控制。我们涵盖了 SageMaker Studio 的核心概念,并提供了如何将生命周期配置应用于 […] 的代码示例

Crexi 如何在 AWS 上大规模部署 ML 模型并提高效率

How Crexi achieved ML models deployment on AWS at scale and boosted efficiency

Commercial Real Estate Exchange, Inc. (Crexi) 是一个数字市场和平台,旨在简化商业房地产交易。在这篇文章中,我们将回顾 Crexi 如何实现其业务需求,并开发一个多功能且强大的框架来创建和部署 AI/ML 管道。这种可定制且可扩展的解决方案允许高效部署和管理其 ML 模型,以满足不同的项目要求。

Wherobots 在 Felicis 领投的 A 轮融资中筹得 2150 万美元,旨在从 AWS 云开始实现地理空间和气候智能的现代化

Wherobots Raises $21.5M in Series A Funding Led by Felicis to Modernize Geospatial and Climate Intelligence, Starting in the AWS Cloud

Overture Maps Foundation 和其他公司利用 Wherobots 更快地将地理空间产品推向市场,同时在云端将其工作负载提高 20 倍

使用 AWS Inferentia 和 AWS Trainium 在 Amazon SageMaker JumpStart 中经济高效地部署 Meta Llama 3.1 模型

Deploy Meta Llama 3.1 models cost-effectively in Amazon SageMaker JumpStart with AWS Inferentia and AWS Trainium

我们很高兴地宣布,Meta Llama 3.1 8B 和 70B 推理支持已在 Amazon SageMaker JumpStart 中的 AWS Trainium 和 AWS Inferentia 实例上推出。 Trainium 和 Inferentia 由 AWS Neuron 软件开发工具包 (SDK) 提供支持,可提供高性能并将 Meta Llama 3.1 的部署成本降低高达 50%。在这篇文章中,我们演示了如何在 SageMaker JumpStart 中的 Trainium 和 Inferentia 实例上部署 Meta Llama 3.1。

AWS 获得 ISO/IEC 42001:2023 人工智能管理系统认证

AWS achieves ISO/IEC 42001:2023 Artificial Intelligence Management System accredited certification

Amazon Web Services (AWS) 很高兴成为第一家宣布以下 AI 服务获得 ISO/IEC 42001 认证的主要云服务提供商:Amazon Bedrock、Amazon Q Business、Amazon Textract 和 Amazon Transcribe。ISO/IEC 42001 是一项国际管理系统标准,概述了组织促进负责任地开发和使用 AI 系统的要求和控制。

使用 Amazon Bedrock 和 AWS Step Functions 编排生成式 AI 工作流

Orchestrate generative AI workflows with Amazon Bedrock and AWS Step Functions

本博文讨论了如何使用 AWS Step Functions 高效协调多步骤生成式 AI 工作流,例如并行化对 Amazon Bedrock 的 API 调用以快速收集已提交问题列表的答案。我们还介绍了使用检索增强生成 (RAG) 来优化输出并提供额外的精度,以及通过 Step Functions 进行的其他可能的集成。

使用 AWS SDK for Python (Boto3) 在 Amazon Bedrock 上构建生成式 AI 应用程序

Build generative AI applications on Amazon Bedrock with the AWS SDK for Python (Boto3)

在本博文中,我们将演示如何使用 Amazon Bedrock 和 AWS SDK for Python (Boto3) 以编程方式整合 FM。我们将探讨如何调用特定 FM 并处理生成的文本,展示开发人员在应用程序中使用这些模型用于各种用例的潜力

彻底改变知识管理:大众汽车与 AWS 的 AI 原型之旅

Revolutionizing knowledge management: VW’s AI prototype journey with AWS

我们很高兴与大家分享大众汽车集团(汽车行业的创新者和欧洲最大的汽车制造商)的历程,他们利用生成式人工智能、Amazon Bedrock 和 Amazon Kendra 设计了基于检索增强生成 (RAG) 的解决方案,让用户更轻松地访问内部信息,从而增强了知识管理。该解决方案可有效处理包含文本和图像的文档,从而显著增强了大众汽车集团在其生产领域的知识管理能力。

奔向未来:AWS DeepRacer 如何推动我的 AI 和 ML 之旅

Racing into the future: How AWS DeepRacer fueled my AI and ML journey

2018 年,我坐在 AWS re:Invent 的观众席上,听 Andy Jassy 宣布推出 AWS DeepRacer——一款由强化学习驱动的全自动 1/18 比例赛车。当时,我对人工智能或机器学习 (ML) 知之甚少。作为一名从传统网络过渡到云技术的工程师,我从未将自己视为开发人员。[…]

AWS re:Invent 2024 上的生成式 AI 和 ML 指南

Your guide to generative AI and ML at AWS re:Invent 2024

在此与会者指南中,我们将重点介绍一些我们最喜欢的会议,让您了解即将发生的事情。为了帮助您规划今年 re:Invent 的议程,以下是生成式 AI 和 ML 会议的一些亮点。访问会议目录以了解我们所有的生成式 AI 和 ML 会议。

使用汽车术语在 AWS 上自定义小型语言模型

Customize small language models on AWS with automotive terminology

在本文中,我们将指导您完成在 AWS 上自定义 SLM 的各个阶段,特别关注汽车术语作为问答任务的诊断。我们从数据分析阶段开始,然后逐步完成端到端流程,涵盖微调、部署和评估。我们将定制的 SLM 与通用 LLM 进行比较,使用各种指标来评估词汇丰富度和整体准确性。

针对公共存储桶“全部拒绝”:AWS 资源控制策略 (RCP) 扩展集中式云治理

"Deny All" for Public Buckets: AWS Resource Control Policies (RCP) Extend Centralized Cloud Governance

AWS 发布的资源控制策略 (RCP) 与现有服务控制策略 (SCP) 结合使用,使云架构师能够创建一个身份边界,大规模控制所有不必要的权限和对资源的访问。使用它们消除了对每个工作负载繁琐的最小特权要求,促进了开发人员的创新。了解 RCP 资源 […]

使用 Amazon Bedrock 以自然语言生成 AWS Resilience Hub 发现结果

Generate AWS Resilience Hub findings in natural language using Amazon Bedrock

本博文讨论了一种结合 AWS Resilience Hub 和 Amazon Bedrock 以自然语言生成架构结果的解决方案。通过使用弹性枢纽和亚马逊基岩的功能,您可以与公司内部的C套件高管,工程师,经理和其他角色分享发现,以提供更好的可见性,而不是维护弹性架构