AWS关键词检索结果

在AWS上创建S3存储的初学者指南

Beginner’s Guide to Creating a S3 Storage on AWS

如何快速创建云存储并访问远程访问该邮政的初学者指南,以在AWS上创建S3存储,这首先出现在数据科学上。

与AWS推理的Amazon Sagemaker上优化混合8x7b

Optimizing Mixtral 8x7B on Amazon SageMaker with AWS Inferentia2

这篇文章演示了如何在AWS推理的实例上部署和服务Mixtral 8x7b语言模型,以进行具有成本效益,高性能推断。我们将使用拥抱面孔的最佳神经元进行模型汇编,该神经元提供了一组工具,可直接加载,训练和推理以及文本生成推理(TGI)容器,该容器具有用于部署和服务LLMS与HOUGGingFace的工具套件。

赛车超越深度:AWS LLM League的首次亮相

Racing beyond DeepRacer: Debut of the AWS LLM League

AWS LLM LOAGEWAS旨在通过提供一种体验来降低生成AI模型定制的进入障碍,而参与者无论其先前的数据科学经验如何,都可以从事微调LLMS。使用Amazon Sagemaker Jumpstart,引导与会者通过自定义LLMS来解决适应其领域的实际业务挑战的过程。

AWS销售如何使用生成AI简化帐户计划

How AWS Sales uses generative AI to streamline account planning

每年,AWS销售人员在深入的,前瞻性的策略文件中为已建立的AWS客户提供。这些文件可帮助AWS销售团队与我们的客户增长策略保持一致,并与整个销售团队合作就AWS客户的长期增长想法。在这篇文章中,我们展示了AWS销售产品团队如何建立生成AI帐户计划草案助手。

塑造未来:Omron与AWS的数据驱动之旅

Shaping the future: OMRON’s data-driven journey with AWS

Omron Corporation是工业自动化,医疗保健和电子组件领域的领先技术提供商。在塑造未来2030年(SF2030)战略计划的过程中,Omron旨在解决各种社会问题,推动可持续的业务增长,改变业务模式和能力,并加速数字化转型。这种转型的核心是Omron Data&Analytics平台(ODAP),这是一项旨在彻底改变公司如何利用其数据资产的创新计划。这篇文章探讨了Omron Europe如何使用Amazon Web Services(AWS)来构建其先进的ODAP及其在利用生成AI的力量方面的进步。

介绍代码助手的AWS MCP服务器(第1部分)

Introducing AWS MCP Servers for code assistants (Part 1)

我们很高兴地宣布代码助理的AWS MCP服务器的开源发布 - 一套专门的模型上下文协议(MCP)服务器,将Amazon Web Services(AWS)最佳实践直接带入您的开发工作流程。这篇文章是涵盖AWS MCP服务器的系列中的第一篇。在这篇文章中,我们介绍了这些专业的MCP服务器如何大大减少您的开发时间,同时将安全控制,成本优化以及AWS良好的最佳实践纳入您的代码中。

三月回顾:新的AWS敏感权限和服务

March Recap: New AWS Sensitive Permissions and Services

2025年3月即将结束,我们回到了最新一轮的AWS敏感许可更新,新支持的服务以及整个云景观的主要发展。保持这些变化的最新状态对于维持安全良好的环境至关重要,尤其是随着新的许可继续出现,有可能影响[…]

AWS App Studio推出了预建的解决方案目录,并跨境进口和导出

AWS App Studio introduces a prebuilt solutions catalog and cross-instance Import and Export

在最近的AWS新帖子中,App Studio宣布了两个新功能,以加速应用程序建筑:预先构建的解决方案目录和跨境进口和出口。在这篇文章中,我们将浏览如何使用预制的解决方案目录快速启动并使用进口和导出功能

使用亚马逊基石代理和AWS支持自动化工作流程

Streamline AWS resource troubleshooting with Amazon Bedrock Agents and AWS Support Automation Workflows

aws提供了一种功能强大的工具,称为AWS支持自动化工作流,该工具是策划的AWS Systems Manager自助服务自动化运行簿的集合。这些运行本是由AWS支持工程创建的,并从解决客户问题中学到的最佳实践。它们使AWS客户能够通过其AWS资源进行故障排除,诊断和补救问题。在这篇文章中,我们探讨了如何利用亚马逊基岩代理商的力量和AWS支持自动化工作流程,以创建能够使用AWS资源对问题进行故障排除问题的智能代理。

从创新到影响:AWS和NVIDIA如何实现现实世界中的AI成功

From innovation to impact: How AWS and NVIDIA enable real-world generative AI success

在这篇文章中,我将分享其中一些客户的非凡旅程,为任何希望利用生成AI的力量的组织提供实用的见解。

Amazon Q业务现已在欧洲(爱尔兰)AWS地区提供

Amazon Q Business now available in Europe (Ireland) AWS Region

今天,我们很高兴地宣布,亚马逊Q业务(Amazon Q Business)是一家完全由托管的生成型助理助理,您可以配置以回答问题,提供摘要并根据您的企业数据生成内容,现在通常在欧洲(爱尔兰)AWS地区可用。

解开AWS IAM政策逻辑并朝着最小特权迈进

Untangle AWS IAM Policy Logic and Move Toward Least Privilege

aws身份和访问管理(IAM)功能强大,但它也是云安全性最复杂,最令人沮丧的方面之一。安全团队希望执行最少的特权,但是AWS IAM的加法权限模型与多个政策层相结合,使得难以有效地管理权限。另一方面,开发人员经常遇到[…]

如何使用拥抱的面部库在AWS AI芯片上运行QWEN 2.5

How to run Qwen 2.5 on AWS AI chips using Hugging Face libraries

在这篇文章中,我们概述了如何使用拥抱脸部文本生成推断(TGI)容器(TGI)容器(TGI)容器(TGI)和TheHugging Optimum face face face facimum neuron库来使用使用Amazon弹性Compute Cloud(Amazon EC2)和Amazon Sagemaker部署QWEN 2.5模型家族。还支持QWEN2.5编码器和数学变体。

在Amazon Bedrock上通过Creditai转换财务分析:Octus与AWS

Transforming financial analysis with CreditAI on Amazon Bedrock: Octus’s journey with AWS

在这篇文章中,我们演示了Octus如何将其旗舰产品Creditai迁移到亚马逊基岩,从而改变了投资专业人员如何访问和分析信用情报。我们踏上了Octus的旅程,从管理多个云提供商和昂贵的GPU实例到使用AWS服务(包括Amazon Bedrock,AWS Fargate和Amazon OpenSearch Service)的AWS服务实施简化的,具有成本效益的解决方案。

在AWS上构建具有Langgraph和Mistral的多代理系统

Build a Multi-Agent System with LangGraph and Mistral on AWS

在这篇文章中,我们探讨了如何在亚马逊基地上使用Langgraph和Mistral模型来创建一个强大的多代理系统,该系统可以通过解决问题解决问题来处理复杂的工作流程。这种集成使可以共同解决复杂问题,模仿人类式的推理和协作的AI代理的创建AI代理。

时间序列预测基于LLM的基础模型和AWS上的可扩展AIOPS

Time series forecasting with LLM-based foundation models and scalable AIOps on AWS

在此博客文章中,我们将使用合成数据集将计时集成到Amazon Sagemaker管道中,该数据集将计算数据集整合到Amazon Sagemaker管道中,该数据集模拟销售预测方案,以最小的数据将准确有效的预测解锁准确有效的预测。

加速了AWS良好的评论,并具有生成ai

Accelerate AWS Well-Architected reviews with Generative AI

在这篇文章中,我们探索了一种生成的AI解决方案,利用Amazon Bedrock简化WAFR过程。我们演示了如何利用LLM的力量构建智能,可扩展的系统,该系统可以分析体系结构文档并根据AWS良好的最佳实践产生洞察力的建议。该解决方案可自动化WAFR报告创建的一部分,帮助解决方案建筑师在支持其决策过程的同时提高建筑评估的效率和彻底性。

通过推断AWS本地区域的边缘推断

Reduce conversational AI response time through inference at the edge with AWS Local Zones

本指南展示了如何通过在三个位置上的亚马逊EC2实例上的face部署开源基础模型:商业AWS地区和两个AWS本地区域。通过比较基准测试,我们说明在接近最终用户的本地区域中部署基础模型如何显着减少延迟,这是实时应用程序(例如对话式AI助手助手)的关键因素。