sagemaker关键词检索结果

使用开源大型视觉模型在Amazon Sagemaker和Amazon OpenSearch serverless上实现语义视频搜索

Implement semantic video search using open source large vision models on Amazon SageMaker and Amazon OpenSearch Serverless

在这篇文章中,我们演示了如何使用自然语言和图像查询使用大型视觉模型(LVM)进行语义视频搜索。我们介绍了一些特定于用例的方法,例如时间框架平滑和聚类,以增强视频搜索性能。此外,我们通过在Amazon Sagemaker AI上使用异步和实时托管选项来演示这种方法的端到端功能,以使用拥抱面部模型中心上的公开可用的LVMS执行视频,图像和文本处理。最后,我们将Amazon OpenSearch与其矢量引擎一起用于低延迟语义视频搜索。

对亚马逊萨吉人超级工艺任务治理的多门数支持

Multi-account support for Amazon SageMaker HyperPod task governance

在这篇文章中,我们讨论了具有多个帐户的企业如何访问共享的Amazon Sagemaker HyperPod群集以运行其异质工作负载。我们使用SageMaker HyperPod任务治理来启用此功能。

现代化和迁移本地欺诈检测机业学习工作流程到亚马逊萨格人

Modernize and migrate on-premises fraud detection machine learning workflows to Amazon SageMaker

radial是最大的3PL履行提供商,也为中型市场和企业品牌提供综合付款,欺诈检测以及全渠道解决方案。在这篇文章中,我们通过使用Amazon Sagemaker对其ML工作流进行现代化,分享了Radial如何优化其欺诈检测机学习(ML)应用程序的成本和性能。

使用AWS Graviton和Amazon Sagemaker AI

Run small language models cost-efficiently with AWS Graviton and Amazon SageMaker AI

在这篇文章中,我们通过将预建的容器扩展到与AWS Graviton实例兼容,演示了如何在Sagemaker AI上部署小语言模型。我们首先提供解决方案的概述,然后提供详细的实施步骤以帮助您入门。您可以在GitHub存储库中找到示例笔记本。

IMPEL在亚马逊萨格人

Impel enhances automotive dealership customer experience with fine-tuned LLMs on Amazon SageMaker

在这篇文章中,我们与SageMaker的微调LLMS分享Impel如何增强汽车经销商的客户体验。

气候技术初创公司如何使用Amazon Sagemaker Hyperpod

How climate tech startups are building foundation models with Amazon SageMaker HyperPod

在这篇文章中,我们展示了气候技术初创公司如何开发基础模型(FMS),这些模型(FMS)使用广泛的环境数据集来解决诸如碳捕获,碳阴性燃料,新的微塑料破坏和生态系统保存等问题。这些专业模型需要高级计算功能来有效地处理和分析大量数据。

用Terraform Cloud

Deploy Amazon SageMaker Projects with Terraform Cloud

在这篇文章中,您定义,部署和提供纯粹在Terraform中的SageMaker项目自定义模板。由于对其他IAC工具没有依赖性,因此您现在可以严格在Terraform企业基础架构中启用Sagemaker项目。

Zuru如何使用Amazon Bedrock和Amazon Sagemaker

How ZURU improved the accuracy of floor plan generation by 109% using Amazon Bedrock and Amazon SageMaker

Zuru与AWS生成AI创新中心合作,并使用AWS专业服务,以使用Generative AI实施更准确的文本到层次底层计划生成器。在这篇文章中,我们向您展示了为什么选择使用大语言模型(LLM)的解决方案。我们探讨了如何使用模型选择,及时的工程和微调来改善结果。

通过AWS上的地理空间基础模型彻底改变地球观察

Revolutionizing earth observation with geospatial foundation models on AWS

在这篇文章中,我们探讨了如何将领先的GeoFM(Clay Foundation的Clay Foundation模型在拥抱面上可用)如何用于大规模推断和在Amazon Sagemaker上进行微调。

Gemma 3 27B model now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

Gemma 3 27B model now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

我们很高兴地宣布,通过亚马逊基岩市场和亚马逊Sagemaker Jumpstart宣布Gemma 3 27B指示模型。在这篇文章中,我们向您展示了如何开始使用Amazon Bedrock Marketplace和SageMaker Jumpstart上的Gemma 3 27B指令,以及如何在应用程序中使用模型强大的指令遵循功能。

与Sima.ai Edgematic一起加速EDED AI开发与无缝AWS集成

Accelerate edge AI development with SiMa.ai Edgematic with a seamless AWS integration

在这篇文章中,我们演示了如何使用SageMaker AI和Sima.ai Palette软件套件对模型进行重新训练和量化。目的是准确检测个人在可见性和保护设备检测对于合规性和安全性至关重要的环境中。

Apoidea组如何使用亚马逊Sagemaker Hyperpod上使用Llama-Factory从银行文档中提取视觉信息

How Apoidea Group enhances visual information extraction from banking documents with multimodal models using LLaMA-Factory on Amazon SageMaker HyperPod

在这个专业信息提取解决方案的基础上建立了建立,并利用Sagemaker Hyperpod的功能,我们与Apoidea Group合作探索了使用大型视觉语言模型(LVLM)的使用,以进一步改善银行和财务文档上的表结构识别性能。在这篇文章中,我们介绍了使用Sagemaker Hyperpod上的Llama-Factory进行QWEN2-VL-7B教学模型进行微调的QWEN2-VL-7B教学模型的逐步代码。

使用Amazon Sagemaker HyperPod食谱自定义DeepSeek-R1 671b型号 - 第2部分

Customize DeepSeek-R1 671b model using Amazon SageMaker HyperPod recipes – Part 2

在这篇文章中,我们使用食谱来微调原始的DeepSeek-R1 671b参数模型。我们通过使用Sagemaker培训工作和Sagemaker Hyperpod的逐步实施这些食谱来证明这一点。

使用模型上下文协议扩展了由亚马逊萨吉人AI驱动的大型语言模型

Extend large language models powered by Amazon SageMaker AI using Model Context Protocol

人类提出的MCP提供了将FMS连接到数据源的标准化方法,现​​在您可以使用SageMaker AI使用此功能。在这篇文章中,我们展示了一个结合Sagemaker AI和MCP的力量来构建应用程序的示例,该应用程序通过专业角色和自动化工作流提供了新的借贷承销观点。

使用AWS LLM League和Amazon Sagemaker AI

InterVision accelerates AI development using AWS LLM League and Amazon SageMaker AI

这篇文章展示了AWS LLM League的游戏启示能力如何加速合作伙伴的实用AI开发能力,同时展示了微调较小的语言模型如何为特定行业需求提供成本效益,专业的解决方案。

在Amazon Sagemaker上构建具有开源NER模型和LLM的AI驱动文档处理平台

Build an AI-powered document processing platform with open source NER model and LLM on Amazon SageMaker

在这篇文章中,我们讨论了如何在SageMaker上使用开源NER和LLM构建AI驱动的文档处理平台。

使用Amazon SageMaker大型推理容器V15

Supercharge your LLM performance with Amazon SageMaker Large Model Inference container v15

今天,我们很高兴地宣布,由VLLM 0.8.4驱动的Amazon Sagemaker大型推理(LMI)容器V15的推出,并支持VLLM V1发动机。该版本引入了显着的性能提高,扩展的模型兼容性与多模态(即能够理解和分析文本到文本,图像到文本和文本映射数据),并与VLLM提供内置的集成,以帮助您无人接缝和最高绩效的大型性能(LLMS)具有最高的性能。

Salesforce如何通过Amazon Sagemaker AI

How Salesforce achieves high-performance model deployment with Amazon SageMaker AI

这篇文章是Salesforce和AWS之间的共同合作,并且在Salesforce Engineering Blog和AWS机器学习博客上都在交叉发布。 Salesforce AI模型服务团队正在努力突破自然语言处理的界限和企业应用程序的AI功能。他们的关键重点领域包括优化大型[…]