Integrating custom dependencies in Amazon SageMaker Canvas workflows
在亚马逊sagemaker画布中实施机器学习工作流程时,组织可能需要考虑其特定用例所需的外部依赖项。尽管Sagemaker画布为快速实验提供了强大的无代码和低编码功能,但某些项目可能需要默认情况下默认情况下的专门依赖项和库。这篇文章提供了一个示例,说明了如何将依赖外部依赖关系的代码合并到您的SageMaker画布工作流程中。
Enable Amazon Bedrock cross-Region inference in multi-account environments
在这篇文章中,我们探讨了如何修改您的区域访问控件,以专门允许亚马逊基岩跨区域推理,同时维持其他AWS服务的更广泛的区域限制。我们为SCP修改和AWS控制塔实现提供了实践示例。
Amazon SageMaker JumpStart adds fine-tuning support for models in a private model hub
今天,我们宣布了一项增强的私人枢纽功能,并具有几种新功能,可为组织提供更大的控制权。这些增强功能包括直接在私人枢纽内微调SageMaker JumpStart模型的能力,支持和管理定制训练的模型,为关联笔记本电脑的深层链接功能以及改进的模型版本管理。
生成的AI已成为改变游戏规则的人,为游戏设计师提供了前所未有的机会,可以突破界限并创造沉浸式虚拟世界。这场革命的最前沿是稳定性AI的尖端文本对图模型,即稳定的扩散3.5大型(SD3.5大),这正在改变我们接近游戏环境创建的方式。在这篇文章中,我们探讨了如何使用大型SD3.5来满足实际游戏需求,例如早期的概念艺术和角色设计。
Amazon Bedrock launches Session Management APIs for generative AI applications (Preview)
Amazon Bedrock宣布了会话管理API的预览发布,这是一种新功能,使开发人员能够为使用Langgraph和LlamainDex等流行的开源框架构建的生成AI应用程序简化状态和上下文管理。会话管理API提供了一个开箱即用的解决方案,使开发人员能够在[…]
在这篇文章中,我们讨论了组织更新生产模型时面临的挑战。然后,我们深入研究推理组件的新滚动更新功能,并使用DeepSeek蒸馏器模型提供实践示例来演示此功能。最后,我们探索如何在不同方案中设置滚动更新。
Enhance enterprise productivity for your LLM solution by becoming an Amazon Q Business data accessor
在这篇文章中,我们演示了如何通过使用Amazon Q索引为ISV提高大型语言模型(LLM)解决方案的企业生产力。
Build a generative AI enabled virtual IT troubleshooting assistant using Amazon Q Business
发现如何使用Amazon Q业务构建Genai驱动的虚拟IT故障排除助手。这种创新的解决方案与流行的ITSM工具(如ServiceNow,Atlassian Jira)以及简化信息检索并增强整个组织中的协作的汇合。通过利用生成AI的力量,该助手可以显着提高运营效率,并提供满足个人需求的24/7支持。了解如何设置,配置和利用此解决方案来改变您的企业信息管理。
Automate IT operations with Amazon Bedrock Agents
这篇文章提供了一个全面的AIOPS解决方案,结合了各种AWS服务,例如Amazon Bedrock,AWS Lambda和Amazon CloudWatch,以创建AI助理以进行有效的事件管理。该解决方案还使用亚马逊基础知识库和亚马逊基岩代理商。该解决方案使用亚马逊基岩的功能来实现能够监视IT系统,分析日志和指标并调用自动补救过程的智能代理的部署。
在这篇文章中,我们演示了如何在Sagemaker Unified Studio中使用Amazon Bedrock来构建生成AI应用程序,以与现有的端点和数据库集成。
From innovation to impact: How AWS and NVIDIA enable real-world generative AI success
在这篇文章中,我将分享其中一些客户的非凡旅程,为任何希望利用生成AI的力量的组织提供实用的见解。
Amazon Q Business now available in Europe (Ireland) AWS Region
今天,我们很高兴地宣布,亚马逊Q业务(Amazon Q Business)是一家完全由托管的生成型助理助理,您可以配置以回答问题,提供摘要并根据您的企业数据生成内容,现在通常在欧洲(爱尔兰)AWS地区可用。
Running NVIDIA NeMo 2.0 Framework on Amazon SageMaker HyperPod
在这篇博客文章中,我们探讨了如何将Nemo 2.0与Sagemaker Hyperpod集成,以实现对大型语言模型(LLMS)的有效培训。我们介绍设置过程,并提供逐步指南,以在Sagemaker HyperPod群集上运行NEMO作业。
今天,我们很高兴地宣布,Nemo Retriever Llama3.2文本嵌入和重新启动NVIDIA NIM微服务可在Amazon Sagemaker Jumpstart中获得。通过此发布,您现在可以部署NVIDIA优化的重新骑行和嵌入模型来构建,实验和负责任地扩展您的生成AI想法。在这篇文章中,我们演示了如何在Sagemaker Jumpstart上开始这些模型。
Amazon Bedrock Guardrails announces IAM Policy-based enforcement to deliver safe AI interactions
今天,我们宣布对亚马逊基石护栏的重大增强:AWS身份和访问管理(IAM)基于策略的执法。这种强大的功能使安全和合规团队能够为每个模型推理呼叫建立强制性的护栏,以确保在AI交互中始终执行组织安全政策。此功能通过对护栏实施的集中控制来增强AI治理。
Unleash AI innovation with Amazon SageMaker HyperPod
在这篇文章中,我们展示了SageMaker HyperPod及其在AWS RE:Invent 2024上引入的新功能如何满足现代AI工作负载的需求,从而提供了针对分布式培训和加速推理的持久和优化的群集,并在云规模上加速推理和有吸引力的价格。
医疗保健决策通常需要从多个来源(例如医学文献,临床数据库和患者记录)进行整合。 LLMS缺乏从这些多样化和分布式来源中无缝访问和合成数据的能力。这限制了他们为医疗保健应用提供全面且信息良好的见解的潜力。在这篇博客文章中,我们将探讨亚马逊基地上的Mistral LLM如何应对这些挑战,并能够通过LLM功能呼叫功能的智能医疗保健代理,同时通过亚马逊BedRock Guardrails保持强大的数据安全和隐私。
Creating asynchronous AI agents with Amazon Bedrock
随着组织认识到这些技术的未开发潜力,生成的AI代理将生成的AI代理集成到业务流程中。多模式人工智能(AI)的进步,代理商不仅可以理解和生成文本,而且还可以生成图像,音频和视频,还将进一步扩大其应用程序。这篇文章将讨论代理AI驱动的体系结构和实施方式。