Revolutionizing customer service: MaestroQA’s integration with Amazon Bedrock for actionable insight
在这篇文章中,我们深入研究了Maestroqa的关键特征之一 - 转化分析,该特征有助于支持团队发现客户的关注点,解决摩擦点,适应支持工作流程以及通过使用亚马逊贝德洛克(Amazon Bedrock)来确定指导的领域。我们讨论了Maestroqa克服的独特挑战,以及他们如何使用AWS来构建新功能,推动客户见解并提高运营效率低下。
在这篇文章中,我们介绍了如何使用Amazon Rekognition自定义标签来构建FoodSavr解决方案(用于本文目的的虚拟名称),以检测成分并使用Antharpic的Claude 3.0在Amazon Bedrock上生成个性化食谱。我们演示了一个端到端的体系结构,用户可以上传冰箱的图像,并使用那里找到的成分(Amazon Rekognition检测到),该解决方案将为他们提供食谱列表(由Amazon Bedrock生成)。该体系结构还识别缺失的成分,并为用户提供附近杂货店的列表。
Transforming financial analysis with CreditAI on Amazon Bedrock: Octus’s journey with AWS
在这篇文章中,我们演示了Octus如何将其旗舰产品Creditai迁移到亚马逊基岩,从而改变了投资专业人员如何访问和分析信用情报。我们踏上了Octus的旅程,从管理多个云提供商和昂贵的GPU实例到使用AWS服务(包括Amazon Bedrock,AWS Fargate和Amazon OpenSearch Service)的AWS服务实施简化的,具有成本效益的解决方案。
Optimize reasoning models like DeepSeek with prompt optimization on Amazon Bedrock
在这篇文章中,我们使用Amazon Bedrock上的迅速优化来演示如何优化诸如DeepSeek-R1之类的推理模型。
今天,亚马逊Web服务(AWS)宣布了亚马逊基岩知识库(GraphRag)的一般可用性,这是亚马逊基岩知识库中的能力,可增强Amazon Neptune Analytics中的图形数据,增强了检索效果的生成(RAG)。在这篇文章中,我们讨论了GraphRag的好处以及如何在Amazon Bedrock知识库中开始。
Innovating at speed: BMW’s generative AI solution for cloud incident analysis
在这篇文章中,我们解释了宝马如何使用生成AI加快云中复杂和分布式系统中事件的根本原因分析,例如宝马连接的车辆后端,可为2300万辆车辆提供服务。请继续阅读以了解该解决方案如何通过AWS和BMW进行协作,使用Amazon Bedrock Agents和Amazon CloudWatch日志和指标来更快地找到根本原因。这篇文章旨在用于云解决方案架构师和有兴趣加速其事件工作流程的开发人员。
Accelerate AWS Well-Architected reviews with Generative AI
在这篇文章中,我们探索了一种生成的AI解决方案,利用Amazon Bedrock简化WAFR过程。我们演示了如何利用LLM的力量构建智能,可扩展的系统,该系统可以分析体系结构文档并根据AWS良好的最佳实践产生洞察力的建议。该解决方案可自动化WAFR报告创建的一部分,帮助解决方案建筑师在支持其决策过程的同时提高建筑评估的效率和彻底性。
Dynamic metadata filtering for Amazon Bedrock Knowledge Bases with LangChain
Amazon Bedrock知识库具有元数据过滤能力,可让您根据文档的特定属性来完善搜索结果,从而提高检索准确性和响应的相关性。这些元数据过滤器可与典型的语义(或混合)相似性搜索结合使用。在这篇文章中,我们讨论了使用亚马逊基岩知识库的元数据过滤器。
Evaluate healthcare generative AI applications using LLM-as-a-judge on AWS
在这篇文章中,我们演示了如何使用亚马逊基岩实施此评估框架,比较了不同发电机模型的性能,包括Anthropic的Claude和Amazon Nova在Amazon Bedrock上进行比较,并展示如何使用新的RAG评估功能来优化知识基础参数并评估回收质量。
How IDIADA optimized its intelligent chatbot with Amazon Bedrock
在2021年,Applus+ Idiada是汽车行业的全球合作伙伴,拥有30多年的经验,通过设计,工程,测试和同级服务为客户开发活动提供支持,建立了数字解决方案部门。在这篇文章中,我们展示了使用Amazon Bedrock在这个基于AI的环境中为人类互动开发分类器的研究过程。
我们很高兴地宣布,Mistral-Small-24B-Instruct-2501-来自Mistral AI的240亿个参数大语言模型(LLM),可针对低延迟文本生成任务进行优化 - 可以通过Amazon Sagemaker Jumpstartand Jumpstartand Amazon Bedrock Marketplace提供客户。在这篇文章中,我们介绍如何发现,部署和使用Mistral-Small-24B-Instruct-2501。
Orchestrate an intelligent document processing workflow using tools in Amazon Bedrock
这种智能文档处理解决方案使用Amazon Bedrock FMS来协调一个复杂的工作流程,以处理具有混合内容类型的多页医疗保健文档。该解决方案使用FM的工具使用功能,该功能通过亚马逊基岩匡威API访问。这使FMS不仅可以处理文本,还可以积极地使用各种外部工具和API来执行复杂的文档分析任务。
这篇文章通过使用Amazon Bedrock知识库实施经过验证的语义缓存来介绍一个解决方案,以减少大语言模型(LLMS)的幻觉,该方法在生成新的答案之前检查了用户问题是否匹配策划和验证的答案。该解决方案将LLM的灵活性与可靠,验证的答案相结合,以提高响应准确性,降低潜伏期和降低成本,同时防止医疗保健,财务和法律服务等关键领域的潜在错误信息。
Generate synthetic counterparty (CR) risk data with generative AI using Amazon Bedrock LLMs and RAG
在这篇文章中,我们探讨了如何将LLM与高级检索增强发电(RAG)一起生成金融领域用例的高质量合成数据。您也可以将相同的技术用于其他业务领域用例的合成数据。在这篇文章中,我们演示了如何产生对方风险(CR)数据,这将对非正式交易的非处方(OTC)衍生产品有益,而无需进行正式交流。
Build a dynamic, role-based AI agent using Amazon Bedrock inline agents
在这篇文章中,我们探讨了如何使用Amazon Bedrock Inline Agents构建应用程序,并演示了单个AI助手如何根据用户角色动态调整其功能。
Use language embeddings for zero-shot classification and semantic search with Amazon Bedrock
在这篇文章中,我们探讨了哪些语言嵌入方式以及如何使用它们来增强您的应用程序。我们展示了如何通过使用嵌入式的属性来实现实时零击分类器,并可以添加强大的功能,例如语义搜索。
Fine-tune LLMs with synthetic data for context-based Q&A using Amazon Bedrock
在本文中,我们将探讨如何使用 Amazon Bedrock 生成合成训练数据来微调 LLM。此外,我们还提供了具体的评估结果,展示了合成数据在数据稀缺时进行微调的强大功能。
LLM-as-a-judge on Amazon Bedrock Model Evaluation
这篇博文探讨了 Amazon Bedrock 模型评估中的 LLM-as-a-judge,提供了功能设置的全面指导,通过控制台和 Python SDK 和 API 评估作业启动,并展示了这一创新评估功能如何增强生成式 AI 应用程序在多个指标类别中的性能,包括质量、用户体验、指令遵循和安全性。