MISTRAL-SMALL-3.2-24B-INSTRUCT-2506现在可以在Amazon Bedrock Marketplace和Amazon Sagemaker Jumpstart

今天,我们很高兴地宣布,Mistral-Small-3.2-24B-Instruct-2506 - Mistral AI的240亿参数大语言模型(LLM),该模型(LLM)已优化,可通过Amazon Sagemaker Jumpstart和Amazon Bedrock Market Place,可用于增强跟随和减少的重复错误,并减少重复错误。亚马逊基岩市场是亚马逊基岩的一种能力,开发人员可以用来发现,测试和使用[…]

来源:亚马逊云科技 _机器学习
今天,我们很高兴地宣布,Mistral-Small-3.2-24B-Instruct-2506 - Mistral AI的240亿参数大语言模型(LLM),该模型(LLM)已优化,可通过Amazon Sagemaker Jumpstart和Amazon Bedrock Market Place,可用于增强跟随和减少的重复错误,并减少重复错误。亚马逊基岩市场是亚马逊基岩的一种能力,开发人员可以用它来发现,测试和使用100多个受欢迎,新兴和专业的基础模型(FMS),以及当前在Amazon Bedrock.in中选择行业领先模型。 Mistral Small 3.2(2506)Mistral Small 3.2(2506)的Obserview是Mistral-Small-3.1-24B-Instruct-2503的更新,可维持相同的240亿参数架构,同时在关键领域提供改进。该模型在Apache 2.0许可下发布,保持了性能和计算效率之间的平衡。 Mistral提供了经过预测的(MISTRAL-SMALL-3.1-24B-BASE-2503)和指令调节(Mistral-Small-3.2-24B-3.2-24B-Instruct-2506)模型的检查点Apache 2.0.Key键入误差3.2(2506)的改进(2506)包括:从84.78%的Prections 3.2.5.78%coptime contrance contrance confime small 3.2(2506)包括:74.78%的精确效果。78%2.52。 Benchmarksspropructuction降低了无限世代或重复答案的两倍,根据MISTRALAFORFERS的结构化API交互的更强大,更可靠的函数呼叫模板,从2.11%降低到1.29%,用于结构化的API交互功能,包括图像toxt-to-toxt-to-to Toxt to Toxt to Toxt to Toxtosivalss,从而使模型和理由都可以在文本和视觉内部进行处理。这使其非常适合诸如文档理解,视觉问答和图像基础的内容生成之类的任务。这些改进使该模型特别适合于在可靠性和精度至关重要的AWS上的企业应用程序。使用