LLMS关键词检索结果

如何基准LLMS - ARC AGI 3

How to Benchmark LLMs – ARC AGI 3

了解如何对LLM进行基准测试,然后尝试新发布的ARC AGI 3 THE THE THE POST如何基准LLMS - ARC AGI 3首先出现在数据科学方面。

Sapient Intelligence的新AI体系结构提供的推理速度比LLMS

Ny AI-arkitektur från Sapient Intelligence ger 100 gånger snabbare resonemang än LLM:er

智慧智能开发了一种新的AI体系结构,称为层次推理模型(HRM),其实现的推理比传统的大型语言模型(LLM)快100倍。人力资源管理(HRM)模仿了人脑的推理和计划方式,这意味着它在同一级别上的性能,有时比在复杂的推理任务上的语言模型更好,即使它[…] Sapient Intelligence的新帖子AI阶段的新AI架构提供了比LLM更快的100倍:您的首次出现在AI新闻中。

使用LLMS的高级主题建模

Advanced Topic Modeling with LLMs

通过利用代表模型和使用LLMS的高级主题建模的代表模型和生成AI进行深入研究,首先是朝向数据科学的。

来自社区|我们如何使用LLMS

From the Community | How we use LLMs matter

MD-PHD学生Humza Khan撰写了有关适应LLM并保持批判性思维的重要性。社区的帖子|我们如何使用LLMS Matter首先出现在Stanford Daily。

您的模型还确定吗? LLMS的不确定性意识公平评估

Is Your Model Fairly Certain? Uncertainty-Aware Fairness Evaluation for LLMs

最近快速采用大语模型(LLMS)强调了基准对其公平性进行基准测试的关键需求。传统的公平度量指标集中在基于离散准确性的评估(即预测正确性)上,无法捕获模型不确定性的隐式影响(例如,尽管精度相似,但还是对一个组的更高模型置信度更高,而另一组的置信度更高)。为了解决这一限制,我们提出了一个不确定性意识的公平度量,ucerf,可以对模型公平进行精细的评估,与…

公平修剪:减少LLMS偏差的精确手术

Fairness Pruning: Precision Surgery to Reduce Bias in LLMs

从不合理的枪击事件到中立的故事:如何通过选择性修剪后的公平修剪来修复有毒叙事:减少LLMS偏见的精确手术首先出现在数据科学方面。

使用LLMS中亚马逊Q业务中图像文件中的上下文提取

Context extraction from image files in Amazon Q Business using LLMs

在这篇文章中,我们查看了一个分步实现,用于在Amazon Q Business应用程序中使用自定义文档丰富(CDE)功能来处理独立图像文件。我们将带您浏览CDE中配置的AWS lambda功能来处理各种图像文件类型,并展示该集成如何增强Amazon Q业务提供全面见解的能力的示例场景。

评估代码生成LLMS中的长距离依赖性处理

Evaluating Long Range Dependency Handling in Code Generation LLMs

随着语言模型支持越来越大的上下文大小,评估其使其有效使用该上下文的能力变得越来越重要。我们分析了Several Code生成模型在上下文Windows中使用多个STEPKEY检索任务处理远距离依赖性的能力,最高为8K令牌。与喜欢流行的海景测试的测试相比,这些任务在难度方面逐渐降低,并允许对模型功能进行更多细微的评估。我们发现,当功能…

AIHUB月摘要:2025年6月 - 为Robocup 2025,隐私模型和减轻LLMS的偏见做好准备

AIhub monthly digest: June 2025 – gearing up for RoboCup 2025, privacy-preserving models, and mitigating biases in LLMs

欢迎来到我们的每月摘要,您可以在这里赶上您可能错过的任何AIHUB故事,仔细阅读最新消息,回顾最近的事件等等。本月,我们听说了有关机器人技术的可解释AI,探索隐私的生成模型,并找出Robocup 2025所拥有的东西。准备在Robocup2025开球:A […]

超越代码生成:不断使用LLMS

Beyond Code Generation: Continuously Evolve Text with LLMs

长期运行的内容演变和结果分析的介绍《超出代码生成:与LLM》不断发展的文本首先出现在数据科学方面。

为什么LLMS过度思考简单的难题,但放弃了硬性

Why LLMs Overthink Easy Puzzles but Give Up on Hard Ones

人工智能通过大型语言模型(LLM)及其高级同行,大型推理模型(LRMS),重新定义机器如何处理和生成类似人类的文本。这些模型可以写论文,回答问题,甚至解决数学问题。然而,尽管具有令人印象深刻的能力,但这些模型表现出了好奇的行为:它们经常夸大简单的问题,而[...]为什么llms llms过度思考轻松拼图但放弃了硬性问题,这首先出现在unite.ai上。

LLMS的隐藏安全风险

The Hidden Security Risks of LLMs

以及为什么自我托管可能会更安全地赌注,而LLM的隐藏安全风险首先出现在数据科学上。

思想树提示:教LLMS慢慢思考

Tree of Thought Prompting: Teaching LLMs to Think Slowly

用增强推理的邮政思想树促使人们进行扫雷者:教LLMS慢慢地出现在数据科学方面。

大型语言模型有英语口音吗?评估和改善多语言LLMS的自然性

Do Large Language Models Have an English Accent? Evaluating and Improving the Naturalness of Multilingual LLMs

当前的大型语言模型(LLMS)主要是用英语设计为主要语言的,即使是多语言的少数语言也倾向于表现出强烈的以英语为中心的偏见。就像在学习第二语言时可能会产生尴尬表情的演讲者一样,LLM通常会以非英语语言产生不自然的输出,反映了词汇和语法中以英语为中心的模式。尽管这个问题很重要,但多语言LLM输出的自然性受到了有限的关注。在本文中,我们通过引入新颖的自动……

使用LLMS构建和查询知识图

Build and Query Knowledge Graphs with LLMs

从文档摄入到智能查询中 - 所有这些都使用开放的工具和指导设置的邮政构建和查询知识图首先出现在数据科学上。

OpenRouter:LLMS的统一接口

OpenRouter: A Unified Interface for LLMs

探索LLM API的市场,您可以轻松地访问并为无通常麻烦的顶级AI型号付费。

此数据集可帮助研究人员发现LLMS中的有害刻板印象

This data set helps researchers spot harmful stereotypes in LLMs

AI模型带有文化特定的偏见。一个名为Shades的新数据集旨在通过发现有害的刻板印象和其他类型的歧视来帮助开发人员解决问题,这些刻板印象和其他各种语言中的AI Chatbot响应中出现。 AI创业公司拥抱面孔的首席道德科学家玛格丽特·米切尔(Margaret Mitchell)领导了…

使用LLMS供电的分步指南

A Step-By-Step Guide To Powering Your Application With LLMs

探索一个动手指南,将大型语言模型集成到现实世界中的应用程序中,而不仅仅是阅读有关它。帖子逐步使用LLMS供电您的应用程序为数据科学供电。