法学硕士关键词检索结果

使用法学硕士进行恶意软件分析:以正确的方式进行

Use of LLMs for Malware Analysis: Doing it the right way

建设性电路放大:通过有针对性的子网络更新改进法学硕士的数学推理

Constructive Circuit Amplification: Improving Math Reasoning in LLMs via Targeted Sub-Network Updates

之前对法学硕士内部运作的研究发现了稀疏子网络,通常称为电路,负责执行特定任务。此外,研究表明,通过微调来提高模型性能通常来自于模型中现有电路的强化。总而言之,这些发现表明直接干预此类电路以进行精确的、针对任务的更新的可能性。受这些发现的启发,我们提出了一种称为“结构性电路放大”的新方法,它可以识别关键令牌……

缩小法学硕士文本和语音理解之间的差距

Closing the Gap Between Text and Speech Understanding in LLMs

大型语言模型 (LLM) 可以进行调整,将其文本功能扩展到语音输入。然而,这些适应语音的法学硕士在语言理解任务上始终表现不佳,甚至低于基于文本的法学硕士,甚至级联管道。我们将这种缺陷称为文本-语音理解差距:相对于基于原始文本的 LLM 处理等效文本,当适应语音的 LLM 处理语音输入时观察到的性能下降。最近缩小这一差距的方法要么依赖文本语料库的大规模语音合成,但成本高昂且严重依赖……

相信你的法学硕士

Trusting Your LLM

本立场文件介绍了一个安全的、基于云的框架,用于测试大型语言模型如何准确、透明地对复杂的调查数据执行现实世界的统计分析。它使用经过验证的 ACS 微数据任务,比较仅推理和代码执行工作流程,突出显示值得信赖的人工智能驱动分析的优势、局限性和设计要求。

超越测验:法学硕士支持的 10 项基于实践的学习活动

Beyond Quizzes: 10 Practice-Based Learning Activities Powered By LLMs

本文探讨了十种超越测验的基于实践的学习活动,并展示了法学硕士如何通过促进、挑战和反思来支持成人学习,同时保持人类判断为中心。这篇文章首次发表在电子学习行业。

研究:对最新法学硕士进行排名的平台可能不可靠

Study: Platforms that rank the latest LLMs can be unreliable

仅删除一小部分为在线排名平台提供信息的众包数据就可以显着改变结果。

机制可解释性:法学硕士一探究竟

Mechanistic Interpretability: Peeking Inside an LLM

LLM 的类人认知能力是真是假?信息如何通过神经网络传输?法学硕士里面是否隐藏着知识?《机械可解释性:法学硕士内部窥探》一文首先出现在《走向数据科学》上。

可塑性思维:背景积累驱动LLM的信念漂移

The malleable mind: context accumulation drives LLM’s belief drift

在接受了包含 80,000 个保守政治哲学单词的数据集的训练后,Grok-4 在超过四分之一的时间里改变了其输出对政治问题的立场。这没有任何对抗性提示——训练数据的变化就足够了。由于记忆机制和研究代理 [1, 2] 使法学硕士能够积累 [...]

人工智能如何重塑经济学研究生教育 - 来自当前博士生的内部观点

How AI is Re-shaping Economics Postgraduate Education - An Insider View from a Current PhD Student

我们都知道,人工智能模型正变得越来越普遍,数百家软件公司现在提供人工智能驱动的工具,每年都会出现数十个 ChatGPT 和类似的法学硕士的迭代。尽管有些人对人工智能工具表示哀叹,但它们也被誉为我们应该每天使用的强大而有用的工具。无论你在人工智能使用范围上处于什么位置,有一件事是肯定的:人工智能模型正在重塑教育,即使是在最高水平上。经济学也不例外。即使对于像我这样的博士生来说,人工智能工具也正在成为学生生​​活的一个特色——如果巧妙地使用,可以成为学习的宝贵财富。

论智能与判断分离的不可能性:AI 对齐过滤的计算难题

On the Impossibility of Separating Intelligence from Judgment: The Computational Intractability of Filtering for AI Alignment

随着大型语言模型 (LLM) 部署的增加,人们担心它们可能被滥用来生成有害内容。我们的工作研究对齐挑战,重点是过滤器以防止生成不安全信息。两个自然的干预点是在输入提示到达模型之前对其进行过滤,以及在生成后对输出进行过滤。我们的主要结果证明了过滤提示和输出方面的计算挑战。首先,我们表明存在没有有效提示过滤器的法学硕士:对抗性提示......

LLM 时代的数据工程

Data Engineering for the LLM Age

优秀的法学硕士需要优秀的数据。探索塑造人工智能就绪数据工程未来的管道、工具和 RAG 架构

十大 LLM 评估工具

The Top 10 LLM Evaluation Tools

LLM 评估工具可帮助团队衡量模型在各种任务中的执行情况,包括推理、总结、检索、编码和指令遵循。他们分析性能趋势,检测幻觉,根据实际情况验证输出,并在微调或即时工程期间对改进进行基准测试。如果没有强大的评估框架,组织就会面临部署不可预测或有害人工智能的风险……阅读更多»“十大法学硕士评估工具”一文首先出现在《大数据分析新闻》上。

现代人工智能思维的数学根源

Mathematical Roots Of The Modern AI Mind

为什么重要:人工智能如何从数学思维理论演化而来,追溯了人工智能从符号逻辑到神经网络和法学硕士的历程。

迹线长度是推理模型中的简单不确定性信号

Trace Length is a Simple Uncertainty Signal in Reasoning Models

法学硕士的不确定性量化是解决幻觉和其他限制其可靠部署的问题的关键研究方向。在这项工作中,我们证明推理轨迹长度是大型推理模型中简单且有用的置信度估计器。通过跨多个模型、数据集和提示的综合实验,我们表明迹线长度的表现与其他零样本置信度估计器(例如言语置信度)具有可比较但互补的方式。我们的工作表明,训练后推理从根本上改变了踪迹之间的关系……

机器学习工程师角色的演变

The Evolving Role of the ML Engineer

Stephanie Kirmer 讲述了 2000 亿美元的投资泡沫、人工智能公司如何重建信任,以及她的日常工作如何随着法学硕士的兴起而发生变化。机器学习工程师的角色演变一文首先出现在《走向数据科学》上。

与 Kayla Meyers 一起为 SXSW EDU 做好准备

Gearing Up for SXSW EDU with Kayla Meyers

了解 SXSW EDU 2026 的内幕消息,Mike Palmer 与 SXSW EDU 的 Kayla Meyers 坐下来预览今年 3 月前往奥斯汀的活动。从重新构想的全市覆盖范围到迄今为止最大的播客舞台阵容,我们正在分析为什么今年是教育生态系统中任何人都必须参加的一年。Kayla 分享了她从博物馆馆长到会议“无可挑剔的氛围”背后的策划者的旅程,深入探讨了塑造 2026 年计划的趋势。将奥斯汀市置于中心位置。🎙️ 播客舞台扩展:今年我们的播客数量将增加到 16 个——请来观看 Trending in Ed 现场直播,在周一早上拉开帷幕。🎓 提升学生的声音:从学生主导的新闻到“学生变革者中

人工智能揭示了 Erdős 问题的解决方案,更接近于改变数学

AI uncovers solutions to Erdős problems, moving closer to transforming math

法学硕士最近帮助找到了一些长期存在的小问题的解决方案。但一项名为“First Proof”的新计划确实让他们经受了考验

个性化功能可以让 LLM 更受欢迎

Personalization features can make LLMs more agreeable

长期对话的背景可能会导致法学硕士开始反映用户的观点,可能会降低准确性或创建虚拟回声室。