Perplexity's new AI tool lets you search patents with natural language - and it's free
Perplexity Patents 目前处于测试阶段,对所有用户免费。以下是尝试方法。
Empirical Methods in Natural Language Processing (EMNLP) 2025
Apple 将于 11 月 4 日至 9 日在中国苏州举行的年度自然语言处理经验方法 (EMNLP) 会议上展示新的研究成果。 EMNLP 专注于口语处理科学和技术的研究。
Johns Hopkins among nine schools selected for Amazon AI fellowship program
七名研究机器学习、计算机视觉和自然语言处理的约翰霍普金斯大学博士生通过新项目获得两年奖学金
A Human-Centered Framework For AI In L&D, Part 3: Advanced Modalities And Insights
使用自定义 AI 和自然语言处理工具构建您的峰值 AI 策略,以扩展高质量、个性化的学习体验,支持整个组织的技能和业务成果。这篇文章首次发表在 eLearning Industry 上。
Generate Gremlin queries using Amazon Bedrock models
在这篇文章中,我们探索了一种创新方法,该方法使用 Amazon Bedrock 模型(例如 Amazon Nova Pro)将自然语言转换为 Gremlin 查询,从而帮助业务分析师和数据科学家访问图形数据库,而无需深厚的技术专业知识。该方法涉及三个关键步骤:提取图形知识、构建类似于文本到 SQL 处理的图形,以及通过迭代细化过程生成可执行的 Gremlin 查询,该过程在测试中实现了 74.17% 的总体准确率。
How Companies Are Transforming Industries with Applied Intelligence
在各个行业中——从医疗保健和网络安全到教育和公共安全,人工智能正在从实验转向执行。领先的组织正在利用机器学习、自然语言处理和实时智能来重新构想人类和机器的协作方式。以下是人工智能如何重塑全球运营、决策和人类体验的五个变革性示例。 1. ZONE3000:人工智能 [...]
Amazon launches AI PhD Fellowship program with UW
华盛顿大学是周二宣布的亚马逊新人工智能博士奖学金计划的九所大学之一,该计划每年提供两年总计近 1000 万美元的资金。华盛顿大学将在两年内获得 220 万美元的资助。全国有 100 多名博士生有资格获得资格,因为他们对机器学习、计算机视觉和自然语言处理等人工智能核心学科的研究有所追求。 ...
Training Software Engineering Agents and Verifiers with SWE-Gym
我们推出了 SWE-Gym,这是第一个用于培训现实世界软件工程 (SWE) 代理的环境。 SWE-Gym 包含 2,438 个真实的 Python 任务实例,每个实例都包含一个具有可执行运行时环境、单元测试和以自然语言指定的任务的代码库。我们使用 SWE-Gym 来训练基于语言模型的 SWE 代理,在流行的 SWE-Bench Verified 和 Lite 测试集上实现了高达 19% 的解决率绝对增益。我们还通过在 SWE-Gym 采样的代理轨迹上训练的验证器来实验推理时间缩放。与我们经过微调的 SWE 结合使用...
Build a device management agent with Amazon Bedrock AgentCore
在本文中,我们将探讨如何使用 Amazon Bedrock AgentCore 构建对话式设备管理系统。借助此解决方案,用户可以通过自然语言管理其 IoT 设备,使用 UI 执行检查设备状态、配置 WiFi 网络和监控用户活动等任务。
Analyzing Dialectical Biases in LLMs for Knowledge and Reasoning Benchmarks
大型语言模型 (LLM) 在现代自然语言处理中无处不在。然而,之前的研究表明,代表性不足的英语方言的法学硕士成绩有所下降。我们分析了将“标准”美式英语问题典型化为非“标准”方言变体对多项选择题回答任务的影响,发现准确率降低了 20%。此外,我们还调查了非“标准”英语问题中表现不佳的语法基础。我们发现各个语法规则对性能有不同的影响,但有些更……
Stable Diffusion Models are Secretly Good at Visual In-Context Learning
自然语言处理 (NLP) 中的大型语言模型 (LLM) 已展现出上下文学习 (ICL) 的巨大潜力——能够利用几组示例提示来适应各种任务,而无需显式更新模型权重。 ICL 最近被探索用于计算机视觉任务,并取得了有希望的早期成果。这些方法涉及专门的培训和/或额外的数据,使过程复杂化并限制其普遍性。在这项工作中,我们展示了现成的稳定扩散模型可以重新用于视觉上下文学习……
Hilbert: Recursively Building Formal Proofs with Informal Reasoning
大型语言模型 (LLM) 展示了令人印象深刻的数学推理能力,但它们的解决方案经常包含无法自动验证的错误。 Lean 4 等形式化定理证明系统提供了完全准确的自动验证,推动了最近努力构建专门的证明者法学硕士,以形式语言生成可验证的证明。然而,仍然存在一个重大差距:当前的证明者法学硕士解决的问题比使用自然语言操作的通用法学硕士要少得多。我们介绍 Hilbert,一个代理框架,它通过以下方式弥合了这一差距