语言关键词检索结果

围绕 ESL/EFL/ELL 网络

Around The Web In ESL/EFL/ELL

八年前,我开始做这个定期专题,分享一些来自网络的与 ESL/EFL 或引起我注意的一般语言相关的帖子和资源。您可能还对我所有关于 ELL 教学的最佳列表感兴趣。另外,请查看我最好的资源集合 [...]

研究生在费城中部各州会议上发言

Graduate Student Presents at Middle States Conference in Philadelphia

研究生约翰逊·阿卡诺 (Johnson Akano) 代表雪城大学参加了上个月在费城举行的中部各州高等教育委员会年会。艺术与科学学院的语言学硕士生约翰逊·阿卡诺 (Johnson AkanoAkano) 在活动的学生海报展示部分展示了“语言学硕士项目的学生主导评估”。该演示内容概述...费城中部各州会议上的研究生展示首先出现在《今日雪城大学》上。

在故障发生前预测修复:维护总监如何降低 AOG 风险

Predicting the Fix Before the Failure: How Directors of Maintenance reduce AOG risk

维护总监生活中的一天 维护总监 (DOM) 走进办公室时知道,从纸面上看,一切可能看起来都很好。飞机已安排。人员已分配。旅行提前几天或几周就安排好了。但纸有一种说谎的能力。真正重要的是一夜之间发生的事情,日志中悄然发生的事情,以及尚未完全显现出来的事情。这个角色存在于确定性和结果之间的空间中。有些飞机几乎每天都飞行。其他人则坐了几个星期,然后突然接到一项任务,要进行一次备受瞩目的旅行,而且不允许犯任何错误。舰队鱼龙混杂。利用率不均匀。期望很高,而且很少灵活。每个决定都有分量。如果分配了错误的飞机,那么例行旅行就变成了飞机停在地面 (AOG),机主还要看时间。错过了埋藏在不一致的日志语言中的重复

每日一词:Resfeber

Word of the day: Resfeber

Resfeber 是一个与旅行相关的瑞典词,它因命名许多人在旅行前经历的一种感觉而受到关注。它常用于谈论旅行、新地方或重大变化时。这个词强调了语言如何捕捉人类的情感,而这些情感并不总是用英语清楚地表达出来。

学校企业领导角色已经演变,但政策制定者知道吗?

The school business leader role has evolved, but do policymakers know?

当今的从业者在金融、房地产、人员、数字系统、治理和组织改进方面处于领先地位。我们使用的语言没有跟上这种演变的步伐学校企业领导者的角色已经演变,但政策制定者知道吗?首次出现在学校周。

GPU:企业人工智能的新架构控制点

GPUs: Enterprise AI’s New Architectural Control Point

过去两年,企业迅速将大型语言模型集成到核心产品和内部工作流程中。最初的实验现已发展成为支持客户交互、决策和运营自动化的生产系统。随着这些系统的扩展,结构性转变变得越来越明显。限制因素不再是模型能力 [...]

MoE 比您想象的更强大:使用 RoE 进行超并行推理扩展

MoEs Are Stronger than You Think: Hyper-Parallel Inference Scaling with RoE

大型语言模型 (LLM) 的生成质量通常可以通过利用推理时间序列级缩放方法(例如思想链)来提高。我们引入了超并行扩展,这是一种补充框架,可以提高令牌级别的预测质量。超并行扩展计算并聚合模型中单个令牌的多个输出建议。我们在专家混合 (MoE) 模型中实现这一概念,我们将其称为专家名册 (RoE)。 RoE 是一种免训练推理算法,可将单个 MoE 转变为 MoE 的动态集合。投资回报率...

DeepMMSearch-R1:在多模式网络搜索中为多模式法学硕士提供支持

DeepMMSearch-R1: Empowering Multimodal LLMs in Multimodal Web Search

现实应用中的多模态大型语言模型 (MLLM) 需要访问外部知识源,并且必须保持对动态且不断变化的现实世界信息的响应,以便解决信息查找和知识密集型用户查询。现有的方法,例如检索增强生成 (RAG) 方法、搜索代理和配备搜索的 MLLM,通常会遇到僵化的管道、过多的搜索调用和构造不良的搜索查询,从而导致效率低下和结果不佳。为了解决这些限制,我们提出......

人工智能为假期做了什么

What AI Did for the Holidays

大语言模型的进步不再是人工智能进步和部署的主要限制。相反,瓶颈越来越多地在于如何将这些功能嵌入到硬件、工作流程和生产系统中。人工智能为假期做了什么的帖子首先出现在美国企业研究所 - AEI 上。

认识新生物学家,对待法学硕士就像外星人一样

Meet the new biologists treating LLMs like aliens

大型语言模型有多大?这样想吧。旧金山市中心有一座叫双峰的小山,从那里几乎可以看到整个城市。想象所有的一切——每个街区和十字路口、每个街区和公园,只要你能看到——都用纸覆盖。现在……

超大规模人工智能数据中心:2026 年 10 项突破性技术

Hyperscale AI data centers: 10 Breakthrough Technologies 2026

在广阔的农田和工业园区中,挤满计算机机架的超大型建筑如雨后春笋般拔地而起,为人工智能竞赛提供动力。这些工程奇迹是一种新型基础设施:超级计算机旨在以令人难以置信的规模训练和运行大型语言模型,配有自己的专用芯片、冷却系统,甚至能源……

机械解释:2026 年 10 项突破性技术

Mechanistic interpretability: 10 Breakthrough Technologies 2026

现在每天有数亿人使用聊天机器人。然而,驱动它们的大型语言模型是如此复杂,以至于没有人真正理解它们是什么、它们如何工作,或者它们到底能做什么和不能做什么——甚至构建它们的人也不明白。很奇怪,对吧?这也是一个问题。没有明确的...

“印度可以成为全球人工智能用例之都”:MeitY secy

'India can be global AI use case capital': MeitY secy

印度将成为人工智能应用的全球中心。该国将培育自己的人工智能基础设施,包括大型语言模型和数据中心。这一举措符合人工智能资源民主化的目标。印度作为价值链中值得信赖的合作伙伴的作用得到了认可。关于全球人工智能政策的讨论将在即将举行的峰会上进行。

周一留言板

Monday Message Board

又一个周一留言板。对任何主题发表评论。请进行文明讨论,不要使用粗俗语言。请对沙坑进行边际讨论和想法修复。我现在使用 Substack 作为博客平台和每月的电子邮件通讯。目前,我将在此博客和 Substack 上发布。您还可以关注 [...]

三一堂不能将机会与能力混为一谈 |字母

Trinity Hall mustn’t confuse opportunity with ability | Letters

约瑟夫·奥克利 (Joseph Oakley) 表示,剑桥大学学院面临着回归奖励优势而非潜力的招生文化的风险,而黛西·肖 (Daisy Shaw) 则敦促州立学生不要放弃斗争。加上道格拉斯·罗宾逊教授的一封信作为剑桥三一学院综合学校教育的校友,我很沮丧地读到了您最近关于该学院新招生方法的文章(剑桥学院以精英私立学校为招生对象,1 月 7 日)。我选择三一学院正是因为其包容性、反精英主义的精神。我从中部地区(一个代表性不足的地理区域)来到剑桥,接受了良好的公立教育,对语言充满热情,但对许多同龄人享有的教育特权知之甚少。继续阅读...

AdaBoN:自适应 Best-of-N 对齐

AdaBoN: Adaptive Best-of-N Alignment

测试时间对齐方法的最新进展(例如 Best-of-N 采样)提供了一种简单而有效的方法,可以使用奖励模型 (RM) 引导语言模型 (LM) 转向首选行为。然而,这些方法的计算成本可能很高,尤其是在跨提示统一应用而不考虑对齐难度差异的情况下。在这项工作中,我们提出了一种 Best-of-N 对齐的提示自适应策略,可以更有效地分配推理时间计算。出于延迟问题的动机,我们开发了一种两阶段算法:初始探索阶段估计……

MANZANO:具有混合视觉分词器的简单且可扩展的统一多模态模型

MANZANO: A Simple and Scalable Unified Multimodal Model with a Hybrid Vision Tokenizer

能够理解和生成视觉内容的统一多模式大语言模型 (LLM) 拥有巨大的潜力。然而,现有的开源模型通常会受到这些功能之间性能权衡的影响。我们提出了 Manzano,一个简单且可扩展的统一框架,通过将混合图像标记器与精心策划的训练方案相结合,大大减少了这种紧张。单个共享视觉编码器为两个轻量级适配器提供数据,这些适配器在公共…内生成用于图像到文本理解的连续嵌入和用于文本到图像生成的离散标记。

使用分层记忆进行预训练:分离长尾知识和常识

Pretraining with Hierarchical Memories: Separating Long-Tail and Common Knowledge

现代语言模型令人印象深刻的性能提升目前依赖于缩放参数:较大的模型可以存储更多的世界知识并更好地进行推理。然而,将所有世界知识压缩为参数是不必要的,因为每个提示只使用一小部分,并且对于推理时间内存和计算有限的边缘设备来说是不切实际的。我们通过内存增强架构和与现有硬件范例相一致的预训练策略来解决这个缺点。我们引入了小型语言模型,可以访问编码世界知识的大型分层参数存储库。期间...