nsf关键词检索结果

思考未来:Transformers 的潜在前瞻训练

Thinking into the Future: Latent Lookahead Training for Transformers

本文被 ICLR 的潜在与内隐思维研讨会 - 超越 CoT 推理 2026 接受。使用下一个标记预测训练的自回归语言模型通过一次采样一个离散标记来生成文本。尽管具有很强的可扩展性,但这个目标迫使模型在每一步都做出承诺,从而阻止它探索或反思多个看似合理的延续。此外,跨代币的计算分配是统一的;每个令牌都是基于单个前向传递形成的,在困难令牌的情况下可能会限制模型的表达能力......

Flash注意2:减少GPU内存并加速Transformers

Flash Attention 2: Reducing GPU Memory and Accelerating Transformers

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

立方体梦想

Dreaming in Cubes

使用矢量量化变分自动编码器 (VQ-VAE) 和 Transformers 生成 Minecraft 世界《立方体梦想》一文首先出现在《走向数据科学》上。

我从头开始构建法学硕士时学到的 6 件事,没有任何教程可以教给你

6 Things I Learned Building LLMs From Scratch That No Tutorial Teaches You

从排名稳定的扩展到量化稳定性:从统计和架构上深入探讨为现代 Transformers 提供支持的优化。文章《我从头开始构建法学硕士时学到的 6 件事,没有教程教给你》首先出现在《走向数据科学》上。

NSF 出人意料地授予了创纪录数量的令人垂涎的博士奖学金

NSF awards record number of coveted PhD fellowships in surprise move

在美国资助巨头将研究生研究奖学金计划奖金削减一半后仅一年,量子科学和人工智能研究就成为大赢家

一门课程还是五门课程?加州转移的复杂性

One Course or Five? The Complexities of California Transfer

一门课程还是五门课程?加州 Transferquintina 的复杂性.barne…周四,04/16/2026 - 03:00 AMSTEM 专业并不是唯一陷入转学迷宫的学生。作者:Alexis Robin Hale

我的老师技术堆栈中仅有的 6 个工具(以及为什么没有其他工具能够胜任)

The Only 6 Tools in My Teacher Tech Stack (And Why Nothing Else Made the Cut)

您是否对可用的教育工具和应用程序的数量感到不知所措?您是否发现自己正在筛选无数的订阅,想知道哪些订阅能够真正增强您的教学体验?如果是这样,你并不孤单。每年,教育工作者都面临着审核技术堆栈的艰巨任务,而今年,一位老师在混乱中揭示了五种成功的基本工具。在这篇富有洞察力的博客文章中,您将发现一种简化的提高生产力、评分和内容创建的方法。从使用 Notion 作为综合规划中心到使用 GradeTransferer 自动评分,这些工具旨在节省您的时间和挫败感。另外,了解 Google Vids 如何帮助教师和学生轻松制作专业品质的视频。想知道哪些工具在当今的数字教室中处于领先地位吗?单击以探索每个工具的完

社会科学和 NSF

Social Sciences and the NSF

在预算提案中,分配给美国国家科学基金会(NSF)的资金减少了 54.7%。现任政府对社会科学表现出蔑视并不奇怪。但走得太远,就会犯错误。 《社会科学和国家科学基金会》一文首先出现在美国企业研究所 - AEI 上。

IEEE Transactions on Cognitive and Developmental Systems,第 18 卷,第 2 期,2026 年 4 月

IEEE Transactions on Cognitive and Developmental Systems, Volume 18, Issue 2, April 2026

1) 机器人抓取中一致路径的抓取表示和检测作者:L. Chen, Z. Li, J. Yang, Z. Lu, P. Wu, T. ChenPages: 302 - 3022) CIDDA: Classifier-Driven Implicit Discriminator Domain Adaptation for EEG-Based Emotion Recognition and Depression Severity Grading作者:R. Hu, Z. Yang, J. Shan, N. Su, Y. Tang, H. Yan, X. Lv, D. Fu, H. Zhu, T. Jia

在 AWS 上扩展地震基础模型:使用 Amazon SageMaker HyperPod 进行分布式训练并扩展上下文窗口

Scaling seismic foundation models on AWS: Distributed training with Amazon SageMaker HyperPod and expanding context windows

本文介绍了 TGS 如何使用 Amazon SageMaker HyperPod 实现分布式训练的近线性扩展以及基于 Vision Transformer 的 SFM 的扩展上下文窗口。该联合解决方案将训练时间从 6 个月缩短至仅 5 天,同时能够分析比以前更大的地震体积。

鲁宾天文台的早期数据揭示了超过 11,000 颗新小行星

Early data from Rubin Observatory reveals over 11,000 new asteroids

利用 NSF-DOE Vera C. Rubin 天文台西蒙尼巡天望远镜的初步数据,科学家们在太阳系中发现了超过 11,000 颗新小行星。这些发现包括海王星以外的数百个遥远世界以及 33 个以前未知的近地天体。

摧毁 NSF(和其他科学机构)的原因#2:可恨的白人基督教民族主义巨魔 Russ Vought

Reason #2 for the destruction of NSF (and other science agencies): hateful white christian nationalist troll Russ Vought

在上一篇文章中,我列出了美国科学遭受重创的三个主要原因。第一个要点介绍了总统科学技术顾问委员会中的亿万富翁。科技兄弟们已经决定人工智能将做一切事情一个可悲的白人基督教民族主义者想要摧毁“觉醒”的科学和“觉醒”的大学疯狂的马哈阴谋论者掌管着卫生与公众服务部(HHS)今天的帖子将讨论第二个要点。自 4 月 2 日以来发生了很多事情!他看到了他们对他所做的事情,也看到了他们试图对国家做的事情。”——白人基督教民族主义者拉塞尔·沃特 (Russell Vought) 在他的复兴美国中心的 2024 年演讲中表示,沃特先生,复活节快乐。在你的主耶稣从死里复活将你从罪孽中拯救出来的那一天,尽情享受你的“礼

破坏 NSF(和其他联邦科学机构)的明显原因

The Blatant Reasons for the Destruction of NSF (and other federal science agencies)

截至 2026 年 3 月 13 日的更新,来自 Jeremy Berg 特朗普最近宣布了美国总统科学技术顾问委员会 (PCAST​​) 的新名单,其中包括大量科技亿万富翁(以及一名学术科学家)。这确实巩固了美国科学毁灭的原因:科技兄弟已经决定人工智能将做一切事情一个可悲的白人基督教民族主义者想要摧毁“唤醒”科学和“唤醒”大学精神错乱的MAHA阴谋论者掌管卫生与公众服务部(HHS)今天的帖子将讨论第一个要点,并以灾难性的预测作为结束。 PCAST​​ 任命者“了解你自己”。 (德尔菲格言,公元前五或六世纪)“未经审视的生活不值得过。” (苏格拉底,公元前 399 年)1。马克·安德森 (Mar

现代数字赌场:数字多样性的转型

Modernos Casinos Digitales: La Transformación del Diversión Digital

Tabla de contenidos Portales Revolucionarias en nuestro Ámbito Actual Innovación y Protección en Sitios Vivencia de Usuario Optimizada Métodos de Pago y Transacciones Proyecciones del Sector Plataformas Innovaadoras en nuestro Mercado Presente panorama del ocio digital ha Experimentado 过去几年的重大转变天。新的

IEEE Transactions on Emerging Topics in Computational Intelligence 第 10 卷,第 2 期,2026 年 4 月

IEEE Transactions on Emerging Topics in Computational Intelligence Volume 10, Issue 2, April 2026

1) 交互式和可解释数据驱动建模的人机交互框架作者:S. Hong, W. Yu, T. Chai 页数:1072 - 10832) 使用代理传输的数据流驱动动态多目标优化作者:Z. Liu, H. Wang, M. Kong, Y. Jin 页数:1084 - 10973) PMGDA: A基于偏好的多重梯度下降算法作者:X.Zhang, X.Lin,Q.Zhang页数:1098 - 11104) AGCTO: Attributed Graph Clustering With Transitive Order Convolutional Autoencoder作者:Y. Xie, J. Wa

🔴 (NSFW) 俄罗斯加沙停火 积极因素战斗片段呈现

🔴 (NSFW) Ceasefire in Gaza, Russia Positive factors Floor | Fight Footage Present

美国东部时间下午 6 点,Funker 主持人 @ronnieadkins 讨论: – #israel – #gaza – #ukraine – #Russia 我们的介绍音乐由 @KILLSTREAKUS 提供 ——- 帮助我们的方法:获取 Cell 应用程序:https://funker530.app.hyperlink/3M7FXz8jGhb Funker530 Professional:https://funker530.com/professional对话:https://discord.gg/X9xhGsySZq ———- 以色列/加沙 https://funker530.com/

无限及超越:工具使用解锁状态空间模型中的长度泛化

To Infinity and Beyond: Tool-Use Unlocks Length Generalization in State Space Models

状态空间模型 (SSM) 已成为序列建模中 Transformer 的主要替代方案。它们的主要优点是通过固定大小的内存和计算复杂性的线性缩放实现长上下文和长格式生成的效率。我们通过展示一个简单的理论结果来开始这项工作,表明 SSM 无法准确解决任何“真正的长形式”发电问题(在某种意义上我们正式定义),从而削弱了它们的主要竞争优势。然而,我们表明,可以通过允许 SSM 交互式访问外部工具来缓解这一限制。事实上,我们...

独家自注意力

Exclusive Self Attention

我们引入了专有自注意力(XSA),这是自注意力(SA)的简单修改,可以提高 Transformer 的序列建模性能。关键思想是限制注意力仅捕获与代币自身价值向量正交的信息(从而排除自身位置的信息),从而鼓励更好的上下文建模。在标准语言建模任务上进行评估时,XSA 在模型大小高达 2.7B 参数的情况下始终优于 SA,并且随着序列长度的增长显示出越来越大的增益。