神经网关键词检索结果

时间序列还不够:图神经网络如何改变需求预测

Time Series Isn’t Enough: How Graph Neural Networks Change Demand Forecasting

为什么将 SKU 建模为网络揭示了传统预测所遗漏的内容《时间序列不够:图神经网络如何改变需求预测》首先出现在《走向数据科学》上。

学生使用 fischertechnik 训练自己的神经网络

Schülerinnen und Schüler trainieren ihre eigenen neuronalen Netze mit fischertechnik

fischertechnik 在技术教育领域树立了另一个里程碑。新的 STEM Coding Ultimate AI 学习概念首次让您自己训练神经网络并从头开始了解其工作原理。 Fischertechnik 从而向年轻人传达... 阅读更多 →

量子神经网络或许能够欺骗不确定性原理

Quantum neural network may be able to cheat the uncertainty principle

计算表明,将随机性注入量子神经网络可以帮助其确定量子对象的属性,否则根本难以访问

从自然漫步到神经网络:我在克兰菲尔德的应用人工智能之旅

From nature walks to neural networks: My journey in Applied AI at Cranfield

大家好,我是 Ebru K,选择研究生学位不仅仅是选择一个科目;还包括选择一个研究生学位。这是关于选择你的未来开始的地方。作为一名来自土耳其的国际学生,我知道我想要一所大学不仅教授理论,而且生活和呼吸现实世界的影响。那次搜索让我获得了理学硕士学位......《从自然漫步到神经网络:我在克兰菲尔德的应用人工智能之旅》一文首先出现在克兰菲尔德大学博客上。

引导学习让“不可训练”的神经网络发挥其潜力

Guided learning lets “untrainable” neural networks realize their potential

CSAIL 研究人员发现,即使是“无法训练”的神经网络,在使用其指导方法受到另一个网络内置偏差的指导时也能有效学习。

机器学习“降临节日历”第 18 天:Excel 中的神经网络分类器

The Machine Learning “Advent Calendar” Day 18: Neural Network Classifier in Excel

通过显式公式理解前向传播和反向传播机器学习“降临日历”第 18 天:Excel 中的神经网络分类器一文首先出现在《走向数据科学》上。

机器学习“降临日历”第 17 天:Excel 中的神经网络回归器

The Machine Learning “Advent Calendar” Day 17: Neural Network Regressor in Excel

神经网络通常感觉就像黑匣子。在本文中,我们仅使用 Excel 公式从头开始构建神经网络回归器。通过明确从前向传播到反向传播的每一步,我们展示了神经网络如何学习仅用少量参数来逼近非线性函数。机器学习“降临日历”第 17 天:Excel 中的神经网络回归器一文首先出现在《走向数据科学》上。

IEEE 模糊系统汇刊,第 34 卷,第 1 期,2026 年 1 月

IEEE Transactions on Fuzzy Systems, Volume 34, Issue 1, January 2026

1) 基于推理与动力学模糊融合的水下滑翔机迎角增强轨迹预测作者:臧汶川,王博涵,张汉斌,宋大雷,郭婷婷页数:1 - 132) 通信链路故障的 NMSV 人在环时变编队控制:规定时间模糊控制器作者:丁腾飞、易子恒、葛明峰页数:14 - 263) 更精确、更快:大型工作空间中机械臂的双尺度遥操作作者:孙鹏宇、李卫华、李军、刘逸群、王建峰、丁亮、周承旭页数:27 - 404) FCGNN:模糊认知图用于少样本学习的概念演化的神经网络作者:Linhua Zou、Dongqing Li、Chengxi Jiang、Yu Wang、Hong Zhao 页数:41 - 525) PAC-X:用于多类恶意软件

ParaRNN:解锁大型语言模型的非线性 RNN 并行训练

ParaRNN: Unlocking Parallel Training of Nonlinear RNNs for Large Language Models

循环神经网络 (RNN) 为序列建模奠定了基础,但其内在的序列性质限制了并行计算,为扩展造成了根本障碍。这导致了 Transformer 等可并行架构以及最近的状态空间模型 (SSM) 的主导地位。虽然 SSM 通过结构化线性递归实现高效并行化,但这种线性约束限制了它们的表达能力,并妨碍对复杂的非线性序列依赖关系进行建模。为了解决这个问题,我们提出了 ParaRNN,一个打破......

使用下限和上限算术电路从逻辑约束中学习

Learning from logical constraints with lower- and upper-bound arithmetic circuits

如何高效训练神经网络,使其与背景知识更加一致?神经网络非常擅长识别从图像到语言的数据模式,但它们常常无法尊重人类显而易见的规则和关系。例如,神经网络可以学习识别道路代理、他们的行为,[...]

定期锻炼不仅可以增强心脏功能,还可以重新编程神经

Regular Exercise Doesn’t Just Strengthen the Heart, It Reprograms Its Nerves

新研究表明,定期有氧运动不仅有益于心肌,还能巧妙地重新连接控制心脏工作的神经。定期的体育活动不仅仅可以增强心脏力量。新的研究表明,它还能改变调节心脏功能的神经网络,这一发现可能会导致 [...]

AIhub 博文亮点 2025

AIhub blog post highlights 2025

在这一年里,我们很高兴与来自世界各地的许多才华横溢的研究人员合作。 2025 年即将结束,我们回顾一下贡献者的一些优秀博客文章。 TELL:使用逻辑解释神经网络 作者:Alessio Ragno 这项工作有助于 [...]

去中心化计算:深度学习背后的隐藏原理

Decentralized Computation: The Hidden Principle Behind Deep Learning

深度学习的大多数突破——从简单的神经网络到大型语言模型——都建立在比人工智能本身更古老的原则之上:去中心化。现代基于深度学习的人工智能模型之所以成功,是因为许多简单的单元在本地进行交互,而不是依赖强大的“中央规划器”来协调和指挥其他组件的行为。