详细内容或原文请订阅后点击阅览
AI算法接近光学测量精度的理论极限
没有图像无限锐利。 150年来,众所周知,无论您多么巧妙地构建显微镜或相机,总会有基本的基本分辨率限制。粒子的位置永远不能以无限的精度测量。一定程度的模糊是不可避免的。该限制不是由技术弱点所造成的,而是源于光的物理特性和信息本身的传输。
来源:英国物理学家网首页没有图像无限锐利。 150年来,众所周知,无论您多么巧妙地构建显微镜或相机,总会有基本的基本分辨率限制。粒子的位置永远不能以无限的精度测量。一定程度的模糊是不可避免的。该限制不是由技术弱点所造成的,而是源于光的物理特性和信息本身的传输。
tu wien(维也纳),格拉斯哥大学和格勒诺布尔大学提出了一个问题:光学方法的绝对精度绝对极限在哪里?以及如何尽可能接近此限制?
确实,国际团队成功地为理论上可实现的精度和开发神经网络的AI算法指定了最低限制,在适当培训后,这些神经网络非常接近此限制。现在,该策略将用于成像程序,例如医学中使用的策略。该研究发表在《自然光子学》杂志上。
神经网络 已发布Precision
“让我们想象我们正在看一个不规则,多云的玻璃窗格后面的小物体,” Tu Wien理论物理研究所的Stefan Rotter教授说。 “我们不仅看到对象的图像,而且还包括一个复杂的光模式,该图案由许多较轻和深色的光片组成。现在的问题是:我们可以准确地估算对象实际基于此图像的位置,而该精度的绝对极限在哪里?”
神经网络从混乱的光模式中学习
激光束几乎处于物理极限
更多信息: doi:10.1038/s41566-025-01657-6期刊信息:自然光子学
期刊信息: