变换关键词检索结果

rostec在CIPR-2025上展示了一个新的计量变换平台

Ростех продемонстрировал на ЦИПР-2025 новую платформу для цифровой трансформации метрологии

企业测试结果的结果。计量平台将相关服务的效率提高了35%

代理AI和区块链变换金融

Agentic AI and Blockchain Transform Finance

这是为何重要的:代理AI和区块链通过启用具有透明度和效率的自主系统来转换金融。

“变换”卫星将监测地球的表面变化

“Transformational” Satellite Will Monitor Earth’s Surface Changes

NOAA悄悄地报告说,他们将很快退役与地震,海洋,沿海和河口科学有关的14个数据集,产品和目录。

俄罗斯技术大学和莫斯科国立大学化学系首批超材料和变换光学基础课程学生毕业

«РТ-Техприемка» и химфак МГУ выпустили первых слушателей курса по метаматериалам и основам трансформационной оптики

该教育计划涉及研究光学超材料的运行原理,并教授如何使用计算机建模方法来控制其属性

小改变换大钱

Small change for Big Cash

政府锁定现金以购买必需品,此外,埃莉诺梦想着抵押贷款,格雷格则在思考时间的流逝。文章《小额零钱换大额现金》首次出现在澳大利亚研究所。

变换不变学习和 OOD 泛化的理论保证

Transformation-Invariant Learning and Theoretical Guarantees for OOD Generalization

在实践和理论上,对具有相同训练和测试分布的学习进行了广泛的研究。然而,在分布偏移下的统计学习中,仍有许多需要理解的地方。本文重点关注分布偏移设置,其中训练和测试分布可以通过(数据)转换图的类别相关联。我们为该框架启动了一项理论研究,研究了目标转换类别已知或未知的学习场景。我们建立了学习规则和算法简化以最小化经验风险……

RT-Tekhpriemka 和莫斯科国立大学正在推出超材料和变换光学基础知识培训课程

«РТ-Техприемка» и МГУ запускают обучающий курс по метаматериалам и основам трансформационной оптики

招聘是在高级工程学院“莫斯科国立大学工程学院”联邦项目框架内进行的。罗蒙诺索夫”

探索稳健性:大型内核 ConvNets 与卷积神经网络 CNN 和视觉变换器 ViTs 的比较

Exploring Robustness: Large Kernel ConvNets in Comparison to Convolutional Neural Network CNNs and Vision Transformers ViTs

稳健性对于在实际应用中部署深度学习模型至关重要。自 2020 年代推出以来,视觉变换器 (ViT) 在各种视觉任务中表现出强大的稳健性和最先进的性能,优于传统 CNN。大核卷积的最新进展重新引起了人们对 CNN 的兴趣,表明它们可以匹敌或超过 ViT 性能。然而,这篇文章《探索稳健性:大核卷积网络与卷积神经网络 CNN 和视觉变换器 ViT 的比较》首先出现在 AI Quantum Intelligence 上。

大规模变换器模型的有效部署:可扩展和低延迟推理策略

Efficient Deployment of Large-Scale Transformer Models: Strategies for Scalable and Low-Latency Inference

将基于 Transformer 的模型扩展到超过 1000 亿个参数已在自然语言处理中取得突破性成果。这些大型语言模型在各种应用中都表现出色,但由于生成推理的顺序性,有效部署它们带来了挑战,其中每个标记的计算都依赖于前面的标记。这需要细致的并行布局和内存帖子《大规模 Transformer 模型的有效部署:可扩展和低延迟推理策略》首先出现在 AI Quantum Intelligence 上。

基于变换的层可提高 CNN 效率和准确性,并应用于计算机视觉

Transform-Based Layers Boost CNN Efficiency and Accuracy, Applications for Computer Vision

开创性的研究引入了基于变换的层作为一种新方法来提高卷积神经网络 (CNN),特别是残差网络 (ResNets) 在计算机视觉领域的效率和准确性,可能会彻底改变...

词形变换

Word morphing

如何使用 word2vec 的嵌入和 A* 搜索算法在单词之间变换。

了解视觉变换器 (ViT):其表示的隐藏属性、见解和稳健性

Understanding Vision Transformers (ViTs): Hidden properties, insights, and robustness of their representations

我们研究 CNN 和 ViT 的学习视觉表征,例如纹理偏差、如何学习良好的表征、预训练模型的稳健性以及最终从训练过的 ViT 中出现的属性。

小波变换 - 使用 torch

Wavelet Transform - with torch

torch 没有内置进行小波分析的功能。但我们可以利用快速傅里叶变换 (FFT) 有效地实现我们所需的功能。这篇文章是对小波的首次介绍,适合以前没有接触过它的读者。同时,它提供了有用的入门代码,展示了在 torch 中执行小波分析的(可扩展)方法。它是即将由 CRC Press 出版的《使用 R torch 进行深度学习和科学计算》一书中相应章节的摘录。

离散傅里叶变换 - 使用 torch

Discrete Fourier Transform - with torch

关于傅里叶变换,有人说它是宇宙中最伟大的奇迹之一。同时,它仅用六行代码即可实现。即使最后你只是直接调用 torch 的内置函数,它也有助于理解并能够在代码中重现魔法背后的想法。这篇文章摘自即将由 CRC Press 出版的新书《使用 R torch 进行深度学习和科学计算》。

视觉变换器是否像卷积神经网络一样看?

Do Vision Transformers See Like Convolutional Neural Networks?

到目前为止,卷积神经网络 (CNN) 一直是视觉数据的实际模型。最近的研究表明,(Vision) Transformer 模型 (ViT) 可以在图像分类任务上实现相当甚至更优异的性能。这提出了一个核心问题:Vision Transformer 如何解决这些任务?它们是像卷积网络一样工作,还是学习完全不同的视觉表示?通过分析 ViT 和 CNN 在图像分类基准上的内部表示结构,我们发现这两种架构之间存在显着差异,例如 ViT 在所有层上都有更统一的表示。我们探索了这些差异是如何产生的,发现了自我注意力所起的关键作用,它可以实现全局信息的早期聚合,以及 ViT 残差连接,它可以将特征从较低层强烈

洛伦兹变换:简化概述

Lorentz Transformation: A Simplified Overview

好吧……已经有很多关于这个主题的文章和书籍,但我仍然需要介绍它,主要有两个原因。首先,我即将发表的文章将基于这个主题,我不希望我的读者在寻找足够的材料来理解这个主题时遇到麻烦。其次,因为我也研究过很多关于这个主题的文章和书籍,所以在阅读它们时,我总是觉得文本中总是缺少“学生方面”的解释。所以,在本文中,我将尝试包括这一点。洛伦兹变换在相对论空间中起着关键而基本的作用。没有它,你就无法推导出流行理论的表达式,如长度收缩、时间膨胀和流行的质量能量关系方程 e = mc^2。所以,我希望你能理解这个主题的引力。洛伦兹变换以荷兰物理学家亨德里克·洛伦兹的名字命名。在开始推导变换之前,我们需要记住两个假

映射磁异常

Mapping Magnetic Anomalies

今天的新Eli是映射磁异常;对海底板块构造边界的古磁证据进行建模。此ELI涉及对模拟的地磁数据调查进行建模板板边界(不同和变换)。学生可以描述如何从海洋勘探调查中收集磁条纹的模式,并可以从古磁异常的模式中确定板块边界的证据。他们还可以解释说,磁异常和磁条纹与地球磁场中的逆转有关。相关活动可以在我们的网站,磁性,板块构造和海洋学上的以下主题中找到。

前20个工业软件供应商:有一个适用于该的应用

Top 20 industrial software suppliers: There’s an app for that

随着制造业在数字化的重量下变换,软件变得与工厂地板上的机器一样关键。工业公司越来越多地将自己重塑为软件驱动的组织,不仅提供物理产品,而且还集成了数字解决方案,从而优化了从设计和计划到执行和维护的所有内容。这种趋势是[…]