MobileNetV3 论文演练:小巨人变得更加聪明

MobileNetV3 与 PyTorch — 现在具有 SE 块和硬激活功能MobileNetV3 论文演练:小巨人变得更聪明首先出现在走向数据科学上。

来源:走向数据科学

欢迎回到 Tiny Giant 系列 — 在这个系列中我分享了我对 MobileNet 架构的了解。在过去的两篇文章中,我介绍了 MobileNetV1 和 MobileNetV2。如果您有兴趣阅读参考文献 [1] 和 [2],请查看它们。在今天的文章中,我想继续讨论该模型的下一个版本:MobileNetV3。

MobileNetV3 最早是在 Howard 等人撰写的一篇题为“Searching for MobileNetV3”的论文中提出的。 2019年[3]。快速回顾一下:第一个 MobileNet 版本的主要思想是用深度可分离卷积取代全卷积,与标准 CNN 版本相比,参数数量减少了近 90%。在第二个 MobileNet 版本中,作者引入了所谓的反向残差和线性瓶颈机制,并将其集成到原始 MobileNetV1 构建块中。现在,在第三个 MobileNet 版本中,作者试图通过将挤压和激励 (SE) 模块和硬激活函数合并到构建块中来进一步提高网络的性能。此外,MobileNetV3 本身的整体结构部分是使用 NAS(神经架构搜索)进行设计的,其本质上有点像在架构级别上进行参数调整,通过最大化准确性同时最小化延迟来进行操作。不过请注意,在本文中我不会详细介绍 NAS 的工作原理。相反,我将重点关注论文中提出的 MobileNetV3 的最终设计。

搜索 MobileNetV3 等。 反转残差 线性瓶颈 挤压和激励 硬激活函数 神经架构搜索

详细的 MobileNetV3 架构

作者提出了该模型的两种变体,他们将其称为 MobileNetV3-Large 和 MobileNetV3-Small。您可以在下面的图 1 中看到两种架构的详细信息。

图 1.MobileNetV3-Large(左)和 MobileNetV3-Small(右)架构 [3]。
骨颈 瓶颈 表达式大小 #out SE NL s 猛烈挥动