Loading...
机构名称:
¥ 1.0

并非所有神经网络架构都是一样的,有些架构在某些任务上的表现比其他架构好得多。但是,与神经网络架构相比,权重参数有多重要?在这项工作中,我们想知道,在没有学习任何权重参数的情况下,神经网络架构本身能在多大程度上为给定任务编码解决方案。我们提出了一种搜索方法,用于搜索无需任何明确权重训练就能执行任务的神经网络架构。为了评估这些网络,我们用从均匀随机分布中采样的单个共享权重参数填充连接,并测量预期性能。我们证明,我们的方法可以找到无需权重训练就能执行多项强化学习任务的最小神经网络架构。在监督学习领域,我们发现使用随机权重在 MNIST 上实现远高于偶然准确率的网络架构。本文的交互式版本位于 https://weightagnostic.github.io/

权重无关神经网络

权重无关神经网络PDF文件第1页

权重无关神经网络PDF文件第2页

权重无关神经网络PDF文件第3页

权重无关神经网络PDF文件第4页

权重无关神经网络PDF文件第5页

相关文件推荐

2024 年
¥1.0
2013 年
¥1.0
2020 年
¥1.0
2022 年
¥1.0
2020 年
¥2.0
2022 年
¥1.0
2022 年
¥1.0
2024 年
¥5.0
2022 年
¥3.0
2025 年
¥3.0
2023 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0
2022 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0
2019 年
¥12.0
2022 年
¥1.0
2024 年
¥1.0
2021 年
¥3.0
2021 年
¥2.0
2023 年
¥2.0
2019 年
¥1.0
2021 年
¥1.0
2021 年
¥1.0
2023 年
¥2.0