使用PYSCFIPU生成QM1B
机构名称:
¥ 1.0

在计算机视觉和自然语言处理中基础模型的出现导致下游任务取得了巨大进展。通过数十亿个培训示例的数据集启用了这一进度。类似的好处尚未解锁量子化学,其中深度学习的潜力受到相对较小的数据集的限制,该数据集具有100K至20m的训练示例。这些数据集的大小限制,因为标签是使用密度功能理论(DFT)的准确(但要求的)预测进行计算的。值得注意的是,使用CPU超级计算机创建了先前的DFT数据集,而无需利用硬件加速度。在本文中,我们通过使用智能处理单元(IPU)引入数据生成器PYSCF IPU迈出了使用硬件加速器的第一步。这使我们能够创建数据集QM1B,其中包含9-11个重原子的十亿培训示例。我们证明,简单的基线神经网络(SCHNET 9M)通过简单地增加训练数据的量而没有其他电感偏见来提高其性能。为了鼓励未来的研究人员负责任地使用QM1B,我们重点介绍了QM1B的一些局限性,并强调了DFT选项的低分辨率,这也是更大,更准确的数据集的动力。代码和数据集。

使用PYSCFIPU生成QM1B

使用PYSCFIPU生成QM1BPDF文件第1页

使用PYSCFIPU生成QM1BPDF文件第2页

使用PYSCFIPU生成QM1BPDF文件第3页

使用PYSCFIPU生成QM1BPDF文件第4页

使用PYSCFIPU生成QM1BPDF文件第5页

相关文件推荐

通过使用
2023 年
¥1.0
使用3
2024 年
¥1.0
使用1
2020 年
¥3.0
使用套利价差
2021 年
¥2.0
使用
2024 年
¥1.0
使用
2024 年
¥1.0
使用
2024 年
¥1.0
使用
1900 年
¥1.0
使用
1900 年
¥1.0
使用
2022 年
¥1.0
使用最大熵
2025 年
¥1.0
使用
2022 年
¥1.0
使用深
2021 年
¥1.0
使用1-D
2022 年
¥1.0
使用
2021 年
¥1.0
使用专家
2020 年
¥1.0
使用
2023 年
¥1.0
如何使用
2021 年
¥2.0
使用高
2020 年
¥1.0
有关使用
2025 年
¥2.0
使用
2024 年
¥2.0
使用
2015 年
¥1.0
使用
2024 年
¥2.0
使用基于
2021 年
¥1.0
使用
2023 年
¥1.0
使用
2020 年
¥1.0
使用
1900 年
¥8.0
使用
2018 年
¥26.0
使用
2018 年
¥6.0
使用
2022 年
¥1.0