为此,ORNL、劳伦斯伯克利国家实验室和洛斯阿拉莫斯国家实验室 (LANL) 成立了混合多核联盟。这些实验室已投入大量资金部署基于当前和新兴加速器技术的计算平台,这些平台可加快它们为科学界提供的领先大规模计算资源的处理速度。佐治亚理工学院和瑞士联邦理工学院等以混合多核架构和软件研究而闻名的大学也是该团队的一部分。虽然混合多核技术在未来的高端计算系统中将发挥重要作用,但大多数应用程序都需要进行大量重新设计才能利用这些系统。该联盟将解决应用程序向混合系统的迁移问题,以最大限度地提高投资回报。
在 QPU(ibmq_casablanca)上执行的计算,其中模型的三个转译测量电路均包含约 350 个 CNOT 门,与未使用量子比特交换的情况相比,数量增加了两倍
本报告是作为美国政府机构赞助的工作的记录而编写的。美国政府及其任何机构或其任何雇员均不对所披露的任何信息、设备、产品或流程的准确性、完整性或实用性做任何明示或暗示的保证,也不承担任何法律责任或义务,也不表示其使用不会侵犯私有权利。本文中以商品名、商标、制造商或其他方式提及任何特定商业产品、流程或服务并不一定构成或暗示美国政府或其任何机构对其的认可、推荐或支持。本文中表达的作者的观点和意见不一定代表或反映美国政府或其任何机构的观点和意见。
电子邮件:liakhdi@ornl.gov 电子邮件:quant4me@gmail.com 电话:+1(865)574-7783 Skype:DmitryLyakh 职业经历 • 计算科学家:化学、材料和量子信息科学的高级高性能计算(量子计算)。美国国家计算科学中心,橡树岭国家实验室,田纳西州橡树岭:2014 年 9 月 - 现任。 • 博士后研究员。美国国家计算科学中心,橡树岭国家实验室(导师:T. Straatsma 博士):“从头算量子化学的新方法和 GPU 加速算法”:2013 年 12 月 - 2014 年 8 月。 • 兼职博士后研究员。美国佛罗里达州盖恩斯维尔佛罗里达大学量子理论项目 RJ Bartlett 教授小组:“开发和大规模并行实施用于电子结构计算的精确从头算量子多体方法”:2009 年 6 月 – 2013 年 12 月。• 初级研究员。乌克兰哈尔科夫国立大学化学学院天体化学组:2008 年 7 月 – 2009 年 5 月。• 讲师。乌克兰哈尔科夫国立大学化学学院。课程:量子化学和量子力学、线性代数和化学家计算机编程:2008 年 9 月 – 2009 年 5 月。
摘要。量子计算提供了有趣的潜力,可以以前所未有的速度解决各种问题。量子计算机将来不太可能替代古典计算机,但可能会与他们同时使用它们的互补优势来执行复杂的任务。的确,当今大多数量子计算机都可以通过基于云的应用程序编程Interfaces(API)提供给用户,这些计算机必须从古典计算机远程调用。不幸的是,该用法模型为连接量子计算机与经典高性能计算(HPC)系统连接量子计算机(HPC)系统的无缝执行执行提出了障碍。工作流管理系统可以帮助克服这些障碍。在这项工作中,我们应用了科学工作流程范式来弥合量子和古典计算之间的差距 - 特别是通过橡树岭领导力计算设施(OLCF)提供的量子和HPC系统之间的差距。我们提供了三个完全自动化的Foun-partion-wimation示例:旅行推销员问题,Grover的搜索算法和Shor的保理算法。我们使用工作流来生成来自OLCF HPC系统的输入,并将其转移到云中的IBM量子系统中,量子计算会产生返回OLCF进行后处理的结果。尽管当前的量子组合技术局限性阻止了这些算法在大规模解决现实生活问题,但基于工作流程的方法仍然以表现出对未来的巨大希望的方式团结了这两个功能的计算范式。这种基于工作流程的方法提供了其他好处,包括(a)整个过程的端到端编程自动化,(b)用于与HPC调度程序和量子中间软件连接的外部工具工具,以及(c)独立任务的一致性,例如,诸如对模拟器和实际量子设备的同样的algorithm and a ailgorithm and a量子设备的同样量子和实际量子设备,
摘要我们使用图形卷积神经网络(GCNN)来快速准确地预测固体溶液二元合金的总能量。gcnns允许我们抽象固体物质的晶格结构作为图,从而将原子建模为节点和金属键作为边缘。此表示自然结合了有关材料结构的信息,从而消除了对标准神经网络(NN)方法所需的计算昂贵数据预处理的需求。我们在Ab-Initio密度功能理论(DFT)上训练GCNN,用于铜金(CuAU)和铁铂(FEPT)数据,这些数据是通过运行LSMS-3代码而生成的,该数据实现了OLCF SuperCutisters titan and Immit的LSMS-3代码,该代码实现了本地自称的多重散射方法。gcnn在计算时间方面,按数量级胜过Ab-Initio dft模拟,以产生给定的原子结构的总能量的估计。我们通过使用根平方的误差来量化深度学习(DL)模型的预测质量,将GCNN模型与标准NN的预测性能进行比较。我们发现,GCNN的可达到的准确性至少比MLP的数量级好。