芝加哥大学研究人员的一篇新论文介绍了一种编译高度优化的量子指令的技术,该指令可以在最新的硬件上执行。这种技术特别适用于一类新的可变分量子算法,它是证明有用的量子加速的一个有希望的候选者。这项新工作是通过跨堆栈、量子算法、机器学习、编译器和设备物理的思想统一来实现的。跨学科研究是由国家科学基金会计算探险队EPiQC(支持真实尺度量子计算)进行的。
适应量子算法的新范式
量子算法最初的设想可以追溯到20世纪80年代初,当时物理学家理查德费曼提出,只有数千个无噪声的量子比特(qubit)才能用来进行分子模拟,这对于传统计算机来说几乎是不可能的。上世纪90年代和2000年代开发的其他算法表明,数千个无噪声量子位也将为解决数据库搜索、整数分解和矩阵代数等问题提供显著的加速。然而,尽管量子硬件最近取得了进展,但这些算法距离可扩展实现还有几十年的时间,因为当前的硬件有噪声量子位。
为了匹配当前和最近的量子计算机的约束,最近出现了可变分量子算法的新例子。这些算法解决了类似于原始量子算法的计算问题,但通过不指定一些内部程序参数来增强对噪声的适应性。而是在优化程序的指导下,通过试错来学习这些内部参数。使用强大的优化器,变分算法可以容忍中等噪声。
变分算法的抗噪声能力虽然吸引人,但也给编译带来了挑战,编译是将数学算法转化为物理指令,最终由硬件执行的过程。
UChicago的计算机科学教授Fred Chong和Seymour Goodman教授说:“变分算法和传统量子算法之间的权衡是,虽然变量的数量很便宜,但所需的重复次数很昂贵。”负责工程质量控制的项目集成。“虽然传统的量子算法在执行时已经被完全指定,从而可以完全优化预执行,但变体程序在执行时只被部分指定。”
部分编译
研究人员使用一种称为部分编译的并行技术来解决一些特定程序的问题。芝加哥大学的博士生Pranav Gokhale解释说:“虽然我们不能在执行之前完全编译变分算法,但我们至少可以预编译指定的部分。”对于典型的变分算法,这种简单的启发式方法就足够了。与标准的基于门的编译技术相比,它在量子运行时的速度提高了2倍。由于量子比特随时间呈指数衰减,这种运行时加速也会导致错误率的降低。
对于更复杂的算法,研究人员应用了第二层优化,通过一个称为超参数优化的过程,对未指定参数引起的变化进行数值表征。Gokhale总结道:“花几分钟时间进行超参数调整和部分编译可以节省几个小时的执行时间。”钟教授指出,主题是通过转移资源来节省成本(无论是在传统计算和量子计算之间,还是在编译和执行之间),其他几个EPiQC项目也是如此。
研究人员的下一个目标是通过实验证明他们的工作。随着可以在模拟脉冲水平上控制的云可访问量子计算机的发布,这种实验验证直到最近才成为可能。这种控制水平比标准的基于门的控制更接近硬件,研究人员希望通过这种脉冲接口实现更高的效率增益。
该研究人员的论文“有噪声的中型量子机器的变分算法的部分编译”(arXiv Link)将于10月14日在俄亥俄州哥伦布市的MICRO Computer Architecture会议上发表。高可乐和钟的合著者包括丁永山、汤玛斯普森、克里斯托弗温克勒、梁朝伟、史、大卫舒斯特和亨利霍夫曼,他们都来自芝加哥大学。