NVIDIA与合作伙伴通过GPT模型推进量子算法设计

realtime news  Oct 01, 2024 02:21  UTC 18:21

1 Min Read

人工智能(AI)技术,特别是大型语言模型(LLMs),正在改变各个科学领域,量子计算也不例外。根据NVIDIA技术博客的报道,NVIDIA、多伦多大学和圣裘德儿童研究医院之间的合作正在利用生成预训练变换器(GPT)来设计新的量子算法,包括生成量子特征值求解器(GQE)技术。

创新的GQE技术

GQE技术代表了AI与量子计算领域的重大进展。使用NVIDIA的CUDA-Q平台开发的GQE是首个允许用户使用自己的GPT模型来创建复杂量子电路的方法。CUDA-Q平台强调加速量子超计算,为GQE技术提供了一个理想的混合计算环境。

GQE方法的共同作者Alan Aspuru-Guzik强调,CUDA-Q平台的可扩展性集成了CPU、GPU和QPU,用于在量子计算中训练和使用GPT模型。

通过LLM类比理解GQE

传统的LLM通过从大数据集学习来理解和生成文本,为理解GQE提供了一个有用的类比。当LLM处理文字时,GQE处理的是量子电路操作。GQE使用变换器模型生成定义量子电路的序列统一操作。训练过程涉及通过计算先前生成电路的期望值来最小化成本函数。

NISQ时代算法的进展

在噪声、小规模量子(NISQ)时代,量子算法面临着若干硬件限制。混合量子-经典算法如变分量子特征值求解器(VQE)旨在克服这些限制。然而,GQE方法是第一个利用AI加速NISQ应用的方法,在GPT模型内经典地优化参数。

GQE通过以下方式扩展了NISQ算法:

  • 无需量子变分参数即可构建量子电路。
  • 通过替代量子梯度评估与采样和反向传播来提高量子资源效率。
  • 允许定制以纳入领域知识或目标应用于化学以外的领域。
  • 通过预训练消除了对额外量子电路评估的需求。

结果与未来前景

在初步应用中,受到GPT-2启发并称为GPT-QE的GQE模型用于估算小分子的基态能量。该模型展示了显著的并行化能力,将训练时间从单一NVIDIA H100 GPU的173小时减少到48个H100 GPU上的3.5小时。

未来研究将探索GQE的不同操作符池和最佳训练策略,包括预训练。该过程使用现有数据集来增强变换器训练的效率或帮助其收敛。

除了量子化学领域,NVIDIA和洛斯阿拉莫斯国家实验室还在研究将GQE应用于几何量子机器学习,展示了这一创新方法的广泛潜力。

有关此次合作和GQE代码的更多信息,请访问NVIDIA技术博客



Read More