NVIDIA 的 CUDA-Q 减少了量子聚类算法的资源需求 - Blockchain.News

NVIDIA 的 CUDA-Q 减少了量子聚类算法的资源需求

realtime news Aug 26, 2024 16:35

NVIDIA 的 CUDA-Q 平台能够显著减少量子聚类算法的资源需求,使其更适用于近期的量子计算应用。

NVIDIA 的 CUDA-Q 减少了量子聚类算法的资源需求

NVIDIA 宣布通过其 CUDA-Q 平台(前称 CUDA Quantum)在量子计算领域取得了重大进展。根据 NVIDIA 技术博客,CUDA-Q 在减少量子聚类算法的资源需求方面发挥了重要作用,使其在近期量子计算应用中变得更加实际。

量子聚类算法

量子计算机利用叠加、纠缠和干涉的独特性质从数据中获取洞察,相比经典计算方法提供了理论上的加速。然而,早期的量子计算机由于缺乏高效的量子随机存取存储器(QRAM),预计将在计算密集型任务上表现更优而不是数据密集型任务。

爱丁堡大学量子软件实验室的副教授 Petros Wallden 博士及其团队利用 CUDA-Q 来模拟新的量子机器学习(QML)方法。这些方法大大减少了分析大数据集所需的量子比特数量。他们的研究扩展了 Harrow 在核心集(coresets)方面的工作,这是一种经典的降维技术,使 QML 应用在不需要 QRAM 的情况下变得更加可行。

什么是核心集?

核心集是全数据集的小型加权子集,它近似全数据集的特性。这种方法使得数据密集型 QML 任务可以用显著较少的量子比特完成。Petros 团队根据可用的量子比特选择核心集大小,然后在量子计算后评估结果误差。

使用核心集进行量子聚类的方法

在将输入数据减少到可管理的规模后,他们探索了三种量子聚类算法:

  • 分裂聚类:点被不断二分,直到每个点在其自己的集群中。
  • 三均值聚类:点根据它们与不断演变的质心的关系分成三组。
  • 高斯混合模型(GMM)聚类:点根据高斯分布的混合被归为一组。

每种方法输出一组核心集,将初始数据集映射到这些核心集,从而实现数据集的近似聚类和降维。

使用 CUDA-Q 克服可扩展性问题

探索这些 QML 聚类方法需要模拟,CUDA-Q 通过提供对 GPU 硬件的轻松访问促成了这一点。这使得 Petros 团队能够在多达 25 个量子比特的问题规模上进行全面模拟。CUDA-Q 的原语诸如硬件高效的 ansatz 内核和自旋哈密顿算子对于基于哈密顿算子的优化过程至关重要。

早期模拟在 CPU 硬件上运行,但由于内存限制只能处理到 10 个量子比特。切换到 NVIDIA DGX H100 GPU 系统使团队可以在不修改原始代码的情况下扩展到 25 个量子比特,这得益于 CUDA-Q 的兼容性和可扩展性功能。

CUDA-Q 模拟的价值

模拟所有三种聚类算法使得与经典方法如 Lloyd 算法进行基准测试成为可能。结果表明,量子算法在 GMM(K = 2)和分裂聚类方法上表现最好。

Petros 团队计划继续与 NVIDIA 合作,使用 CUDA-Q 开发和扩展新的量子加速超级计算应用。

探索 CUDA-Q

CUDA-Q 促成了新 QML 实现的开发和模拟,其代码可移植以进行进一步的大规模模拟或部署在物理量子处理单元(QPU)上。

有关更多信息并开始使用 CUDA-Q,请访问 NVIDIA 技术博客

Image source: Shutterstock