在量子计算领域,量子比特的错误率控制一直是一个重大挑战。量子比特极其脆弱,即使很小的环境干扰也会导致量子信息丢失。为了解决这个问题,科学家们提出了量子纠错编码的技术——将多个物理量子比特组合成一个逻辑量子比特,通过冗余编码来抵抗错误。
尽管在这一技术的帮助下,当前最先进的量子处理器能够实现高达 99.9% 的门操作保真度,但仍远未达到量子算法所需的 10⁻¹⁰ 量级的误差率。因此,如何通过量子误差纠正技术提升计算可靠性,成为学界和工业界的核心挑战。
现在,Google量子人工智能团队在其最新一代超导处理器 Willow 上取得了重要突破。他们成功实现了一种逻辑误差低于表面码阈值的量子误差纠正方案,让纠错量子计算 30 年来“低于阈值”的目标成为现实。
相关成果已经发布于Nature[1]。
图丨相关论文(来源:Nature)
1995 年 MIT 教授彼得·肖尔(Peter Shor)首次提出了量子纠错的概念,他设计了第一个量子纠错码——肖尔码(Shor Code)[2]。这一突破性的研究首次证明了量子信息尽管极其脆弱,却可以通过编码分布在多个物理量子比特上,以实现错误的检测和纠正。肖尔码通过保护一个量子比特免受相位和振幅翻转错误的影响,为量子计算的可行性提供了理论支撑。
图丨Peter Shor(来源:MIT)
在肖尔码之后,稳定子码和表面码等更复杂的纠错方案相继被提出。其中,表面码(Surface Code)因其良好的错误抑制性能和对硬件要求的相对可实现性,成为容错量子计算的核心技术。
表面码(surface code)通过将量子比特排列成 d×d 的方形阵列,理论上,阵列越大,逻辑量子比特就越稳定,性能也会越好。但实际上,扩大阵列也会带来更多出错机会。如果物理量子比特的错误率过高,这些额外错误会压倒纠错能力,使得扩大阵列反而会降低处理器性能。
只有当物理量子比特的错误率足够低时,量子纠错才能弥补这些额外错误。这个临界错误率就被称为量子纠错门槛。
而Google 团队在 Willow 上首次实现了这一点。在 Willow 的错误纠正实验中,当将阵列从 3×3 扩展到 5×5 再到 7×7 时,每次扩展都能将编码错误率降低 2.14 倍。这一结果证实了量子纠错理论的指数级错误抑制效果。
更重要的是,7×7 阵列实现的逻辑量子比特展现出了超越物理极限的性能——其寿命达到 291±6 微秒,是其最佳物理量子比特寿命(119±13微秒)的 2.4 倍。这标志着量子纠错首次实现了“超越平衡点”(beyond breakeven)的里程碑。
(来源:Google)
这些突破得益于 Willow 处理器在多个技术层面的创新。通过改进制造工艺、优化参与率工程和电路参数,新一代处理器的量子比特展现出了优异的相干性能:弛豫时间(T1)从此前的约 20 微秒提升到 68 微秒,自旋回波相干时间(T2,CPMG)达到 89 微秒。这种基础性能的提升直接反映在了更好的纠错效果上:虽然操作保真度只提高了约 2 倍,但编码后的错误率却改善了约 20 倍。
其次,团队开发了两种高精度解码器:一个是经过处理器数据微调的神经网络解码器,另一个是增加了匹配综合的相关最小权重完美匹配解码器集成。这些解码器能够准确地从测量量子比特获取的奇偶校验信息中推断出错误的位置和类型。
在错误纠正过程中,系统首先将数据量子比特初始化为 ZXXZ 表面码的逻辑本征态,然后重复执行错误纠正周期。在每个周期中,测量量子比特都会从相邻的数据量子比特中提取奇偶校验信息,这些信息随后被发送到解码器进行处理。特别重要的是,每次 syndrome 提取之后,系统都会执行数据量子比特泄漏移除(DQLR)操作,这个步骤确保了量子比特不会长时间停留在高能泄漏态。
(来源:Google)
由此,Willow得以实现上述出色的逻辑误差抑制能力。
除了量子纠错性能外,Willow 处理器在随机线路采样(RCS)基准测试上也取得了惊人成果。它在不到 5 分钟内完成了一项运算,这项运算即使在当今最快的超级计算机 Frontier 上运行也需要 10 亿亿亿年(10²⁵年)。
图丨RCS 测试结果(来源:Google)
在稳定性测试中,研究团队在 72 量子比特处理器上进行了长达 15 小时的持续实验,系统保持了平均 A=2.18±0.07 的稳定错误抑制性能。即使在最长达 100 万个周期的实验中,性能也没有显著降低。这种长期稳定性对于未来实现实用的量子算法至关重要。
研究团队还实现了实时解码,这对未来的实用量子计算具有重要意义。在距离为 5 的码上,实时解码系统实现了平均 63 微秒的解码延迟,能够跟上 1.1 微秒的快速纠错周期。这表明,超导量子计算平台可以满足大规模容错量子算法所需的严格时序要求。
但研究中也还存在一些挑战。在重复码实验中,团队观察到每小时会出现一次相关错误爆发,这些错误会在约 400 微秒的时间尺度上衰减,导致了 10⁻¹⁰ 的错误下限。虽然这个错误率已经相当低,但要达到某些量子算法所需的 10⁻⁶ 错误率,目前的方案仍需要使用 1457 个物理量子比特构建的距离 27 逻辑量子比特。
(来源:Google)
此外,随着系统规模扩大,解码延迟也会增加。目前在距离为 5 的码上测得的 50-100 微秒解码延迟预计会随着码距增加而增长。这可能会影响未来大规模量子计算机的运行速度,需要进一步优化。
尽管如此,Willow 处理器的未来依然值得期待。在过去一年中,其编码性能提升了 20 倍。如果能保持这种指数级的进步,实用的大规模量子计算机或许比预期更快到来。
参考资料:
1.https://www.nature.com/articles/s41586-024-08449-y
2.https://journals.aps.org/pra/abstract/10.1103/PhysRevA.52.R2493
3.https://blog.google/technology/research/google-willow-quantum-chip/
4.https://research.google/blog/making-quantum-error-correction-work/
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.