谷歌量子人工智能的最新一代量子芯片上展示了能够抑制错误低于实现未来实际量子计算应用所需的临界阈值的量子纠错,这项成果刚刚发布在自然报道上。
新一代的量子芯片通过缩放,可以促进大规模容错量子计算的操作要求。
量子计算有可能加快计算速度,并在某些任务上超越经典计算机的能力。然而,最大的瓶颈问题是量子计算机容易出错,使得当前的原型无法运行足够长的时间来实现实际输出。
在量子比特中,量子错误纠正的代价可能会引入比纠正更多的错误。新方法由量子计算研究人员设计来解决这个问题,它依赖于量子纠错,其中信息分布在许多量子比特(量子信息单位,类似于经典计算机比特)上,允许在不损坏计算的情况下识别和补偿错误。
因此,在事实上实现"低于门槛值"的业务具有挑战性,即未更正的出错率低于一个临界值,而这是纠错工作按预期进行并成倍抑制错误所必需的。
Hartmut Neven和他的同事展示了新一代的超导量子处理芯片架构,称为Willow,它能够实现量子纠错低于特定量子纠错方法的临界阈值,该方法称为表面代码。他们的系统运行长达100万个周期,持续数小时,同时实时解码错误并维护其性能。
研究人员在72量子位处理器和105量子位的处理器上执行表面代码。代码距离从3到5再到7每增加一次,逻辑出错率就会减半。这种对逻辑错误的指数抑制构成了运行具有纠错功能的大规模量子算法的基础。这为量子计算的实用化又迈出新的一步。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.