微软和Quantinuum宣布在量子纠错方面取得重大突破

微软和Quantinuum宣布在量子纠错方面取得重大突破 这两家公司表示,现在量子计算的最先进技术已经走出了通常被称为"嘈杂中间规模量子(NISQ)计算机"的时代。之所以说"嘈杂",是因为即使是环境中最微小的变化,也会导致量子系统从本质上变得随机(或"解旋");之所以说"中间规模",是因为目前的量子计算机最多仍局限于一千多个量子比特。量子比特是量子系统计算的基本单位,类似于传统计算机中的比特,但每个量子比特可以同时处于多种状态,并且在测量之前不会落入特定位置,这就是量子在计算能力方面实现巨大飞跃的潜力所在。如果来不及运行一个基本算法,系统就会变得过于嘈杂,无法得到有用的结果,或者根本得不到任何结果,那么你有多少个比特也就不重要了。结合几种不同的技术,该团队能够在几乎没有错误的情况下运行数千次实验。这需要做大量的准备工作,并预先选择那些看起来已经具备成功运行条件的系统,但与不久前的情况相比,这仍然是一个巨大的进步。这是量子计算朝着正确方向迈出的一步。还有很多问题有待解决(当然,这些结果也需要复制),但从理论上讲,一台拥有 100 个这样的逻辑量子比特的计算机已经可以用于解决一些问题,而一台拥有 1000 个量子比特的机器,正如微软所说,可以"释放商业优势"。纠缠的量子比特之间的差异(误差)。通过比较一对量子比特中每个量子比特的图像可以发现差异,存在的任何差异都会以点的形式出现在每对量子比特的中心图像上。研究小组使用 Quantinuum 的H2赛道陷波离子量子处理器,将 30 个物理量子比特组合成四个高度可靠的逻辑量子比特。将多个物理量子位编码成一个逻辑量子位有助于保护系统不出错。物理量子位纠缠在一起,这样就有可能检测到物理量子位中的错误并加以修复。长期以来,纠错一直困扰着业界:当然,物理比特的噪声越小、质量越高越好,但如果没有先进的纠错技术,NISQ 时代就无从谈起,因为这些系统迟早都会解体。"仅仅增加具有高错误率的物理量子比特的数量而不提高错误率是徒劳的,因为这样做将导致大型量子计算机的功能并不比以前更强大,"Azure Quantum总经理丹尼斯-汤姆(Dennis Tom)和微软高级量子开发副总裁克里斯塔-斯沃尔(Krysta Svore)在今天的公告中写道。"与此相反,当具有足够运行质量的物理量子比特与专门的协调和诊断系统配合使用以启用虚拟量子比特时,只有这样,物理量子比特数量的增加才会带来强大、容错的量子计算机,从而能够执行更长时间、更复杂的计算。"几年前,逻辑量子比特的性能才开始超过物理量子比特。现在,微软和 Quantinuum 认为,他们的新硬件/软件系统展示了物理和逻辑错误率之间的最大差距,比只使用物理比特的系统提高了 800 倍。研究人员指出,要超越 NISQ,逻辑量子比特和物理量子比特的错误率之间必须有很大的差距,还必须能够纠正单个电路错误,并在至少两个逻辑量子比特之间产生纠缠。如果这些结果成立,那么该团队就实现了这三点,我们也就进入了弹性量子计算时代。事实证明,这里最重要的成果可能是该团队执行"主动综合征提取"的能力,即在不破坏逻辑量子比特的情况下诊断错误并纠正错误的能力。汤姆和斯沃尔解释说:"这一成就标志着我们在不破坏逻辑量子比特的情况下纠正错误迈出了第一步,是量子纠错领域的一个基本里程碑。我们的量子比特虚拟化系统展示了可靠量子计算的这一关键组成部分,在多轮综合征提取中实现了较低的逻辑错误率"。现在就看量子界的其他成员能否复制这些成果,并实现类似的纠错系统了,这可能只是时间问题。Quantinuum创始人兼首席产品官伊利亚斯-汗(Ilyas Khan)表示:"今天的成果标志着一项历史性的成就,是双方合作不断推动量子生态系统发展的绝佳体现。微软最先进的纠错技术与世界上最强大的量子计算机和完全集成的方法相得益彰,我们对量子应用的下一步发展感到非常兴奋,迫不及待地想看到我们的客户和合作伙伴将如何从我们的解决方案中获益,尤其是在我们向量子处理器规模化发展的过程中。"欲了解更多详情,请点击此处查看技术文档。 ... PC版: 手机版:

相关推荐

封面图片

微软和 Quantinuum 详细介绍了量子纠错方面的突破性进展

微软和 Quantinuum 详细介绍了量子纠错方面的突破性进展 微软和 Quantinuum 今天宣布在量子纠错方面取得重大突破。利用 Quantinuum 的离子阱硬件和微软的新量子比特虚拟化系统,该团队能够无差错地运行 14,000 多次实验。这个新系统还允许团队检查逻辑量子比特并纠正遇到的任何错误,而不会破坏逻辑量子比特,可靠性比单纯的物理量子比特提升了800倍。Microsoft 和 Quantinuum表示,他们仅用30个物理量子比特就创建了四个高度可靠的逻辑量子比特。量子研究人员通常参考大约 100 个可靠量子比特作为击败传统超级计算机所需的数量,微软并未透露何时可以达到这一里程碑。 ,

封面图片

微软实现量子计算最新突破:14000次实验无错误

微软实现量子计算最新突破:14000次实验无错误 量子计算的核心优势在于量子比特(qubit),它能够同时处于0和1的状态,实现指数级的并行计算能力。然而,量子系统的高敏感性使得量子比特状态容易受到环境扰动的影响,导致计算误差。因此提升量子比特的稳定性和降低误差率,是实现可靠量子计算的关键。此次微软和Quantinuum的合作,通过结合微软的量子比特虚拟化系统和Quantinuum的离子阱硬件技术,实现了创纪录的低错误率逻辑量子比特操作。这一成果标志着量子计算从嘈杂中间规模量子(NISQ)时代向更具稳定性和可扩展性的2级弹性量子运算时代的迈进。特别引人注目的是,双方在实验中成功完成了多达14000次的量子计算操作而未出现任何错误,这一成就是物理错误率与逻辑错误率间差距的显著展现。此外,微软和Quantinuum的合作还包括在Azure Quantum平台上的共同研发,该平台将全球领先的NISQ硬件引入云端,使量子技术更加易于获取。 ... PC版: 手机版:

封面图片

日本团队开发出“光量子计算机”运算纠错技术

日本团队开发出“光量子计算机”运算纠错技术 日本东京大学等的研究团队日前在美国《科学》杂志上发表成果称,开发出能自行纠正“光量子计算机”运算错误的方法。“光量子计算机”是使用光的下一代计算机,这正是这种计算机所面临的最后课题。研究量子信息科学的东大教授古泽明表示:“原理层面的开发已完成。今后将迎来新的时代。”据悉,他们将在9月成立风险企业以推动成果转化。量子计算机使用信息的基本单位“量子比特”,即使是复杂的运算也能高速执行,但过程中容易出现运算错误。使用超导体或离子的计算机已开发出纠错功能,但需要大量量子比特和复杂的布线。此外还存在计算机体积变大和耗电量大的问题。团队此次开发出了高性能的光检测仪,成功创造出一种名为“GKP量子比特”的特殊光状态,它能在运算的同时纠错。包含大量光子的单个光信号工作原理与排列大量量子比特的状态相同,因此有望在计算机体积不增大的情况下提高运算能力。

封面图片

谷歌科学家发布:量子计算机取得重大突破

谷歌科学家发布:量子计算机取得重大突破 谷歌科学家最近在ArXiv平台上发布了一篇预印本论文,声称在量子计算机领域取得了重大突破。他们表示,通过对Sycamore处理器的升级,谷歌成功提升了量子位的数量,从之前的53个增加到了70个。 这次实验中,谷歌科学家们执行了一项名为随机电路采样的任务,这个任务在量子计算中用于评估计算机的性能和效率。通过运行随机电路并分析结果输出,科学家们测试了量子计算机在解决复杂问题方面的能力。 谷歌的研究结果显示,升级后的70个量子位的Sycamore处理器在执行随机电路采样任务上比业内最先进的超级计算机快了几十亿倍。例如,需要业内最先进超级计算机Frontier计算47.2年才能完成的任务,53个量子位的Sycamore处理器只需要6.18秒就能完成,而新版的70个量子位的Sycamore处理器速度更快。来源 ,, 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

风向旗参考慢讯:IBM于十一月十五日宣布研发成功127量子比特计算机(是更为传统的量子电路模式,可以解决更为广泛的问题,而非针对

风向旗参考慢讯:IBM于十一月十五日宣布研发成功127量子比特计算机(是更为传统的量子电路模式,可以解决更为广泛的问题,而非针对特定问题进行特解的量子退火算法计算机或光量子计算机)。 IBM宣布计划于2023年推出超过1000量子位的计算机。 可以通过注册IBM账号免费实验部分5量子比特以下的计算机(排队时间超长)。 不过根据IBM公布的状态显示,他们唯一一台127量子位的计算机已经下线至少2天,同时他们其他量子计算机的可靠性远没有普通计算机高,错误率在百分之一到万分之一之间。同时Nature评论称,量子计算机真想打破传统计算机的主导地位,至少需要百万量子位以上。 来源: ,#风向旗参考慢讯

封面图片

中科院院士段路明团队在量子研究领域取得重要突破 《自然》官网发表

中科院院士段路明团队在量子研究领域取得重要突破 《自然》官网发表 段路明院士(右一)指导学生实验。清华大学 供图研究团队介绍,离子阱系统被认为是最有希望实现大规模量子模拟和量子计算的物理系统之一,多个实验验证了离子量子比特的高精密相干操控,该系统的规模化被认为是主要挑战。清华段路明研究组利用低温一体化离子阱技术和二维离子阵列方案,大规模扩展离子量子比特数,提高离子阵列稳定性,首次实现512离子二维阵列的稳定囚禁和边带冷却,并首次对300离子实现可单比特分辨的量子态测量。研究人员进而利用300个离子量子比特实现可调耦合的长程横场伊辛模型的量子模拟计算。长程横场伊辛模型,是一类重要的量子多体模型,有助于理解量子信息、凝聚态物理等领域的基本问题,也可用于求解优化问题等现实应用。该工作实现了国际上最大规模具有单比特分辨率的多离子量子模拟计算,将该研究组保持的离子量子比特数国际记录(61离子),往前推进了一大步,首次实现基于二维离子阵列的大规模量子模拟。研究人员还对该模型的动力学演化进行量子模拟计算,300个离子量子比特同时工作时,所能执行的计算复杂度达到2的300次方,超越经典计算机的直接模拟能力。该实验系统为进一步研究多体非平衡态量子动力学这一重要难题提供了强大的工具。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人