微软和Quantinuum宣布在量子纠错方面取得重大突破

微软和Quantinuum宣布在量子纠错方面取得重大突破这两家公司表示,现在量子计算的最先进技术已经走出了通常被称为"嘈杂中间规模量子(NISQ)计算机"的时代。之所以说"嘈杂",是因为即使是环境中最微小的变化,也会导致量子系统从本质上变得随机(或"解旋");之所以说"中间规模",是因为目前的量子计算机最多仍局限于一千多个量子比特。量子比特是量子系统计算的基本单位,类似于传统计算机中的比特,但每个量子比特可以同时处于多种状态,并且在测量之前不会落入特定位置,这就是量子在计算能力方面实现巨大飞跃的潜力所在。如果来不及运行一个基本算法,系统就会变得过于嘈杂,无法得到有用的结果,或者根本得不到任何结果,那么你有多少个比特也就不重要了。结合几种不同的技术,该团队能够在几乎没有错误的情况下运行数千次实验。这需要做大量的准备工作,并预先选择那些看起来已经具备成功运行条件的系统,但与不久前的情况相比,这仍然是一个巨大的进步。这是量子计算朝着正确方向迈出的一步。还有很多问题有待解决(当然,这些结果也需要复制),但从理论上讲,一台拥有100个这样的逻辑量子比特的计算机已经可以用于解决一些问题,而一台拥有1000个量子比特的机器,正如微软所说,可以"释放商业优势"。纠缠的量子比特之间的差异(误差)。通过比较一对量子比特中每个量子比特的图像可以发现差异,存在的任何差异都会以点的形式出现在每对量子比特的中心图像上。研究小组使用Quantinuum的H2赛道陷波离子量子处理器,将30个物理量子比特组合成四个高度可靠的逻辑量子比特。将多个物理量子位编码成一个逻辑量子位有助于保护系统不出错。物理量子位纠缠在一起,这样就有可能检测到物理量子位中的错误并加以修复。长期以来,纠错一直困扰着业界:当然,物理比特的噪声越小、质量越高越好,但如果没有先进的纠错技术,NISQ时代就无从谈起,因为这些系统迟早都会解体。"仅仅增加具有高错误率的物理量子比特的数量而不提高错误率是徒劳的,因为这样做将导致大型量子计算机的功能并不比以前更强大,"AzureQuantum总经理丹尼斯-汤姆(DennisTom)和微软高级量子开发副总裁克里斯塔-斯沃尔(KrystaSvore)在今天的公告中写道。"与此相反,当具有足够运行质量的物理量子比特与专门的协调和诊断系统配合使用以启用虚拟量子比特时,只有这样,物理量子比特数量的增加才会带来强大、容错的量子计算机,从而能够执行更长时间、更复杂的计算。"几年前,逻辑量子比特的性能才开始超过物理量子比特。现在,微软和Quantinuum认为,他们的新硬件/软件系统展示了物理和逻辑错误率之间的最大差距,比只使用物理比特的系统提高了800倍。研究人员指出,要超越NISQ,逻辑量子比特和物理量子比特的错误率之间必须有很大的差距,还必须能够纠正单个电路错误,并在至少两个逻辑量子比特之间产生纠缠。如果这些结果成立,那么该团队就实现了这三点,我们也就进入了弹性量子计算时代。事实证明,这里最重要的成果可能是该团队执行"主动综合征提取"的能力,即在不破坏逻辑量子比特的情况下诊断错误并纠正错误的能力。汤姆和斯沃尔解释说:"这一成就标志着我们在不破坏逻辑量子比特的情况下纠正错误迈出了第一步,是量子纠错领域的一个基本里程碑。我们的量子比特虚拟化系统展示了可靠量子计算的这一关键组成部分,在多轮综合征提取中实现了较低的逻辑错误率"。现在就看量子界的其他成员能否复制这些成果,并实现类似的纠错系统了,这可能只是时间问题。Quantinuum创始人兼首席产品官伊利亚斯-汗(IlyasKhan)表示:"今天的成果标志着一项历史性的成就,是双方合作不断推动量子生态系统发展的绝佳体现。微软最先进的纠错技术与世界上最强大的量子计算机和完全集成的方法相得益彰,我们对量子应用的下一步发展感到非常兴奋,迫不及待地想看到我们的客户和合作伙伴将如何从我们的解决方案中获益,尤其是在我们向量子处理器规模化发展的过程中。"欲了解更多详情,请点击此处查看技术文档。...PC版:https://www.cnbeta.com.tw/articles/soft/1426098.htm手机版:https://m.cnbeta.com.tw/view/1426098.htm

相关推荐

封面图片

微软和 Quantinuum 详细介绍了量子纠错方面的突破性进展

微软和Quantinuum详细介绍了量子纠错方面的突破性进展微软和Quantinuum今天宣布在量子纠错方面取得重大突破。利用Quantinuum的离子阱硬件和微软的新量子比特虚拟化系统,该团队能够无差错地运行14,000多次实验。这个新系统还允许团队检查逻辑量子比特并纠正遇到的任何错误,而不会破坏逻辑量子比特,可靠性比单纯的物理量子比特提升了800倍。Microsoft和Quantinuum表示,他们仅用30个物理量子比特就创建了四个高度可靠的逻辑量子比特。量子研究人员通常参考大约100个可靠量子比特作为击败传统超级计算机所需的数量,微软并未透露何时可以达到这一里程碑。——,

封面图片

Quantinuum 与 Microsoft 宣布合作实现量子计算重大突破

Quantinuum与Microsoft宣布合作实现量子计算重大突破4月4日,量子计算公司Quantinuum与科技巨头Microsoft宣布,在实现容错量子计算方面取得重大突破。双方合作展示了具有主动综合征提取功能的最可靠逻辑量子比特,这一成就曾被认为需要数年时间才能达到。通过采用Microsoft的量子比特虚拟化系统,Quantinuum的新一代量子计算机成功创建了四个逻辑量子比特,其逻辑错误率比物理错误率低高达800倍。这一突破性演示是由Quantinuum位于美国和英国的团队与Microsoft的量子计算团队紧密合作完成的。

封面图片

微软和 Quantinuum 声称在量子计算领域取得突破

据路透社报道,微软和Quantinuum周三表示,通过提高量子计算机的可靠性,他们在使量子计算机成为商业现实方面迈出了关键一步。量子计算机可以执行传统计算机需要几百万年才能完成的科学计算任务。量子计算的基础单位“量子比特”虽然计算速度极快,但非常敏感,如果量子计算机受到轻微干扰就会产生数据错误。为了克服这个问题,量子计算研究人员通常会制造出远超需求的物理量子比特,并通过纠错技术,产生较少数量但高度可靠和实用的量子比特。微软和Quantinuum表示他们在该领域取得了突破。微软将其编写的纠错算法应用于Quantinuum的物理量子比特上,从30个物理量子比特中获得了大约了4个高度可靠的量子比特。微软负责战略任务和技术的执行副总裁JasonZander表示,该公司相信这是迄今为止量子芯片中可靠量子比特的最佳比例。微软表示,计划在未来几个月内向其云计算客户发布该技术。via匿名标签:#微软#AI#Quantinuum频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

谷歌宣布在量子计算机纠错技术取得重要突破 但仍持“谨慎”态度

谷歌宣布在量子计算机纠错技术取得重要突破但仍持“谨慎”态度由于量子比特只能保持量子态极短的时间,因此目前的量子计算机很难产生有用的结果。这意味着,在量子计算机完成计算之前,量子系统中编码的信息就会丢失。因此,找到一种方式纠正随之而来的错误是量子计算技术面临的最大挑战。一些量子计算创业公司认为,短期内解决这个问题的办法是探索新方式,对目前的“噪声机器”进行编程,但这种做法意味着,量子计算机相比于传统计算机的性能提升有限。此外到目前为止,这方面的努力尚未取得实际效果。这也使得越来越多的人认为,在纠错问题得到更全面的解决之前,量子计算不具有实用性。谷歌的研究人员表示,已经找到一种方法,将量子计算机中正在处理的信息分散到多个量子比特上。这意味着,即便单个量子比特脱离了量子态,但作为一个整体的系统可以保存足够多的信息足够长时间,来完成一项计算。根据发表在《自然》杂志上的文章,随着谷歌扩大技术的应用规模,使其在更大的量子系统上运行,错误率仅降低了4%。但研究人员指出,这是人类首次实现,扩大量子计算机的规模没有导致错误率上升。奈文表示,这表明谷歌已经突破了“平衡点”。在此之后,进一步的发展将实现稳定的性能提升,最终带来第一台可以实际使用的量子计算机。谷歌研究员朱利安·凯利(JulianKelly)说,此次的突破来自于谷歌对量子计算机所有组件的优化,涉及量子比特的质量控制、控制软件,以及用于将计算机冷却至接近绝对零度的低温设备。这些优化将错误的数量减少到了足够低,使得扩大系统规模不会导致错误率呈现指数级上升。谷歌将这一突破描述为建造实用量子计算机所需完成的6个步骤中的第二步。下一步包括完善量子计算机的工程设计,以便只需要1000个量子比特就可以实现所谓的“逻辑量子比特”。逻辑量子比特建立在物理量子比特之上,可以实现无差错的运行。奈文表示,谷歌相信,只要能找到如何构建1000个逻辑量子比特并将其连接至单个系统的方法,就可以获得一台可实用的量子计算机。谷歌关于量子计算的研究以往曾引发争议。2019年,谷歌发表在《自然》杂志的一篇文章称,已经实现了“量子霸权”,即让量子计算机完成传统计算机无法完成的计算。然而,这一说法遭到了IBM和其他公司的挑战。随着新编程技术的发展,传统计算机性能的提升,量子计算实现“量子霸权”的时间也在被推迟。在本周发表的文章中,谷歌的研究人员表示,对这一最新突破持“谨慎”态度。他们表示,在纠错技术未来应用至更大规模的量子系统时,仍有一定的可能无法发挥作用。...PC版:https://www.cnbeta.com.tw/articles/soft/1345915.htm手机版:https://m.cnbeta.com.tw/view/1345915.htm

封面图片

哈佛大学团队打造量子计算新平台 实现重大纠错里程碑

哈佛大学团队打造量子计算新平台实现重大纠错里程碑哈佛大学团队开发的减少误差的方法解决了扩大技术规模的一个重大障碍。量子计算技术具有前所未有的速度和效率潜力,其能力甚至大大超过了目前最先进的超级计算机。然而,这项创新技术尚未广泛推广或商业化,主要原因是其在纠错方面存在固有的局限性。量子计算机与经典计算机不同,无法通过反复复制编码数据来纠正错误。科学家们必须另辟蹊径。现在,《自然》杂志上的一篇新论文展示了哈佛大学量子计算平台解决量子纠错这一长期问题的潜力。领导哈佛团队的是量子光学专家米哈伊尔-卢金(MikhailLukin),他是约书亚和贝丝-弗里德曼大学物理学教授,也是哈佛量子计划的联合主任。《自然》杂志报道的这项工作由哈佛大学、麻省理工学院和总部位于波士顿的QuEraComputing公司合作完成。GeorgeVasmerLeverett物理教授MarkusGreiner的研究小组也参与了这项工作。经过几年的努力,哈佛平台建立在一个非常冷的、被激光捕获的铷原子阵列上。每个原子就像一个比特(量子世界称之为"量子比特"),可以执行极快的计算。研究小组的主要创新是配置他们的"中性原子阵列",使其能够通过移动和连接原子(物理学术语称之为"纠缠"),在计算过程中动态改变其布局。纠缠原子对的运算称为双量子比特逻辑门,是计算能力的单位。在量子计算机上运行一个复杂的算法需要许多门。然而,这些门操作是出了名的容易出错,错误的积累会使算法失去作用。在这篇新论文中,研究小组报告说,其双量子比特纠缠门的性能近乎完美,错误率极低。他们首次展示了以低于0.5%的错误率纠缠原子的能力。就运行质量而言,这使他们的技术性能与超导量子比特和困离子量子比特等其他领先类型的量子计算平台不相上下。优势与未来潜力然而,哈佛大学的方法与这些竞争对手相比具有很大的优势,因为它具有大系统规模、高效的量子比特控制以及动态重新配置原子布局的能力。第一作者西蒙-埃弗里德(SimonEvered)是卢金研究小组中哈佛大学格里芬艺术与科学研究生院的一名学生。他介绍说:"我们现在的误差率已经足够低了,如果我们把原子组合成逻辑量子比特(信息在组成原子之间非本地存储),这些经过量子误差校正的逻辑量子比特的误差可能比单个原子还要低。"哈佛大学团队的研究进展与哈佛大学前研究生杰夫-汤普森(JeffThompson)(现就读于普林斯顿大学)和哈佛大学前博士后曼努埃尔-恩德雷斯(ManuelEndres)(现就读于加州理工学院)领导的其他创新成果在同一期《自然》杂志上进行了报道。综合来看,这些进展为量子纠错算法和大规模量子计算奠定了基础。所有这些都意味着,中性原子阵列上的量子计算正展现出其广阔的前景。卢金说:"这些贡献为可扩展量子计算的特殊机遇打开了大门,也为整个领域的未来带来了真正激动人心的时刻。"参考文献SimonJ.Evered、DolevBluvstein、MarcinKalinowski、SepehrEbadi、TomManovitz、HengyunZhou、SophieH.Li、AlexandraA.Geim、ToutT.Wang、NishadMaskara、HarryLevine、GiuliaSemeghini、MarkusGreiner、VladanVuletić和MikhailD.Lukin的"中性原子量子计算机上的高保真并行纠缠门",2023年10月11日,《自然》。DOI:10.1038/s41586-023-06481-y编译来源:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1404903.htm手机版:https://m.cnbeta.com.tw/view/1404903.htm

封面图片

别只盯着GPT-4 谷歌正在量子计算领域取得更关键的突破

别只盯着GPT-4谷歌正在量子计算领域取得更关键的突破当市场都在围着ChatGPT转、纷纷议论谷歌正在输给微软之际,谷歌在科技界的“圣杯”量子计算领域取得了重要的进展。最近,谷歌母公司Alphabet找到了改善该领域最大问题之一——准确性的方法。和普通计算机的二进制相比,量子计算可以在短时间内处理更多的计算,但是,量子计算很容易就会受到干扰,并且也更容易出错,这是量子计算数十年来面临的大问题。在多数情况下,量子计算机很容易犯错。这是因为量子比特(量子位)依赖的量子态只能维持不到一秒钟。这意味着,计算机还没来得及完成计算,量子系统中编码的信息就很可能已经丢失了。因此,纠正由此引起的错误,是业界面临的最艰巨的技术挑战。在谷歌之前,一些研究人员用一种叫“纠错码”的方法来对机器进行纠错,但这带来的改进十分有限。因为纠错方面迟迟未出现有意义的进展,越来越多人对量子计算机的未来感到悲观。谷歌的研究人员表示,他们可以将量子计算机处理的信息通过多个量子比特传播,这意味着,即使单个量子比特脱离了它们的量子态,整个系统依然可以保留足够的信息来完成计算。克服这一纠错障碍,标志着量子计算机进入到新的发展阶段。谷歌量子研究负责人HartmutNeven表示,该研究结果标志着“我们构建实用量子计算机之旅的一个里程碑”。他认为纠错是“任何量子计算技术都必须经历的过程”。不过,根据《自然》杂志文章,采用谷歌新纠正方法的量子计算机,出错率仅下降了4%。研究人员解释称,这是第一次增加系统规模没有导致错误率上升,表明谷歌已经找到了一个“平衡点”。谷歌研究人员JulianKelly表示,在纠错方面取得突破,是因为谷歌对其量子计算机的所有部件进行了改进,从量子比特的质量到控制软件,再到用于将计算机冷却到接近绝对零度的低温设备。Kelly补充说,这已经将错误减少到足够低的水平,因此系统规模增加而出错率没有呈指数级上升。谷歌认为,这一突破只是构建实用量子计算机六个步骤中的第二步。下一步涉及完善工程学,这样它只需要1000个量子位就可以创建一个逻辑量子位(一个建立在不完美的物理量子位之上的抽象概念),使系统可以正常工作。谷歌表示,一旦它找到了如何构建并将1000个逻辑量子位连接到一个单一系统的方法,它就会造出一台实用的量子计算机。更重要的是,它为更广泛的科学界提供了一个飞速提升的基础包括材料科学、数学和电气工程的进一步拓展都可能需要建立在量子计算机取得实际应用的基础上。但就像ChatGPT等AI工具一样,证明它们有效只是解决这些难题的一部分。量子计算的高精度和低错误率仍然难以捉摸。在这方面的改进是量子计算和人工智能的共同主要目标,OpenAI本周表示,其新的GPT-4在准确性方面已经比前身高40%。尽管量子计算和普通大众相去甚远,远远不如AI智能机器人那样能够吸引大家的目光。但科技界普遍认为,量子计算取得突破的意义将是能和人类登月相提并论的壮举。...PC版:https://www.cnbeta.com.tw/articles/soft/1349921.htm手机版:https://m.cnbeta.com.tw/view/1349921.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人