科学家利用光基处理器实现量子计算的巨大飞跃

科学家利用光基处理器实现量子计算的巨大飞跃 这些新兴领域中在原子水平上运行的技术已经为药物发现和其他小规模应用带来了巨大的好处。未来,大规模量子计算机有望解决当今计算机无法解决的复杂问题。首席研究员、澳大利亚皇家墨尔本理工大学的阿尔贝托-佩鲁佐(Alberto Peruzzo)教授说,该团队的处理器是一种光子学设备,利用光粒子携带信息,通过最大限度地减少"光损失",有助于成功实现量子计算。提高量子效率佩鲁佐是皇家墨尔本理工大学量子计算与通信技术卓越中心(ARC Centre of Excellence for Quantum Computation and Communication Technology,CQC2T)节点的负责人,他介绍说:"如果失去光线,就必须重新开始计算,其他潜在的进步包括提高了"不可破解"通信系统的数据传输能力,以及加强了环境监测和医疗保健领域的传感应用。"研究小组的可重新编程光基处理器。资料来源:皇家墨尔本理工大学 Will Wright研发成果研究小组在一系列实验中对光子处理器进行了重新编程,通过施加不同的电压实现了相当于 2500 个设备的性能。他们的研究结果和分析发表在《自然-通讯》(Nature Communications)上。这项创新可以为量子光子处理器带来更紧凑、更可扩展的平台。论文第一作者、皇家墨尔本理工大学博士生杨洋说,这种设备"完全可控",能在降低功耗的情况下快速重新编程,而且无需制作许多定制设备:"我们通过实验在单个设备上展示了不同的物理动态。这就像有了一个开关,可以控制粒子的行为方式,这对理解量子世界和创造新的量子技术都很有用"。合作创新意大利特伦托大学的 Mirko Lobino 教授利用一种名为铌酸锂的晶体制造了这种创新的光子装置,而美国印第安纳大学普渡大学印第安纳波利斯分校的 Yogesh Joglekar 教授则带来了他在凝聚态物理学方面的专业知识。铌酸锂具有独特的光学和电光特性,是光学和光子学各种应用的理想材料。Lobino说:"我所在的小组参与了该设备的制造工作,这尤其具有挑战性,因为我们必须在波导顶部微型化大量电极,以实现这种程度的可重构性。"Joglekar说:"可编程光子处理器为探索这些设备中的一系列现象提供了一条新的途径,而这些现象将有可能开启技术和科学领域令人难以置信的进步。"推进量子控制与此同时,佩鲁佐的团队还开发出了一种世界首创的混合系统,它将机器学习与建模相结合,对光子处理器进行编程,帮助控制量子设备。量子计算机的控制对于确保数据处理的准确性和效率至关重要。该设备输出精度面临的最大挑战之一是噪声,它描述了量子环境中影响量子比特性能的干扰。微微子是量子计算的基本单位。佩鲁佐说:"有一系列行业正在开发全面的量子计算,但它们仍在与噪声造成的误差和低效作斗争。控制量子比特的尝试通常依赖于对什么是噪声以及造成噪声的原因的假设。我们开发了一种协议,利用机器学习来研究噪声,同时利用建模来预测系统对噪声的反应,而不是做出假设。利用量子光子处理器,这种混合方法可以帮助量子计算机更精确、更高效地运行,从而影响我们未来控制量子设备的方式。我们相信,我们的新混合方法有可能成为量子计算领域的主流控制方法。"主要作者、来自皇家墨尔本理工大学的 Akram Youssry 博士说,与传统的建模和控制方法相比,新开发的方法的结果显示出显著的改进,可以应用于光子处理器以外的其他量子设备。他说:"这种方法帮助我们发现并理解了我们设备的一些方面,这些方面超出了这种技术的已知物理模型。这将帮助我们在未来设计出更好的设备。"这项工作发表在《Npj Quantum Information》上。未来展望与量子计算的潜力围绕其团队的光子设备设计和量子控制方法,可以创建量子计算方面的初创公司,他们将继续研究其应用及其"全部潜力"。量子光子学是最有前途的量子产业之一,因为光子学产业和制造基础设施已经非常完善。与其他方法相比,量子机器学习算法在某些任务中具有潜在优势,尤其是在处理大型数据集时。"想象一下,在这个世界上,计算机的工作速度比现在快几百万倍,我们可以安全地发送信息而不必担心信息被截获,我们可以在几秒钟内解决目前需要几年才能解决的问题。这不仅仅是幻想这是由量子技术驱动的潜在未来,而像我们这样的研究正在铺平道路。"编译自:ScitechDaily ... PC版: 手机版:

相关推荐

封面图片

谷歌科学家发布:量子计算机取得重大突破

谷歌科学家发布:量子计算机取得重大突破 谷歌科学家最近在ArXiv平台上发布了一篇预印本论文,声称在量子计算机领域取得了重大突破。他们表示,通过对Sycamore处理器的升级,谷歌成功提升了量子位的数量,从之前的53个增加到了70个。 这次实验中,谷歌科学家们执行了一项名为随机电路采样的任务,这个任务在量子计算中用于评估计算机的性能和效率。通过运行随机电路并分析结果输出,科学家们测试了量子计算机在解决复杂问题方面的能力。 谷歌的研究结果显示,升级后的70个量子位的Sycamore处理器在执行随机电路采样任务上比业内最先进的超级计算机快了几十亿倍。例如,需要业内最先进超级计算机Frontier计算47.2年才能完成的任务,53个量子位的Sycamore处理器只需要6.18秒就能完成,而新版的70个量子位的Sycamore处理器速度更快。来源 ,, 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

物理学家创下原子量子计算机世界纪录:实现超过1000量子位

物理学家创下原子量子计算机世界纪录:实现超过1000量子位 扩大量子系统的规模对于推进量子计算至关重要,因为系统越大,其优势就越明显。达姆施塔特工业大学的研究人员在实现这一目标方面取得了重大进展。他们的研究成果现已发表在著名期刊《光学》(Optica)上。基于二维光镊阵列的量子处理器是开发量子计算和模拟的最有前途的技术之一,可在未来实现非常有益的应用。从药物开发到优化交通流的各种应用都将受益于这项技术。迄今为止,这些处理器已经能够容纳几百个单原子量子系统,其中每个原子代表一个量子比特或量子比特,是量子信息的基本单位。为了取得进一步的进展,有必要增加处理器中量子比特的数量。达姆施塔特工业大学物理系"原子-光子-量子"研究小组的格哈德-伯克尔(Gerhard Birkl)教授领导的团队现已实现了这一目标。在 2023 年 10 月初首次发表在 arXiv 预印本服务器上、现在又经过科学同行评审发表在著名期刊《光学》(Optica)上的研究文章中,该团队报告了世界上首次成功实现在一个平面上包含 1000 多个原子量子比特的量子处理架构的实验。Birkl 谈到他们的成果时说:"我们非常高兴能够率先突破 1,000 个可单独控制的原子量子比特的大关,因为还有很多其他优秀的竞争对手紧随其后。"研究人员在实验中证明,他们将最新的量子光学方法与先进的微光学技术相结合的方法使他们能够大大提高目前对可访问量子比特数量的限制。这是通过引入"量子比特增殖"的新方法实现的。这种方法使他们克服了激光器性能有限对可用量子比特数量的限制。1305个单原子量子比特被装载到一个具有3000个陷阱位点的量子阵列中,并重新组装成具有多达441个量子比特的无缺陷目标结构。通过并行使用多个激光源,这一概念突破了迄今为止几乎无法逾越的技术界限。对于许多不同的应用来说,1000 量子比特被视为一个临界值,量子计算机所承诺的效率提升可以在这个临界值上得到首次展示。因此,世界各地的研究人员一直在为率先突破这一门槛而努力。最近发表的研究成果表明,对于原子量子比特,Birkl 教授领导的研究小组在世界范围内首次实现了这一突破。该科学出版物还介绍了激光源数量的进一步增加将如何在短短几年内使量子比特数量达到 10000 甚至更多。编译来源:ScitechDailyDOI: doi:10.1364/OPTICA.513551 ... PC版: 手机版:

封面图片

科学家制成“世界上最纯净的硅” 量子计算机真的要来了吗?

科学家制成“世界上最纯净的硅” 量子计算机真的要来了吗? (来源:《自然?通讯材料》官网截图)尽管量子计算领域的研究成果往往晦涩难懂,但量子计算机和量子这个概念却在生活中频繁出现(比如名梗:遇事不决量子力学)。那么,量子计算究竟是什么?量子计算机真的可能实现吗?有没有可能用生活中的概念去尝试理解它们?为了让大家对量子计算有一个初步的了解,我们这里尽可能地以通俗化、具象化的语言来跟大家聊聊量子计算的那些三五事儿。量子计算(机)究竟是解决什么问题的?与经典计算不同,量子计算遵循量子力学规律,它是能突破经典算力瓶颈的新型计算模式。量子计算机以量子比特为基本运算单元,所谓的量子比特,是与经典比特作为区分。量子计算的发展历程(来源:国际商业机器公司 IBM)以上句子看起来很难理解,我们这里逐句拆解进行讲述。量子计算,看到对于这种冠有“量子”title 的名词,我们很难不将其与量子力学联系起来。自然而然,这种基于量子力学原理的计算方式与传统的经典计算有着本质的不同。具体来说,在经典计算中,信息是通过二进制数字(bits)来表示的,这种二进制数字或为 0 或为 1,类似一个只有开和关两个状态的“开关”。然而,量子计算打破了这一传统,信息是通过另一种方式即量子比特(qubits)来表示的,这种量子比特可以同时处于 0 和 1 的状态,也就是一种叠加态(这里可以参考薛定谔老先生那只既死又活的神奇猫咪)。除此之外,量子比特之间还可以存在某种特殊的关联,称为量子纠缠,这更类似一个可以处于多个状态的“开关旋钮”。经典信息(左)与量子信息(右)(来源:本源量子)凭借其独特的特性,量子计算机便能够利用量子比特进行计算,并且计算能力可以实现指数级爆炸式增长(这是因为 r 个量子比特可以承载 2r 个状态的叠加态,从而在每次计算中实现 2r 倍的计算量。相比之下,经典计算机需要 2r 个经典比特才能实现同样的算力)。因此量子比特在计算某些特定数学问题方面更胜一筹,这就意味着量子计算机可以纵横并重塑各个领域,突破目前阻碍任何涉及量子力学的极限。量子计算机是否可以实现?要想实现量子计算,目前主流的技术路线包括超导、离子阱、半导体、光学、量子拓扑等(其中,超导和离子阱的发展最为迅速)。目前来看,每种技术路线都有其优缺点,尚未有哪种路线能够完全满足实用化的要求。实现量子计算的主要技术路线(来源:《2023 全球量子计算产业发展展望》)量子计算机利用量子比代替传统计算机中的二进制比特,通过量子叠加和量子纠缠实现计算能力的飞跃。量子计算机的概念最早可以追溯到 20 世纪 80 年代,美国物理学家理查德·费曼(Richard Feynman)提出了利用量子系统模拟其他量子系统的想法。1994 年,美国计算机科学家彼得·秀尔(Peter Shor)提出了一个量子算法,能够高效地分解大数,这一算法展示了量子计算机在解决特定问题上具有潜在优势。量子计算机的发展历程 (来源:日经中文网)进入 21 世纪以来,量子计算机的研制已成为全球科技前沿的重大挑战之一。国际商业机器公司(IBM)、谷歌(Google)、英特尔(Intel)等国际知名科技公司以及多所大学都在量子计算领域投入了大量资源。2019 年,美国谷歌公司研制出 53 个量子比特的计算机“悬铃木”,在全球首次实现量子优越性,他们宣称实现了“量子霸权”(量子处理器在特定任务上的表现超过了当时最先进的经典超级计算机)。值得注意的是,中国在量子计算领域也取得了重大进展。2020 年,中国科学技术大学潘建伟院士团队构建了 76 个光子的量子计算原型机“九章”,使中国成为全球第二个实现量子优越性的国家。2021 年,潘建伟院士团队及合作者成功研制了 113 个光子的“九章二号”和 66 比特的“祖冲之二号”量子计算原型机,使中国成为在光学和超导两条技术路线上都实现量子优越性的国家。2023 年,潘建伟院士团队及合作者又成功构建了 255 个光子的量子计算机原型机“九章三号”,在求解特定数学问题时,比目前全球最快的超级计算机快一亿亿倍,比“九章二号”速度提升了一百万倍。可以说,中国在量子计算领域已处于国际领先地位。“超纯硅”具体是怎么回事?硅是一种常见的半导体材料,广泛应用于现代电子技术中。硅基量子计算是量子计算领域的一个重要分支,它利用硅材料的特性来实现量子比特的存储和操作。具体来说,在硅基量子计算中,硅中的电子可以被限制在微小的区域内,形成所谓的量子点。这些量子点可以作为量子比特,用于存储和处理量子信息。硅基量子计算具有许多潜在的优势,包括与现有半导体工艺的兼容性(指的是其绝大多数工艺与传统的半导体工艺兼容,易于和半导体行业对接)、较长的相干时间(指的是量子比特保持其量子特性的时间)以及可扩展性(增加量子比特数目,以实现大规模量子计算),这使得它们更适合于量子计算。硅量子计算登上《自然》封面 。图片来源:《自然》杂志在经典计算抑或是量子计算,都需要具有规则晶体结构的高纯度硅,这是因为非晶硅充满悬空键、氧分子和其他杂质,导致其电性能不佳。然而,从自然界中直接提取的硅存在一个不可忽视的问题,即它包含三种稳定的同位素:硅-28(28Si)、硅-29(29Si)和硅-30(30Si)。其中,硅-29 约占硅的 4.68% ,其原子核携带非零核自旋,会通过偶极相互作用对用于编码量子比特的电子自旋造成干扰。而硅-30 仅占硅的 3.09% ,含量少且电子自旋与核自旋之间的相互作用较大。这使得只有硅-28 被认为是较为理想且纯净的量子计算材料。因此,尽可能减少硅-29 和硅-30 的影响是提升量子计算性能的关键。为了解决这一问题,研究团队利用聚焦离子束技术,从一种名叫 P-NAME 聚焦离子束系统中将一束聚焦且高速的纯硅-28 离子射向硅片,通过植入硅-28 来消耗自然硅中的硅-29 ,从而将硅-29 的比例从 4.68% 最高降至0.00023%(2.3ppm),将-30 的比例从3.09%最高降至0.00006%(0.6ppm)。随后,他们通过两步退火工艺,将植入后的非晶态重新结晶,恢复了硅片的晶体结构。该技术不仅能实现这种极端的硅-28 富集,还避免引入可能干扰量子比特的其他杂质。聚焦离子束同位素富集 Si-28 原理图(来源:《自然·通讯材料》杂志)为了验证植入效果,研究者们采用了纳米级二次离子质谱(NanoSIMS)分析(这是一种能够精确测量样品中不同同位素比例的技术)。通过分析发现,研究者们确认了植入区域中硅-29 的残留浓度显著降低,并且没有引入额外的杂质,如碳(C)和氧(O)等。此外,透射电子显微镜(TEM)分析进一步证实了植入体积的非晶态特性以及退火后的单晶相外延再结晶。这些结果表明,通过聚焦离子束技术可以在硅晶片中实现高纯度的硅-28 富集区域,为量子比特的稳定性提供了保障。这种技术制造的“超纯硅”有望在新材料设计、人工智能、能源存储以及物流制造等领域为整个社会带来革命性变革。该项目的联合导师、墨尔本大学的戴维-贾米森(David Jamieson)教授表示,他们下一步将证明该种材料能够同时维持许多量子比特的量子相干性。“悟源”系列超导量子计算机(来源:本源量子)这项杰出的工作不仅向人们展示了科学界在量子材料制备领域的进步,也为量子计算的实用化和规模化铺平了道路。随着量子技术的不断... PC版: 手机版:

封面图片

物理学家实现分子的量子纠缠

物理学家实现分子的量子纠缠 物理学家首次实现了对分子的量子纠缠。这一突破可能有助于推动量子计算的实用化。论文发表在《科学》期刊上。实现可控的量子纠缠一直是一大挑战,这次实验之前分子的可控量子纠缠一直无法实现。普林斯顿大学的物理学家找到了方法控制单个分子诱导其进入到互锁量子态。研究人员相信相比原子,分子具有优势,更适合量子信息处理和复杂材料量子模拟等应用。相比原子,分子有更多的量子自由度,能以新方式交互。论文合作者 Yukai Lu 指出这意味着存储和处理量子信息的新方法。来源 ,, 频道:@kejiqu 群组:@kejiquchat

封面图片

IBM 计划建立一个 10 万量子比特的量子计算机

IBM 计划建立一个 10 万量子比特的量子计算机 去年年底,IBM 以一个包含 433 个量子比特(即量子信息处理的基本构件)的处理器打破了最大量子计算系统的记录。现在,该公司计划与东京大学和芝加哥大学合作,在 10 年内建造一台 10 万量子比特的机器。IBM 已经做了原则性验证实验,表明基于“互补金属氧化物半导体(CMOS)”技术的集成电路可以安装在冷量子比特旁边,只需几十毫瓦就能控制它们。除此之外,以量子为中心的超级计算所需的技术还不存在,这也是为什么需要大学研究机构参与的重要原因。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

光子学技术新突破:科学家用微型芯片产生高质量微波信号

光子学技术新突破:科学家用微型芯片产生高质量微波信号 盖塔实验室开发的光子集成芯片的高级示意图,该芯片用于全光学光分频(OFD)一种将高频信号转换为低频信号的方法。图片来源:Yun Zhao/哥伦比亚工程学院这种芯片非常小巧,可以装在锋利的铅笔尖上,是迄今为止在集成光子平台上观察到的最低微波噪声。这项成果为高速通信、原子钟和自动驾驶汽车等应用提供了一条通往小尺寸超低噪声微波发生器的光明之路。用于全球导航、无线通信、雷达和精密计时的电子设备需要稳定的微波源作为时钟和信息载体。要提高这些设备的性能,关键在于减少微波中存在的噪声或相位随机波动。"在过去的十年中,一种被称为光分频的技术产生了迄今为止噪音最低的微波信号,"哥伦比亚工程学院应用物理和材料科学大卫-M-里基教授兼电气工程教授亚历山大-盖塔说。"通常情况下,这样的系统需要多个激光器和相对较大的体积来容纳所有元件。"光分频一种将高频信号转换为低频信号的方法是最近产生微波的创新技术,其中的噪声已被大大抑制。然而,由于光分频系统占用桌面空间较大,因此无法用于微型传感和通信应用,而这些应用需要更紧凑的微波源,因此光分频系统已被广泛采用。盖塔说:"我们已经实现了一种设备,只需使用单个激光器,就能在面积小至 1 平方毫米的芯片上完全实现光分频。我们首次展示了无需电子设备的光学分频过程,大大简化了设备设计。"量子和非线性光子学:创新的核心盖塔的研究小组专门研究量子和非线性光子学,即激光如何与物质相互作用。研究的重点领域包括非线性纳米光子学、频率梳生成、强超快脉冲相互作用以及光量子态的生成和处理。在目前的研究中,他的研究小组设计并制造了一种片上全光学器件,该器件能产生 16 GHz 的微波信号,其频率噪声是迄今在集成芯片平台上实现的最低频率噪声。该设备使用两个由氮化硅制成的微谐振器,通过光子耦合在一起。单频激光器泵浦两个微谐振器。其中一个用于产生光参量振荡器,将输入波转换成两个输出波一个频率较高,一个频率较低。两个新频率的频率间隔被调整为太赫兹频率。由于振荡器的量子相关性,这种频率差异的噪声可比输入激光波的噪声小数千倍。第二个微谐振器经调整后可产生具有微波间隔的光频梳。然后,振荡器发出的少量光被耦合到梳状频率发生器,从而使微波梳状频率与太赫兹振荡器同步,自动实现光分频。潜在影响和未来应用盖塔研究小组的工作代表了一种在小型、坚固和高度便携的封装内进行光学分频的简单而有效的方法。这些研究成果为芯片级设备打开了大门,这些设备能够产生稳定、纯净的微波信号,可与进行精密测量的实验室产生的信号相媲美。他说:"最终,这种全光分频将带来未来电信设备的新设计。它还能提高用于自动驾驶汽车的微波雷达的精度。"编译自:ScitechDaily ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人