法国初创公司 Biomemory 声称推出全球首款 DNA 存储卡,可存储 1KB 数据,售价高达 1000 欧元(当前约 78

法国初创公司 Biomemory 声称推出全球首款 DNA 存储卡,可存储 1KB 数据,售价高达 1000 欧元(当前约 7840 元人民币)。这个数据存储价格可谓高到令人发指,Biomemory 却坚称其 DNA 存储技术拥有令人信服的优势。 Biomemory 宣称,他们的 DNA 存储卡“DNA Cards”可保存至少 150 年,远超任何人的寿命。DNA 存储卡听起来的确炫酷,但 Biomemory 显然也明白,花 1000 欧元只存 1KB 数据,对大多数人来说并不现实。 事实上,Biomemory 的野心远不止于个人存储。他们还计划在 2026 年推出“Biomemory Prime”数据中心存储解决方案,可存储 100PB 数据。然而,考虑到现有技术读写数据需要数天时间,2026 年似乎有些过于乐观。业内普遍认为,玻璃或陶瓷存储技术将率先在数据中心普及,DNA 技术还需要进一步发展。 值得一提的是,Biomemory 并非首个涉足 DNA 存储的公司。2019 年,微软和华盛顿大学的研究人员就推进了 DNA 存储技术的发展。2023 年底,中国科学家也成功研制了可编程 DNA 计算机。 DNA 由 ATGC 四种分子组成,天生具备超越二进制(1-0)计算机的潜力。虽然 Biomemory 的 DNA 存储技术在存储密度方面显然利用了 DNA 的微观特性,然而他们的“DNA Encode”编码方式似乎并不高效。在 Biomemory 网站的测试页面,用户最多只能输入 1024 个字符,编码后的 DNA 序列仍然是 40 个字符。相比之下,直接转换成二进制代码也需要 40 个字符。 尽管功能性 DNA 存储很酷,但似乎仍有很长一段路要走,才能使其成为数据中心其他解决方案的可行替代方案。 via 匿名 标签: #DNA 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

1KB 空间 1000 欧元,首款 DNA 存储卡上市

1KB 空间 1000 欧元,首款 DNA 存储卡上市 法国初创公司 Biomemory 近日宣布推出全球首款 DNA 存储卡,根据介绍,这款存储介质最高可存储 1KB 数据,售价达到了惊人的 1000 欧元(约 7840 元人民币)。| 根据 Biomemory 的介绍:这款全新的存储设备相较于现有的存储介质而言,最大的优势在于其最高 150 年的数据保存时间。Biomemory 还计划于 2026 年推出「Biomemory Prime」 DNA 数据存储中心,该数据中心将能承载 100 PB 的数据量。

封面图片

法国初创公司推出全球首款 DNA 存储卡:可存储 1KB 数据,售价 1000 欧元==============1000 欧只能

封面图片

海量数据如何存储?中国科学家实现光存储Pb量级首次突破

海量数据如何存储?中国科学家实现光存储Pb量级首次突破 近日,中国科学院上海光学精密机械研究所(下称“上海光机所”)与上海理工大学等科研单位合作,在超大容量超分辨三维光存储研究中取得突破性进展。这对我国在信息存储领域突破关键核心技术、实现数字经济的可持续发展具有重大意义。相关研究成果于2月22日发表在《自然》(Nature)杂志。这是国际上首次实现Pb量级的超大容量光存储。仅仅20克透明轻薄的光盘,来源:《自然》小空间存更多数据所谓存力,是以数据存储为核心,包含性能表现、安全可靠、绿色低碳在内的综合数据存储服务能力,是激活数据要素的核心动能。本次成果中,研究团队利用国际首创的双光束调控聚集诱导发光超分辨光存储技术,实验上首次在信息写入和读出均突破了衍射极限的限制,实现了点尺寸为54nm、道间距为70nm的超分辨数据存储,并完成了100层的多层记录,单盘等效容量达Pb量级,对于我国在信息存储领域突破关键核心技术、实现数字经济的可持续发展具有重大意义。该论文第一作者单位为上海光机所,通讯作者为上海光机所阮昊研究员和上海理工大学光子芯片研究院院长顾敏院士,上海理工大学文静教授。上海光机所博士后赵苗和上海理工大学文静教授为并列第一作者。项目得到了上海市科委和国家重点研发计划等支持。阮昊对第一财经解释道,光存储技术具有绿色节能、安全可靠、寿命长达50~100年的独特优势,非常适合长期低成本存储海量数据,然而受到衍射极限的限制,传统商用光盘的最大容量仅在百GB量级。在信息量日益增长的大数据时代,突破衍射极限、缩小信息点尺寸、提高单盘存储容量长久以来一直都是光存储领域的追求。1994年德国科学家Stefan W. Hell教授提出受激辐射损耗显微技术,首次证明了光学衍射极限能够被打破,并在2014年获得诺贝尔化学奖,经过20多年的发展,在显微成像、激光纳米直写等多个领域实现了光学超分辨成果,信息的超分辨写入已经得到了解决。从光学显微技术到光存储技术,都被光学衍射极限所限制。在2021年Science发布的全世界最前沿的125个科学问题中,突破衍射极限限制更是在物理领域高居首位。该超分辨光盘的成功研制在信息写入和读出都突破了这一物理学难题,有助于我国在存储领域突破关键核心技术,将在大数据数字经济中发挥重大作用,以满足信息产业领域的重大需求。“所以这一次我们解决了光存储领域信息写入和读出均受衍射极限限制的问题,实现了超分辨的记录,极大地提高了光存储的密度和容量。因为单盘的容量是1. 6个Pb,相当于1万张蓝光光盘,这是一个突破性的进展,为大数据存储提供了绿色节能长寿命的方案。”研究人员告诉记者,他们也和目前的硬盘、光盘技术进行了一些对比,在技术性能上提高了最高的光存储面密度,可以在数据中心档案存储上实现突破性应用,解决大容量和节能的存储技术难题。《自然》审稿人的评价该成果道:“这是一种具有突破性创新的Pb级光存储技术…”“与现有其它技术相比,该技术在性能方面提供了最高的光存储面密度…”“研究成果可能会带来数据中心档案数据存储的突破,解决大容量和节能的存储技术难题…”。(来源:上海光机所)帮数据中心处理“冷数据”随着算力作为数字经济时代新的生产力迅速发展,各地也在加码布局数据中心。近年来,我国算力相关政策密集出台。2020年4月,国家发改委首次将智算中心等算力基础设施纳入“新基建”的范畴;2021年5月,国家发改委等四部门联合发布了《全国一体化大数据中心协同创新体系算力枢纽实施方案》,首次提出全国算力网络枢纽节点布局;2022年2月,国家发改委等三部门同意了京津冀、长三角、粤港澳大湾区等8地启动国家算力枢纽节点建设,并规划了10个国家数据中心集群,标志着“东数西算”工程正式启动。就在近日,国家发改委、国家数据局、中央网信办、工信部、国家能源局五部门日前联合印发《深入实施“东数西算”工程加快构建全国一体化算力网的实施意见》(下称《实施意见》),提出到2025年底,普惠易用、绿色安全的综合算力基础设施体系初步成型。而在数据的分类中,有热数据、冷数据、温数据等。“冷数据”一般指的是那些时效性需求不太高的,“热数据”是对处理时间要求高、需要立刻做决策并运算的,例如自动驾驶、远程医疗等,“温数据”则是介于“冷数据”和“热数据”之间的。阮昊对记者解释,他们的成果主要存储的就是冷数据。“在所有数据中,80%以上都是冷数据,这些数据使用频率很少,但是需要永久保存,比如大科学装置做出来的实验数据。这类实验做一次非常不容易,这些访问速率没那么快但是又很重要的数据都要安全性地保存,我们的成果主要用在这类数据上面,因此特别适合数据中心的使用。”他补充举例,像处理热数据的固态硬盘、手机存储卡、存储条都很贵,处理百分之十几的温数据可以用磁存储、磁硬盘,另外80%冷数据就可以用光盘。Pb级光盘制备及读写方式示意图,来源:《自然》研究团队介绍,未来他们将加快原始创新和关键技术攻关,推动超大容量光存储的集成化和产业化进程,并拓展其在光显微成像、光显示、光信息处理领域的交叉应用,产出更多更优秀的创新成果。“关于产业化我们计划是5年左右应该有一个可以用的光盘和机器给消费者看。这当然也需要企业界和科研界一起努力。”阮昊说。 ... PC版: 手机版:

封面图片

研究人员利用多级磁记录技术实现磁区密度超过10Tbit/in²的超高密存储

研究人员利用多级磁记录技术实现磁区密度超过10Tbit/in²的超高密存储 数据中心越来越多地将大量数据存储在硬盘驱动器(HDD)上,这些驱动器使用垂直磁记录(PMR)技术,以大约 1.5 Tbit/in² 的磁区密度存储信息。然而,要过渡到更高的磁区密度,需要一种由铂铁晶粒组成的高各向异性磁记录介质,并结合热辅助激光写入技术。这种方法被称为热辅助磁记录(HAMR),能够维持高达 10 Tbit/in² 的磁区记录密度。此外,与硬盘技术中使用的二进制记录层相比,通过存储 3 或 4 层的多记录层,根据新的原理,记录密度有可能超过 10 Tbit/in²。目前使用的 HAMR 系统(上)和三维磁记录系统(下)示意图。在三维磁记录系统中,每个记录层的居里温度相差约 100 K,通过调整激光功率将数据写入每个记录层。资料来源:高桥幸子 NIMS、Thomas Chang 希捷科技、Simon Greaves 东北大学在这项研究中,研究人员通过制造晶格匹配的 FePt/Ru/FePt 多层薄膜,并以 Ru 作为间隔层,成功地将铁铂记录层进行了三维排列。磁化测量结果表明,两个铁铂层具有不同的居里温度。这意味着,通过调整写入时的激光功率,可以实现三维记录。此外,我们还通过记录模拟,使用模仿制作介质的微观结构和磁性能的介质模型,证明了三维记录的原理。三维磁记录方法可以通过在三个维度上堆叠记录层来提高记录容量。这意味着可以用更少的硬盘存储更多的数字信息,从而为数据中心节约能源。今后团队还有计划开发缩小铁铂晶粒尺寸、改善取向和磁各向异性的工艺,并堆叠更多的铁铂层,以实现适合作为高密度硬盘实际使用的介质结构。这项研究发表于 2024 年 3 月 24 日的《材料学报》(Acta Materialia)。编译来源:ScitechDaily ... PC版: 手机版:

封面图片

东京大学研究人员实现"巨磁阻开关效应" 施加一个磁场改变高达250倍电阻

东京大学研究人员实现"巨磁阻开关效应" 施加一个磁场改变高达250倍电阻 根据日本东京大学公报,该校研究人员领衔的团队研制出一种通道长20纳米的锗半导体纳米通道器件,它属于半导体两端器件,拥有铁和氧化镁双层结构的电极,还添加了硼元素。研究人员观察到,通过给这种器件施加磁场能使其表现出电阻开关效应,外加磁场还使其实现了高达250倍的电阻变化率。研究人员给这种现象取名为“巨磁阻开关效应”。不过,目前仅能在20开尔文(约零下253摄氏度)的低温环境下观测到这种“巨磁阻开关效应”。研究团队下一步将致力于提高“巨磁阻开关效应”出现的温度,以便将其用于开发新型电子元器件等。基于电阻开关效应的电阻式随机存取存储器被视为最有竞争力的下一代非易失性存储器之一。传统的动态随机存取存储器是利用电容储存电荷多少来存储数据,其一大缺点是数据的易失性,电源意外切断时会丢失存储数据。而电阻式随机存取存储器是通过向器件施加脉冲电压产生电阻高低变化,以此表示二进制中的“0”和“1”,其存储数据不会因意外断电而丢失,是一种处于开发阶段的下一代内存技术。论文第一作者、东京大学研究生院工学系研究科教授大矢忍指出,新成果将来有望在电子领域得到应用,特别是用于神经形态计算以及开发下一代存储器、超高灵敏度传感器等新型器件。 ... PC版: 手机版:

封面图片

普林斯顿大学的先进AI芯片项目得到了DARPA和 EnCharge AI 的支持

普林斯顿大学的先进AI芯片项目得到了DARPA和 EnCharge AI 的支持 普林斯顿大学的研究人员完全重新想象了计算的物理原理,为现代人工智能工作负载打造了一款芯片,在美国政府的新支持下,他们将看到这款芯片的速度、结构和能效有多快。上图为早期原型。图片来源:Hongyang Jia/普林斯顿大学美国国防部最大的研究机构与普林斯顿大学合作,开发用于人工智能的先进微芯片。电子与计算机工程学教授纳文-维尔马(Naveen Verma)表示,新硬件为现代工作负载重新设计了人工智能芯片,与当今最先进的半导体相比,它能以更低的能耗运行强大的人工智能系统。Verma 将领导这个项目,他说,这些进展突破了阻碍人工智能芯片的关键障碍,包括尺寸、效率和可扩展性。不从笔记本电脑、手机、医院、高速公路到低地球轨道甚至更远的地方,都可以部署能耗更低的芯片来运行人工智能。为当今最先进的模型提供动力的芯片过于笨重且效率低下,无法在小型设备上运行,主要局限于服务器机架和大型数据中心。现在,美国国防部高级研究计划局(Defense Advanced Research Projects Agency,简称 DARPA)宣布,将以维尔马实验室的一系列关键发明为基础,拨款 1860 万美元支持维尔马的工作。DARPA 的资助将推动对新芯片的速度、结构和能效的探索。维尔马说:"最好的人工智能仅仅存在于数据中心,这是一个非常重要的限制。我认为,如果能将其从中解锁,那么我们能从人工智能中获得价值的方式就会爆炸性增长。"纳文-维尔马(Naveen Verma)教授将领导一个由美国支持的项目,在其普林斯顿实验室的一系列关键发明的基础上,为人工智能硬件增效。图片来源:Sameer A. Khan/Fotobuddy这项宣布是 DARPA 为下一代人工智能计算的"科学、设备和系统的革命性进步"提供资金的更广泛努力的一部分。该计划名为 OPTIMA,包括多个大学和公司的项目。该计划的提案征集活动预计资助总额为 7800 万美元,但 DARPA 尚未披露完整的机构名单或该计划迄今为止已发放的资助总额。EnCharge AI 的出现在普林斯顿领导的这个项目中,研究人员将与 Verma 的初创公司EnCharge AI 合作。EnCharge AI 位于加利福尼亚州圣克拉拉市,正在将基于维尔马实验室发现的技术商业化,其中包括他与电气工程研究生共同撰写的几篇关键论文,最早可追溯到 2016 年。根据项目提案,Encharge AI"在开发和执行稳健、可扩展的混合信号计算架构方面具有领先地位"。Verma 于 2022 年与前 IBM 研究员 Kailash Gopalakrishnan 和半导体系统设计领域的领军人物 Echere Iroaga共同创办了这家公司。戈帕拉克里什南说,在人工智能开始对计算能力和效率提出大量新需求的时候,现有计算架构的创新以及硅技术的改进恰恰开始放缓。即使是用于运行当今人工智能系统的最好的图形处理器(GPU),也无法缓解行业面临的内存和计算能源瓶颈。他说:"虽然 GPU 是目前最好的工具,但我们得出结论,需要一种新型芯片来释放人工智能的潜力。"改变人工智能计算格局普林斯顿大学凯勒工程教育创新中心(Keller Center for Innovation in Engineering Education)主任维尔马表示,从2012年到2022年,人工智能模型所需的计算能力增长了约100万倍。为了满足需求,最新的芯片内置了数百亿个晶体管,每个晶体管之间的间隔只有一个小病毒的宽度。然而,这些芯片的计算能力密度仍然不足以满足现代需求。当今的领先模型结合了大型语言模型、计算机视觉和其他机器学习方法,每个模型都使用了超过万亿个变量。英伟达(NVIDIA)设计的 GPU 推动了人工智能的蓬勃发展,如今已变得如此珍贵,据说各大公司都通过装甲车来运输这些 GPU。购买或租赁这些芯片的积压量已达到消失点。当英伟达(NVIDIA)成为史上第三家估值达到 2 万亿美元的公司时,《华尔街日报》报道称,在该公司不断增长的收入中,迅速增加的份额并非来自于开发模型(称为训练),而是来自于芯片,这些芯片使人工智能系统在训练完成后能够投入使用。技术专家将这一部署阶段称为推理。维尔马说,推理是他的研究在中短期内影响最大的领域。"这一切都是为了分散人工智能,将其从数据中心释放出来,"他说。"它必须从数据中心转移到我们和与我们息息相关的流程最能访问计算的地方,那就是手机、笔记本电脑、工厂等这些地方。"创新人工智能芯片技术为了制造出能在紧凑或能源受限的环境中处理现代人工智能工作负载的芯片,研究人员必须彻底重新想象计算的物理原理,同时设计和封装硬件,使其能用现有的制造技术制造,并能与现有的计算技术(如中央处理器)良好配合。"人工智能模型的规模已经爆炸性增长,"维尔马说,"这意味着两件事。人工智能芯片在做数学运算时需要变得更加高效,在管理和移动数据时也需要变得更加高效。"他们的方法有三个关键部分。几乎每台数字计算机的核心架构都遵循着 20 世纪 40 年代首次开发的一种简单得令人难以置信的模式:在一个地方存储数据,在另一个地方进行计算。这意味着信息要在存储单元和处理器之间穿梭。在过去的十年中,维尔马率先研究了一种更新的方法,即直接在存储单元中进行计算,这种方法被称为内存计算。这是第一部分。内存计算有望减少移动和处理大量数据所需的时间和能源。但迄今为止,内存计算的数字方法还非常有限。维尔马和他的团队转向了另一种方法:模拟计算。这是第二部分。"在内存计算的特殊情况下,你不仅需要高效地进行计算,"维尔马说,"还需要以非常高的密度进行计算,因为现在它需要装在这些非常小的存储单元中。模拟计算机并不是将信息编码成一系列的 0 和 1,然后使用传统的逻辑电路来处理这些信息,而是利用设备更丰富的物理特性。齿轮的弧度。导线保持电荷的能力。"20 世纪 40 年代,数字信号开始取代模拟信号,这主要是因为二进制代码能更好地适应计算的指数级增长。但是,数字信号无法深入挖掘设备的物理特性,因此需要更多的数据存储和管理。因此,数字信号的效率较低。模拟信号的效率来自于利用设备的固有物理特性处理更精细的信号。但这可能需要在精度上做出权衡。维尔马说:"关键在于找到合适的物理学原理,并将其应用于可控性极强、可大规模制造的设备中。"他的团队找到了一种方法,可以利用专门设计的电容器产生的模拟信号进行高精度计算,从而实现精确的开关。这是第三部分。与晶体管等半导体器件不同,通过电容器产生的电能并不取决于材料中的温度和电子迁移率等可变条件。"它们只取决于几何形状,"维尔马说。"它们取决于一根金属线与另一根金属线之间的空间。当今最先进的半导体制造技术可以很好地控制几何形状。"编译自:ScitechDaily ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人