【Arweave创始人:AO超并行计算机在AI技术方面取得了一些关键突破】

【Arweave创始人:AO超并行计算机在AI技术方面取得了一些关键突破】2024年06月04日08点07分老不正经报道,据Arweave创始人SamWilliams在X平台表示,AO超并行计算机在AI技术方面取得了一些关键突破。其中包括:在AO智能合约中运行完整的LLMs(如Llama3等):这意味着这些AI模型现在可以直接在区块链上的智能合约中运行,并且能够做出财务决策;支持WASM64:这让协议层面可以使用高达约18艾字节(EB)的内存,使得处理大规模数据变得更加容易;WeaveDrive:这项技术使得AO进程可以像本地硬盘一样访问Arweave上的数据。此外,所有细节将在6月20日的活动中展示。

相关推荐

封面图片

Arweave 创始人:AO 超并行计算机在 AI 技术方面取得了一些关键突破

Arweave创始人:AO超并行计算机在AI技术方面取得了一些关键突破据Arweave创始人SamWilliams在X平台表示,“AO超并行计算机在AI技术方面取得了一些关键突破。其中包括:在AO智能合约中运行的完整LLM(Llama3及其它),能够做出财务决策。WASM64支持在协议级别允许最多约18EB的内存。WeaveDrive——在AO进程中,可以作为本地硬盘访问Arweave上的数据。此外,所有细节将在6月20日展示。”

封面图片

孵化器 AO Ventures 投资 3500 万美元用于 Arweave 开发

孵化器AOVentures投资3500万美元用于Arweave开发TateBerenbaum曾为加密货币初创公司CommunityLabs筹集3000万美元,他启动了AOVentures,这是一个为期10周的孵化器计划,致力于促进Arweave和AO的发展。据其网站称,“超过3500万美元的资金已投入投资池。该计划将于4月启动,并在6月的演示日结束。”AO在社区实验室网站上被描述为“超并行计算机”,其核心目标是“将信任最小化的好处与速度和传统计算环境相结合”。Arweave网站称,该网络用于“永久信息存储”。

封面图片

【孵化器AO Ventures投资3500万美元用于Arweave开发】

【孵化器AOVentures投资3500万美元用于Arweave开发】2024年04月11日09点19分老不正经报道,TateBerenbaum曾为加密货币初创公司CommunityLabs筹集3000万美元,他启动了AOVentures,这是一个为期10周的孵化器计划,致力于促进Arweave和AO的发展。据其网站称,“超过3500万美元的资金已投入投资池。该计划将于4月启动,并在6月的演示日结束。”AO在社区实验室网站上被描述为“超并行计算机”,其核心目标是“将信任最小化的好处与速度和传统计算环境相结合”。Arweave网站称,该网络用于“永久信息存储”。

封面图片

Arweave的AO平台预桥接2.6亿美元stETH,TVL超2亿美元

Arweave的AO平台预桥接2.6亿美元stETH,TVL超2亿美元PANews6月24日消息,据Cryptoslate报道,基于Arweave的超并行计算平台AO在发布不到十天内,已通过预桥接方式吸引了2.6亿美元的stETH资金,使其在过去四天内成为第28大去中心化金融(DeFi)平台。Arweave和AO的创始人SamWilliams在6月22日的X(前身为Twitter)上表示,AO的总锁仓量(TVL)现已达到2.0943亿美元,与Cardano的TVL持平,并超越了zkSync、Fantom、Scroll、Algorand、Filecoin和ICP等知名区块链项目。https://www.panewslab.com/zh/sqarticledetails/hrgro7n2.html

封面图片

IBM计算机“基准”实验显示量子计算机将在两年内超越传统计算机

IBM计算机“基准”实验显示量子计算机将在两年内超越传统计算机这项新研究的成果发表在上周的《自然》杂志上。科学家们使用IBM量子计算机Eagle来模拟真实材料的磁性,处理速度比传统计算机更快。IBM量子计算机之所以能超越传统计算机,是因为其使用了一种特殊的误差缓解过程来补偿噪声带来的影响。而噪声正是量子计算机的一个基本弱点。基于硅芯片的传统计算机依赖于“比特(bit)”进行运算,但其只能取0或1这两个值。相比之下,量子计算机使用的量子比特可以同时呈现多种状态。量子比特依赖于量子叠加和量子纠缠等量子现象。理论上这使得量子比特的计算速度更快,而且可以真正实现并行计算。相比之下,传统计算机基于比特的计算速度很慢,而且需要按顺序依次进行。但从历史上看,量子计算机有一个致命的弱点:量子比特的量子态非常脆弱,来自外部环境的微小破坏也会永远扰乱它们的状态,从而干扰所携带的信息。这使得量子计算机非常容易出错或“出现噪声”。在这一新的原理验证实验中,127量子比特的Eagle超级计算机用建立在超导电路上的量子比特计算了二维固体的完整磁性状态。然后,研究人员仔细测量每个量子比特所产生的噪声。事实证明,诸如超级计算材料中的缺陷等因素可以可靠预测每个量子比特所产生的噪声。据报道,研究小组随后利用这些预测值来模拟生成没有噪音的结果。量子霸权的说法之前就出现过。2019年,谷歌的科学家们声称,公司开发的量子计算机Sycamore在200秒内解决了一个普通计算机需要1万年才能破解的问题。但谷歌量子计算机所解决的问题本质上就是生成一长串随机数,然后检查它们的准确性,并没有什么实际用途。相比之下,用IBM量子计算机完成的新实验是一个高度简化但有真实应用价值的物理问题。2019年谷歌量子霸权研究成果参与者之一、加州大学圣巴巴拉分校物理学家约翰·马丁尼斯(JohnMartinis)表示,“这能让人们乐观认为,它将在其他系统和更复杂的算法中发挥作用。”(辰辰)...PC版:https://www.cnbeta.com.tw/articles/soft/1366285.htm手机版:https://m.cnbeta.com.tw/view/1366285.htm

封面图片

Azure AI 入门 (三)摩尔定律,GPU与并行计算

AzureAI入门(三)摩尔定律,GPU与并行计算摩尔定律(图一)是英特尔Intel创始人之一戈登·摩尔的经验之谈,其核心内容为:集成电路IC相同面积上可以容纳的晶体管Transistor数目在18个月到24个月便会增加一倍,因此处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。虽然名为“定律”,但其只是根据20世纪中后期的发展趋势归纳而成。进入21世纪以后,以英特尔为代表的中央处理器CPU的发展趋势渐渐慢于摩尔的预测的。仅依靠单颗处理器的速度提升已无法满足日渐复杂的计算任务,比如3维图形的渲染(3Drendering)。因此,英伟达Nvidia在1999年提出了硬件图形处理器(GraphicsProcessingUnit)的概念,以大量的只能完成某些特殊任务的微处理器,代替少量的通用处理器。软件方面,并行计算也从专业科学领域逐渐向大众领域流行。用一个可能不是最恰当的比方,CPU像是由4位特级厨师组成的小组,可以完成任何烹饪任务,而GPU像是用同样工资请来的128位三明治店的员工。GPU不能做很多事,像完成一些特定的菜,但如果任务是制作2000人份的三明治,GPU一定可以依靠并行计算比CPU完成得快许多。GPU与并行计算的普及,也使得云计算成为了可能。计算机科学家在设计计算任务时通常会首先考虑能否将大任务拆分成能同时进行的更小任务,从而可以同时运行在服务商提供的大量数目的CPU和GPU上。图二英伟达创始人黄仁勋JensenHuang

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人