现在可以用GPU(显卡)开采TON

现在可以用GPU(显卡)开采TON我们已经告诉过你什么是挖矿。今天我们将讨论如何挖掘TONCoin。智能合约中还剩下5000万个硬币,如果你有强大的设备-欢迎!以前,您只能使用中央处理器单元(CPU挖掘)来挖掘TON。但是,一些业余爱好者通过了解如何在图形处理器单元(GPU挖掘)上进行挖掘,改进了该过程并使挖掘更有效。有什么不同?让我们从定义CPU和GPU开始。CPU(处理器)——是计算机的中央控制器。它负责后续任务。例如,对于以下操作链:1.打开“记事本”2.写点东西3.点击«保存»4.处理器将结果记录在硬盘上如您所见,这些是后续操作。GPU(显卡)有不同的作用。它负责重复操作。例如,当您在显示器上观看Youtube时,会发生一系列不可见的过程:每个像素都需要不断处理。图形处理器单元一遍又一遍地提供重复动作来制作图片。因此,GPU具有更大的带宽,并且提供比CPU高10倍的挖矿效率!TON挖矿是怎么回事?它采取了一些重要步骤:1.法院判决后,Telegram团队停止了TON区块链的开发,并将testnet2币转移到Proof-of-WorkGiver智能合约。每个拥有足够计算能力的人都可以挖掘这些智能合约的硬币。2.此后,该币在矿工中的受欢迎程度大幅上升,以至于@tonblockchain(继续致力于该项目的开源社区开发人员)投票将testnet2重命名为mainnet。显然,代币获得的价值等于购买采矿设备的费用,并被称为TONCoin。3.今天大多数矿工开始使用GPU,竞争加剧,因此挖矿变得更加复杂。例如,在过去的12周中,复杂性上升了10倍!为什么会增加?这一点是最有趣的!唯一的原因是越来越多的TON网络用户参与进来。他们积极投资采矿设备和电力。这真的很酷,因为相信这个项目的人将是收到硬币的人。注意力!检查项目的网站,在专门用于挖矿的更新部分中找到所有详细信息。这是一个链接:https://ton.org/mining你想开采TON吗?这是有关GPU挖掘的指南。P.S.亲爱的朋友们!我们尽最大努力使这段文字清楚。如果不是-我们期待收到您的评论。

相关推荐

封面图片

Intel 14代酷睿的媒体单元将独立运行 不需要GPU也能播视频

Intel14代酷睿的媒体单元将独立运行不需要GPU也能播视频下个月13代酷睿处理器发布之后,Intel明年会推出14代酷睿,代号MeteorLake,这一代在架构上会大改,首次使用多芯片整合封装,CPU部分是Intel4工艺制造,GPU部分是台积电5nm,还有SoC、IOE核心是台积电6nm工艺生产。伴随着Intel将不同的功能单元独立开来,这次14代酷睿还有个很小但很良心的改动,那就是媒体单元不再依赖于GPU,而是独立运行,没有核显也可以播放视频。以前的CPU难道就不能播放视频了?这倒不是,而是这次的改动将视频解码编码之类的功能转移到了一个单独的功能单元,因为之前Intel的媒体单元是放在GPU单元中。要知道,Intel有些处理器是没有核显或者禁用核显的,这样就会导致部分处理器的媒体功能上有缺失,比如禁用核显的F系列处理器就不能支持QuickSync转码技术,现在从GPU中独立出来是个很方便的升级。值得一提的是,Intel对新一代视频编码标准AV1很热心,千元级的A380独显在AV1视频转码上就大幅优于同级别的AMD及NVIDIA显卡,未来也有可能在14代酷睿的媒体单元中加入AV1支持,这对中低端处理器来说可以说很有帮助了。PC版:https://www.cnbeta.com/articles/soft/1310803.htm手机版:https://m.cnbeta.com/view/1310803.htm

封面图片

开发人员正在寻找 TON 的去中心化和稳定性。

开发人员正在寻找TON的去中心化和稳定性。如您所知,采矿用于Toncoin的初始分配。就在一年前,很少有人会相信Toncoin的开采会变得如此流行,并且硬币本身会获得任何价值。当时,开源开发人员不得不通过研究和测试Telegram留下的原始TON技术来娱乐自己。该项目一直以自发的方式发展;然而,现在总挖矿算力达到了惊人的每秒14Terahash!简单来说,很多人想要硬币,并且有多个服务器参与挖掘这些硬币。挖矿的一个不可否认的优势是它允许每个人以平等的方式获得硬币。你不必很富有。从PoW捐赠者那里获得硬币所需要的只是一台带有显卡的计算机。想象一下,Toncoins是通过典型的ICO分发的。那么你获得硬币的机会很小。然而,好处也伴随着挑战:首先,我们不知道矿工是谁,更不用说他们在获得代币后打算如何处理这些代币。其次,在任何自由的环境中,你可能会遇到像比尔盖茨这样的人,他们会持有大量的硬币。目前两者都不是问题,但这两个问题都增加了不确定性。肩负着今天和未来维持TON的稳定性和去中心化的任务,我们的开发人员找到了一个真正优雅的解决方案!想知道它是什么?查看我们的下一篇文章了解整个故事

封面图片

GPU巨头,拼什么?

GPU巨头,拼什么?在本文中,我们将深入探讨他们的架构。让我们剥开层层,看看有什么新内容、它们有什么共同点,以及这些对普通用户意味着什么。01GPU整体结构:从上到下让我们从本文的一个重要方面开始——这不是性能比较。相反,我们正在研究GPU内部的所有内容是如何排列的,检查规格和数据,以了解AMD、英特尔和NVIDIA在设计图形处理器时所采用的方法差异。我们将首先了解使用我们正在研究的架构的最大可用芯片的整体GPU组成。需要强调的是,英特尔的产品并不针对与AMD或NVIDIA相同的市场,因为它在很大程度上是一款中档图形处理器。这三者的尺寸不仅彼此不同,而且与使用先前架构的类似芯片也有很大不同。所有这些分析纯粹是为了了解这三个处理器的底层到底是什么。在分解每个GPU的基本部分(着色器核心、光线追踪功能、内存层次结构以及显示和媒体引擎)之前,我们将检查整体结构。一、AMDNavi31按字母顺序排列,第一个出现的是AMD的Navi31,这是他们迄今为止发布的最大的RDNA3芯片。与Navi21相比,我们可以看到他们之前的高端GPU的组件数量明显增长......着色器引擎(SE:ShaderEngines)容纳的计算单元(CU:ComputeUnits)较少,为16个,而不是200个,但现在总共有6个SE,比以前多了两个。这意味着Navi31拥有多达96个CU,总共配备6144个流处理器(SP:StreamProcessors)。AMD已经对RDNA3的SP进行了全面升级,我们将在后面讨论。每个着色器引擎还包含一个处理光栅化(rasterization)的专用单元、一个用于三角形(triangle)设置的图元引擎(primitiveengine)、32个渲染输出单元(ROP:renderoutputunits)和两个256kBL1缓存。最后一个方面现在大小增加了一倍,但每个SE的ROP计数仍然相同。AMD也没有对光栅器(rasterizer)和原始引擎(primitiveengines)进行太大改变——所称的50%改进是针对整个芯片进行的,因为它的SE比Navi21芯片多了50%。然而,SE处理指令的方式发生了变化,例如更快地处理多个绘制命令(multipledrawcommands)和更好地管理管道阶段(pipelinestages),这应该会减少CU在继续执行另一个任务之前需要等待的时间。最明显的变化是在11月发布之前引起最多谣言和八卦的变化——GPU封装的小芯片方法。凭借在该领域多年的经验,AMD选择这样做在某种程度上是合乎逻辑的,但这完全是出于成本/制造原因,而不是性能。我们将在本文后面更详细地讨论这一点,所以现在我们只关注哪些部分在哪里。在Navi31中,最终层缓存的内存控制器及其相关分区位于主处理器(GCD,GraphicsComputeDie)周围的单独小芯片(称为MCD或MemoryCacheDies)中。由于需要提供更多数量的SE,AMD也将MC数量增加了50%,因此GDDR6全局内存的总总线宽度现在为384位。这次InfinityCache总量减少了(96MBvs128MB),但更大的内存带宽抵消了这一点。二、英特尔ACM-G10接下来是Intel和ACM-G10芯片(以前称为DG2-512)。虽然这不是英特尔生产的最大的GPU,但它是他们最大的消费类图形芯片。该框图是相当标准的排列,尽管看起来更类似于NVIDIA的而不是AMD的。共有8个渲染切片(RenderSlices),每个渲染切片包含4个Xe核心,总共512个矢量引擎(VectorEngines:相当于AMD的流处理器和NVIDIA的CUDA核心)。每个渲染切片中还包含一个基元单元、光栅器、深度缓冲处理器、32个纹理单元和16个ROP。乍一看,这款GPU似乎相当大,因为256个TMU和128个ROP比RadeonRX6800或GeForceRTX2080中的数量还要多。然而,AMD的RNDA3芯片拥有96个计算单元,每个计算单元有128个ALU,而ACM-G10总共有32个Xe核心,每个核心有128个ALU。因此,仅就ALU数量而言,英特尔Alchemist驱动的GPU的大小是AMD的三分之一。但正如我们稍后将看到的,ACM-G10的大部分芯片都交给了不同的数字处理单元。与英特尔通过OEM供应商发布的首款AlchemistGPU相比,该芯片在组件数量和结构排列方面具备成熟架构的所有特征。三、英伟达AD102我们完成了对NVIDIAAD102不同布局的开场概述,这是他们第一个使用AdaLovelace架构的GPU。与它的前身AmpereGA102相比,它看起来并没有什么不同,只是大了很多。就所有意图和目的而言,确实如此。NVIDIA使用图形处理集群(GPU:GraphicsProcessingCluster)的组件层次结构,其中包含6个纹理处理集群(TPC:TextureProcessingClusters),每个集群包含2个流式多处理器(SM)。这种安排对于Ada来说并没有改变,但总数肯定已经改变了……在完整的AD102芯片中,GPC数量从7个增加到12个,因此现在总共有144个SM,总共有18432个CUDA核心。与Navi31中的6144个SP相比,这个数字似乎高得离谱,但AMD和NVIDIA对其组件的计数方式不同。虽然这大大简化了问题,但1个NVIDIASM相当于1个AMDCU——两者都包含128个ALU。因此,Navi31的尺寸是英特尔ACM-G10的两倍(仅ALU数量),而AD102的尺寸是英特尔ACM-G10的3.5倍。这就是为什么当芯片在规模上有如此明显的差异时,对它们进行任何直接的性能比较是不公平的。然而,一旦它们进入显卡、定价并上市,那么情况就不同了。但我们可以比较的是三个处理器中最小的重复部分。02着色器核心(ShaderCores):走进GPU的大脑从整个处理器的概述开始,现在让我们深入了解芯片的核心,看看处理器的基本数字处理部分:着色器核心。这三个制造商在描述他们的芯片时使用不同的术语和短语,特别是在概述图时。因此,在本文中,我们将使用我们自己的图像,具有常见的颜色和结构,以便更容易看出相同和不同之处。一、AMDRDNA3AMDGPU着色部分内最小的统一结构称为双计算单元(DCU:DoubleComputeUnit)。在某些文档中,它仍然称为工作组处理器(WGP:WorkgroupProcessor),而其他文档则将其称为计算单元对(CUP:ComputeUnitPair)。请注意,如果这些图中未显示某些内容(例如常量缓存、双精度单元),并不意味着它们不存在于体系结构中。在很多方面,整体布局和结构元素与RDNA2相比并没有太大变化。两个计算单元共享一些缓存和内存,每个计算单元包含两组32个流处理器(SP)。第3版的新增功能是,每个SP现在容纳的算术逻辑单元(ALU:arithmeticlogicunits)数量是以前的两倍。现在,每个CU有两组SIMD64单元,每个组有两个数据端口——一个用于浮点、整数和矩阵运算,另一个仅用于浮点和矩阵运算。AMD确实针对不同的数据格式使用单独的SP,RDNA3中的计算单元支持使用FP16、BF16、FP32、FP64、INT4、INT8、INT16和INT32值进行操作。使用SIMD64意味着每个线程调度程序可以在每个时钟周期发出一组64个线程(称为wavefront),或者可以共同发出两个32个线程的波前。AMD保留了与以前的RDNA架构相同的指令规则,因此这是由GPU/驱动程序处理的。另一个重要的新功能是AMD所谓的AI矩阵加速器的出现。与我们很快就会看到的Intel和NVIDIA的架构不同,它们并不充当单独的单元——所有矩阵运算都利用SIMD单元,并且任何此类计算(称为波矩阵乘法累加,WMMA:WaveMatrixMultiplyAccumulate)都将使用完整的64个ALU组。在撰写本文时,人工智能加速器的确切性质尚不清楚,但它可能只是与处理指令和涉及的大量数据相关的电路,以确保最大吞吐量。它很可能与NVIDIA的Hopper架构中的张量内存加速器具有类似的功能。与RDNA2相比,变化相对较小——较旧的架构还可以处理64个线程波前(又名Wave64),但这些是在...PC版:https://www.cnbeta.com.tw/articles/soft/1369821.htm手机版:https://m.cnbeta.com.tw/view/1369821.htm

封面图片

三星确认Exynos处理器继续使用AMD GPU

三星确认Exynos处理器继续使用AMDGPU2019年三星与AMD达成合作,获得了AMD的RDNA架构GPU授权,今年的Exynos2200处理器就使用了AMDGPU技术,还被称为安卓之光,结果实际表现翻车了,AMD强大的GPU性能优势也没展示出来。这次失利导致有消息称三星都会暂停自研Exynos处理器,而且前不久三星还跟高通达成了战略协议,专利授权延长5年到2030年底,明年的GalaxyS23旗舰机也会大量使用骁龙8系处理器。不过三星否认了Exynos停摆的消息,现在更进一步确认会继续跟AMD合作,负责GPU开发的三星副总裁SungboemPark表示,移动设备的GPU相比主机落后5年左右,通过与AMD的合作,三星可以将最新的游戏技术快速融入到Exynos2200移动处理器。今年的Exynos2200处理器的Xclipse920GPU拥有配备了6个计算单元、384个流处理器核心,RDNA2架构。下一代的Exynos2300应该会使用Xclipse930GPU,可能会上8个计算单元、512个流处理器核心,不确定是否升级为RNDA3架构,后者的能效会再提升50%,更利于移动平台。从三星的态度来看,Exynos安卓之光失利似乎也怪不得AMD的GPU头上,毕竟整体的能耗、发热问题也不是GPU不行,三星的工艺及自己的架构优化还是要背锅的。PC版:https://www.cnbeta.com/articles/soft/1308935.htm手机版:https://m.cnbeta.com/view/1308935.htm

封面图片

龙芯有意入局显卡市场,目前已完成通用计算 GPU 相关 IP 设计

龙芯有意入局显卡市场,目前已完成通用计算GPU相关IP设计过去20年中龙芯的主要产品是CPU处理器,而这两年龙芯已经开始自研集成GPU,官方现在确认明年将会推出支持显卡及计算加速通用计算GPU芯片。龙芯表示,公司的通用计算GPU(GPGPU)目前已经完成相关IP的设计,正处于验证及优化过程中,第一个集成自研通用计算GPU核的SoC芯片,计划于2024年一季度流片。而龙芯将此基础上研制兼顾显卡和计算加速卡功能的GPGPU芯片,计划于2024年下半年流片。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Azure AI 入门 (三)摩尔定律,GPU与并行计算

AzureAI入门(三)摩尔定律,GPU与并行计算摩尔定律(图一)是英特尔Intel创始人之一戈登·摩尔的经验之谈,其核心内容为:集成电路IC相同面积上可以容纳的晶体管Transistor数目在18个月到24个月便会增加一倍,因此处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。虽然名为“定律”,但其只是根据20世纪中后期的发展趋势归纳而成。进入21世纪以后,以英特尔为代表的中央处理器CPU的发展趋势渐渐慢于摩尔的预测的。仅依靠单颗处理器的速度提升已无法满足日渐复杂的计算任务,比如3维图形的渲染(3Drendering)。因此,英伟达Nvidia在1999年提出了硬件图形处理器(GraphicsProcessingUnit)的概念,以大量的只能完成某些特殊任务的微处理器,代替少量的通用处理器。软件方面,并行计算也从专业科学领域逐渐向大众领域流行。用一个可能不是最恰当的比方,CPU像是由4位特级厨师组成的小组,可以完成任何烹饪任务,而GPU像是用同样工资请来的128位三明治店的员工。GPU不能做很多事,像完成一些特定的菜,但如果任务是制作2000人份的三明治,GPU一定可以依靠并行计算比CPU完成得快许多。GPU与并行计算的普及,也使得云计算成为了可能。计算机科学家在设计计算任务时通常会首先考虑能否将大任务拆分成能同时进行的更小任务,从而可以同时运行在服务商提供的大量数目的CPU和GPU上。图二英伟达创始人黄仁勋JensenHuang

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人