主机/主板/CPU/GPU/电源/数据库哪个更接近AI的裸体状态

None

相关推荐

封面图片

小伙打游戏太猛主机突然冒火花:升级CPU显卡没换电源

小伙打游戏太猛主机突然冒火花:升级CPU显卡没换电源玩游戏的过程中电源炸了是一种什么体验?武汉一小伙现在就遇到了这样的事,9月18日他在在家打游戏时电源突然爆炸,噼里啪啦一阵响,之后电脑就黑屏了。这个事有多个网站、媒体也跟进报道了,当事人刘先生表示,当天才更新了CPU和显卡,没有更新电源,导致电源频率过高造成“炸机”。PC版:https://www.cnbeta.com/articles/soft/1318167.htm手机版:https://m.cnbeta.com/view/1318167.htm

封面图片

AI热潮如何影响芯片行业?GPU猛涨,CPU缺席

AI热潮如何影响芯片行业?GPU猛涨,CPU缺席截至5月30日收盘,英伟达市值超过9900亿美元,几乎相当于两个台积电,3个博通,5个AMD,8个英特尔或高通。目前,台积电市值约5300亿美元,博通市值约3300亿美元,AMD市值约2000亿美元,英特尔和高通的市值约1250亿美元。5月31日亚洲股市开盘后,芯片股表现分化。中芯国际A股(688981.SH)股价上涨近2%,市值接近4300亿元人民币;兆易创新(603986.SH)股价大跌近4%;寒武纪(688256.SH)股价大跌超过2%,市值跌破千亿元人民币。GPU是芯片创业最好的选择从美股此轮芯片上涨的趋势来看,AI热潮推动下,GPU厂商显著受益。今年以来,英伟达和AMD股价分别上涨多达174%和93%。致力于云计算和AI超级计算机的连接技术的厂商也受益较多,博通和Marvell就是这样的企业,两家公司今年以来股价涨幅也分别达到44%和72%。此外,为英伟达等厂商提供关键制造能力的台积电股价受益也较为显著。今年以来,台积电股价涨幅达37%。英伟达创始人、CEO黄仁勋5月30日接受包括第一财经在内的媒体采访时,谈到中国GPU厂商如何分享AI热潮带来的好处。黄仁勋说道:“虽然这很难预测,但中国的创业家是充满活力的,中国拥有世界上最好的云之一,中国拥有一些最好的消费者互联网服务,在数字支付方面是最先进的;中国的自动驾驶汽车发展非常迅速,这些都给本土公司带来机会。”黄仁勋还表示,如果现在在芯片行业希望成立一家公司,GPU将是最好的选择。“所以我们看到中国已经有一大堆的GPU初创公司了。”黄仁勋表示。针对供应链方面的问题,黄仁勋表示:“我们所有的供应链都是为最大的多样性和最大冗余而设计的,这样我们就可以有弹性。很多客户依赖我们,所以供应链弹性对我们非常重要,我们在尽可能多的地方进行制造。”在回答是否未来英伟达会把所有的芯片都交给台积电生产时,黄仁勋表示:“台积电当然有资格生产我们的芯片,我们与台积电合作了很长时间。同时,我们还与三星一起制造,我们对与英特尔制造持开放态度。”英特尔首席执行官帕特·基辛格曾表示,英伟达正在评估英特尔的生产工艺。对此,黄仁勋表示:“我们最近收到了英特尔关于下一代测试芯片生产过程的结果,这看起来不错。”英特尔明显缺席“盛宴”目前来看,传统芯片厂商明显缺席了此轮AI热潮推动的行业上涨趋势。英特尔股价今年至今涨幅仅为13%。英特尔是CPU芯片的主导者。而在黄仁勋看来,人们目前处于一个全新的计算时代的开端:这是一个由加速计算和生成式AI推动的时代,GPU将发挥更重要的作用。“GPU专为加速计算和生成式AI而设计,未来你需要更少的CPU,GPU的连接将会更加普遍。”黄仁勋表示,“CPU扩展的时代已经结束,我们必须进行加速计算,加速一切工作负载。”另一方面,英伟达也在致力于将生成式AI从AI超级计算机扩展到主流的AI云服务商,这需要高性能的计算机连接技术,从而使得世界上的每一个数据中心都可以拥有AI超级计算机的能力。这也是为何博通和Marvell这类企业会显著受益的原因。科技巨头公司在受益于AI的同时,也警告AI带来的风险。5月30日,包括OpenAI首席执行官萨姆·奥特曼在内的顶级人工智能高管与专家教授签署了一份联名信,其中提出了“人工智能带来的灭绝风险”。上个月,马斯克也联合AI行业专家及高管签署联名信,警告ChatGPT的潜在风险。对此,黄仁勋表示:“AI具有巨大的潜力,可以带来深远的好处,当然也会带来一定的风险。但请记住,技术本身不能帮助人们,除非它变成一种产品或服务,因此人工智能最终的呈现将是一种产品或服务。而任何产品和服务都应该受到监管,应该确保它是安全的。”...PC版:https://www.cnbeta.com.tw/articles/soft/1362647.htm手机版:https://m.cnbeta.com.tw/view/1362647.htm

封面图片

公布ai的源代码/数据库/训练集哪一个更接近开盒?

封面图片

1399 元,华擎 DeskMini B760W / BOX 迷你主机 WiFi 版上架:仅主板 + 电源

1399元,华擎DeskMiniB760W/BOX迷你主机WiFi版上架:仅主板+电源https://www.ithome.com/0/746/752.htm华擎DeskMiniB760W/BOXWiFi版支持13代英特尔酷睿处理器,包括i3-13100、i5-13400、i5-13600等,支持双通道DDR43200内存,最大支持64GB。此外,它还支持英特尔傲腾内存,提供了两个M.2SSD插槽(其中之一为PCIe5.0标准)

封面图片

NVIDIA开源HPCG AI基准 支持Grace CPU以及Ampere和Hopper GPU

NVIDIA开源HPCGAI基准支持GraceCPU以及Ampere和HopperGPU自英伟达之前宣布为GeForceRTX20系列及以后的产品使用开源GPU内核以来,英伟达一直在寻求向更开源的方向转变,以促进其平台的开发,并在Linux方面大步迈进。这一次,该公司决定通过开源英伟达HPCG来帮助人工智能行业,该HPCG面向GraceSuperchips和Hopper系列架构等人工智能硬件。NVIDIA的HPCG是一个专为高性能计算应用设计的基准测试,主要通过多种数学运算来测试特定硬件在不同场景下的性能。这不仅能让NVIDIA展示其GPU的能力,而且该软件包在优化HPC系统方面发挥了重要作用。在人工智能和高性能计算应用大幅增长的时代,NVIDIAHPCG的开源意味着该公司决心看到资源的发展。以下是该公司自己详细介绍的主要功能:GitHub:https://github.com/NVIDIA/nvidia-hpcg主要特点NVIDIAHPCG基准利用NVIDIA高性能数学库:cuSPARSE和NVPLSparse,在NVIDIAGPU和GraceCPU上实现稀疏矩阵向量乘法(SpMV)和稀疏矩阵三角求解器(SpSV)的最高性能。NVIDIAHPCG基准支持高度可配置的命令行参数,以决定:GPU和GraceCPU的问题大小三维等级网格形状执行模式:纯CPU、纯GPU和异构点对点通信:MPI_Host(发送/回传)、MPI_Host_Alltoallv、MPI_CUDA_Aware、MPI_CUDA_Aware_Alltoallv和NCCLNUMA相关配置在兼容性方面,NVIDIAHPCG支持GraceCPU系统以及Ampere和HopperGPU架构。该软件也只能在Linux下运行,这限制了它的使用范围。不过,这仍然是一个有趣举动,它表明了NVIDIA公司对资产开源的承诺。...PC版:https://www.cnbeta.com.tw/articles/soft/1433279.htm手机版:https://m.cnbeta.com.tw/view/1433279.htm

封面图片

Google:引领AI推理工作量的是CPU而非GPU

Google:引领AI推理工作量的是CPU而非GPU人工智能的生命周期分为两个部分:训练和推理。在训练过程中,需要大量的计算能力和巨大的内存容量,以便将不断扩大的人工智能模型装入内存。最新的模型,如GPT-4和Gemini,包含数十亿个参数,需要数千个GPU或其他加速器并行工作,才能高效地进行训练。另一方面,推理所需的计算强度较低,但仍能从加速中获益。在推理过程中,会对预先训练好的模型进行优化和部署,以便对新数据进行预测。虽然推理所需的计算量比训练少,但延迟和吞吐量对实时推理至关重要。Google发现,虽然GPU是训练阶段的理想选择,但模型通常在CPU上进行优化和推理。这意味着,有些客户出于各种原因选择CPU作为人工智能推理的媒介。这可能是成本和可用性的问题。与高端GPU或专门的人工智能加速器相比,CPU往往更便宜,也更容易获得。对于许多应用而言,CPU能以较低的成本提供足够的推理性能。CPU还具有灵活性。由于大多数系统已经配备了CPU,它们为较小的人工智能模型提供了便捷的部署途径。GPU通常需要专门的库和驱动程序,而基于CPU的推理可以利用现有的基础设施。这使得将人工智能集成到现有产品和工作流程中变得更加简单。延迟和吞吐量的权衡也会发挥作用。GPU擅长大规模并行推理吞吐量。但CPU通常可以为实时请求提供更低的延迟。对于需要亚秒级响应的在线推荐等应用,CPU推理可能是首选。此外,CPU对推理的优化进展迅速。在更快的时钟、更多的内核以及英特尔AVX-512和AMX等新指令的推动下,性能不断提高,仅靠CPU就能流畅运行人工智能工作负载,如果服务器配置了不止一个插槽,意味着有更多的人工智能引擎存在,服务器就能高效处理数十亿参数大小的人工智能模型,则性能尤其出色。英特尔指出,一般来说,参数不超过200亿的模型在CPU上可以正常运行,而更大的模型则必须使用专门的加速器。像GPT-4、Claude和Gemini这样的人工智能模型都是庞大的模型,参数规模可达一万亿以上。然而,它们是多模式的,也就是说,它们处理文本和视频。现实世界中的企业工作负载可能是一个人工智能模型推断公司的本地文档,以回答客户支持问题。对于这种解决方案来说,运行GPT-4这样的模型就显得多余了。相比之下,像LLAMA2或Mistral这样小得多的模型可以很好地实现类似目的,而不需要第三方API访问,只需在本地或云服务器上运行几个CPU即可。这就降低了总体拥有成本(TCO),简化了人工智能管道。...PC版:https://www.cnbeta.com.tw/articles/soft/1422284.htm手机版:https://m.cnbeta.com.tw/view/1422284.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人