ChatGPT带火AI芯片 英伟达顶级显卡eBay售价超4万美元

ChatGPT带火AI芯片英伟达顶级显卡eBay售价超4万美元据悉,去年发布的H100是英伟达最新的旗舰AI芯片,接替了A100,A100是一款被称为AI应用“主力军”的芯片,售价约为1万美元。根据英伟达的说法,与A100相比,H100的能效提高了3.5倍。开发人员正在使用H100来构建所谓的大型语言模型(LLMs),这是OpenAI的ChatGPT等AI应用的核心。这些AI模型对算力的要求极高。因此,训练它们,尤其是像GPT这样的大型模型,需要数百颗高端英伟达GPU协同工作。正因如此,那些正进行AI竞赛的科技巨头们不惜斥巨资购买AI芯片。例如,微软就斥资数亿美元购买了数万颗英伟达A100芯片,以帮助打造ChatGPT。另外,据媒体最新报道,“钢铁侠”埃隆·马斯克在美国内华达州成立了一家名为X.AI的人工智能公司,旨在与OpenAI展开竞争。据悉,为了这个新项目,马斯克已从英伟达购买了数千个高性能GPU处理器。英伟达还提供一款拥有8颗GPU的超级计算机,名为DGX。今年早些时候,该公司宣布了新服务,允许企业以每月3.7万美元的价格租用DGX计算机。在这项服务下,几乎任何企业都可以通过云租赁来使用这些强大但成本昂贵的设备。英伟达控制着AI芯片的绝大部分市场。随着ChatGPT在全球范围内掀起AI热潮,英伟达股价“狂飙”:最新报267.58美元,今年已经累计上涨近90%。      ...PC版:https://www.cnbeta.com.tw/articles/soft/1354929.htm手机版:https://m.cnbeta.com.tw/view/1354929.htm

相关推荐

封面图片

挑战英伟达,AMD 即将推出 AI 芯片 MI300X

挑战英伟达,AMD即将推出AI芯片MI300X当地时间周二,AMD宣布,该公司即将推出的最先进的人工智能GPUMI300X将于今年晚些时候开始向部分客户发货。GPU是OpenAI等公司用来搭建ChatGPT等尖端人工智能程序的芯片。虽然AMD未披露价格,但此举可能会给英伟达GPU带来价格压力,如后者的H100,其价格能够达到3万美元以上。()频道:@TestFlightCN

封面图片

【市场调查机构:英伟达可从ChatGPT赚取3亿美元】

【市场调查机构:英伟达可从ChatGPT赚取3亿美元】2023年03月07日10点20分3月7日消息,市场调查机构TrendForce集邦咨询公布的最新报告指出,如果以英伟达A100显卡的处理能力计算,运行ChatGPT将需要使用到30000块英伟达GPU。目前英伟达A100显卡的售价在10000-15000美元之间,该售价取决于OpenAI需要多少显卡,以及英伟达是否会为AI公司提供订单折扣。TrendForce预估英伟达可以赚取超过3亿美元。

封面图片

英伟达发布新一代 AI 芯片 H200

英伟达发布新一代AI芯片H200H200利用了美光等公司推出的HBM3e内存,提供了141GB内存容量(H100的1.8倍)和4.8TB/s内存带宽(H100的1.4倍)。大型语言模型推理速度方面,GPT-3175B是H100的1.6倍(A100的18倍),LLaMA270B是H100的1.9倍。英伟达同时宣布2024年的H100产量翻倍,2024年第4季度发布基于新一代Blackwell架构的B100。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

英伟达最新AI芯片H200或将成为其史上最赚钱产品之一

英伟达最新AI芯片H200或将成为其史上最赚钱产品之一根据英伟达官网的消息,基于英伟达的“Hopper”架构,H200是该公司首款采用HBM3e内存的芯片。这种内存速度更快,容量更大,使其更适用于大型语言模型。英伟达表示,H200使用HBM3e内存能够以每秒4.8TB的速度提供141GB的容量,相比于A100,其容量几乎翻了一倍,带宽提高了2.4倍。预计H200将于2024年第二季度上市,届时将与AMD的MI300XGPU展开竞争。与H200相似,AMD的新芯片相比前代产品拥有更多内存,这对运行大型语言模型的推理计算有帮助。英伟达还表示,H200将与H100兼容,这意味着那些已经在使用H100进行训练的AI公司无需更改他们的服务器系统或软件即可适应H200。英伟达副总裁IanBuck称:“为了训练生成式AI和高性能计算应用,必须使用高性能GPU。有了H200,行业领先的AI超级计算平台可以更快地解决一些世界上最重要的挑战。”英伟达的加速计算首席产品经理DionHarris表示:“观察市场上的动态,可以看到大型模型的尺寸正在迅速扩大。这是我们继续引领最新、最伟大技术的又一例证。”据美国金融机构RaymondJames透露,H100芯片的成本仅为3320美元,但英伟达对其客户的批量价格却高达2.5万至4万美元。这使得H100的利润率可能高达1000%,成为有史以来最赚钱的芯片之一。在训练大型语言模型时,通常需要数千个H100集群协同工作,因此科技巨头、初创公司和政府机构都在争夺英伟达有限的芯片供应。由于对其产品的需求看似无穷无尽,英伟达今年的销售额大幅增长,股价上涨了230%,市值突破了1.2万亿美元大关。截至周一收盘,该股收涨0.59%,报486.2美元。相关文章:NVIDIA发布HopperH200GPU与基于GraceHopper的Jupiter超算项目...PC版:https://www.cnbeta.com.tw/articles/soft/1396697.htm手机版:https://m.cnbeta.com.tw/view/1396697.htm

封面图片

英伟达推出最强 AI 芯片 GB200

英伟达推出最强AI芯片GB200英伟达CEO黄仁勋在GTC宣布推出新一代GPUBlackwell,第一款Blackwell芯片名为GB200,将于今年晚些时候上市。Blackwell拥有2080亿个晶体管,采用台积电4nm制程。前一代GPU“Hopper”H100采用4nm工艺,集成晶体管800亿。黄仁勋表示:“Hopper很棒,但我们需要更大的GPU。Blackwell不是一个芯片,它是一个平台的名字。”英伟达表示,基于Blackwell的处理器,如GB200,为人工智能公司提供了巨大的性能升级,其AI性能为每秒20千万亿次浮点运算,而H100为每秒4千万亿次浮点运算。该系统可以部署一个27万亿参数的模型。据称GPT-4使用了约1.76万亿个参数来训练系统。

封面图片

谁能先“甩”了英伟达

谁能先“甩”了英伟达另一个方案是直接收购一家芯片公司。知情人士称OpenAI已经有潜在的收购目标,并曾考虑对其进行尽职调查。但报道中未能确定具体是哪家芯片公司。巧合的是,另一个消息与之相伴而出——微软将在下个月的年度开发者大会上,推出其首款为AI设计的芯片“雅典娜(Athena)”。据TheInformation援引知情人士,雅典娜将用于数据中心服务器,为训练大语言模型等设计,同时支持推理,能为ChatGPT背后的所有AI软件提供动力。云已经成为大模型的重要战场,而微软在该领域的两个竞争对手Google和亚马逊,都早已拥有了自己的AI芯片。雅典娜的推出将让微软补全短板。微软和OpenAI在芯片问题上的进展颇有代表意义:论角色,正是微软、OpenAI和英伟达的三方联手,让ChatGPT变为现实,继而引发了一场全球性的AIGC新浪潮;论时间,下个月正是ChatGPT推出整一年的节点。大模型竞争的下一个焦点似乎是“谁能先‘甩’了英伟达”,在芯片领域具备统治力的英伟达,已经成了一种亟需摆脱的束缚。2016年,成立仅一年的OpenAI迎来一位贵客,英伟达CEO黄仁勋。他亲自将首个轻量化小型超算DGX-1送给了OpenAI,OpenAI一年的计算量可以靠DGX-1在一个月内完成。如今,后知后觉的人们回头看黄仁勋在DGX-1上的签字“为了计算和人类的未来”,惊呼“皮衣教主”的毒辣眼光。到了2019年,微软牵手OpenAI,为其打造的超级计算机用上了上万个英伟达A100GPU。就这样,OpenAI出力、微软出钱、英伟达出基建,用惊人的算力支撑着OpenAI大模型的研发,并最终大力出奇迹,ChatGPT于2022年11月推出,惊艳世界。OpenAI成为明星企业,微软以AI战略与Google等展开激烈厮杀,而英伟达公司市值更是从去年11月的3000多亿美元,飙升到如今的超万亿美元。全球掀起大模型热,英伟达作为“卖水翁”,芯片不愁卖。今年7月,花旗研究分析师ChristopherDanely在一份报告中指出,英伟达将占据AI芯片市场“至少90%”的市场份额。然而,这场“三赢”的游戏中,却可能只有黄仁勋是全然快乐的。对于微软和OpenAI为代表的“买水人”来说,依赖英伟达的芯片至少有两个问题。第一个问题是贵。对于为OpenAI搭建的超算,据彭博社报道,微软在该项目上的花费了数亿美元。伯恩斯坦研究公司分析师StacyRasgon分析,ChatGPT每次查询都要花费约4美分。如果ChatGPT的查询量规模增长到Google搜索的十分之一,则需要大约481亿美元的GPU,并且每年还需要160亿美元的芯片才能维持运行。第二个问题是稀缺。就在今年6月,OpenAICEO阿尔特曼(SamAltman)在一场会议上称,芯片的短缺阻碍了ChatGPT的发展。面对客户对API可靠性和速度的抱怨,阿尔特曼解释大部分问题都是由于芯片短缺造成的。今年新发布的英伟达H100是目前最热门的AI芯片,但只能满足一半的市场需求。英伟达H100和A100均由台积电生产,台积电董事长刘德音上个月曾解释称,供应限制不是由于缺物理芯片,而是先进芯片封装服务(CoWos)的产能有限,而这是制造过程的关键步骤。刘德音还预计,一年半后技术产能将足以满足客户需求,也就是2024年底AI芯片供应紧张可能会得到缓解。虽然雅典娜可能在今年才会推出,但微软已经为此准备多年。在豪掷数亿美元为OpenAI打造超算的2019年,微软的雅典娜项目已经启动。根据爆料,雅典娜会使用台积电5nm工艺打造,直接对标英伟达A100,预计每颗成本降低三分之一。对于英伟达来说,微软和OpenAI的私心是一个红色信号。微软是英伟达最大的客户之一,甚至传出过“包圆”H100全年产能的消息,OpenAI则是AIGC领域最重要的风向标。二者自研芯片的心,是英伟达头顶的一抹乌云。Google曾是最早大规模采购GPU来进行AI计算的公司,但后来研发自己的AI专用芯片。在2016年就已经发布了第一代TPU(张量处理单元),随后在2017年作为GoogleCloud基础设施GoogleTPU推出。这些年来Google一直在持续迭代,今年4月其公布了TPUv4的细节,称其比英伟达的A100强1.7倍。虽然Google仍然在批量采购英伟达GPU,但其云服务已经用上了自家的TPU。在这次的AIGC大战中,AI绘图公司Midjourney、有ChatGPT竞品Cloude的独角兽公司Anthropic,都不是像OpenAI一样从英伟达采购芯片搭建超算,而是使用了Google的算力。另一个科技巨头亚马逊也动作颇早,在2015年收购以色列芯片初创公司AnnapurnaLabs,为其云基础设施开发定制芯片,三年后推出了基于Arm的服务器芯片Graviton。后来,亚马逊推出以人工智能为重点的芯片Inferentia,Trainium。上个月,消息称亚马逊将向Anthropic投资40亿美元,作为交易的一部分,Anthropic将使用AWSTrainium和Inferentia芯片来构建、训练和部署其未来的基础模型。除此之外,英伟达的其他竞争对手也在向AI芯片领域发起进攻。AMD、英特尔、IBM等正陆续推出AI芯片,试图与英伟达的产品抗衡。今年6月,AMD就发布了InstinctMI300,直接对标英伟达H100,是专门面向AIGC的加速器。其集成的晶体管数量达到1530亿,高于H100的800亿,是AMD投产以来最大的芯片。AMD甚至用兼容英伟达CUDA的策略,降低客户的迁移门槛。不可否认的是,目前英伟达仍然几乎垄断AI芯片市场,没有竞争对手撼动其地位,也没有一家科技巨头可以完全摆脱对它的依赖。但“降低英伟达的控制力”似乎成为一种共识,外部挑战一浪接着一浪。微软和OpenAI自研芯片的消息,就是新的一浪。英伟达能稳站岸头吗?...PC版:https://www.cnbeta.com.tw/articles/soft/1388845.htm手机版:https://m.cnbeta.com.tw/view/1388845.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人