由于美国禁止向中国出口AI芯片,国内工厂开始拆解RTX 4090游戏显卡并将其改装成AI加速卡,工厂只保留芯片和内存,丢弃原始P

由于美国禁止向中国出口AI芯片,国内工厂开始拆解RTX 4090游戏显卡并将其改装成AI加速卡,工厂只保留芯片和内存,丢弃原始PCB和散热器,安装新的PCB和风扇,使卡片更紧凑。让多个RTX 4090卡可以并排放入服务器机架,用于AI计算。 工厂获得了禁令前运到中国的大批RTX 4090卡进行改造,改造后的价格上涨,原RTX 4090卡价格超过了2700美元。 当现有存货改造完毕后,这些工厂可能会关闭或转型,消费者最好等待RTX 4090价格稳定后再购买。()

相关推荐

封面图片

手工打造全球唯一RTX 4090 SUPER 3090Ti的身子、性能飙升40%

手工打造全球唯一RTX 4090 SUPER 3090Ti的身子、性能飙升40% 影驰RTX 3090 Ti HOF OC Lab专为极限玩家打造,配备了白色PCB、28相供电电路、两个16针供电接口,搭载的是GA102 GPU核心、21GB GDDR6X(ZC)显存。改造前改造后改造后水冷、液氮轮番安排Techlab团队将GPU核心换成了AD102-300-A1,将显存换成了24GHz GDDR6X(ZF),同时改造电路、BIOS,甚至调整了供电电压,成功点亮。Unigine Superposition 8K超高分辨率测试中,默认性能和RTX 4090非常相似。首先将显存超到等效25.8GHz,跑分提升了13%。再超核心频率,稳定在2871MHz,不时可以突破3GHz,跑分提升幅度达到16%。再配合液氮超到极限,跑分比默认高了多达恐怖的40%! ... PC版: 手机版:

封面图片

亚马逊售出假冒RTX 4090显卡 安装的是RTX 4080 GPU和烧毁的组件

亚马逊售出假冒RTX 4090显卡 安装的是RTX 4080 GPU和烧毁的组件 最近这起事件的受害者很不幸地从亚马逊收到了假冒的 RTX 4090。不幸的是,买家在收到货时发现"运输损坏",于是将它送到了 North West Repair(NWR),并在其 YouTube 频道上分享了这个故事。对显卡的初步目测发现,PCB 板上有一条巨大的裂缝。此外,似乎还有一个熔化的电源连接器我们以前在 RTX 4090 显卡上见过这种情况。但与深入检查后发现的情况相比,这就不算什么了。有问题的第一个迹象是其中一个螺丝上贴着假的防篡改保修贴纸,所有螺丝都拧得有点过紧有两个无法拧出,不得不用酒精浸泡。取下后盖和散热片后,NWR 注意到的第一件事是散热垫片只覆盖了一半的内存芯片。GPU 本身似乎已经完全烧毁,PCB 上的一些其他元件也是如此。事情从这里开始变得更糟了,虽然显卡贴纸上的序列号声称它是配备 24GB VRAM 的 RTX 4090,但 AD103-300-A1 代码却显示它是 RTX 4080。NWR 在视频中称这是 RTX 4090 笔记本 GPU,但该公司在 YouTube 评论区确认这是自己的失误。最后的结论是,这张卡"无法修复",因为没什么可修复的了。这已经不是我们第一次听说有人从亚马逊订购显卡却收到了其他东西。2022 年 12 月,亚马逊向一位加拿大买家发送了一张 RTX 3060 Ti 显卡,结果发现这是一张塞满了油灰状物质的假显卡。该公司表示,在"正确"的商品被送回仓库之前不会退款。不过,最近这起事件也有值得注意的地方。这位顾客是从亚马逊退货的打折交易中买的卡。我们经常看到这样的情况:一些不法分子为了拿回钱,会保留还能用的卡,并退回看起来与原产品相似的假卡。这些假货会被卖给其他顾客,而他们并不知道自己买到的是假货。本月早些时候,有报道称一位玩家在中国花 1600 美元购买了一台二手 RTX 4090,却发现它没有 GPU,而且缺少 VRAM 芯片。 ... PC版: 手机版:

封面图片

GeForce RTX 5090 GPU将采用大面积单片式GB202"Blackwell"芯片

GeForce RTX 5090 GPU将采用大面积单片式GB202"Blackwell"芯片 现在,根据内部人士 Kopite7kimi 发布的一条新推文,GPU 将采用单片式设计。虽然英伟达已经为其 HPC/AI 芯片(如 B100 和 B200)转向了芯片组设计,但该公司似乎仍希望为其面向消费者的 GPU 芯片保留单片封装。据说,GB202"Blackwell"GPU 将采用物理单片设计,而且从早先的报道中,我们知道它的 SM 和内核数量预计将是 GB203 的两倍,而 GB203 则是用于 GeForce RTX 5080 等产品的更为精简的芯片。这将使两款显卡的性能相差悬殊,但 RTX 5090 将是一款不折不扣的猛兽。让我们先来谈谈 GB202"黑井"图形处理器本身,目前可以确认的是它会是单片设计,英伟达可能会将两个 GB203 芯片封装在一个单片封装上,而不会使其看起来像Chiplet结构。这样可以更好地实现芯片间的通信,而不会出现芯片外通信瓶颈。虽然NVIDIA拥有克服瓶颈的解决方案,如 NVLINK 和其他互连技术,但它们可能会有点昂贵,因为它们会增加 GPU 的复杂性。英伟达已经有了一种解决方案,这种解决方案已经以 GA100 和 GH100 的形式在市场上推出,GA100 和 GH100 本质上是一个较小芯片的两半,通过互连连接,并通过一个分离的二级缓存进行通信。英伟达的Bryan Catanzaro解释说,这种实现方式提高了可扩展性,他们最初向这种设计的过渡非常顺利。预计该芯片还将采用台积电 4NP 工艺节点(5 纳米),密度将提高 30%(晶体管),因此除了架构升级外,也会带来不错的改进。现在,NVIDIA 可能也会在游戏方面采取同样的做法,这意味着如果整个项目取得成功,那么我们就能在未来看到 B100/B200 型芯片组产品。现在回到 NVIDIA GeForce RTX 5090,有多份报告称,我们可能会在这款下一代旗舰显卡上采用512 bit接口,而且已经有消息称,新一代怪兽级别显卡将采用全新的冷却和 PCB 解决方案。考虑到有传言称AMD 将凭借其 RDNA 4 阵容退出超高端图形性能领域,看起来英伟达一旦推出 Blackwell GPU,可能会进一步推动其在游戏领域的领先地位。GeForce RTX 5090 预计将在 RTX 5080 上市几周后推出,而 RTX 5080据传将是首款上架的 Blackwell 游戏 GPU。 ... PC版: 手机版:

封面图片

“阉割版”AI芯片,也能让英伟达赚疯?

“阉割版”AI芯片,也能让英伟达赚疯? 不过,H20在中国市场的实际情况,可能并没有如咨询机构预估的那般乐观。一位服务器经销商向虎嗅表示,目前一台H20八卡服务器,定价大约在120万元,而性能大幅领先的满配H100 NVLink版本的八卡服务器价格为270万元上下,而且是现货。尽管后者早早被列入禁止对华出售的名单中,但在非官方渠道中,这款芯片的货源基本没有断过,甚至在今年二季度H200开售后,这款芯片的价格还下跌了约10%。“无论怎么看,H20的性价比都还是太低。”这位服务器经销商提到,即便是同国内的解决方案相比,H20都难言有多大的竞争优势。“阉割版”,但还挺良心的?与同系列芯片不同,H20是一枚“赶工”性质非常明显的产品。在去年10月美国升级芯片禁令后,原本就被视为阉割版芯片的A800/H800,甚至是消费级产品RTX4090都被纳入禁令的管制范围。但仅在一个月后,就有台湾地区媒体报道称,英伟达向代工厂下了H20芯片的订单。在如此短的时间内,英伟达不可能重新设计一款芯片,最大的可能是基于既有型号进行有针对性的调整。比如新规中取消了将“互联带宽”作为限制芯片的识别参数,英伟达就将H20的HBM3显存容量拉高到96Gb,使显存带宽提高到4.0Tb/s;又比如新规新增了“性能密度”的限制,英伟达就向算力规格大砍一刀,使其理论性能仅为296TFLOP,相当于H100芯片的15%。至于那些新规没有提到的,比如PCIe Gen5扩展卡、八路HGX,英伟达全部保留了下来。值得一提的是,H20还有非常高的卡间互联速度,其NV Link带宽达到900Gb/s,很适合组建大规模集群。但这些特征组合在一起,却形成了一个很尴尬的事实:在算力大幅削减的情况下,H20的BOM很可能跟H100齐平,甚至高于后者。原因在于,存储颗粒一直是高性能计算卡成本的“大头”,比如H100芯片中,HBM3颗粒的采购就要占到60%左右,而在H20芯片上,英伟达又不得不为其配备更高规格的显存容量,以弥补算力不足的缺陷。基本可以断定,H20在英伟达高性能计算卡中,属于利润率最低的存在。相较于1.2-1.3万美元的售价,与它同成本的H100目前定价为2.5-3万美元。从这个角度来看,H20算是英伟达的一款良心产品了。英伟达自然不甘心于让一款单品拉低公司整体的毛利表现,但自去年芯片禁令升级后,英伟达四季度在中国大陆的营收,从上一季度的40.3亿降低至19.46亿,其中国区数据中心营收占比也从22%滑落至8%,英伟达急需用一款产品去稳住在中国的市场份额。H20就是英伟达拿出的诚意之作,但还是那个问题,H20的算力实在羸弱,这个硬伤无法被忽视。华为或与之一战?实际上,英伟达曾在今年2月进行过一次官方调价,在调价之前H20芯片的价格为2.3万美元,尽管英伟达表示降价的原因是“供货充足”,但如此大幅的价格调整,主要原因大概率还是销量没有达到预期。“国内大厂基本不会考虑H20服务器,都是闭眼买H100,而那些体量相对小的厂商也认为有点划不来。”有服务器经销商向笔者算了一笔账,现在H100的服务器单机租赁费用大概是8-9万元/月,而算力仅有前者六分之一的H20服务器价格为120万元上下,即便不考虑算力损耗的问题,厂商也需要购买6台H20服务器,才能与H100服务器相齐平。这样一对比,H20虽然是英伟达利润率最低的产品,但对于客户来说,实在称不上有性价比。而对于英伟达来说,还有一个不可忽视的因素是国内同类型竞品,比如华为升腾910B。与H20相比,910B在单卡算力(FP16)上几乎相当于前者的一倍。相应地,910B价格也要高于H20,服务器经销商向笔者表示,目前910B的服务器价格已经超过170万元。抛开价格,从实际表现来看,二者的竞争互有胜负手。910B强在算力和能效比上,H20则胜在软件生态与互联上。最直接的例子就是,H20兼容所有的英伟达H系列卡,而且具备极高的访存能力,在搭建算力集群时,能够更好地避免算力损耗。当然,这个集群规模是有上限的,比如各地筹划的“万P计算集群”,如果用H20搭建,那么0.15P单卡运算能力就意味着十万颗级别的GPU,组网难度极大。另外一个值得关注的问题是,英伟达与华为谁能更加稳定地供应产品?此前,就有业内人士向笔者提到过,对于那些急于购买搭建算力中心的厂商来说,H20可能是更现实的选择。一方面,英伟达的软件生态更加成熟,厂商的适配工作量要小得多;另一方面,目前无论是政策还是资本方,都对于算力中心的芯片国产化率有一定要求,910B的需求量非常大,相应地交付周期也比较长。这一说法笔者也在服务器经销商处得到了验证,对方向笔者表示,“在英伟达调价前,行业内客户对于910B的咨询要远大于H20,但现在也有客户对H20展现出了兴趣,因为有充足的现货。”有趣的是,二者可能并不是完全意义上的竞争关系,因为有业内人士向笔者表示,在他所在的公司,910B和H20被归为不同分级,在采购上并不冲突。 ... PC版: 手机版:

封面图片

黄仁勋的野心不止于GPU “AI工厂”概念剑指2500亿美元蓝海

黄仁勋的野心不止于GPU “AI工厂”概念剑指2500亿美元蓝海 实际上,对于英伟达GPU技术大会(GTC),业界一直将其誉为“AI界的伍德斯托克音乐节”,只是在这场盛会上,跃动的音符是芯片、算法、计算机架构和数学等内容。作为AI时代的“卖铲人”,英伟达在GTC大会上亮出了不少“黑科技”。其中,基于Blackwell架构的全新GPU芯片,性能是上一代的4倍,能效提升25倍,可谓“最强AI芯片”。全新AI微服务提供从应用软件到硬件编程的一站式服务,在硬件、软件和系统上全栈布局。更值得注意的是,黄仁勋在演讲中不断提到了“AI工厂”的概念,希望企业能站在不同的思维来考虑数据中心和AI工具。他认为,世界已经在新一轮工业革命的开端,这场工业革命里输入的原材料是数据,出来的则是有价值的数据令牌(digital tokens),处理和提炼数据的中间环节就是数据中心。据黄仁勋估计,这将是一个年规模达2500亿美元的市场。AI盛会亮点多:“最强AI芯片”Blackwell、人形机器人、Vision Pro数字孪生2016年,黄仁勋当着马斯克等一众OpenAI元老的面,亲手把第一台由GPU芯片组成的DGX-1超级计算机送给OpenAI。如今,所有卷入大语言模型和生成式AI竞争的公司,都在争夺英伟达的GPU芯片。毫无疑问,在这一轮生成式AI热潮中,英伟达是背后关键的“卖铲人”。在本周的GTC大会上,黄仁勋不负众望,亮出了一系列“黑科技”,再度引爆AI界。在这场科技盛会中,黄仁勋正式公布“AI核弹”:基于Blackwell架构的GPU芯片。Blackwell GPU的训练性能是上一代Hopper GPU的4倍,推理性能是30倍,能源效率是约25倍。英伟达GPU性能提升之快,让英伟达高级科学家Jim Fan直呼“新的摩尔定律”已经诞生。打个比方,如果要训练1.8万亿参数的模型(GPT-4的规模),用Hopper架构的芯片来训练,可能需要8000个GPU,消耗15兆瓦电力,需要90天左右。如果用Blackwell,只需要2000个GPU,4兆瓦的电力,能耗大幅降低。图片来源:Jim [email protected]业界预计,将采用Blackwell系列芯片的公司包括亚马逊、Google、Meta、微软、OpenAI、特斯拉和xAI。黄仁勋透露,新GPU的价格为3万到4万美元,这无疑将进一步推动英伟达的营收。英伟达还推出了NIM(英伟达推理微服务),提供从应用软件到硬件编程的一站式服务,让开发者可以轻松构建和部署AI应用,加速AI技术的落地应用。除此之外,英伟达还展示了一系列酷炫的AI运用场景,如用来预测蛋白质结构的 ESMFold、人形机器人基础模型 Groot 和人形机器人芯片 Jetson Thor ,与比亚迪合作的车载计算平台, Omniverse平台上的苹果Vision Pro应用和地球气候的数字孪生等。本次GTC大会也得到了华尔街的热捧。摩根大通分析师Harlan Sur认为,Blackwell架构巩固了英伟达在AI领域的主导地位,比竞争对手“仍领先一到两步”。美国银行分析师Vivek Arya表示,基于Blackwell的GPU产品“训练性能前进一步,推理性能实现飞跃”,维持1100美元的目标价和“买入”评级。高盛分析师Toshiya Hari则认为,英伟达强大的创新能力和广泛的客户关系将推动其持续增长,在未来的竞争中继续保持优势地位,并让竞争对手感到压力,因此Hari将其目标股价从875美元上调至1000美元。截至发稿,英伟达本周上涨7.35%,今年开年以来累计涨幅为95.75%,而2023年全年涨幅为239%。不只卖芯片,英伟达看中的是2500亿美元的大市场“我们真正卖的不是芯片。芯片本身不能工作,需要构建成一个系统才能运行。”在Blackwell芯片的超强性能引发热议之际,黄仁勋却在GTC大会期间不断强调这一点。“英伟达为AI构建了整个数据中心,只是将其分解成了各个部分,其中一些部分适合你的公司。”在黄仁勋看来,英伟达的市场机会不在于GPU芯片,因为很多公司也在开发GPU。英伟达真正的竞争优势在于将芯片、软件、算法引擎、安全技术、芯片间通信等统合到一起的数据中心解决方案。“数据中心正在快速走向加速计算(指利用专用硬件以超越 CPU 常规计算效能的高效计算处理),这是每年价值2500 亿美元的市场,并以每年20%至25%的速度增长。这主要是由于AI方面的需求,而英伟达将占据重要的份额。”黄仁勋表示。他同时称,这是英伟达市值能在9个月里从1万亿美元升至2万亿美元的底气。黄仁勋如此重视数据中心业务,是因为他认为数据中心将在新的工业革命中发挥中心的作用,因此他在GTC大会期间反复强调,要用“AI工厂”的思维来理解数据中心。黄仁勋用电力工业革命作类比来阐释“AI工厂”:上一次工业革命中输入的是水,产出来的是电,而在数据中心房间里发生的工业革命,其原材料则是数据,经过处理后输出的是数据令牌,“这种令牌是看不见的,会分布在世界各地。非常有价值。”业内人士认为,黄仁勋所谓的“AI工厂”,其实类似于国内智算中心的提法,是为AI大模型、AI应用等提供计算力的新型“发电厂”,而非传统上存储和管理数据的设备。黄仁勋之所以反复强调“AI工厂”的概念,实际是希望企业将数据中心看成赚钱的单元,而非单纯的设备投资,从而促使更多企业加快部署英伟达的服务。“数据中心曾被视为公司的成本中心和资本支出,你会认为它是一项成本。然而,工厂是另一回事,它能够赚钱。生成式AI的新世界将产生一种新形式的工厂。”他补充道。随着生成式AI的爆火,数据中心业务已经成为英伟达的主要增长点。今年2月发布的最新一季财报显示,数据中心业务扛起了英伟达当季83%的营收,同比增长409%至184亿美元。这一增长与大模型训练和推理对英伟达Hopper GPU架构的需求密不可分,而随着Blackwell GPU的面世,英伟达有望继续牢牢占据AI“卖铲人”的地位。在GTC大会期间,戴尔宣布与英伟达一起共建戴尔“AI工厂”,升级自家旗舰的PowerEdge XE9680伺服器来支持英伟达的最新GPU架构。联想集团也与英伟达宣布合作推出全新混合人工智能解决方案,将为开发人员提供刚刚发布的NVIDIA微服务,包括NVIDIA NIM和NeMo Retriever。微软CEO纳德拉亦表示,将在微软的全球数据中心采用 GB200 Grace Blackwell 处理器,助力世界各地的组织实现 AI 落地。在英伟达股价狂飙之际,华尔街所有人都关心的问题是,英伟达还能涨多少,到底有没有泡沫。在看多者眼里,这一轮AI热潮才刚刚开始,英伟达将继续增长。WedBush证券的著名分析师Dan Ives在发给《每日经济新闻》记者的评论邮件里表示:“英伟达‘黄金’GPU开启的波澜,已在科技界引发了未来数年的开支浪潮。在这场第四次工业革命里,随着企业和消费者使用场景在全球扩散,我们预计接下来的十年里AI开支将达到1万亿美元。当前,对AI的需求是无可争议的,微软、Google、亚马逊、甲骨文、Meta都在AI转型投资上有着惊人的资本支出数字,而英伟达正是领导者。”近期而言,Dan Ives认为2024年企业的IT预算中AI相关的支出将占8%到10%,而2023年这一数字还不到1%。另外值得一提的是,在英伟达GTC大会期间,除了黄仁勋的主题演讲,美国国家工程院院士、斯坦福大学首位红杉讲席教授李飞飞和OpenAI 首席运营官Brad Lightcap等嘉宾也带来了精彩的分享,探索 AI、加速计算等领域的突破性进展。 ... PC版: 手机版:

封面图片

AI芯片的一百种死法

AI芯片的一百种死法 LPU的全称是Language Processing Unit,翻译过来就是语言处理单元,是一种新型AI加速器。在它的支持下,大模型的推理速度快得惊人,瞬间能输出长篇幅答案;而使用了英伟达芯片的GPT-4,只能一个字一个字往外蹦。前者的响应速度最高可达到500T/S,而后者只有40T/S[1]。这是什么概念?相当于一秒钟生成300个单词,7分钟生成一部《哈姆雷特》长度级的文章。Groq背后的团队也可谓群星璀璨,公司CEO Jonathan Ross是Google初代TPU的设计者之一。早期GoogleTPU团队的10位成员中,8位都跳槽到了Groq。自2016年成立,Groq就饱受市场关注。2020年,Groq的芯片被美国阿贡实验室采用。2021年,Groq获老虎环球基金等机构投资,估值超过10亿美元。然而,Groq公司的各种“挑衅”,英伟达完全没放在眼里。相比之下,此前“奥特曼7万亿美元造芯”的新闻出来之后,黄仁勋至少还出来说了两句。毕竟,眼下Groq的种种套路,老黄可再熟悉不过了。文字游戏当下,制约AI芯片发展的主要困境,是内存墙:内存的传输速度远远慢于处理器算力,导致性能迟迟上不去。如果把芯片想象成一个餐厅,那么内存就是仓库,处理器就是后厨。仓库送菜比后厨烹饪还慢,严重限制了餐厅的出菜速度。因此,包括英伟达在内的芯片厂商,都在围绕“仓库(内存)”做文章。而Groq碾压英伟达的秘诀,也藏在内存结构里。传统计算机所使用的内存,其实有两种:DRAM容量较大,但传输速度较慢,起主存作用;而SRAM容量较小,但传输速度极快,作为缓存发挥辅助作用。一直以来,二者都是合作关系,缺一不可。但Groq为了追求极致的速度,摒弃了DRAM,让SRAM扛起了LPU主存大旗。相当于砍掉距离厨房较远的大仓库,直接将所有食材都堆在厨房边的菜篮子里。 这样的设计思路下,LPU不但在速度上形成降维打击,还轻松绕过了两个成本最高的技术: HBM和先进封装。这也构成了Groq另一个大吹特吹的宣传核心:便宜。根据Semi Analysis的拆解,LPU由于具备架构优势,物料成本仅为1050美元。相比之下,去年全球疯狂的H100芯片,物料成本则达到3700美元[2]。在售价层面,一块LPU的价格是20000美元,远低于H100的35000美元。但历史无数次告诉我们,大部分弯道超车的结局都是有田下山,LPU也不例外。大模型对内存大小也有着很高的要求。参数量越大的模型,运行时所需要存储的数据也会更多。SRAM虽然快,但缺陷是容量小,通常只有4-16MB。Groq研发团队多年苦心钻研,最终也只是将LPU的容量提升至230MB。而一块H100的内存容量是80GB,两者间差了约356倍。菜篮子再怎么升级换代,终究无法和仓库相提并论。想装下所有的食材,唯一的办法就是把菜篮子数量堆上去。因此,在运行同样参数的模型时,需要用到的LPU数量就远远高于GPU。前阿里技术副总裁贾扬清就算了一笔账:以运行LLaMA 70b模型为例,需要572张LPU,售价1144万美元;但如果换成H100,其实只需要8张,总价格在30万美元左右所谓的“便宜”压根不成立。芯片一多,整体的功耗成本也直线上升。LPU每年至少消耗25.4万美元电费,而H100顶多花费2.4万美元。事实证明,Groq的遥遥领先,只是隐去了核心信息的文字游戏。它所宣传的“高速”,是以近乎夸张的使用成本换来的:运行三年LLaMA 70b模型,LPU的使用成本将比英伟达的GPU高出32倍。当然,Groq的研发团队,显然对此心知肚明。选择此时大张旗鼓,更像是一种拉投资的举动。事实上,这已经不是Groq第一次公开“蹭热度”了。之前GPT Store刚发布时,Groq给OpenAI的奥特曼发了一封信,嘲笑使用GPTs跟在“深夜读《战争与和平》一样缓慢”。马斯克的聊天机器人Grok发布时,它也跑去贴脸嘲讽,质疑Grok抄袭了自己的名字。过去几年,打着“替代英伟达”旗号的初创公司数不胜数,Groq只不过是其中之一。目前,在超车英伟达的这条弯道,已经出现了严重塞车。前车之鉴Groq最直观的参考样本,来自英国公司Graphcore。Graphcore诞生之初,也曾拿着“技术路线别出心裁、演示视频酷炫惊艳、性能数据秒杀同行”的剧本,拳头产品IPU与Groq的LPU设计思路异曲同工,也是用高速的SRAM取代DRAM作为芯片内存,以实现极致的传输性能。同时,Graphcore调整了芯片架构,专注于处理高性能计算。它曾颇有自知之明地表示“不与英伟达直接竞争”,只将目标客户定位在,特别需要大量高性能计算的化学材料和医疗等特殊领域。Graphcore的两位创始人2019年,微软成为Graphcore首款IPU的大客户。 2020年5月,微软科学家将IPU内置于微软Azure操作系统中,用于识别胸部X光片。 这位科学家说道:“Graphcore芯片可以在30分钟内完成,GPU需要5个小时才能完成的工作。”在最风光的2016至2020年间,Graphcore共拿到了7.1亿美元融资,估值高达27.7亿美元,一度被视为全英国乃至欧洲全村的希望。Graphcore的投资者不仅有微软、三星、戴尔等科技巨头,也囊括了红杉资本、柏基投资等顶级风投。相比今天的Groq,当年的Graphcore只能说有过之无不及。但Graphcore的后续发展却远远不及当时的预期。2022年,Graphcore全年营收只有270万美元,为英伟达同期收入的万分之一,且相较前一年下降46%,亏损达到了2亿美元。 2023年,人工智能浪潮爆发,英伟达业绩再度暴涨。 H100一卡难求之时,Graphcore以为自己至少能捡到英伟达的漏,结果却连汤都没喝着。去年,Graphcore的创始人Nigel Toon向英国首相写了篇“公开信”,讨要补贴。他写道,“Graphcore已经为英国预留了多达3000个IPU芯片,可以为整个国家提供服务”,几乎已经是明示要钱[4]。不久前,一面业绩亏损,一面融资无果的Graphcore走向了最后一条路: 寻求收购。 根据The Telegraph爆料,其售价可能在5亿多美元不到2020年最高估值时期的五分之一[5]。当年,以Graphcore为首的挑战者们,各怀绝学,来势汹汹,颇有一种八大门派围攻光明顶的既视感。然而,如今多已散作鸟兽状。去年3月,芯片公司Mythic一度因资金耗尽而濒临倒闭,快要淹死之际,才好不容易等到了救命缰绳,拿到了1300万美元融资。另一家芯片公司Blaize也出现了类似的困境,最后靠着中东土豪的投资,才活了下来。剩下的公司中,Habana可能是唯一活得不错的它被英特尔以20亿收购,保留了独立运营的权利。从Graphcore到Mythic,这些芯片公司的技术路线各不相同;然而,它们失败的原因,却出奇一致。事实上,今天大火的Groq,同样也极有可能倒在同一个地方:芯片卖不出去。真正的护城河英伟达的GPU固然厉害,但它卖芯片的套路,才是真正的护城河。每年,英伟达都会投入相当一部分的研发经费,围绕GPU搭建系统性能力。当然,这是高情商的说法,低情商的说法是开发一起“捆绑销售”的产品这才是英伟达最坚实的城墙。目前,英伟达的城墙共有3层:第一层城墙,是CUDA的编程生态。众所周知,GPU最初的使用场景是游戏与视频图像渲染。早期,一些华尔街精英偶尔利用GPU的并行计算能力来跑交易,但由于需要重新编写大量代码,因此并未广泛传播开来。黄仁勋坚信GPU能用于更多领域,因此在2006年推出了降低编程门槛的软件架构CUDA,和自家GPU捆绑推出。后来,苹果和AMD都推出了类似平台,但此时CUDA生态早已构建,在“用得人越多,CUDA越好用,新开发者越倾向于选择CUDA”的良性循环中稳定前进。如今,CUDA可以让英伟达GPU的使用成本大幅降低。一位私有云CEO曾在接受采访时说过,理论上AMD卡也不是不能用,但要把这些卡调试到正常运转,需要多耗费两... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人