#视频 为追赶美国的芯片开发技术,中国政府承诺投入1,800亿美元以支持国内芯片行业。中国科技初创企业壁仞开发出的BR100芯片

#视频 为追赶美国的芯片开发技术,中国政府承诺投入1,800亿美元以支持国内芯片行业。中国科技初创企业壁仞开发出的BR100芯片据称已可以与英伟达强大的A100芯片相匹敌。本则视频介绍了上述两种图形处理芯片的设计与运算性能,并解读两个超级大国争夺人工智能领域主导地位之战。

相关推荐

封面图片

壁仞 科技首款通用GPU 芯片BR100 发布,打破全球算力纪录

壁仞 科技首款通用GPU 芯片BR100 发布,打破全球算力纪录 官方称,BR100 创出全球算力纪录,16 位浮点算力达到 1000T 以上,8 位定点算力达到 2000T 以上,单芯片峰值算力达到 PFLOPS 级别。 采用 Chiplet 技术、新一代 PCIe 5.0、率先支持 CXL 互连协议 这东西是 GPGPU,只能跑计算不能3D渲染的

封面图片

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100 旧金山,3 月 21 日(路透社)主导人工智能 (AI) 芯片市场的美国半导体设计公司 Nvidia Corp 表示,已将其旗舰产品修改为可以合法出口到中国的版本. 美国监管机构去年制定规则,以国家安全问题为由,禁止英伟达向中国客户出售其两款最先进的芯片,即 A100 和更新的 H100。此类芯片对于开发生成式人工智能技术(如 OpenAI 的 ChatGPT 和类似产品)至关重要。 路透社在 11 月报道称,Nvidia设计了一款名为 A800 的芯片,该芯片降低了 A100 的某些功能,使 A800 可以合法出口到中国。 周二,该公司表示,它已经开发出类似的 H100 芯片的中国出口版本。这款名为 H800 的新芯片被阿里巴巴集团控股有限公司、百度公司和腾讯控股有限公司等中国科技公司的云计算部门使用。

封面图片

字节跳动与博通合作开发 AI 芯片

字节跳动与博通合作开发 AI 芯片 字节跳动正与博通合作开发先进 AI 芯片,以在中美关系紧张的局势下获得充足的高端芯片供应。路透社援引知情人士的消息称,双方合作开发的是 5 纳米 ASIC 定制芯片,将满足美国的出口限制,由台积电代工。知情人士表示,台积电预计不会在今年内制造这种新芯片,它尚未进入流片试产阶段。字节跳动、博通以及台积电都未对此置评。为了发展 AI,字节跳动已经囤积了大量英伟达的 GPU,其中包括了美国第一轮制裁前可采购的 A100 和 H100 GPU,以及英伟达专为中国市场定制但被第二轮制裁限制的 A800 和 H800 芯片。字节跳动去年投入了 20 亿美元采购英伟达芯片。 via Solidot

封面图片

尽管有美国禁令 中国军方机构、AI研究所和大学仍少量购买被美禁止的英伟达芯片

尽管有美国禁令 中国军方机构、AI研究所和大学仍少量购买被美禁止的英伟达芯片 路透社查阅招标文件后发现,中国军事机构、国有人工智能研究机构和大学过去一年小批量购买了被美国禁止出口到中国的英伟达芯片。其中包括2022年被禁止对华出口的A100和H100,以及专为中国开发但去年10月被禁出口的A800和H800芯片。 买家包括哈尔滨工业大学和中国电子科技大学,前者于去年5月购买了六块用于训练深度学习模型的A100芯片,后者于2022年12月购买了一块A100芯片。上个月公布的招标还显示,清华大学购买了两块H100芯片,中国工信部下属的一个实验室也购买了一块H100芯片。清华大学自2022年禁令以来已购买了约80块A100芯片。

封面图片

【围攻英伟达,三大巨头的芯片再出招】博通的Jericho3-AI,瞄准英伟达的Infiniband;微软正在开发代号“Athen

【围攻英伟达,三大巨头的芯片再出招】博通的Jericho3-AI,瞄准英伟达的Infiniband;微软正在开发代号“Athena”的人工智能芯片;谷歌也于近期公布了TPU v4的细节,号称比英伟达A100更快、更节能。 #抽屉IT

封面图片

SK海力士、台积电宣布合作开发HBM4芯片 预期2026年投产

SK海力士、台积电宣布合作开发HBM4芯片 预期2026年投产 (来源:SK海力士)背景:什么是高带宽内存众所周知,高带宽内存是为了解决传统DDR内存的带宽不足以应对高性能计算需求而开发。通过堆叠内存芯片和通过硅通孔(TSV)连接这些芯片,从而显著提高内存带宽。SK海力士在2013年首次宣布HBM技术开发成功,后来被称为HBM1的芯片通过AMD的Radeon R9 Fury显卡首次登陆市场。后续,HBM家族又先后迎来HBM2、HBM2E、HBM3和HBM3E。SK海力士介绍称,HBM3E带来了10%的散热改进,同时数据处理能力也达到每秒1.18TB的水平。(HBM3E芯片成品,来源:SK海力士)技术的迭代也带来了参数的翻倍。举例而言,根据英伟达官方的规格参数表,H100产品主要搭载的是80GB的HBM3,而使用HBM3E的H200产品,内存容量则达到几乎翻倍的141GB。找台积电做些什么?在此次合作前,所有的海力士HBM芯片都是基于公司自己的制程工艺,包括制造封装内最底层的基础裸片,然后将多层DRAM裸片堆叠在基础裸片上。(HBM3E演示视频,来源:SK海力士)两家公司在公告中表示,从HBM4产品开始,准备用台积电的先进逻辑工艺来制造基础裸片。通过超细微工艺增加更多的功能,公司可以生产在性能、共享等方面更满足客户需求的定制化HBM产品。另外,双方还计划合作优化HBM产品和台积电独有的CoWoS技术融合(2.5D封装)。通过与台积电的合作,SK海力士计划于2026年开始大规模生产HBM4芯片。作为英伟达的主要供应商,海力士正在向AI龙头提供HBM3芯片,今年开始交付HBM3E芯片。对于台积电而言,AI服务器也是在消费电子疲软、汽车需求下降的当下,维持公司业绩的最强劲驱动因素。台积电预计2024财年的总资本支出大约在280-320亿美元之间,约有10%投资于先进封装能力。三巨头激战HBM市场根据公开市场能够找得到的信息,目前国际大厂里只有SK海力士、美光科技和三星电子有能力生产与H100这类AI计算系统搭配的HBM芯片。而眼下,这三家正隔着太平洋展开激烈的竞争。大概比SK海力士早大半个月,美光科技也在今年宣布开始量产HBM3E芯片。今年2月,正在加紧扩展HBM产能的三星也发布了业界容量最大的36GB HBM3E 12H芯片。英伟达上个月表示正在对三星的芯片进行资格认证,以用于AI服务器产品。研究机构Trendforce估算,2024年的HBM市场里,SK 海力士能够占到52.5%的份额,三星和美光则占42.4%和5.1%。另外,在动态随机存取存储器(DRAM)行业内,HBM的收入份额在2023年超过8%,预计在2024年能达到20%。对于SK海力士与台积电合作一事,普华永道高科技行业研究中心主任Allen Cheng认为是“明智的举措”。他表示:“台积电几乎拥有所有开发尖端AI芯片的关键客户,进一步加深伙伴关系,意味着海力士能吸引更多的客户使用该公司的HBM。” ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人