【字节造芯详情:筹建两年、四个项目,团队不到 300 人】字节至少已启动了四个芯片,包括 AI 芯片、服务器芯片、FPGA

【字节造芯详情:筹建两年、四个项目,团队不到 300 人】字节至少已启动了四个芯片项目,包括 AI 芯片、服务器芯片、FPGA NIC(FPGA 形态的智能网卡,FPGA 为可编程逻辑门阵列)项目和 RISC-V 项目。其中 AI 芯片已流片,服务器芯片的主要方向是视频编解码芯片。 #抽屉IT

相关推荐

封面图片

苹果正在研发数据中心服务器芯片,用于运行AI软件,该项目的内部代号为Project ACDC(数据中心的苹果芯片)

苹果正在研发数据中心服务器芯片,用于运行AI软件,该项目的内部代号为Project ACDC(数据中心的苹果芯片) 知情人士向媒体透露称,该项目已经进行了好几年,尚不确定所谓的新型芯片何时会推出。 据一些人士称,Apple的服务器芯片可能会专注于运行AI模型即所谓的推理而不是训练AI模型,后者可能仍由芯片制造商Nvidia主导。 另有媒体指出,预计在AI软件方面,苹果将侧重于能够在日常生活中为用户提供新的主动功能。 值得注意的是,苹果CEO库克在最近的财报电话会上表示,计划在6月的全球开发者大会期间,展示其在AI软件方面的创新成果。 标签: #Apple #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

日本为造AI芯片请“大神”:赫赫功绩遍布硅谷 先后任职苹果、特斯拉和英特尔

日本为造AI芯片请“大神”:赫赫功绩遍布硅谷 先后任职苹果、特斯拉和英特尔 该公司致力于采用开源的RISC-V标准,旨在为客户提供一种替代英伟达和Arm公司的产品,这两家公司都有自己的所谓指令集,用于在硬件和软件之间进行通信。报道称,日本政府正在为从研究到先进芯片制造的一系列项目提供资金,将雄心勃勃地出资670亿美元,以重新夺回在半导体行业的核心地位。与Tenstorrent的合作协议,有望扩大日本的这些努力,落地承接的是政府支持的初创公司Rapidus Corp.,各方将在这家公司生产共同设计的人工智能芯片。据悉,Rapidus已成立了18个月,计划在2027年开始生产芯片,届时将与台积电和三星电子(Samsung Electronics Co.)等大厂竞争。但该公司目前还没有客户。“晶片大神”来助力说起Jim Keller,他可以说是半导体行业的一个传奇人物,是硅谷当之无愧的传说级“晶片大神”。他凭借着出色的工作能力,在众多科技巨头中都留下了“足以名垂青史的战绩”。简单来说,他是苹果A系列晶片的设计师,是AMD的“Zen(AMD微处理器架构)之父”,也是特斯拉自动驾驶晶片的缔造者。虽然仅从业30余年,但他的足迹已遍布硅谷各大公司,领导了数代不同处理器的设计与研发。自2020年6月从英特尔辞职后,Keller就加入了人工智能芯片初创公司Tenstorrent,并担任首席技术官。随后,他于2023年1月成为该公司的首席执行官。除了Keller,Tenstorrent还有曾在AMD工作13年的Keith Witek担任首席运营长,以及Wei-han Lien担任首席芯片架构师。Lien领导了苹果公司推进其内部芯片设计的工作,该芯片已经从iPhone应用到iPad,甚至Mac电脑。在日本,Tenstorrent据称将与政府研究小组“尖端半导体技术中心”(Leading-edge Semiconductor Technology Center,简称LSTC)合作设计人工智能芯片。不过,在日本生产可能是一个挑战,因为Rapidus的目标是在2027年前制造出最先进的2纳米逻辑芯片,这被认为是一个渺茫的目标。日本LSTC主席Tetsuro Higashi在声明中表示,日本LSTC将通过国际合作,追求和推广致力于“边缘推理处理应用,包括生成式人工智能”的AI技术。他说,该国已经设法吸引了许多在海外工作的半导体专家回来,因为它正在努力加强其专业知识。 ... PC版: 手机版:

封面图片

存储芯片需求炸裂 韩国芯片库存惊现10年来最大降幅

存储芯片需求炸裂 韩国芯片库存惊现10年来最大降幅 根据韩国国家统计局周五公布的数据,4月份韩国芯片库存同比骤降33.7%,为2014年底以来的最大降幅,很大程度上反映韩国芯片出口规模激增。这也标志着芯片库存连续四个月呈现下降,与此同时,韩国芯片出口规模持续回升。随着人工智能技术发展迭代,全球企业对存储芯片需求激增。SK海力士已成为英伟达核心的HBM供应商,三星也在力争加入这一行列。芯片储备缩减反映出口增长加快对韩国芯片的需求带动了整体出口的上升趋势另外,统计局数据还显示,4月份韩国芯片产量大幅增长22.3%,但是低于3月份的30.2%。韩国工厂出货量则增长18.6%,小幅高于3月份的16.4%。全球存储芯片的供应规模,大部分掌握在韩国人手中韩国是世界上最大的两家存储芯片生产商的所在地,其中,全球HBM霸主SK海力士已经成为英伟达最核心的HBM供应商,英伟达H100 AI GPU所搭载的正是SK海力士生产的HBM存储系统。此外,英伟达H200 AI GPU以及最新款基于Blackwell架构的AI GPU的HBM存储也将搭载SK海力士所生产的最新一代HBM存储系统HBM3E,另一大HBM3E供应商则是来自美国的存储巨头美光科技()。另一大来自韩国的存储巨头三星,则是全球最大规模的DRAM与NAND存储芯片供应商,并且近期也在力争成为英伟达HBM以及更新一代的HBM3E供应商之一。三星在DDR系列存储芯片领域(如DDR4、DDR5),市场份额遥遥领先于其他存储芯片制造商,不同于HBM大规模应用于AI数据中心,DDR系列存储主要用于PC系统的主存储器,提供足够的内存容量和带宽,支持多任务处理和消费电子端数据集的处理,LPDDR(Low Power DDR)系列则应用于智能手机端。在当前存储领域最为火热的HBM市场方面,截至2022年,三大原厂HBM市占率分别为SK海力士50%、三星电子约40%、美光约10%,由于SK海力士在HBM领域最早发力,早在2016年已涉足这一领域,因此占据着绝大多数市场份额。有业内人士表示,2023年SK海力士HBM市场份额分布将在55%左右,位列绝对主导地位。2023年席卷全球企业的AI热潮已带动AI服务器需求激增,戴尔科技(Dell)以及超微电脑(Supermicro, SMCI)等全球顶级服务器制造商在其AI服务器中通常使用三星DDR系列以及SSD用于系统的服务器主存储体系,而SK海力士HBM存储系统则与英伟达AI GPU全面绑定在一起使用。从芯片出口的主要类型来看,韩国芯片出口主要集中在DRAM与NAND存储芯片,不过HBM这一DRAM细分领域占据的份额不断提高,其次则是模拟/混合信号IC、CMOS影像传感器、显示驱动IC、电源管理IC等,但是占据的出口比例较低。在2013-2015年全球存储芯片的繁荣时期,库存在大约一年半的时间里没有出现任何增加迹象。在2016-2017年的增长周期中,库存则下降持续了近一年。韩国央行的一份研究报告显示,随着“人工智能热潮”以类似于2016年云端服务器扩张的方式大幅推动芯片需求,最新一轮芯片需求复苏浪潮预计将至少持续到明年上半年。全球顶级金融机构野村近日发布报告称,随着周期性技术复苏扩大到其他消费电子终端市场,将支持整个芯片行业进入下一轮的景气度上升周期,预计将从今年下半年全面持续到2025年。两大存储巨头撑起韩国经济芯片行业,尤其是三星与SK海力士所撑起的存储芯片行业,可谓是韩国经济的“核心支柱”,带动了对韩国先进设备和工业建设项目的投资规模。统计数据显示,今年第一季度,韩国芯片出口同比增幅超过两位数,推动韩国经济环比增长1.3%,远高于经济学家普遍预期的0.6%。美国半导体行业协会 (SIA) 近日公布的数据显示,2024 年第一季度全球半导体销售额总计 1377亿美元,较2023年第一季度大幅增长15.2%。关于2024年半导体行业销售额预期,SIA 总裁兼首席执行官 John Neuffer 在数据报告预计2024 年整体销售额将相比于2023年实现两位数级别增幅。因此,韩国央行在上周大幅上调了2024年的韩国经济增长预测,反映出经济表现有望大幅好于预期,同时维持政策利率不变,以抑制通胀压力。不过,韩国央行并没有上调今年的通胀预期。韩国政府计划于周六公布最新的出口统计数据。经济学家们普遍预计,在存储芯片需求激增的趋势之下,5月份的韩国出口规模可能较上年同期增长15.4%,小幅高于4月份的13.8%。 ... PC版: 手机版:

封面图片

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU?

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU? 高调自研的Meta转身狂购英伟达芯片Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”Meta第三季度财报显示,2024财年的总支出将在940亿美元至990亿美元之间,部分原因是在算力方面的扩张。矛盾的是:之前,Meta的打算是自研芯片,不依赖英伟达。2023年,Meta公司首度曾公开其自研芯片的进展,表示开始计划开发一种用于训练人工智能模型的内部芯片,他们将这款新型芯片取名Meta训练和推理加速器,简称MTIA(MTIA v1),将其归类为加速人工智能训练和推理工作负载的“芯片家族”,并定计划于2025年推出。这种定制芯片采用开源芯片架构RISC-V,在类型上属于ASIC专用集成电路。巨头自研芯片不顺利2023年OpenAI 大模型爆火以来,互联网巨头对AI芯片的需求一夜爆发,一时间重金难求一卡。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。亚马逊似乎占据了先机,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU)。相比之下,微软、Meta等还在很大程度上依赖于英伟达、AMD和英特尔等芯片制造商的现成或定制硬件。报道称,微软一直在秘密研发自己的AI芯片,代号雅典娜(Athena)。该芯片由台积电代工,采用5nm先进制程,计划最早于2024年推出。MTIA的 v1,字面性能也很强,采用台积电7nm制程工艺,运行频率800MHz,TDP仅为25W,INT8整数运算能力为102.4 TOPS,FP16浮点运算能力为51.2 TFLOPS。但从目前的进度上看,微软、Meta的进度并不算快,微软一直在订购英伟达的芯片,Meta此次高调宣布购入35万个H100,也表明,自身研发并不顺利。AI算力竞争是否再次展开据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。2023年,各巨头对AI芯片的抢购,一度让英伟达H100持续涨价缺货。根据研究机构Raymond James的分析师预测,每个英伟达H100芯片售价为25000至30000美元。按此价格范围计算,Meta在这些芯片上的支出将至少接近百亿美元。Meta为何不吝于成本,斥巨资买入英伟达芯片。扎克伯格在周四的文章中还表示,将把人工智能投资与AR/VR驱动的元宇宙愿景联系起来,并计划推出Llama大型语言模型的下一个版本。从上述表态中可以看出,Meta的自身业务深入发展,需要算力的支持,这是根本原因。对于全球互联网巨头、科技公司来说,2024年的竞争已经开始,新的一轮算力竞争是否就此拉开序幕。 ... PC版: 手机版:

封面图片

三位哈佛辍学生筹资1.2亿美元 开发专用AI芯片对标英伟达

三位哈佛辍学生筹资1.2亿美元 开发专用AI芯片对标英伟达 这家仅成立两年的公司,总部位于苹果公司所在地的加利福尼亚州库比蒂诺,刚获得了1.2亿美元的风险投资。该公司正在开发一款名为Sohu的芯片,将专用于训练和部署基于“变换器(Transformers)”架构的人工智能模型,这种架构是推动ChatGPT等技术进步的核心。Etched的联合创始人兼首席执行官加文·乌伯提(Gavin Uberti)表示,随着人工智能技术的进步,大量对计算资源的需求将通过定制的ASIC(专用集成电路设计)芯片来满足。这些ASIC芯片设计用来执行特定的AI模型,与英伟达的通用图形处理单元(GPU)相比,其在成本上更具优势。乌伯提在接受采访时说:“我们在AI领域下了重注。如果变换器技术被淘汰,我们就完了。但如果它们继续存在,我们将成为有史以来最大的公司。”乌伯提和他的合伙人深知这是一场高风险的赌注,他们正面对一些世界上资本最雄厚、竞争力最强的公司。虽然1.2亿美元的A轮融资听起来很多,但这仅相当于英伟达半天的收入。英伟达的销售额在过去三个季度中已连续三次增长超过两倍,最近一个季度的销售额达到了260亿美元。据行业估算,英伟达在人工智能芯片市场的份额超过了80%。Etched正在一群冲击这一新兴市场机遇的初创公司中脱颖而出。此轮融资由Primary Venture Partners和Positive Sum Ventures领投,包括彼得·蒂尔(Peter Thiel)、斯坦利·德鲁肯米勒(Stanley Druckenmiller)和自动驾驶公司Cruise的创始人凯尔·沃格特(Kyle Vogt)也是支持者。尽管英伟达在市场中占据绝对优势,有些开发者称其具有深厚的“护城河”,但新的芯片制造商仍在大胆前行,因为他们面前的机会实在太大。与英伟达竞争的其他芯片初创公司包括Cerebras Systems,该公司正在构建体积更大的AI芯片;以及Tenstorrent,该公司使用流行的RISC-V技术来开发AI芯片。Etched的首席运营官罗伯特·瓦肯(Robert Wachen)表示:“我们对我们正在做的事情非常兴奋,这就是为什么我们决定辍学,也成功说服许多人离开他们原先的项目加入我们。这是当前最重要的工作。”对于初创公司来说,半导体历来是难以进入的行业,因为它需要长时间的开发周期、巨额的资金投入,并且需要与数量有限的制造合作伙伴(如台积电)紧密合作。据PitchBook数据显示,风险资本家在2023年向AI半导体公司投资了60亿美元,略高于2022年的57亿美元。乌伯提和他的合伙人克里斯·朱(音)的创业之旅始于在一家芯片公司的实习经历,乌伯提负责编译器开发。这段经历让他接触到了底层硬件的概念,这激发了他们创办Etched的灵感。两人在2022年决定从哈佛大学辍学,随后乌伯提的大学室友瓦肯也加入了他们的行列。他们迅速招募芯片行业的资深人才。如今,Etched已在库比蒂诺设立了办公室,拥有35名员工。乌伯提说:“当ChatGPT问世,英伟达股价飙升,尤其是当其他所有模型也开始采用转换器架构时,我们发现自己在正确的时间站在了正确的风口上。”Etched正在积极准备将Sohu芯片推向市场,创始人们表示,他们计划在今年晚些时候展示初步成果。这家初创公司还在努力争取客户,并表示科技公司都非常期待尝试新的AI芯片。乌伯提指出,要让这项业务成功,那些在GPU上投入巨资的公司需要看到,通过为特定的AI模型设计定制芯片可以带来显著的节省,并愿意在灵活性方面做出一些妥协。他补充说,通过专注于转换器技术这种架构可以以可预测的方式将数据从芯片传输到存储器Etched的Sohu芯片可以减少分配给存储器的空间,从而有更多的空间用于增强芯片的原始计算能力。Etched芯片的另一个效率优势是其采用了一个大型核心。这种设计减少了由流多处理器进行的低效计算,该部件原本用于协调不同核心之间的运算。乌伯提表示,专用AI芯片的影响可能类似于专门用于挖掘比特币或以太币的定制芯片ASIC,这些芯片显著降低了对英伟达GPU的需求。Etched创始人预计,随着这些模型被用来支持每分钟数百万次的AI软件服务,对这些芯片的需求将会增加。他们还表示,通过将AI架构硬编码到芯片中,可以降低答案返回的延迟,开启如AI代理或实时语音对话等新应用场景。Etched声称,得益于更简单且专一的架构,其芯片的速度是英伟达GPU的10倍以上。然而英伟达拥有庞大的研发团队和充足的资金,可以确保每年都能在芯片生产和技术改进方面保持领先。为了应对这一挑战,Etched在总部设置了倒计时,强调必须加快步伐。乌伯提说:“我们要赢得这场竞赛,以及后续的市场,关键在于尽快将产品推向市场。” ... PC版: 手机版:

封面图片

OpenAI的疯狂“星际之门”数据中心将基于什么芯片技术?

OpenAI的疯狂“星际之门”数据中心将基于什么芯片技术? 星际之门系统也从此引起了人们的议论。 Altman 似乎无法决定 OpenAI 是否应该完全依赖微软,但谁能责怪他呢?这就是为什么还有传言称OpenAI 正在设计自己的用于人工智能训练和推理的芯片,以及关于Altman试图带头投资 7 万亿美元芯片制造但随后又放弃的令人愤慨的评论。你不能责怪Altman乱扔了他正在盯着的大数字。训练人工智能模型非常昂贵,并且运行推理主要是生成tokern也不便宜。正如 NVIDIA 联合创始人兼首席执行官黄仁勋最近在 GTC 2024 会议上的主题演讲中指出的那样他们是不可持续的昂贵。这就是 Microsoft、Amazon Web Services、Google 和 Meta Platform 已经创建或正在创建自己的 CPU 和 XPU 的原因。随着参数数量的增加以及数据从文本格式转变为其他格式,如果目前的趋势持续下去并且铁可以扩展,那么LLM只会变得越来越大在未来几年内将增长 100 倍到 1,000 倍。因此,我们听到有关《星际之门》的讨论,这表明人工智能训练的上层毫无疑问是富人的游戏。根据您在最初的《星际之门》传闻后的报告中所读到的内容,《星际之门》是一个项目的第五阶段,该项目将耗资 1000 亿至 1150 亿美元,星际之门将于 2028 年交付,并在 2030 年及以后运营。微软目前显然正处于扩建的第三阶段。据推测,这些资金数字涵盖了机器的所有五个阶段,目前尚不清楚该数字是否涵盖了数据中心、内部机械以及电力成本。微软和 OpenAI 可能不会采取太多行动来解决这个问题。目前还没有讨论 Stargate 系统将基于什么技术,但我们认为它不会基于 NVIDIA GPU 和互连。它将基于未来几代的 Cobalt Arm 服务器处理器和 Maia XPU,以太网可扩展到单台机器中数十万到 100 万个 XPU。我们还认为,微软收购了 DPU 制造商 Fungible 来创建可扩展的以太网网络,并且可能让Juniper Networks 和 Fungible 的创始人Pradeep Sindhu创建匹配的以太网交换机 ASIC,以便微软可以控制其整个硬件堆栈。当然,这只是一个猜想。无论 Microsoft 使用哪种以太网网络,我们都相当确定在某个时候 100 万个端点是目标,而我们也相当确定 InfiniBand 不是答案。我们还认为,假设的这款 XPU 将与未来的 NVIDIA X100/X200 GPU 或其后继产品(我们不知道其名称)一样强大是不太可能的。微软和 OpenAI 更有可能尝试大规模扩展更便宜的设备网络,并从根本上降低人工智能训练和推理的总体成本。他们的商业模式取决于这种情况的发生。而且我们还可以合理地假设,在某个时候 NVIDIA 将不得不创建一个挤满矩阵数学单元的 XPU,并舍弃让该公司在数据中心计算领域起步的矢量和着色器单元。如果微软为 OpenAI 打造了一个更好的mousetrap,那么 NVIDIA 将不得不效仿。Stargate 肯定代表了人工智能支出的阶梯函数,也许还有两个阶梯函数,具体取决于你想要如何解释数据。在数据中心预算方面,微软迄今为止公开表示的全部内容是,它将在 2024 年和 2025 年在数据中心上花费超过 100 亿美元,我们推测其中大部分支出用于支付 AI 服务器的成本。那些 1000 亿美元或 1150 亿美元的数字太模糊,无法代表任何具体内容,因此目前这只是一些大话。我们要提醒您的是,在过去的十年中,微软至少保留了 1000 亿美元的现金和等价物,并在 2023 年 9 月的季度达到了接近 1440 亿美元的峰值。截至 2023 日历年(微软 2024 财年第二季度),该数字下降至 810 亿美元。因此,微软现在没有足够的资金来一次性完成 Stargate 项目,但其软件和云业务在过去 12 个月的销售额总计达到 825 亿美元,而销售额约为 2276 亿美元。未来六年,如果软件和云业务保持原样,微软将带来 1.37 万亿美元的收入,净利润约为 5000 亿美元。它可以承担星际之门的努力。微软也有能力购买 OpenAI,然后就可以结束它了。不管怎样,我们为微软可能已经构建的集群以及未来可能为 OpenAI 构建的集群制定了预算,展示了它们的组成和规模如何随着时间的推移而变化。看一下:我们认为,随着时间的推移,分配给 OpenAI 的 AI 集群数量将会减少,而这些集群的规模将会增加。我们还认为 OpenAI 集群中 GPU 的份额将会下降,而 XPU 的份额(很可能在 Maia 系列中,但也可能使用 OpenAI 设计)将会上升。随着时间的推移,自研XPU 的数量将与 GPU 的数量相匹配,我们进一步估计这些 XPU 的成本将不到数据中心 GPU 成本的一半。此外,我们认为从 InfiniBand 转向以太网也将降低成本,特别是如果微软使用自主研发的以太网 ASIC 和内置人工智能功能和集体操作功能的自主研发的 NIC。 (就像 NVIDIA 的 InfiniBand 的 SHARP 功能一样。)我们还强制采用支出模型,以便在 2028 年有两个拥有 100 万个端点的集群一个由 GPU 组成,一个由自研 XPU 组成,或者两个集群各占一半。我们想要估计未来的集群性能,但这很难做到。每年可能会有更多的 XPU 获得适度的性能提升,但性价比却要高得多。需要记住的是,微软可以保留当前一代的 GPU 或 XPU 供 OpenAI 内部使用(因此也是其自己的),并在未来许多年内向用户出售N-1和N-2代,很可能会获得很多收益其投资诱饵再次回到 OpenAI 上。因此,这些投资本身并不是沉没成本。这更像是一个汽车经销商驾驶着一大堆挂有经销商牌照的不同汽车,但在出售它们之前并没有将里程数提高得太高。问题是:微软会继续在 OpenAI 上投入巨资,以便扭亏为盈并租用这些产能吗,还是会停止在 OpenAI 上花费 1000 亿美元(两个月前该公司的估值为 800 亿美元)?另外还要花费 1100 亿美元左右的基础设施建设,以完全控制其人工智能堆栈。即使对于微软来说,这些数字也是相当大的。但是,正如我们所说,如果你看看 2024 年至 2028 年,微软可能有大约 5000 亿美元的净利润可供使用。很少有其他公司这样做。微软从一个 BASIC 编译器和一个从第三方拼凑出来的垃圾 DOS 操作系统开始,为一个不理解它的绝望的蓝色巨人做装饰,这简直是在放弃糖果店。也许这也是奥特曼的噩梦。但考虑到将人工智能推向新的高度需要巨额资金,现在可能为时已晚。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人