【字节造芯详情:筹建两年、四个项目,团队不到 300 人】字节至少已启动了四个芯片,包括 AI 芯片、服务器芯片、FPGA

【字节造芯详情:筹建两年、四个项目,团队不到 300 人】字节至少已启动了四个芯片项目,包括 AI 芯片、服务器芯片、FPGA NIC(FPGA 形态的智能网卡,FPGA 为可编程逻辑门阵列)项目和 RISC-V 项目。其中 AI 芯片已流片,服务器芯片的主要方向是视频编解码芯片。 #抽屉IT

相关推荐

封面图片

苹果正在研发数据中心服务器芯片,用于运行AI软件,该项目的内部代号为Project ACDC(数据中心的苹果芯片)

苹果正在研发数据中心服务器芯片,用于运行AI软件,该项目的内部代号为Project ACDC(数据中心的苹果芯片) 知情人士向媒体透露称,该项目已经进行了好几年,尚不确定所谓的新型芯片何时会推出。 据一些人士称,Apple的服务器芯片可能会专注于运行AI模型即所谓的推理而不是训练AI模型,后者可能仍由芯片制造商Nvidia主导。 另有媒体指出,预计在AI软件方面,苹果将侧重于能够在日常生活中为用户提供新的主动功能。 值得注意的是,苹果CEO库克在最近的财报电话会上表示,计划在6月的全球开发者大会期间,展示其在AI软件方面的创新成果。 标签: #Apple #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

日本为造AI芯片请“大神”:赫赫功绩遍布硅谷 先后任职苹果、特斯拉和英特尔

日本为造AI芯片请“大神”:赫赫功绩遍布硅谷 先后任职苹果、特斯拉和英特尔 该公司致力于采用开源的RISC-V标准,旨在为客户提供一种替代英伟达和Arm公司的产品,这两家公司都有自己的所谓指令集,用于在硬件和软件之间进行通信。报道称,日本政府正在为从研究到先进芯片制造的一系列项目提供资金,将雄心勃勃地出资670亿美元,以重新夺回在半导体行业的核心地位。与Tenstorrent的合作协议,有望扩大日本的这些努力,落地承接的是政府支持的初创公司Rapidus Corp.,各方将在这家公司生产共同设计的人工智能芯片。据悉,Rapidus已成立了18个月,计划在2027年开始生产芯片,届时将与台积电和三星电子(Samsung Electronics Co.)等大厂竞争。但该公司目前还没有客户。“晶片大神”来助力说起Jim Keller,他可以说是半导体行业的一个传奇人物,是硅谷当之无愧的传说级“晶片大神”。他凭借着出色的工作能力,在众多科技巨头中都留下了“足以名垂青史的战绩”。简单来说,他是苹果A系列晶片的设计师,是AMD的“Zen(AMD微处理器架构)之父”,也是特斯拉自动驾驶晶片的缔造者。虽然仅从业30余年,但他的足迹已遍布硅谷各大公司,领导了数代不同处理器的设计与研发。自2020年6月从英特尔辞职后,Keller就加入了人工智能芯片初创公司Tenstorrent,并担任首席技术官。随后,他于2023年1月成为该公司的首席执行官。除了Keller,Tenstorrent还有曾在AMD工作13年的Keith Witek担任首席运营长,以及Wei-han Lien担任首席芯片架构师。Lien领导了苹果公司推进其内部芯片设计的工作,该芯片已经从iPhone应用到iPad,甚至Mac电脑。在日本,Tenstorrent据称将与政府研究小组“尖端半导体技术中心”(Leading-edge Semiconductor Technology Center,简称LSTC)合作设计人工智能芯片。不过,在日本生产可能是一个挑战,因为Rapidus的目标是在2027年前制造出最先进的2纳米逻辑芯片,这被认为是一个渺茫的目标。日本LSTC主席Tetsuro Higashi在声明中表示,日本LSTC将通过国际合作,追求和推广致力于“边缘推理处理应用,包括生成式人工智能”的AI技术。他说,该国已经设法吸引了许多在海外工作的半导体专家回来,因为它正在努力加强其专业知识。 ... PC版: 手机版:

封面图片

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU?

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU? 高调自研的Meta转身狂购英伟达芯片Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”Meta第三季度财报显示,2024财年的总支出将在940亿美元至990亿美元之间,部分原因是在算力方面的扩张。矛盾的是:之前,Meta的打算是自研芯片,不依赖英伟达。2023年,Meta公司首度曾公开其自研芯片的进展,表示开始计划开发一种用于训练人工智能模型的内部芯片,他们将这款新型芯片取名Meta训练和推理加速器,简称MTIA(MTIA v1),将其归类为加速人工智能训练和推理工作负载的“芯片家族”,并定计划于2025年推出。这种定制芯片采用开源芯片架构RISC-V,在类型上属于ASIC专用集成电路。巨头自研芯片不顺利2023年OpenAI 大模型爆火以来,互联网巨头对AI芯片的需求一夜爆发,一时间重金难求一卡。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。亚马逊似乎占据了先机,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU)。相比之下,微软、Meta等还在很大程度上依赖于英伟达、AMD和英特尔等芯片制造商的现成或定制硬件。报道称,微软一直在秘密研发自己的AI芯片,代号雅典娜(Athena)。该芯片由台积电代工,采用5nm先进制程,计划最早于2024年推出。MTIA的 v1,字面性能也很强,采用台积电7nm制程工艺,运行频率800MHz,TDP仅为25W,INT8整数运算能力为102.4 TOPS,FP16浮点运算能力为51.2 TFLOPS。但从目前的进度上看,微软、Meta的进度并不算快,微软一直在订购英伟达的芯片,Meta此次高调宣布购入35万个H100,也表明,自身研发并不顺利。AI算力竞争是否再次展开据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。2023年,各巨头对AI芯片的抢购,一度让英伟达H100持续涨价缺货。根据研究机构Raymond James的分析师预测,每个英伟达H100芯片售价为25000至30000美元。按此价格范围计算,Meta在这些芯片上的支出将至少接近百亿美元。Meta为何不吝于成本,斥巨资买入英伟达芯片。扎克伯格在周四的文章中还表示,将把人工智能投资与AR/VR驱动的元宇宙愿景联系起来,并计划推出Llama大型语言模型的下一个版本。从上述表态中可以看出,Meta的自身业务深入发展,需要算力的支持,这是根本原因。对于全球互联网巨头、科技公司来说,2024年的竞争已经开始,新的一轮算力竞争是否就此拉开序幕。 ... PC版: 手机版:

封面图片

存储芯片需求炸裂 韩国芯片库存惊现10年来最大降幅

存储芯片需求炸裂 韩国芯片库存惊现10年来最大降幅 根据韩国国家统计局周五公布的数据,4月份韩国芯片库存同比骤降33.7%,为2014年底以来的最大降幅,很大程度上反映韩国芯片出口规模激增。这也标志着芯片库存连续四个月呈现下降,与此同时,韩国芯片出口规模持续回升。随着人工智能技术发展迭代,全球企业对存储芯片需求激增。SK海力士已成为英伟达核心的HBM供应商,三星也在力争加入这一行列。芯片储备缩减反映出口增长加快对韩国芯片的需求带动了整体出口的上升趋势另外,统计局数据还显示,4月份韩国芯片产量大幅增长22.3%,但是低于3月份的30.2%。韩国工厂出货量则增长18.6%,小幅高于3月份的16.4%。全球存储芯片的供应规模,大部分掌握在韩国人手中韩国是世界上最大的两家存储芯片生产商的所在地,其中,全球HBM霸主SK海力士已经成为英伟达最核心的HBM供应商,英伟达H100 AI GPU所搭载的正是SK海力士生产的HBM存储系统。此外,英伟达H200 AI GPU以及最新款基于Blackwell架构的AI GPU的HBM存储也将搭载SK海力士所生产的最新一代HBM存储系统HBM3E,另一大HBM3E供应商则是来自美国的存储巨头美光科技()。另一大来自韩国的存储巨头三星,则是全球最大规模的DRAM与NAND存储芯片供应商,并且近期也在力争成为英伟达HBM以及更新一代的HBM3E供应商之一。三星在DDR系列存储芯片领域(如DDR4、DDR5),市场份额遥遥领先于其他存储芯片制造商,不同于HBM大规模应用于AI数据中心,DDR系列存储主要用于PC系统的主存储器,提供足够的内存容量和带宽,支持多任务处理和消费电子端数据集的处理,LPDDR(Low Power DDR)系列则应用于智能手机端。在当前存储领域最为火热的HBM市场方面,截至2022年,三大原厂HBM市占率分别为SK海力士50%、三星电子约40%、美光约10%,由于SK海力士在HBM领域最早发力,早在2016年已涉足这一领域,因此占据着绝大多数市场份额。有业内人士表示,2023年SK海力士HBM市场份额分布将在55%左右,位列绝对主导地位。2023年席卷全球企业的AI热潮已带动AI服务器需求激增,戴尔科技(Dell)以及超微电脑(Supermicro, SMCI)等全球顶级服务器制造商在其AI服务器中通常使用三星DDR系列以及SSD用于系统的服务器主存储体系,而SK海力士HBM存储系统则与英伟达AI GPU全面绑定在一起使用。从芯片出口的主要类型来看,韩国芯片出口主要集中在DRAM与NAND存储芯片,不过HBM这一DRAM细分领域占据的份额不断提高,其次则是模拟/混合信号IC、CMOS影像传感器、显示驱动IC、电源管理IC等,但是占据的出口比例较低。在2013-2015年全球存储芯片的繁荣时期,库存在大约一年半的时间里没有出现任何增加迹象。在2016-2017年的增长周期中,库存则下降持续了近一年。韩国央行的一份研究报告显示,随着“人工智能热潮”以类似于2016年云端服务器扩张的方式大幅推动芯片需求,最新一轮芯片需求复苏浪潮预计将至少持续到明年上半年。全球顶级金融机构野村近日发布报告称,随着周期性技术复苏扩大到其他消费电子终端市场,将支持整个芯片行业进入下一轮的景气度上升周期,预计将从今年下半年全面持续到2025年。两大存储巨头撑起韩国经济芯片行业,尤其是三星与SK海力士所撑起的存储芯片行业,可谓是韩国经济的“核心支柱”,带动了对韩国先进设备和工业建设项目的投资规模。统计数据显示,今年第一季度,韩国芯片出口同比增幅超过两位数,推动韩国经济环比增长1.3%,远高于经济学家普遍预期的0.6%。美国半导体行业协会 (SIA) 近日公布的数据显示,2024 年第一季度全球半导体销售额总计 1377亿美元,较2023年第一季度大幅增长15.2%。关于2024年半导体行业销售额预期,SIA 总裁兼首席执行官 John Neuffer 在数据报告预计2024 年整体销售额将相比于2023年实现两位数级别增幅。因此,韩国央行在上周大幅上调了2024年的韩国经济增长预测,反映出经济表现有望大幅好于预期,同时维持政策利率不变,以抑制通胀压力。不过,韩国央行并没有上调今年的通胀预期。韩国政府计划于周六公布最新的出口统计数据。经济学家们普遍预计,在存储芯片需求激增的趋势之下,5月份的韩国出口规模可能较上年同期增长15.4%,小幅高于4月份的13.8%。 ... PC版: 手机版:

封面图片

OpenAI的疯狂“星际之门”数据中心将基于什么芯片技术?

OpenAI的疯狂“星际之门”数据中心将基于什么芯片技术? 星际之门系统也从此引起了人们的议论。 Altman 似乎无法决定 OpenAI 是否应该完全依赖微软,但谁能责怪他呢?这就是为什么还有传言称OpenAI 正在设计自己的用于人工智能训练和推理的芯片,以及关于Altman试图带头投资 7 万亿美元芯片制造但随后又放弃的令人愤慨的评论。你不能责怪Altman乱扔了他正在盯着的大数字。训练人工智能模型非常昂贵,并且运行推理主要是生成tokern也不便宜。正如 NVIDIA 联合创始人兼首席执行官黄仁勋最近在 GTC 2024 会议上的主题演讲中指出的那样他们是不可持续的昂贵。这就是 Microsoft、Amazon Web Services、Google 和 Meta Platform 已经创建或正在创建自己的 CPU 和 XPU 的原因。随着参数数量的增加以及数据从文本格式转变为其他格式,如果目前的趋势持续下去并且铁可以扩展,那么LLM只会变得越来越大在未来几年内将增长 100 倍到 1,000 倍。因此,我们听到有关《星际之门》的讨论,这表明人工智能训练的上层毫无疑问是富人的游戏。根据您在最初的《星际之门》传闻后的报告中所读到的内容,《星际之门》是一个项目的第五阶段,该项目将耗资 1000 亿至 1150 亿美元,星际之门将于 2028 年交付,并在 2030 年及以后运营。微软目前显然正处于扩建的第三阶段。据推测,这些资金数字涵盖了机器的所有五个阶段,目前尚不清楚该数字是否涵盖了数据中心、内部机械以及电力成本。微软和 OpenAI 可能不会采取太多行动来解决这个问题。目前还没有讨论 Stargate 系统将基于什么技术,但我们认为它不会基于 NVIDIA GPU 和互连。它将基于未来几代的 Cobalt Arm 服务器处理器和 Maia XPU,以太网可扩展到单台机器中数十万到 100 万个 XPU。我们还认为,微软收购了 DPU 制造商 Fungible 来创建可扩展的以太网网络,并且可能让Juniper Networks 和 Fungible 的创始人Pradeep Sindhu创建匹配的以太网交换机 ASIC,以便微软可以控制其整个硬件堆栈。当然,这只是一个猜想。无论 Microsoft 使用哪种以太网网络,我们都相当确定在某个时候 100 万个端点是目标,而我们也相当确定 InfiniBand 不是答案。我们还认为,假设的这款 XPU 将与未来的 NVIDIA X100/X200 GPU 或其后继产品(我们不知道其名称)一样强大是不太可能的。微软和 OpenAI 更有可能尝试大规模扩展更便宜的设备网络,并从根本上降低人工智能训练和推理的总体成本。他们的商业模式取决于这种情况的发生。而且我们还可以合理地假设,在某个时候 NVIDIA 将不得不创建一个挤满矩阵数学单元的 XPU,并舍弃让该公司在数据中心计算领域起步的矢量和着色器单元。如果微软为 OpenAI 打造了一个更好的mousetrap,那么 NVIDIA 将不得不效仿。Stargate 肯定代表了人工智能支出的阶梯函数,也许还有两个阶梯函数,具体取决于你想要如何解释数据。在数据中心预算方面,微软迄今为止公开表示的全部内容是,它将在 2024 年和 2025 年在数据中心上花费超过 100 亿美元,我们推测其中大部分支出用于支付 AI 服务器的成本。那些 1000 亿美元或 1150 亿美元的数字太模糊,无法代表任何具体内容,因此目前这只是一些大话。我们要提醒您的是,在过去的十年中,微软至少保留了 1000 亿美元的现金和等价物,并在 2023 年 9 月的季度达到了接近 1440 亿美元的峰值。截至 2023 日历年(微软 2024 财年第二季度),该数字下降至 810 亿美元。因此,微软现在没有足够的资金来一次性完成 Stargate 项目,但其软件和云业务在过去 12 个月的销售额总计达到 825 亿美元,而销售额约为 2276 亿美元。未来六年,如果软件和云业务保持原样,微软将带来 1.37 万亿美元的收入,净利润约为 5000 亿美元。它可以承担星际之门的努力。微软也有能力购买 OpenAI,然后就可以结束它了。不管怎样,我们为微软可能已经构建的集群以及未来可能为 OpenAI 构建的集群制定了预算,展示了它们的组成和规模如何随着时间的推移而变化。看一下:我们认为,随着时间的推移,分配给 OpenAI 的 AI 集群数量将会减少,而这些集群的规模将会增加。我们还认为 OpenAI 集群中 GPU 的份额将会下降,而 XPU 的份额(很可能在 Maia 系列中,但也可能使用 OpenAI 设计)将会上升。随着时间的推移,自研XPU 的数量将与 GPU 的数量相匹配,我们进一步估计这些 XPU 的成本将不到数据中心 GPU 成本的一半。此外,我们认为从 InfiniBand 转向以太网也将降低成本,特别是如果微软使用自主研发的以太网 ASIC 和内置人工智能功能和集体操作功能的自主研发的 NIC。 (就像 NVIDIA 的 InfiniBand 的 SHARP 功能一样。)我们还强制采用支出模型,以便在 2028 年有两个拥有 100 万个端点的集群一个由 GPU 组成,一个由自研 XPU 组成,或者两个集群各占一半。我们想要估计未来的集群性能,但这很难做到。每年可能会有更多的 XPU 获得适度的性能提升,但性价比却要高得多。需要记住的是,微软可以保留当前一代的 GPU 或 XPU 供 OpenAI 内部使用(因此也是其自己的),并在未来许多年内向用户出售N-1和N-2代,很可能会获得很多收益其投资诱饵再次回到 OpenAI 上。因此,这些投资本身并不是沉没成本。这更像是一个汽车经销商驾驶着一大堆挂有经销商牌照的不同汽车,但在出售它们之前并没有将里程数提高得太高。问题是:微软会继续在 OpenAI 上投入巨资,以便扭亏为盈并租用这些产能吗,还是会停止在 OpenAI 上花费 1000 亿美元(两个月前该公司的估值为 800 亿美元)?另外还要花费 1100 亿美元左右的基础设施建设,以完全控制其人工智能堆栈。即使对于微软来说,这些数字也是相当大的。但是,正如我们所说,如果你看看 2024 年至 2028 年,微软可能有大约 5000 亿美元的净利润可供使用。很少有其他公司这样做。微软从一个 BASIC 编译器和一个从第三方拼凑出来的垃圾 DOS 操作系统开始,为一个不理解它的绝望的蓝色巨人做装饰,这简直是在放弃糖果店。也许这也是奥特曼的噩梦。但考虑到将人工智能推向新的高度需要巨额资金,现在可能为时已晚。 ... PC版: 手机版:

封面图片

AMD的市值已经等于两个英特尔了

AMD的市值已经等于两个英特尔了 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 Intel 的基本盘还在, AMD 连 Intel 的一半都不到。怪就怪在营收明明打不过,但 AMD 市值已经是 intel 的一倍了。不过股市向来是个玩儿想象力的地方。现在 Intel 的市值没 AMD 高,无非是因为投资者不咋看好 Intel 的前景了,而对 AMD ,则是信心满满。至于里面具体的原因,我已经替哥几个盘了盘,咱今天就来唠唠这事儿。其实 Intel 市值不行,都是有迹可循的。当年因为拒绝给苹果开发手机芯片, Intel 错失了整个移动时代,而相比 NVIDIA , Intel 对 AI 又少了点敏锐。为了保住自己的地位, Intel 这么些年折腾来折腾去,结果到现在玩的还是 oldschool 那套,全靠 PC 业务养着。你就说 Intel 的产品部门,里面掌管营收的神是这两位:客户计算事业部( PC )还有数据中心和人工智能事业部(数据中心),占了总营收的八成以上。今年一季度 Intel 营收好看,也主要是因为 PC 市场回暖, CCG 事业部支棱起来贡献了 75 亿美元的营收。但从外部环境来讲,全球 PC 市场需求下降也是事实。根据 Gartner 的数据, 2023 全年 PC 出货量相比 2022 年,下降了 14.8% , 2022 全年又比 2021 下降了 16.2% 。另外, Intel 的数据中心业务也有点腹背受敌的意思。从前靠着至强系列处理器, Intel 拿下过高达 99% 的数据中心 CPU 市场份额。( Mercury Research 数据 )但这几年,随着 AWS 等势力的崛起,还有 AMD 的步步紧逼,让 Intel 有点招架不住了。Counterpoint 数据显示,2022 年 Intel 的数据中心 CPU 市场份额从 2021 年的 80.71% 下滑到了 70.77% 。这事吧,也是有迹可循的。就拿产品来说,在同时处理 1995 个虚拟化需求时, AMD 霄龙 9654 处理器平均需要 5 台就能满足单个企业的需求,而 Intel 至强 8380 处理器,需要 15 台才能达到同等效果( AMD 官方披露 )。这边 CPU 市场被人虎视眈眈,更坏的消息是, AI 带来的 GPU 增量市场, Intel 还挤不进去。Intel 不擅长做显卡这事儿,哥几个应该都清楚吧?不说民用产品了,哪怕是 22 年紧赶慢赶推出的数据中心 GPU 产品 “ Flex ” ,也一直没啥大的水花。。再说了,数据中心 GPU 市场几乎被 NVIDIA 把着,有机构预测今年英伟达光是靠数据中心 GPU ,就能赚 870 亿美元。另外, Intel 的 IDM 模式,也没能玩过台积电。可能有差友不清楚, Intel 是 IDM 模式的厂商,也就是把芯片设计、制造还有封装测试,一揽子全包下来。相比没有晶圆厂的 Fabless 模式, IDM 的好处就是不需要看人脸色,当然坏处就是要烧很多钱,回本周期也长。2005 年, Intel 提出了一个 Tick-Tock 钟摆计划, Tick 年缩小晶体管尺寸, Tock 年则更新架构。按照芯片晶体管密度每 18 个月翻一倍的摩尔定律, Intel 的钟摆计划可以每两年实现一次大更新。2014 年 14nm 量产,顺利的话下一代 10nm 的产品应该在 16 年出来。但 2014 年,摩尔定律遇到瓶颈了, 10nm 在极限的边缘疯狂试探。Intel 要么只能等 EUV 光刻机技术成熟,要么选多重四图案曝光( SAQP )技术。Intel 冒险选了后者,但这项技术出来的芯片良率很低,这也导致 10nm 量产一再推迟, Tick-Tock 不动的 Intel ,只能在 14nm 制程上又硬挤出了 14nm+ 、 14nm++ 。一直到 19 年, Intel 才推出第一代 10nm 制程产品。但抬头一看,台积电早在 16 年底就开始量产 10nm 了。甚至台积电都接上 5nm 订单了, Intel 的 7nm 还在如约跳票。至于台积电能成的原因,除了死磕 10nm FinFET 技术以外,当年人人唾弃的 “ 夜鹰计划 ” 也是功不可没。不过吃了瘪的 Intel 非但没有认怂,相反,基辛格上位之后又搞了个 IDM 2.0 ,直指台积电和三星的腹地,还说要在四年内实现五个制程的小目标。这些招能不能帮 Intel 重回巅峰咱不知道,但自打 IDM2.0 之后,这钱花得就跟开水龙头似的。你就说砸钱在亚利桑那和俄州建晶圆厂,得花多少吧。再反观前阵子 Intel 披露的一份文件,代工业务 2023 年营收 189 亿美元,同比下降 31% , 2022 年这一数字为 274.9 亿美元,亏损亏到了 70 亿美元。一边库库花钱,一边赚得还比之前少了,这你受得了吗?虽然基辛格放话代工业务 2030 年能盈亏平衡,今年 Intel 也很大手笔地买了 6 台 ASML 光刻机,但看股市的情况,大家似乎不怎么买账。这一通折腾下来,人家都已经上高速飙车了, Intel 感觉还在原地找高速路口呢。反观 AMD ,就很懂得怎么借势翻盘了。虽说当年 AMD 也走过不少弯路,卖厂卖楼还债,四年换四个 CEO ,市值跌到只剩五六十亿美元,差点给自己整破产了。但 2014 年苏妈上任之后,好歹是把公司从破产边缘给拉回来了。新官上任三把火,苏姿丰一来就砍掉了 AMD 不少项目,集中精力搞 Zen 架构的研发。2017 年,基于 Zen 架构的 Ryzen 问世,直接让亏损的 AMD 盈利了。接下来几年, AMD 又吃上了台积电 7nm 的红利,趁着 Intel 还在挤牙膏的时候,在 PC 和数据中心 CPU 市场大展拳脚,市场上 “ AMD Yes ” 的声音也是一天大过一天。2022 年 2 月, AMD 市值首次超过 Intel ,为自己扳回了一城。另外在 GPU 市场, AMD 虽说打不过 NVIDIA ,但在图形处理和游戏等消费级场景,也勉强能坐个 “ 第二 ” 的位置。除了苏妈的战略给力以外, AMD 这两年又踩上了 AI 的风口。各家都开始喊 AI PC , AMD 的市值继续水涨船高,曾经的 “ 农企 ” 翻身,妥妥的爽文既视感好吧。2022 年初,AMD 又收购了 FPGA 界的老大赛灵思,准备来波强强联合。FPGA 也叫现场可编程门阵列,这玩意儿最大的特点就是可定制、灵活性高,也因为这些特点,它可以根据应用场景的具体需求来自由调整,简单来说,就是把造芯片搞成了搭乐高积木。因为这个特性,它未来在自动驾驶、 5G 、 AI 还有数据中心等高性能计算领域,可以说是空间很大。对于 AMD 来说,扩展自家产品线是一方面,这些应用场景在未来趋势上的应用,才是更有想象力的那个。所以我觉着,虽说现在 Intel 在 CPU 的盘子依然很大,但 AMD 胜在大方向没走错,步子也迈得很稳。反倒是 Intel ,产品部门前景不明,代工业务又不知道猴年马月才能盈利,投资者对它预期不好也是正常的事情。不过,将来芯片市场的变化格局,谁又说得好呢。可能 Intel 也想不到,当年瞧不上的 AMD ,今天能成为同台竞技,甚至反超自己的对手吧。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人