【新造车游戏,又要变了?】AI 日上曝光的 3000 块自研计算芯片 D1 组成的超级计算机集群 Dojo ExaPOD,马斯克

【新造车游戏,又要变了?】AI 日上曝光的 3000 块自研计算芯片 D1 组成的超级计算机集群 Dojo ExaPOD,马斯克对于计算能力的「破壁」,又将看似明确的智能电动车竞争从「三电」系统转到了「算力」上,拉到了另一个维度。 #抽屉IT

相关推荐

封面图片

【特斯拉自研超算 Dojo 亮相】马斯克向全世界展示了特斯拉在自研超级计算机 Dojo、FSD 软件等内容上的最新进展。按照马斯

【特斯拉自研超算 Dojo 亮相】马斯克向全世界展示了特斯拉在自研超级计算机 Dojo、FSD 软件等内容上的最新进展。按照马斯克本人的说法,吸引最好的 AI 人才加入特斯拉似乎是本次活动的唯一目标。 #抽屉IT

封面图片

特斯拉开始生产可以媲美超算榜首的 Dojo 超级计算机

特斯拉开始生产可以媲美超算榜首的 Dojo 超级计算机 特斯拉在 2023 年第二季度财报中概述了大规模解决车辆自动驾驶问题所需的四大技术支柱:超大型真实世界数据集、神经网络训练、车辆硬件和车辆软件。特斯拉表示,它已经开始生产用于训练其自动驾驶车队的 Dojo 超级计算机,该计算机宣布于 2019 年。特斯拉已经拥有一台基于英伟达 GPU 的大型超级计算机,它是世界上最强大的超级计算机之一,但新的 Dojo 定制计算机使用的是特斯拉设计的芯片。此前,马斯克曾宣称,Dojo 的运算能力将达到 1 ExaFLOP。目前,据公开披露的信息,美国橡树岭国家实验室的超级计算机 Frontier 是全球首台达到 ExaFLOP 级别的计算机,也是唯一一台。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

特斯拉斥资5亿美元将其Dojo超级计算机项目引入布法罗工厂

特斯拉斥资5亿美元将其Dojo超级计算机项目引入布法罗工厂 特斯拉的决定是"基于纽约可靠的电力供应、强大的人才梯队以及项目可用空间"。Dojo 是在 2021 年特斯拉的"人工智能日"活动上首次公布的,它是一台超级计算机,旨在帮助特斯拉推进其尚未实现的制造自动驾驶汽车的目标。特斯拉计划利用这台超级计算机处理从其电动汽车上获取的大量视频数据,以训练目前为其最先进的驾驶辅助软件提供动力的人工智能,该软件被特斯拉称为"完全自动驾驶测试版"。马斯克去年表示,特斯拉计划在 Dojo 上花费"远远超过 10 亿美元"。将Dojo项目引入水牛城是特斯拉对该地点优先考虑的最新转变,该地点已成为纽约州的一个大麻烦。特斯拉曾被称为"Gigafactory 2",在 2016 年收购陷入困境的太阳能电池板公司 SolarCity 时,特斯拉从 SolarCity 手中接管了这座工厂。当时,纽约州已经承诺为该工厂提供 7.5 亿美元的资金。特斯拉承诺在这里生产太阳能屋顶瓦,但在规模化生产方面却举步维艰。特斯拉的合作伙伴松下公司于 2020 年退出了该工厂,特斯拉转而雇用为其不太先进的自动驾驶软件标注训练数据的人员。马斯克去年 4 月曾表示,他认为 Dojo 超级计算机项目是一个"长线赌注",可能"以非常、非常大的方式......获得数千亿美元级别的回报"。本周,他在与分析师的通话中重申了这一点。"这是一个高风险、高回报的项目,"他说。"我们正在扩大规模,计划推出 Dojo 1.5、Dojo 2、Dojo 3 等等。所以,你知道,我认为它很有潜力,但它的规模足够高风险、高回报。"虽然 5 亿美元的投资在霍丘尔的新闻发布会上受到了欢呼,但马斯克在 X 日的社交媒体上却淡化了这一数字,并指出公司在 2024 年将在英伟达硬件上花费更多的钱。"州长说这是一台 Dojo 超级计算机是对的,但 5 亿美元显然是一笔巨款,只相当于 NVIDIA 的 10k H100 系统,"马斯克在 X 上的帖子中写道,"特斯拉今年在 NVIDIA 硬件上的花费将超过这个数字。在这一点上,在人工智能领域具有竞争力的赌注至少是每年数十亿美元。" ... PC版: 手机版:

封面图片

马斯克证实 xAI 将自行打造超级计算机训练 Grok 大语言模型

马斯克证实 xAI 将自行打造超级计算机训练 Grok 大语言模型 马斯克证实其名下人工智能初创企业 xAI 已结束与甲骨文扩大现有协议、租用英伟达芯片的洽谈。他表示,xAI 正打造一台拥有 10 万块英伟达 H100 GPU 的超级计算机,预计将在本月晚些时候交付并开始训练。 他指出,“这将成为全球范围内功能最强大的训练集群,并且领先优势巨大”,“我们的核心竞争力在于比任何其他的人工智能公司都更快,这是缩小差距的唯一途径”。

封面图片

AMD将搭建由120万颗GPU驱动的全球最强AI超级计算机

AMD将搭建由120万颗GPU驱动的全球最强AI超级计算机 AMD 数据中心解决方案总经理 Forrest Norrod 在接受The Next Platform 采访时透露,他们收到了客户关于使用 120 万个 GPU 构建人工智能训练集群的真实询问。从这个角度来看,目前的人工智能训练集群通常使用数千个 GPU,通过高速互连连接到多个本地服务器机架上。目前正在考虑的人工智能开发规模是前所未有的。诺罗德说:"正在筹建的一些训练集群确实强大得令人匪夷所思。事实上,目前已知用于训练人工智能模型的最大超级计算机是Frontier,它拥有37888个Radeon GPU,这使得AMD潜在的超级计算机比Frontier强大30倍。"当然,事情没那么简单。即使以目前的功率水平,在创建人工智能训练集群时也有大量隐患需要考虑。人工智能训练需要较低的延迟来提供及时的结果,需要消耗大量的电能,而且必须考虑到硬件故障,即使只有几千个 GPU 也不例外。大多数服务器的利用率在20%左右,并在远程机器上处理数千个小型异步作业。然而,人工智能培训的兴起正在导致服务器结构发生重大变化。为了跟上机器学习模型和算法的发展,人工智能数据中心必须配备专门为这项工作设计的大量计算能力。人工智能训练本质上是一项大型同步作业,需要集群中的每个节点尽可能快地来回传递信息。最有趣的是,这些数据来自 AMD,而 AMD 在 2023 年的数据中心 GPU 出货量中只占不到 2%。而占据另外 98% 市场份额的 NVIDIA 则对客户要求其开发的产品守口如瓶。作为市场领导者,我们只能想象他们正在开发什么。虽然拟议中的 120 万 GPU 超级计算机可能看起来有些离谱,但诺罗德称,"非常清醒的人"正在考虑在人工智能训练集群上花费多达千亿美元。这并不令人震惊,因为在过去几年里,人工智能在科技界的发展可谓突飞猛进。看来,企业已经准备好在人工智能和机器学习上投入巨资,以保持竞争力。 ... PC版: 手机版:

封面图片

壁仞科技 AI 软件首席架构师丁云帆:国产 AI 芯片单个算力即使看起来不够强,也能通过综合手段提升集群算力

壁仞科技 AI 软件首席架构师丁云帆:国产 AI 芯片单个算力即使看起来不够强,也能通过综合手段提升集群算力 7 月 5 日消息,在上海举办的世界人工大会(WAIC)上,壁仞科技副总裁兼 AI 软件首席架构师丁云帆在论坛演讲中提到,当前解决算力瓶颈问题需要从三个维度考虑,分别是硬件集群算力、软件有效算力、异构聚合算力。他认为,做好这三个维度的工作,即使国产 AI 芯片单个算力不强,也能通过综合手段提升算力,满足国内大模型训练的需求。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人