马斯克旗下xAI公司结束谈判 甲骨文100亿美元交易泡汤

马斯克旗下xAI公司结束谈判 甲骨文100亿美元交易泡汤 马斯克周二在其社交网络 X 上发帖称,他的公司 xAI 决定建立一个内部训练 AI 模型的系统,因为“我们的基本竞争力取决于比任何其他 AI 公司都更快。据多位参与谈判的人士透露,xAI和甲骨文已经结束了扩大现有协议的谈判,谈判因时间表和电力供应问题分歧而破裂。根据现有协议,xAI一直从甲骨文租用英伟达的AI芯片。xAI已经签订了一项合作,在甲骨文云服务平台Gen2 Cloud上训练AI模型。现在,xAI正购买芯片在田纳西州孟菲斯市自主建立一座数据中心。xAI原本正与甲骨文磋商一项从甲骨文租用英伟达处理器的多年协议,目的是把这些处理器用于计划中的超级计算机,但谈判因一些问题而受阻,例如马斯克要求建造一台速度更快的超级计算机,这让甲骨文感觉难以做到。而且,甲骨文还担心xAI首选的地点电力供应不足。甲骨文与xAI所讨论的具体处理能力已外包给另一家客户。xAI已经从甲骨文租用了大约1.6万颗英伟达芯片。马斯克计划构建一个使用10万颗英伟达GPU驱动的超级计算机,用于训练Grok 3.0大模型。但是,甲骨文已经与微软签署了一项协议,为OpenAI提供由英伟达芯片驱动的服务器,这笔交易涉及10万颗即将推出的GB200芯片。马斯克在X上发文回应称,xAI正在使用英伟达的H100图形处理器自行构建一个系统,从而“以最快的时间完成”。“xAI从甲骨文订购了2.4万个H100处理器,用于训练了Grok 2。Grok 2正在进行微调和修复漏洞阶段,预计下个月可以发布。同时,xAI正在自行建设一个使用10万颗H100处理器的系统,以便争取以最快时间完成,目标是本月晚些时候开始训练,这将成为世界上最强大的训练集群,性能大幅领先。”分析师 Anurag Rana 写道,马斯克决定在内部建立 AI 训练基础设施,这凸显了云提供商尽管拥有资金,但仍面临扩张挑战。“我们认为这些问题不仅限于甲骨文,也可能困扰微软和 AWS,不仅是因为专用芯片短缺,还因为电力短缺。” ... PC版: 手机版:

相关推荐

封面图片

马斯克旗下 xAI 与甲骨文接近达成100亿美元服务器租用协议

马斯克旗下 xAI 与甲骨文接近达成100亿美元服务器租用协议 据一位参与谈判的人士透露,马斯克旗下人工智能初创公司 xAI 一直在与甲骨文高管谈判,打算在未来几年内斥资100亿美元从甲骨文租用云服务器。这笔交易将使 xAI 成为甲骨文最大的客户之一,因为马斯克试图迅速赶上竞争对手,这些竞争对手已经在训练和运行对话式人工智能所需的专用服务器上花费了数十亿美元。100亿的交易规模堪比两家领先的人工智能开发商 OpenAI 和 Anthropic 与比甲骨文规模更大的竞争对手达成的交易。与此同时,xAI 正在完成一轮60亿美元的股权融资,以帮助支付云成本。拟议的云交易意味着 xAI 未来需要筹集更多资金。

封面图片

马斯克的人工智能创企 xAI 终止与甲骨文扩大芯片租用协议的洽谈

马斯克的人工智能创企 xAI 终止与甲骨文扩大芯片租用协议的洽谈 马斯克7月9日证实,人工智能创企xAI已结束与甲骨文扩大现有协议、租用英伟达芯片的洽谈。马斯克表示,xAI正建造一台拥有10万个英伟达图形处理单元的超级计算机,这些芯片用于训练和操作生成式AI程序,“我们的根本竞争力有赖于比其他任何人工智能公司更快”。马斯克另外透露,xAI的Grok 2模型在来自甲骨文的2.4万个英伟达H100芯片上进行训练,“可能准备下月发布”。 甲骨文去年9月曾表示,该公司已达成协议,向xAI提供云基础设施以训练AI模型。甲骨文当时未透露合同价值和期限。今年5月有媒体报道称,两家公司接近达成扩大合作关系的协议,xAI将斥资约100亿美元向甲骨文租用云服务器、为期数年。 、、

封面图片

xAI接近与甲骨文达成723亿元人工智能服务器租赁交易

xAI接近与甲骨文达成723亿元人工智能服务器租赁交易 报告称,这笔交易将使 xAI 成为甲骨文最大的客户之一,因为马斯克希望为 xAI 筹集资金,以试图与 OpenAI 和Google的人工智能产品竞争。报道补充说,云计算谈判正在进行中,不能保证两家公司会签署协议。据报道,XAI 正在就上个月的一轮融资进行 30 亿美元谈判,这将使该公司估值达到 180 亿美元。甲骨文和埃隆·马斯克没有立即回应路透社的置评请求。甲骨文联合创始人拉里·埃里森(Larry Ellison)自称是埃隆·马斯克的密友,他在 9 月份宣布,马斯克的初创公司已签署一份合同,在甲骨文的 Gen2 云中训练人工智能模型。本月早些时候,甲骨文发布了其数据库技术的更新,旨在使其在人工智能方面更加有用。报道称,XAI 是 Oracle 最大的 H100 客户,使用了超过 15,000 个 AI 芯片。 H100是NVIDIA制造的AI芯片。上个月,马斯克表示,xAI 将向其社交媒体平台 X 上的早期测试人员和现有用户推出其聊天机器人 Grok 的增强版。 ... PC版: 手机版:

封面图片

马斯克的xAI拿下60亿美元融资 准备对决OpenAI

马斯克的xAI拿下60亿美元融资 准备对决OpenAI 融到 60 亿美金,就意味着能做出比肩 OpenAI 的大模型吗?因为他是马斯克。能吸引到最优秀的 AI 人才,能搞定大算力和大笔融资做 Scaling Law(缩放定律,被视为大模型的秘诀),除了他,你很难想到还有第二个人。况且,背靠自动驾驶这个被视为大模型最大的应用场景、X.com ToC 流量入口,以及作为曾经的 OpenAI 联合创始人身份,马斯克的入场,势必冲击大模型的制高点。01 马斯克:钱和卡,我搞得定2023 年 2 月,微软向 OpenAI 投资了 100 亿美元,你或许觉得这笔钱应该能花好一阵子。但在今天,100 亿美金几乎才是 2024 年做大模型的起平线。撇开现金流充足的Google,OpenAI、Anthropic 和 xAI 分别获得了约 130 亿美元、70 亿美元、60 亿美元融资额,来“卷”新一代大模型。这主要是由于做大模型所需要的算力一再扩张,尤其是随着多模态融合成为新的 AGI 大模型路线。如果说去年做大模型的算力门槛是 1 万张英伟达 H100 的算力集群,那么,今年这个数字变成了至少 10 万张 H100,这是马斯克筹集 60 亿美元资金的主要用途。据 The Information 采访的一位投资者,马斯克在最近与潜在和现有 xAI 投资者的通话中表示,公司将把大部分资金用于租用 AI 芯片,并帮助其在 2025 年下半年达到 10 万个 GPU,以便改进 Grok 背后的模型。这位人士说,马斯克暗示,他是仅有的几位能筹集到足够资金与领先的人工智能公司竞争的高管之一。上个月,马斯克在上的现场音频聊天中表示,xAI 将需要 10 万个 NVIDIA H100 GPU 来训练 Grok 3.0。他表示,该公司目前正在大约 20,000 个 H100 芯片上训练 Grok 2.0。图片来源:视觉中国英伟达没有公布过其芯片的成本,但研究公司 SemiAnalysis 的首席分析师 Dylan Patel 表示,租用 10 万台 H100 每年可能花费约 17 亿美元;即将推出的被称为 GB200 的 NVIDIA AI 芯片可能比前代产品贵 50%。能不能“借”到钱买算力是一方面,有了钱能不能买到算力又是另一方面。当前,英伟达最高端的 GPU 系列仍旧供不应求,云厂商能用来训练大模型的算力集群有限。马斯克将目光锁定在了三大云厂商之外的另一家甲骨文 Oracle。与亚马逊云 AWS、Google云、微软云 Azure 不同,甲骨文与 OpenAI 或 Anthropic 没有业务往来,这可能使其对马斯克作为合作伙伴更具吸引力。同时,马斯克也是甲骨文联合创始人埃里森的老朋友,埃里森此前曾担任马斯克的另一家公司特斯拉的董事会董事,并出资帮助马斯克接管了当时还被称为 Twitter 的 X。据直接知情人士透露,XAI 已经是 Oracle 最大的 H100 客户,使用了超过 15000 个芯片。现在,马斯克已经明确 xAI 将需要多达 10 万个专用半导体来训练和运行下一代 Grok。他告诉投资者,xAI 计划将所有这些芯片串联成一台大型计算机,他称之为“算力超级工厂”(gigafactory of compute)。马斯克希望在 2025 年秋天之前让这台超级计算机投入运行,并将亲自负责按时交付。他称,这些连接起来的 H100 集群,建成后的规模将至少是目前最大 GPU 集群的四倍。在“算力超级工厂”的计划下,XAI 可能与甲骨文公司合作开发超级计算机,也可能选择其他合作方或合作形式。一个细节体现在本轮融资的出资方包括红杉、A16Z 等基金,唯独没有甲骨文的身影。相比之下,其他三大云厂商和大模型公司之间的合作则通过投资来“锁定”云客户。无论如何,“算力超级工厂”给了 Grok 上一线牌桌的起点,这场 AI 背后的算力竞赛,还将继续加码。此前,扎克伯格表示,到 2024 年底,Meta 将拥有 35 万台 H100,其中一些将用于训练公司的 Llama 开源大模型。微软计划在今年和明年为 OpenAI 提供容纳数十万个 GPU 的服务器。OpenAI 和微软已经在讨论到 2028 年开发一台价值 1000 亿美元的超级计算机。02 Grok,马斯克商业版图不可或缺的一环马斯克曾于 2015 年联合创办了非营利机构OpenAI,2018 年 2 月,马斯克辞去了 OpenAI 董事会席位,理由是与他作为特斯拉 CEO 的角色存在“潜在的未来利益冲突”。去年,马斯克创办了 xAI,再度下场做大模型,以开发一种他认为与Google和 OpenAI 相比不那么“清醒(woke)”,不那么容易受到政治正确或其他审查制度影响的替代方案。在今天融资官宣的博客里,xAI 再次重申了这一点,称 xAI 专注于开发真实、有能力且对全人类最大利益的先进 AI 系统,公司使命是了解宇宙的真实本质。图片来源:视觉中国过去一年,xAI 从 2023 年 7 月公司发布,到 11 月在 X 上发布 Grok-1,再到最近宣布的具有长上下文能力的改进型 Grok-1.5 模型,再到具有图像理解功能的 Grok-1.5V,xAI 的模型能力得到了快速提升。在马斯克的构想中,Grok 对语音的限制比 OpenAI 和Google的 AI 助手要少。马斯克表示,该公司目前正在 2 万个 GPU 上训练 Grok 2,最近的一个版本可以处理文档、图表和现实世界中的物体。马斯克计划将该模型扩展到音频和视频领域。马斯克在向潜在投资者推介时说,xAI 比 Anthropic 和 OpenAI 更有优势,因为这两家公司没有直接向客户销售其模型的明确途径,而是依赖云提供商转售其技术。他称,xAI 将通过包括特斯拉在内的其他公司销售 Grok,从而更直接地接触用户。而自动驾驶也被视为大模型最大的应用场景。融资消息官宣后,马斯克在为 xAI 招聘人才。|截图来源:X.comxAI 官网中,该公司正在招聘数据、多模态、模型训练的人才。|图片来源:xAI值得注意的是,xAI 大约有 50 名员工,其员工相关成本仅是对手的一小部分。今天,xai 也在官网寻求更多 AI 人才,释放了一众招聘岗位。一边狂裁特斯拉,一边疯狂为 xAI 招人,马斯克的 AI 之路,走的依然是他自己的风格。 ... PC版: 手机版:

封面图片

埃隆·马斯克透露计划制造世界上"最强大"的10万级NVIDIA GPU AI集群

埃隆·马斯克透露计划制造世界上"最强大"的10万级NVIDIA GPU AI集群 根据马斯克的说法,在与甲骨文公司分道扬镳以加快人工智能开发进度之后,xAI 已经决定只依靠自己来建立"世界上最强大的训练集群"。甲骨文向xAI提供了2.4万个英伟达Hopper GPU,用于训练Grok 2人工智能模型,马斯克透露,该模型将于8月发布。马斯克分享了xAI的10万GPU集群的最新细节,以回应一份媒体报道,该报道概述了这家人工智能公司与甲骨文公司就扩大现有协议的谈判已经结束。根据目前的协议,xAI 使用 2.4 万个英伟达的 H100 GPU 来训练 Grok 2 人工智能模型。据外媒报道,甲骨文公司也正在与微软合作,为其提供由 10 万个英伟达 Blackwell GB200 芯片组成的集群,这些芯片是市场上最新的人工智能处理器。马斯克分享说,xAI 正在内部构建其 10 万 GPU 人工智能系统,以实现"最快的完成时间"。他认为,这是"追赶"其他人工智能公司的必要条件,因为他认为,"比其他任何人工智能公司都快"对于xAI的"基本竞争力"非常重要。马斯克在上月初的声明中透露,xAI 计划利用英伟达公司的 Blackwell 芯片打造一个价值数十亿美元的系统。他概述说,该系统将使用大约 30 万个 B200 GPU。结合英伟达公司首席执行官黄仁勋分享的价格细节,该系统的成本可能高达 90 亿美元。马斯克认为,通过构建 H100 系统而不是与甲骨文公司合作,xAI 可以实现"最快的完成时间"。这位高管认为,该系统将于本月开始训练,并将成为"世界上功能最强大的训练集群"。在 Grok 或 ChatGPT 等模型准备好响应查询之前,它们需要在现有数据集上接受训练。这些数据集使它们能够根据已经学到的知识,从数学角度预测对用户问题的回复内容。当人工智能行业的主要参与者在 2024 年升级并推出新模型时,xAI 在这方面一直相对沉默。现在,马斯克透露,Grok 2 将于下月推出,因为该模型的大部分开发工作已经完成,xAI 正在进行最后的调整和错误修正。人工智能芯片炙手可热,并在不到一年的时间里推动英伟达成为全球第三大最有价值的公司。Facebook 的母公司 Meta 分享了其计划,即在 2024 年底之前积累 35 万个这样的芯片,以配合其人工智能平台。Meta、Google母公司 Alphabet、微软支持的 ChatGPT 和亚马逊的 Anthropic 都是世界领先的人工智能软件公司。 ... PC版: 手机版:

封面图片

消息称马斯克旗下人工智能公司 xAI 即将完成 60 亿美元最大融资

消息称马斯克旗下人工智能公司 xAI 即将完成 60 亿美元最大融资 新一轮的融资有助于 xAI 获得更多 AI 算力资源以同 OpenAI、Anthropic 对手展开模型竞争:马斯克近日表示,xAI 的下一代 Grok 模型正在 2 万块英伟达 H100 上进行训练,而未来的 Grok 3 对 AI GPU 的需求还将增长至 10 万块。 2024-03-18 2023-07-13

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人