阿联酋官宣建设吉瓦级 AI“星际之门”,全民免费用 ChatGPT Plus

阿联酋官宣建设吉瓦级 AI“星际之门”,全民免费用 ChatGPT Plus 继马斯克宣布建设吉瓦级 AI 超级集群后,阿联酋也宣布将与 OpenAI、英伟达、思科和软银合作,建设 1 吉瓦规模的“星际之门阿联酋”项目。据悉,阿联酋计划建设 5 个此类数据中心,总计 5 吉瓦,并在美国对等投资。 “阿联酋星际之门”将由阿联酋 G42 建设,OpenAI 和甲骨文运营,英伟达提供 Blackwell GB300 系统,思科负责网络连接。首个 200 兆瓦级 AI 集群预计 2026 年投运。 OpenAI 宣布,阿联酋将成为全球首个为全体国民支付 ChatGPT Plus 订阅费用的国家。“星际之门阿联酋”项目预计覆盖 2000 英里范围,影响全球近一半人口。 此前,美国已部分放宽对阿联酋等中东国家出口先进 AI 芯片的限制。

相关推荐

封面图片

阿联酋官宣建设吉瓦级“星际之门” 将为全体国民支付ChatGPT订阅费

阿联酋官宣建设吉瓦级“星际之门” 将为全体国民支付ChatGPT订阅费 据财联社消息,就在世界首富马斯克周二放话称要搞“全球首个吉瓦级AI训练超级集群”后,阿联酋方面周四宣布,与OpenAI、英伟达、思科和软银共同建设“星际之门阿联酋”(Stargate UAE)项目,规模也将达到1吉瓦。 阿联酋强调,在他们的AI数据园区建设规划中,此等规模的数据中心总共要搞5个,合计5吉瓦。与此同时,阿联酋还将在美国“对等投资同等规模的AI基础设施”。 据悉,阿联酋的AI园区将占地约10平方英里,电力需求相当于5座核电站的发电能力。规模远超正在美国德克萨斯州建设的首个“星际之门”园区(规划容量1.2吉瓦)。 公告表示,“阿联酋星际之门”将由阿联酋国有背景的人工智能企业G42建设,并由OpenAI和甲骨文公司运营。英伟达将提供最先进的Blackwell GB300系统,思科负责提供网络连接基础设施。 各方预期,首个200兆瓦级AI集群预计于2026年投入运营。虽然公告未具体透露服务器数量,但据TrendForce分析师估算,每台配备72颗芯片的GB300服务器功耗约140千瓦,所以首个AI集群相当于1400台服务器,或10万颗英伟达芯片。 特朗普政府早些时候撤销了一项拜登时期的芯片出口限制,这项规则原本会限制向阿联酋等中东国家出口先进人工智能芯片。虽然美国政府尚未公布替代规则,但表示会组建美阿工作组,确保阿联酋的项目满足要求。 OpenAI也在声明中表示,根据合作协议,阿联酋将成为全球首个在全国范围内启用ChatGPT的国家这里指的是为全体阿联酋民众支付ChatGPT Plus的订阅费用。“星际之门阿联酋”项目有望辐射2000英里的地区,覆盖全球近一半人口。

封面图片

阿联酋免费送ChatGPT Plus福利

阿联酋免费送ChatGPT Plus福利 阿联酋将成为全球首个为全体公民和居民免费提供ChatGPT Plus服务的国家,免除20美元月费。G42、OpenAI、甲骨文、英伟达、软银和思科联合推出“星际之门阿联酋”项目,作为OpenAI人工智能基础设施平台Stargate的首个国际部署,免费ChatGPT Plus服务是其福利之一。 #阿联酋 #ChatGPT #人工智能 #免费福利 #星际之门 #OpenAI #科技 #新闻

封面图片

福利!20美元月费免除!有媒体报道称阿联酋居民可以免费使用ChatGPT Plus 服务

福利!20美元月费免除!有媒体报道称阿联酋居民可以免费使用ChatGPT Plus 服务 阿联酋将成为全球首个为全体公民和居民免费提供 ChatGPT Plus 服务的国家。 据此前报道,G42、OpenAI、甲骨文、英伟达、软银和思科宣布共同打造“星际之门阿联酋”(Stargate UAE),这是 OpenAI 人工智能基础设施平台 Stargate 的首个国际部署项目。 而作为“星际之门阿联酋”项目的一项福利措施,阿联酋所有公民和居民都可以免费获得 ChatGPT Plus 服务,而该服务目前的月费为 20 美元。

封面图片

OpenAI将助力阿联酋建设全球最大的数据中心之一

OpenAI将助力阿联酋建设全球最大的数据中心之一 该中心最终可能成为全球最大的数据中心之一 这不仅是该公司在中东地区的重大投资,也是其全球AI基础设施扩张计划的重要扩展。 据知情人士透露,这家ChatGPT开发商预计将成为近期宣布的阿布扎比5GW数据中心园区的主要租户之一。OpenAI的参与尚未最终确定,但官方可能会在近期宣布。

封面图片

OpenAI的疯狂“星际之门”数据中心将基于什么芯片技术?

OpenAI的疯狂“星际之门”数据中心将基于什么芯片技术? 星际之门系统也从此引起了人们的议论。 Altman 似乎无法决定 OpenAI 是否应该完全依赖微软,但谁能责怪他呢?这就是为什么还有传言称OpenAI 正在设计自己的用于人工智能训练和推理的芯片,以及关于Altman试图带头投资 7 万亿美元芯片制造但随后又放弃的令人愤慨的评论。你不能责怪Altman乱扔了他正在盯着的大数字。训练人工智能模型非常昂贵,并且运行推理主要是生成tokern也不便宜。正如 NVIDIA 联合创始人兼首席执行官黄仁勋最近在 GTC 2024 会议上的主题演讲中指出的那样他们是不可持续的昂贵。这就是 Microsoft、Amazon Web Services、Google 和 Meta Platform 已经创建或正在创建自己的 CPU 和 XPU 的原因。随着参数数量的增加以及数据从文本格式转变为其他格式,如果目前的趋势持续下去并且铁可以扩展,那么LLM只会变得越来越大在未来几年内将增长 100 倍到 1,000 倍。因此,我们听到有关《星际之门》的讨论,这表明人工智能训练的上层毫无疑问是富人的游戏。根据您在最初的《星际之门》传闻后的报告中所读到的内容,《星际之门》是一个项目的第五阶段,该项目将耗资 1000 亿至 1150 亿美元,星际之门将于 2028 年交付,并在 2030 年及以后运营。微软目前显然正处于扩建的第三阶段。据推测,这些资金数字涵盖了机器的所有五个阶段,目前尚不清楚该数字是否涵盖了数据中心、内部机械以及电力成本。微软和 OpenAI 可能不会采取太多行动来解决这个问题。目前还没有讨论 Stargate 系统将基于什么技术,但我们认为它不会基于 NVIDIA GPU 和互连。它将基于未来几代的 Cobalt Arm 服务器处理器和 Maia XPU,以太网可扩展到单台机器中数十万到 100 万个 XPU。我们还认为,微软收购了 DPU 制造商 Fungible 来创建可扩展的以太网网络,并且可能让Juniper Networks 和 Fungible 的创始人Pradeep Sindhu创建匹配的以太网交换机 ASIC,以便微软可以控制其整个硬件堆栈。当然,这只是一个猜想。无论 Microsoft 使用哪种以太网网络,我们都相当确定在某个时候 100 万个端点是目标,而我们也相当确定 InfiniBand 不是答案。我们还认为,假设的这款 XPU 将与未来的 NVIDIA X100/X200 GPU 或其后继产品(我们不知道其名称)一样强大是不太可能的。微软和 OpenAI 更有可能尝试大规模扩展更便宜的设备网络,并从根本上降低人工智能训练和推理的总体成本。他们的商业模式取决于这种情况的发生。而且我们还可以合理地假设,在某个时候 NVIDIA 将不得不创建一个挤满矩阵数学单元的 XPU,并舍弃让该公司在数据中心计算领域起步的矢量和着色器单元。如果微软为 OpenAI 打造了一个更好的mousetrap,那么 NVIDIA 将不得不效仿。Stargate 肯定代表了人工智能支出的阶梯函数,也许还有两个阶梯函数,具体取决于你想要如何解释数据。在数据中心预算方面,微软迄今为止公开表示的全部内容是,它将在 2024 年和 2025 年在数据中心上花费超过 100 亿美元,我们推测其中大部分支出用于支付 AI 服务器的成本。那些 1000 亿美元或 1150 亿美元的数字太模糊,无法代表任何具体内容,因此目前这只是一些大话。我们要提醒您的是,在过去的十年中,微软至少保留了 1000 亿美元的现金和等价物,并在 2023 年 9 月的季度达到了接近 1440 亿美元的峰值。截至 2023 日历年(微软 2024 财年第二季度),该数字下降至 810 亿美元。因此,微软现在没有足够的资金来一次性完成 Stargate 项目,但其软件和云业务在过去 12 个月的销售额总计达到 825 亿美元,而销售额约为 2276 亿美元。未来六年,如果软件和云业务保持原样,微软将带来 1.37 万亿美元的收入,净利润约为 5000 亿美元。它可以承担星际之门的努力。微软也有能力购买 OpenAI,然后就可以结束它了。不管怎样,我们为微软可能已经构建的集群以及未来可能为 OpenAI 构建的集群制定了预算,展示了它们的组成和规模如何随着时间的推移而变化。看一下:我们认为,随着时间的推移,分配给 OpenAI 的 AI 集群数量将会减少,而这些集群的规模将会增加。我们还认为 OpenAI 集群中 GPU 的份额将会下降,而 XPU 的份额(很可能在 Maia 系列中,但也可能使用 OpenAI 设计)将会上升。随着时间的推移,自研XPU 的数量将与 GPU 的数量相匹配,我们进一步估计这些 XPU 的成本将不到数据中心 GPU 成本的一半。此外,我们认为从 InfiniBand 转向以太网也将降低成本,特别是如果微软使用自主研发的以太网 ASIC 和内置人工智能功能和集体操作功能的自主研发的 NIC。 (就像 NVIDIA 的 InfiniBand 的 SHARP 功能一样。)我们还强制采用支出模型,以便在 2028 年有两个拥有 100 万个端点的集群一个由 GPU 组成,一个由自研 XPU 组成,或者两个集群各占一半。我们想要估计未来的集群性能,但这很难做到。每年可能会有更多的 XPU 获得适度的性能提升,但性价比却要高得多。需要记住的是,微软可以保留当前一代的 GPU 或 XPU 供 OpenAI 内部使用(因此也是其自己的),并在未来许多年内向用户出售N-1和N-2代,很可能会获得很多收益其投资诱饵再次回到 OpenAI 上。因此,这些投资本身并不是沉没成本。这更像是一个汽车经销商驾驶着一大堆挂有经销商牌照的不同汽车,但在出售它们之前并没有将里程数提高得太高。问题是:微软会继续在 OpenAI 上投入巨资,以便扭亏为盈并租用这些产能吗,还是会停止在 OpenAI 上花费 1000 亿美元(两个月前该公司的估值为 800 亿美元)?另外还要花费 1100 亿美元左右的基础设施建设,以完全控制其人工智能堆栈。即使对于微软来说,这些数字也是相当大的。但是,正如我们所说,如果你看看 2024 年至 2028 年,微软可能有大约 5000 亿美元的净利润可供使用。很少有其他公司这样做。微软从一个 BASIC 编译器和一个从第三方拼凑出来的垃圾 DOS 操作系统开始,为一个不理解它的绝望的蓝色巨人做装饰,这简直是在放弃糖果店。也许这也是奥特曼的噩梦。但考虑到将人工智能推向新的高度需要巨额资金,现在可能为时已晚。 ... PC版: 手机版:

封面图片

微软、OpenAI又搞大动作:斥资1000亿美元开发AI超算“星际之门”

微软、OpenAI又搞大动作:斥资1000亿美元开发AI超算“星际之门” 不过该项目尚未获得正式批准,未来或许还有变化。一位知情人士表示,微软是否愿意继续实施 Stargate 计划,在一定程度上取决于 OpenAI 提升其人工智能能力的有效性。因为 OpenAI 去年未能交付其向微软承诺的新模型。然而,OpenAI 首席执行官 Sam Altman 公开表示,阻碍更好人工智能发展的主要瓶颈是缺乏足够的服务器。如果 Stargate 计划得以实施,它将产生的计算能力将比微软目前从凤凰城等地的数据中心提供给 OpenAI 的计算能力大几个数量级。据这些人士称,拟议中的超级计算机还将至少需要几吉瓦的电力 相当于至少运行几个大型数据中心今天所需的电力,项目的大部分成本将用于采购芯片。Stargate 最早在 2028 年启动,2030 年完成扩展,最后阶段可能需要多达 5 吉瓦的电力。这不禁让我们想起了前段时间网络上一直盛传的 Altman 筹集 7 万亿美元造芯片厂的事(Altman 对此否认过),不过本着看热闹不嫌事大的网友调侃道“Sama 不知怎么说服了微软再花 1000 亿美元,不过,他仍需要 6.9 万亿美元。”Altman 和微软将这些超级计算机视为五个阶段完成,其中第五阶段为 Stargate。据两位知情人士透露,微软正在为 OpenAI 开发一款规模更小的第四阶段超级计算机,计划在 2026 年左右推出。现在,微软和 OpenAI 正处于第三阶段的中期。第四、第五阶段需要采购大量的 AI 芯片,成本约占目前正在建设的数据中心初始总成本的一半左右。总而言之,拟议的项目可能花费超过 1150 亿美元,是微软去年在服务器和其他设备上支出的三倍多。微软发言人 Frank Shaw 没有对超级计算机项目发表评论,但在一份声明中表示:我们始终在规划下一代基础设施创新,这些创新是继续推动人工智能能力前沿所必需的。OpenAI 的发言人对此没有做出评论。Altman 曾私下表示,作为 OpenAI 的最大竞争对手之一,Google在短期内将拥有比 OpenAI 更多的计算能力,并且他公开抱怨 AI 服务器芯片没有达到他的预期。据参与讨论的人士表示,Stargate 旨在让微软和 OpenAI 可以选择使用 Advanced Micro Devices 等英伟达以外公司生产的 GPU,甚至是微软最近推出的一款人工智能服务器芯片。除了算力,微软还必须克服技术挑战。例如,目前提出的设计要求在单个机架上放置比微软习惯的更多的 GPU,以提高芯片的效率和性能。由于 GPU 的密度更高,微软还需要想出一种防止芯片过热的方法。OpenAI 总裁 Greg Brockman(左)和微软首席技术官 Kevin Scott。对于上述种种问题,微软和 OpenAI 仍在敲定几个关键细节,可能不会很快有结论。对于 OpenAI 来说,证明其下一代大语言模型(LLM)比今天最先进的 GPT-4 有显著优势至关重要。OpenAI 一年前发布了 GPT-4,与此同时,Google也发布了一个类似的模型试图赶上。据一位了解此过程的人士说,OpenAI 计划在明年初之前发布其下一代 LLM 的重大升级。在此之前,OpenAI 可能会发布 LLM 的更多渐进式改进。随着更多服务器的可用,OpenAI 可以利用其现有的 AI 和最近的技术突破如 Q*,以在用尽人类生成的数据后训练更好的模型。这些模型也可能会发现像 GPT-4 这样的现有模型的缺陷,并建议技术改进 换句话说,实现自我改进的 AI 或许快来了。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人