上周,我们从彭博社获悉,,以便合作伙伴OpenAI可以训练必应AI聊天机器人和ChatGPT背后的大型语言模型(LLMs)。

上周,我们从彭博社获悉,,以便合作伙伴OpenAI可以训练必应AI聊天机器人和ChatGPT背后的大型语言模型(LLMs)。 没有为自己的LLM项目获得所有资金或硬件的空间?英伟达的DGX云也试图出售远程网络访问。 今天,该公司在2023年GPU技术大会上宣布,该服务将租用其DGX服务器套件的虚拟版本,每个服务器盒包含8个英伟达H100或A100 GPU和640GB内存。该服务包括可扩展到32,000个gpu、存储、软件的互连,以及“直接访问英伟达AI专家,他们会优化您的代码”,A100 GPU的起价为每月36,999美元。 当然,如果你直接购买同样的硬件,一台DGX服务器的价格可能会超过20万美元,这还不包括微软等公司所说的他们围绕该技术建立工作数据中心所做的努力。 甚至有可能你将借用的一些图形处理器正是微软用来帮助训练OpenAI模型的图形处理器微软Azure是将托管DGX云的小组之一。然而,英伟达表示,客户将获得租用gpu的“全职保留访问权限”,无需与任何人共享。此外,甲骨文将是第一个合作伙伴,微软将“下个季度”加入,Google Cloud也将“很快”托管该平台。 标签: #Nvidia #DGX #AI #GPT 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求 微软于今天宣布加强和英伟达的合作,将 GPU 从此前的 A100 升级到 H100,推出专门针对人工智能开发的全新的虚拟机。 微软表示该虚拟机主要面向需要整合或开发人工智能的企业,配置如下: ▪8 块英伟达 H100 Tensor Core GPU,通过下一代 NVSwitch 和 NVLink 4.0 互连 ▪在非阻塞(non-blocking)的胖树(Fat-Tree)架构网络下,每块 GPU 的 NVIDIA Quantum-2 CX7 InfiniBand 性能可以达到 400 Gb / s,每台虚拟机可以达到 3.2Tb / s。 ▪通过 NVSwitch 和 NVLink 4.0,每台虚拟机内的 8 个本地 GPU 之间的对分带宽为 3.6TB / s。 ▪采用英特尔第 4 代 Xeon Scalable 处理器 ▪使用 PCIe Gen5 连接 GPU,每个 GPU 带宽为 64GB / s ▪16 通道 4800MHz DDR5 DIMM 微软先前在 Azure OpenAI 服务中宣布了 ChatGPT 相关服务,而本次虚拟机是该服务的补充,它允许第三方通过 Azure 访问聊天机器人技术。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

NVIDIA Blackwell B200 AI加速器下季度开始出货 单价是传统服务器的10倍

NVIDIA Blackwell B200 AI加速器下季度开始出货 单价是传统服务器的10倍 据台湾《经济日报》报道,英伟达(NVIDIA)将于2024年第三季度至第四季度"小批量"出货其下一代GB200人工智能服务器,并将于2025年第一季度开始大规模出货。另据报道,每台 Blackwell 服务器的单价将是传统服务器的 10 倍。我们之前曾报道过每块 Blackwell GPU 的价格应高达 3.5 万美元,而一组 AI 服务器的价格可能高达 300 万美元。英伟达 DGX GB200"Blackwell"AI 服务器分为三个部分:DGX NVL72、NVL32 和 HGX B200。其中配置最高的是 NVL72,配备了 72 个英伟达 Blackwell B200 AI GPU 和 Grace Hopper CPU。据悉,富士康的子公司 Fii 将在下一季度出货部分 DGX GB200"NVL72",而该公司早在 4 月份就已向客户交付了 NVL32 对应产品,因此该公司是首批向业界出货 Blackwell 产品的公司之一。除此之外,广达等合作伙伴也有望在本季度向客户交付英伟达的 Blackwell GB200 AI 服务器。虽然两家公司还没有透露谁是"独家"买家,但我们或许对此有所了解。我们曾报道过 Meta 已经下单了基于 Blackwell 的产品,包括 B200 AI GPU 和 AI 服务器,所以这可能是大部分产能的去向。微软和 OpenAI 也对英伟达的 Blackwell 表示了兴趣。 ... PC版: 手机版:

封面图片

部署 B200 GPU 出现摩擦:微软要求自家定制服务器机架,英伟达希望整机出货

部署 B200 GPU 出现摩擦:微软要求自家定制服务器机架,英伟达希望整机出货 双方的“摩擦”最终以英伟达的妥协告终,英伟达最终让步,让微软为其 B200 AI GPU 设计自己的定制服务器机架,但这可能不是两家巨头之间的最后一次分歧。

封面图片

NVIDIA Blackwell DGX GB200 AI服务器将于2024年下半年进入量产 有望创造巨额收入

NVIDIA Blackwell DGX GB200 AI服务器将于2024年下半年进入量产 有望创造巨额收入 据报道,英伟达预计将在 2024 年下半年量产 GB200 服务器,到 2025 年预计将有 40000 台服务器进入市场。台湾《经济日报》披露,英伟达计划将Blackwell DGX GB200 AI服务器的供应分为三个不同的部分,主要是DGX NVL72、NVL32和HGX B200。据报道,其中最高端的将是 NVL72,它将搭载 72 个英伟达的 Blackwell B200 AI GPU 和 Grace Hopper 芯片。据透露,DGX NVL72 机柜的单价据说在 300 万美元左右,考虑到英伟达能卖出 1 万台,其他产品暂且不计,预计仅 NVL72 就能为公司带来 300 亿美元的收入。富士康和广达这两大巨头预计将负责大部分供应的制造过程,富士康预计服务器收入将因此大幅上升。由此可见,在未来的人工智能市场中,收入流预计会有多大,考虑到 Blackwell 产品的反响与前代产品类似,没有人能够阻止英伟达爆炸式的财务增长,以及产业链中与之相连的所有供应商。这仅仅是个开始,随着对人工智能计算能力需求的增长,数据中心市场也将同步扩大。 ... PC版: 手机版:

封面图片

【英伟达将向中国推出A800GPU】11月8日,记者从GPU巨头英伟达处获悉,该公司将于第三季度投产NVIDIA A800 GP

【英伟达将向中国推出A800GPU】11月8日,记者从GPU巨头英伟达处获悉,该公司将于第三季度投产NVIDIA A800 GPU(以下简称“A800”)。根据英伟达的说法,A800是面向中国客户的NVIDIA A100 GPU(以  #月光新资讯

封面图片

微软围绕AI服务器数据传输打造英伟达网卡的替代产品

微软围绕AI服务器数据传输打造英伟达网卡的替代产品 微软打造英伟达网卡的替代产品,以降低在AI服务器领域对英伟达的依赖程度。产品将用于加速数据在服务器之间的传输。(The Information) 标签: #微软 #英伟达 #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人