上周,我们从彭博社获悉,,以便合作伙伴OpenAI可以训练必应AI聊天机器人和ChatGPT背后的大型语言模型(LLMs)。
上周,我们从彭博社获悉,,以便合作伙伴OpenAI可以训练必应AI聊天机器人和ChatGPT背后的大型语言模型(LLMs)。
没有为自己的LLM项目获得所有资金或硬件的空间?英伟达的DGX云也试图出售远程网络访问。
今天,该公司在2023年GPU技术大会上宣布,该服务将租用其DGX服务器套件的虚拟版本,每个服务器盒包含8个英伟达H100或A100 GPU和640GB内存。该服务包括可扩展到32,000个gpu、存储、软件的互连,以及“直接访问英伟达AI专家,他们会优化您的代码”,A100 GPU的起价为每月36,999美元。
当然,如果你直接购买同样的硬件,一台DGX服务器的价格可能会超过20万美元,这还不包括微软等公司所说的他们围绕该技术建立工作数据中心所做的努力。
甚至有可能你将借用的一些图形处理器正是微软用来帮助训练OpenAI模型的图形处理器微软Azure是将托管DGX云的小组之一。然而,英伟达表示,客户将获得租用gpu的“全职保留访问权限”,无需与任何人共享。此外,甲骨文将是第一个合作伙伴,微软将“下个季度”加入,Google Cloud也将“很快”托管该平台。
标签: #Nvidia #DGX #AI #GPT
频道: @GodlyNews1
投稿: @GodlyNewsBot