【市场调查机构:英伟达可从ChatGPT赚取3亿美元】

【市场调查机构:英伟达可从ChatGPT赚取3亿美元】2023年03月07日10点20分3月7日消息,市场调查机构TrendForce集邦咨询公布的最新报告指出,如果以英伟达A100显卡的处理能力计算,运行ChatGPT将需要使用到30000块英伟达GPU。目前英伟达A100显卡的售价在10000-15000美元之间,该售价取决于OpenAI需要多少显卡,以及英伟达是否会为AI公司提供订单折扣。TrendForce预估英伟达可以赚取超过3亿美元。

相关推荐

封面图片

ChatGPT带火AI芯片 英伟达顶级显卡eBay售价超4万美元

ChatGPT带火AI芯片英伟达顶级显卡eBay售价超4万美元据悉,去年发布的H100是英伟达最新的旗舰AI芯片,接替了A100,A100是一款被称为AI应用“主力军”的芯片,售价约为1万美元。根据英伟达的说法,与A100相比,H100的能效提高了3.5倍。开发人员正在使用H100来构建所谓的大型语言模型(LLMs),这是OpenAI的ChatGPT等AI应用的核心。这些AI模型对算力的要求极高。因此,训练它们,尤其是像GPT这样的大型模型,需要数百颗高端英伟达GPU协同工作。正因如此,那些正进行AI竞赛的科技巨头们不惜斥巨资购买AI芯片。例如,微软就斥资数亿美元购买了数万颗英伟达A100芯片,以帮助打造ChatGPT。另外,据媒体最新报道,“钢铁侠”埃隆·马斯克在美国内华达州成立了一家名为X.AI的人工智能公司,旨在与OpenAI展开竞争。据悉,为了这个新项目,马斯克已从英伟达购买了数千个高性能GPU处理器。英伟达还提供一款拥有8颗GPU的超级计算机,名为DGX。今年早些时候,该公司宣布了新服务,允许企业以每月3.7万美元的价格租用DGX计算机。在这项服务下,几乎任何企业都可以通过云租赁来使用这些强大但成本昂贵的设备。英伟达控制着AI芯片的绝大部分市场。随着ChatGPT在全球范围内掀起AI热潮,英伟达股价“狂飙”:最新报267.58美元,今年已经累计上涨近90%。      ...PC版:https://www.cnbeta.com.tw/articles/soft/1354929.htm手机版:https://m.cnbeta.com.tw/view/1354929.htm

封面图片

机构:部署 Sora 需要72万片英伟达加速卡 价值216亿美元

机构:部署Sora需要72万片英伟达加速卡价值216亿美元3月27日消息,市场调查机构FactorialFunds近日发布报告,认为OpenAI部署文本转视频模型Sora,在峰值期需要72万片英伟达H100AI加速卡。如果按照每片英伟达H100AI加速卡3万美元成本计算,72万片需要216亿美元。而这仅仅只是H100加速卡的成本。FactorialFunds预估训练Sora1个月,需要使用4200到10500片英伟达H100AI加速卡,如果使用单片H100加速卡,生成1分钟视频需要渲染12分钟。——、

封面图片

机构预估:部署 Sora 需要 72 万片英伟达加速卡,价值 216 亿美元

机构预估:部署Sora需要72万片英伟达加速卡,价值216亿美元市场调查机构FactorialFunds近日发布报告,认为OpenAI部署文本转视频模型Sora,在峰值期需要72万片英伟达H100AI加速卡。如果按照每片英伟达H100AI加速卡3万美元成本计算,72万片需要216亿美元(当前约1561.68亿元人民币)。而这仅仅只是H100加速卡的成本,想要运行必然消耗大量的电力,每片H100功耗为700W,72万片就是504000000W。FactorialFunds预估训练Sora1个月,需要使用4200到10500片英伟达H100AI加速卡,如果使用单片H100加速卡,生成1分钟视频需要渲染12分钟。

封面图片

英伟达发布 GeForce RTX 40 系列显卡

英伟达发布GeForceRTX40系列显卡英伟达在GTC2022开发者大会上宣布了显卡。英伟达称,新一代显卡基于AdaLovelace架构,新流处理器在性能和能效上提升最高2倍,第四代TensorCores在AI性能上提升最高2倍,第三代RTCores在光线追踪性能上提升最高2倍,新增光流预测的DLSS3,等等。英伟达宣布三款针对中高端市场的显卡:GeForceRTX4090,16384个CUDACores,频率2.52GHz,GDDR6X显存24GB,售价1599美元,10月12日发售;GeForceRTX4080(16GB)售价1199美元,GeForceRTX4080(12GB)售价899美元。如此高定价让绝大部分玩家望而却步。——solidot

封面图片

推理速度提升十倍!英伟达发布ChatGPT核弹级GPU

推理速度提升十倍!英伟达发布ChatGPT核弹级GPU当地时间周二,英伟达举办2023年春季GTC大会,黄仁勋穿着标志性皮夹克,向开发者披露最新的硬件和AI应用软件进展。在过去十年里,AI产业经历了历史性的飞跃。从2012年卷积神经网络AlexNet点燃了深度学习领域的“星星之火”,到ChatGPT一鸣惊人。黄仁勋表示,眼下整个AI产业正处于“iPhone时刻”——创业公司正在竞相建立颠覆式的商业模型,而业界巨头也在寻找应对之道。GTC大会上,英伟达推出开源量子计算机软件CudaQuantum,用于构建量子算法;与AT&T(T.N)合作,帮助提高调度服务的效率。当地时间3月21日,GTC大会,英伟达发布了专为ChatGPT设计的“核弹”GPU(图像芯片)H100NVL,较之适用于GPT-3的A100,速度提升10倍。#视频()来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

微软广告和网络服务负责人Mikhail Parakhin近日回复网友,针对Bing Chat响应等待时间过长致歉,并表示GPU的

微软广告和网络服务负责人MikhailParakhin近日回复网友,针对BingChat响应等待时间过长致歉,并表示GPU的添加速度赶不上用户使用量的增加。微软并未公布支撑BingChat运行使用了多少块GPU,不过市场调查机构TrendForce集邦咨询公布的报告指出,如果以英伟达A100显卡的处理能力计算,运行ChatGPT将需要使用到30000块英伟达GPU。Parakhin在相关推文中还提及了其它内容:1.导出和必应的聊天记录将在“几天内”上线2.BingImageCreator生成的图片支持多种长宽比,但不会在现阶段推出3.必应聊天将支持代码解释器(CodeInterpreter),但并未公布具体上线日期。io.google频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人