【英伟达宣布生成式AI引擎DGX GH200已投入量产,可支持万亿参数AI大模型训练】

【英伟达宣布生成式AI引擎DGXGH200已投入量产,可支持万亿参数AI大模型训练】2023年05月29日09点36分5月29日消息,美东时间5月28日,英伟达创始人兼CEO黄仁勋在NVIDIAComputex2023演讲中宣布,生成式AI引擎NVIDIADGXGH200现已投入量产。英伟达官网显示,NVIDIADGXGH200是将256个NVIDIAGraceHopper超级芯片完全连接到单个GPU中的新型AI超级计算机,支持万亿参数AI大模型训练。能够处理大规模推荐系统、生成式人工智能和图形分析,并为巨型人工智能模型提供线性可扩展性。

相关推荐

封面图片

【华为推出全新架构升腾AI计算集群 可支持超万亿参数大模型训练】

【华为推出全新架构升腾AI计算集群可支持超万亿参数大模型训练】在华为全联接大会2023期间,华为常务董事、ICT基础设施业务管理委员会主任、企业BG总裁汪涛正式发布全新架构的升腾AI计算集群——Atlas900SuperCluster,可支持超万亿参数的大模型训练。此外,华为还升级了AscendC编程语言,以更高效的编程方式,简化算子实现逻辑,大幅缩短融合算子的开发周期,为AI模型与应用的快速开发赋能。(#上证报)

封面图片

近日,英伟达开源Nemotron-4340B(3400亿参数)系列模型。开发人员可使用该系列模型生成合成数据,用于训练大型语言模

近日,英伟达开源Nemotron-4340B(3400亿参数)系列模型。开发人员可使用该系列模型生成合成数据,用于训练大型语言模型(LLM),用于医疗保健、金融、制造、零售和其他行业的商业应用。Nemotron-4340B包括基础模型Base、指令模型Instruct和奖励模型Reward。英伟达使用了9万亿个token(文本单位)进行训练。Nemotron-4340B-Base在常识推理任务,如ARC-c、MMLU和BBH基准测试中,可以和Llama-370B、Mixtral8x22B和Qwen-272B模型媲美。(英伟达网站,每经网)

封面图片

【英伟达开源Nemotron-4340B系列模型,用于训练LLM】近日,英伟达开源Nemotron-4340B(3400亿参数)

【英伟达开源Nemotron-4340B系列模型,用于训练LLM】近日,英伟达开源Nemotron-4340B(3400亿参数)系列模型。开发人员可使用该系列模型生成合成数据,用于训练大型语言模型(LLM),用于医疗保健、金融、制造、零售和其他行业的商业应用。Nemotron-4340B包括基础模型Base、指令模型Instruct和奖励模型Reward。英伟达使用了9万亿个token(文本单位)进行训练。Nemotron-4340B-Base在常识推理任务,如ARC-c、MMLU和BBH基准测试中,可以和Llama-370B、Mixtral8x22B和Qwen-272B模型媲美。

封面图片

盖蒂与英伟达发布用授权图像训练的生成式 AI

盖蒂与英伟达发布用授权图像训练的生成式AI盖蒂与英伟达合作发布了GenerativeAIbyGettyImages,完全使用盖蒂图库的授权图像训练的生成式AI,将该工具生产的图像商业化会受到法律保护。该工具使用了英伟达的Edify模型。测试显示,盖蒂AI工具的图像质量与OpenAI的DALL-E3相近,优于开源图像模型StableDiffusion。Getty工具对用户生成图片的类型有限制,不允许生成任何真实人名的图像。盖蒂对此表示,它无意操纵或再现现实生活的事件。来源,频道:@kejiqu群组:@kejiquchat

封面图片

英伟达开源 3400 亿参数模型 Nemotron-4 340B

英伟达开源3400亿参数模型Nemotron-4340B当地时间6月14日,英伟达开源Nemotron-4340B(3400亿参数)系列模型。据英伟达介绍,开发人员可使用该系列模型生成合成数据,用于训练大型语言模型(LLM),用于医疗保健、金融、制造、零售和其他行业的商业应用。Nemotron-4340B包括基础模型Base、指令模型Instruct和奖励模型Reward。英伟达使用了9万亿个token(文本单位)进行训练。Nemotron-4340B-Base在常识推理任务,如ARC-c、MMLU和BBH基准测试中,可以和Llama-370B、Mixtral8x22B和Qwen-272B模型媲美。

封面图片

英伟达推出最强 AI 芯片 GB200

英伟达推出最强AI芯片GB200英伟达CEO黄仁勋在GTC宣布推出新一代GPUBlackwell,第一款Blackwell芯片名为GB200,将于今年晚些时候上市。Blackwell拥有2080亿个晶体管,采用台积电4nm制程。前一代GPU“Hopper”H100采用4nm工艺,集成晶体管800亿。黄仁勋表示:“Hopper很棒,但我们需要更大的GPU。Blackwell不是一个芯片,它是一个平台的名字。”英伟达表示,基于Blackwell的处理器,如GB200,为人工智能公司提供了巨大的性能升级,其AI性能为每秒20千万亿次浮点运算,而H100为每秒4千万亿次浮点运算。该系统可以部署一个27万亿参数的模型。据称GPT-4使用了约1.76万亿个参数来训练系统。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人