专家称中美之间算力存在10倍以上差距:只要愿意投入 国产芯片会追上

专家称中美之间算力存在10倍以上差距:只要愿意投入国产芯片会追上“一方面是因为国产芯片快速发展,其次是因为算力是商品,投资属性也比较强,只要愿意投入资金,中美之间差距有机会缩小。”徐冰说道。徐冰还谈到,目前AI行业最好的人才在美国,因为美国有最大的算力,但如果中国能弥补差距,人才也会流动到亚洲市场。从长期来看,中国与美国之间不会存在太大的差距,并且中国还会涌现千亿万亿级的企业。之前就曾有媒体报道称,近几个月来,国内监管机构已要求字节跳动、腾讯、阿里巴巴和百度等大科技公司减少购买外国制造的AI芯片,转而购买更多国产芯片。尤其是英伟达GPU一直是大多数国内科技科技公司的首选,但监管希望科技公司为新的互联网数据购买同等数量的国产和外国制造的AI芯片,这是监管首次为企业在购买AI芯片制定具体指引。...PC版:https://www.cnbeta.com.tw/articles/soft/1431921.htm手机版:https://m.cnbeta.com.tw/view/1431921.htm

相关推荐

封面图片

商汤徐冰:中美之间算力存在 10 倍以上差距 但可以缩小

商汤徐冰:中美之间算力存在10倍以上差距但可以缩小第四届BEYOND国际科技创新博览会(BEYONDExpo2024)开幕式上,谈到中国和美国在AI行业的差距,商汤科技联合创始人徐冰表示,中美之间的算力存在10倍以上的差距,但这个差距可以弥补,一方面是因为国产芯片快速发展,其次是因为算力是商品,投资属性也比较强,只要愿意投入资金,中美之间差距有机会缩小。徐冰还谈到,目前AI行业最好的人才在美国,因为美国有最大的算力,但如果中国能弥补差距,人才也会流动到亚洲市场。从长期来看,中国与美国之间不会存在太大的差距,并且中国还会涌现千亿万亿级的企业。

封面图片

中国移动算力中心北京节点投入使用 AI 芯片国产化率 33%

中国移动算力中心北京节点投入使用AI芯片国产化率33%在25日的2024北京移动算力网络大会上,中国移动算力中心北京节点正式投入使用。中国移动算力中心北京节点位于北京昌平信息港算力中心,占地约57000平方米,部署近4000张AI加速卡,AI芯片国产化率33%,智能算力规模超1000P。这是通信运营商在北京建成的首个大规模训推一体智算中心,此后北京移动还将在西城区、朝阳区和亦庄经济技术开发区等多地布局算力资源,形成“以北京为核心,辐射京津冀蒙区域”的超大智算集群,支撑高复杂度、高计算需求的百亿、千亿级大模型训练推理。

封面图片

科大讯飞刘庆峰谈中美 AI 差距:没想象那么大,只差半年时间

科大讯飞刘庆峰谈中美AI差距:没想象那么大,只差半年时间第四届BEYOND国际科技创新博览会(BEYONDExpo2024)于5月22日至25日举行。在开幕式上,科大讯飞董事长刘庆峰就中美两国AI大模型发展趋势发表观点,刘庆峰认为,美国算力基础、市场配置资金的灵活程度要比中国更强,但当前以大模型为代表的AI领域竞争中,中国和美国的差异并没有大家想象的那么大。中美在通用大模型上差距在半年到一年之间。他认为,“美国的优势在于对创新中小企业更加友好,我们应当倡导更良性的生态。”(新浪科技)

封面图片

中信建投:预计国产算力基础设施占比将持续提升,建议重点关注服务器 / 算力芯片、交换机 / 交换芯片、光模块等环节

中信建投:预计国产算力基础设施占比将持续提升,建议重点关注服务器/算力芯片、交换机/交换芯片、光模块等环节中信建投研报表示,国产AI大模型正快速迭代,今年有望成为AI应用爆发的元年,阿里通义千问2.5、视频大模型Vidu、商汤“日日新SenseNova”5.0、幻方DeepSeek-V2均展现出优秀的性能。应用爆发也将促进算力基础设施建设,从供应链安全以及性价比角度考虑,预计国产算力基础设施占比将持续提升,建议重点关注服务器/算力芯片、交换机/交换芯片、光模块等环节。服务器:AI服务器高增,芯片国产化渗透提升带来竞争格局变化;交换机:以太网支撑高性能计算场景已经逐步得到验证,RoCE交换机有望取代IB交换机成为国内大模型厂商首选,国内交换机厂商400G、800G相关订单预计将实现高速增长,国产高速交换芯片也有望开始放量;光模块:2024年国内预计400G需求大幅增长,部分头部CSP可能将采购800G产品。

封面图片

英伟达掌握AI时代“摩尔定律” 会加大中美AI公司差距么?

英伟达掌握AI时代“摩尔定律”会加大中美AI公司差距么?作为GTC大会的核心,英伟达发布了BlackwellGPU,它分为B200和GB200系列,后者集成了1个GraceCPU和2个B200GPU。NVIDIAGB200NVL72大型机架系统使用GB200芯片,搭配NVIDIABlueField-3数据处理单元、第五代NVLink互联等技术,对比相同数量H100Tensor核心的系统,在推理上有高达30倍的性能提升,并将成本和能耗降低了25倍。在AI应用方面,英伟达推出ProjectGR00T机器人基础模型及Isaac机器人平台的重要更新。英伟达展示其AI芯片的算力在过去8年里实现了1000倍的增长,这代表AI时代的摩尔定律(算力快速增长,算力成本快速下降)正在形成。01实现10万亿参数AI模型的训练和实时推理在GTC大会上,英伟达不仅发布了算力方面的更新,也介绍了其在应用方面的进展。1.更强的训练算力,更快、成本更低的推理Blackwell不仅是一块芯片,也是一个平台。英伟达的目标是让规模达到10万亿参数的AI模型可以轻松训练和实时推理。它最小的单元是B200,内置2080亿个晶体管,使用定制的4NPTSMC工艺制造,采用Chiplet架构,两个GPUdies通过每秒10TB的芯片到芯片链接连接成一个统一的GPU。GB200超级芯片则将两个B200Tensor核心GPU通过每秒900GB的超低功耗NVLink芯片到芯片互连技术与NVIDIAGraceCPU连接。再往上一层,则是NVIDIAGB200NVL72,这是一个多节点、液冷的机架系统,它内含36个GraceBlackwell超级芯片,包括72个BlackwellGPU和36个GraceCPU,在NVIDIABlueField-3数据处理单元的支持下,它能实现云网络加速、可组合存储、零信任安全性以及在超大规模AI云中的GPU计算弹性。这个系统可以被作为"单个GPU"工作,这时它能提供1.4exaflops的AI性能和30TB的快速内存。据称,一个GB200NVL72就最高支持27万亿参数的模型。最大规模的系统则是DGXSuperPOD,NVIDIAGB200NVL72是DGXSuperPOD的构建单元,这些系统通过NVIDIAQuantumInfiniBand网络连接,可扩展到数万个GB200超级芯片。此外,NVIDIA还提供HGXB200服务器板,通过NVLink将八个B200GPU连接起来,支持基于x86的生成式AI平台。HGXB200通过NVIDIAQuantum-2InfiniBand和Spectrum-X以太网网络平台支持高达400Gb/s的网络速度。GB200还将在NVIDIADGX云上提供给客户,这是一个与AWS、Google云和甲骨文云等领先的云服务提供商共同设计的AI平台,为企业开发者提供专用访问权限,以构建和部署先进的生成式AI模型所需的基础设施和软件。英伟达以实际的模型训练为例,训练一个GPT-MoE-1.8T模型(疑似指GPT-4),此前使用Hopper系列芯片需要8000块GPU训练90天,现在使用GB200训练同样的模型,只需要2000块GPU,能耗也只有之前的四分之一。由GB200组成的系统,相比相同数量的NVIDIAH100Tensor核心GPU组成的系统,推理性能提升30倍,成本和能耗降低25倍。在背后支持这些AI芯片和AI算力系统的是一系列新技术,包括提升性能的第二代Transformer引擎(支持双倍的计算和模型大小)、第五代NVLink(提供了每个GPU1.8TB/s的双向吞吐量);提升可靠性的RAS引擎(使AI算力系统能够连续运行数周甚至数月);以及安全AI(保护AI模型和客户数据)等。在软件方面,Blackwell产品组合得到NVIDIAAIEnterprise的支持,这是一个端到端的企业级AI操作系统。NVIDIAAIEnterprise包括NVIDIANIM推理微服务,以及企业可以在NVIDIA加速的云、数据中心和工作站上部署的AI框架、库和工具。NIM推理微服务可对来自英伟达及合作伙伴的数十个AI模型进行优化推理。综合英伟达在算力方面的创新,我们看到它在AI模型训练和推理方面的显著进步。在AI的模型训练方面,更强的芯片和更先进的芯片间通讯技术,让英伟达的算力基础设施能够以相对较低的成本训练更大的模型。GPT-4V和Sora代表了生成式AI的未来,即多模态模型和包括视频在内的视觉大模型,英伟达的进步让规模更大、更多模态和更先进的模型成为可能。在AI推理方面,目前越来越大的模型规模和越来越高的实时性要求,对于推理算力的挑战十分严苛。英伟达的AI算力系统推理性能提升30倍,成本和能耗降低25倍。不仅让大型模型的实时推理成为可能,而且解决了以往的并不算优秀的能效和成本问题。2.着重发力具身智能英伟达在GTC大会上公布了一系列应用方面的新成果,例如生物医疗、工业元宇宙、机器人、汽车等领域。其中机器人(具身智能)是它着重发力的方向。它推出了针对仿生机器人的ProjectGR00T基础模型及Isaac机器人平台的重要更新。ProjectGR00T是面向仿生机器人的通用多模态基础模型,充当机器人的“大脑”,使它们能够学习解决各种任务的技能。Isaac机器人平台为开发者提供新型机器人训练模拟器、JetsonThor机器人计算机、生成式AI基础模型,以及CUDA加速的感知与操控库Isaac机器人平台的客户包括1X、AgilityRobotics、Apptronik、BostonDynamics、FigureAI和XPENGRobotics等领先的仿生机器人公司。英伟达也涉足了工业机器人和物流机器人。IsaacManipulator为机械臂提供了最先进的灵巧性和模块化AI能力。它在路径规划上提供了高达80倍的加速,并通过ZeroShot感知(代表成功率和可靠性)提高了效率和吞吐量。其早期生态系统合作伙伴包括安川电机、PickNikRobotics、Solomon、READYRobotics和FrankaRobotics。IsaacPerceptor提供了多摄像头、3D环绕视觉能力,这些能力对于自动搬运机器人特别有用,它帮助ArcBest、比亚迪等在物料处理操作等方面实现新的自动化水平。02英伟达算力井喷后,对创业公司有何影响?在发展方式上,英伟达与OpenAI等公司有明显的不同。OpenAI以及Anthropic、Meta等公司是以AI模型为核心,然后运营平台和生态;英伟达则以算力为核心,并拓展到软件平台和AI的相关应用。并且在应用方面,它并没有表现出一家垄断的态势,而是与各种行业的合作伙伴共创,其目的是建立一个软硬件结合的庞大生态。此次英伟达在算力方面的进步,对于AI创业公司们也产生了深刻影响。对于大模型领域创业公司,例如OpenAI等,这显然是利好,因为他们能以更快的频率,更低的成本训练规模更大,模态更多的模型,并且有机会进一步降低API的价格,扩展客户群体。对于AI应用领域的创业公司,英伟达不仅将推理算力性能提高了数十倍,而且降低了能耗和成本。这让AI应用公司们能在成本可承担的前提下,拓展业务规模,随着AI算力的进一步增长,未来AI应用公司的运营成本还可能进一步降低。对于AI芯片领域的创业公司,英伟达的大更新让他们感受到了明显压力,而且英伟达提供的是一套完整的系统,包括算力芯片,芯片间通信技术,打破内存墙的网络芯片等。AI芯片创业公司必须找到自己真正能建立优势的方向,而不是因为英伟达这类巨头的一两次更新就失去存在价值。中国的AI创业公司,因为各种各样的原因,很难使用最新最强的英伟达AI芯片,作为替代的国产AI芯片在算力和能效比上目前仍有差距,这可能导致专注大模型领域的公司们在模型的规模扩展和迭代速度上与海外的差距拉大。对于中国的AI应用公司,则仍有机会。因为它们不仅可以用国内的基础模型,也可以用海外的先进开源模型。中国拥有全球顶尖的AI工程师和产品经理,他们打造的产品足可以参与全球竞争,这让AI应用公司们进可以开拓海外市场,还有足够庞大的国内市场做基本盘,AI时代的字节跳动、米哈游很可能在它们中间产生。...PC版:https://www.cnbeta.com.tw/articles/soft/1424411.htm手机版:https://m.cnbeta.com.tw/view/1424411.htm

封面图片

民生证券:运营商加大 AI 算力投入 国产算力有望再加速

民生证券:运营商加大AI算力投入国产算力有望再加速民生证券研报点评称,4月18日,中国移动发布2024—2025年新型智算中心采购公告,招采AI训练服务器7994台,高于市场此前预期的6000台。去年1月份移动发布2023—2024年新型智算中心(试验网)招标,共采购AI服务器1250台,对比看,此次招标量增长5倍。2024年3月中国联通发布AI服务器采购,总量2503台;2023年10月中国电信发布采购总量4175台。近两年,三大运营商加强云计算发展,服务器采购已是仅次于5G基站的第二大采购品类。从近期三大运营商智算服务器采购看,预计规模会持续增长。近期运营商智算中心中标候选人多为华为升腾整机合作方,预计此次移动招标华为升腾系列也将占据重要份额。建议重点关注服务器、交换机、AI芯片等算力核心环节的国产化。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人