景嘉微:面向 AI 训练、AI 推理、科学计算等应用领域的景宏系列高性能智算模块及整机产品研发成功

景嘉微:面向AI训练、AI推理、科学计算等应用领域的景宏系列高性能智算模块及整机产品研发成功景嘉微公告,公司面向AI训练、AI推理、科学计算等应用领域的景宏系列高性能智算模块及整机产品(以下简称“景宏系列”)研发成功,并将尽快面向市场推广。景宏系列支持INT8、FP16、FP32、FP64等混合精度运算,支持全新的多卡互联技术进行算力扩展,适配国内外主流CPU、操作系统及服务器厂商,能够支持当前主流的计算生态、深度学习框架和算法模型库,大幅缩短用户适配验证周期。

相关推荐

封面图片

景嘉微:景宏系列高性能智算模块及整机产品应用会视推广情况而定

景嘉微:景宏系列高性能智算模块及整机产品应用会视推广情况而定对于面向AI训练、AI推理、科学计算等应用领域的景宏系列高性能智算模块及整机产品研发成功事宜,以投资者身份从景嘉微获悉,相较于JM9系列,景宏系列应用领域更大、性能更高,该产品近期才出来,目前公司在与市场做对接,应用还要看后续的推广情况。据悉,景嘉微已有3代GPU产品(JM5系列、JM7系列和JM9系列),JM9系列可满足目标识别等部分人工智能领域的需求,尚不能满足AI计算、ChatGPT等领域的应用需求。

封面图片

景嘉微:面向AI训练、AI推理、科学计算等应用领域的景宏系列高性能智算模块及整机产品研发成功,并将尽快面向市场推广。

封面图片

景嘉微高开11.76%景嘉微高开11.76%,消息面上,公司公告面向AI训练、AI推理、科学计算等应用领域的景宏系列高性能智算模

封面图片

广东省发布关于人工智能赋能千行百业的若干措施,其中提到,建设适配芯片的开发生态,面向家电家居、安防监控、医疗设备等,加大高性能、

广东省发布关于人工智能赋能千行百业的若干措施,其中提到,建设适配芯片的开发生态,面向家电家居、安防监控、医疗设备等,加大高性能、低功耗的端侧芯片开发生产。鼓励企业通过集成处理器、射频通信、智能传感器、存储器等,推进通信、显示、音频等模组研发。培育芯片创新发展生态,探索存算一体、类脑计算、芯粒、指令集等芯片研发与应用,推动面向云端和终端的芯片应用,推广高性能云端智能服务器。到2027年,人工智能芯片生态体系初步建成。

封面图片

老黄深夜炸场:世界最强AI芯片H200震撼发布 性能飙升90%

老黄深夜炸场:世界最强AI芯片H200震撼发布性能飙升90%全世界的AI公司都陷入算力荒,英伟达的GPU已经千金难求。英伟达此前也表示,两年一发布的架构节奏将转变为一年一发布。就在英伟达宣布这一消息之际,AI公司们正为寻找更多H100而焦头烂额。英伟达的高端芯片价值连城,已经成为贷款的抵押品。谁拥有H100,是硅谷最引人注目的顶级八卦至于H200系统,英伟达表示预计将于明年二季度上市。同在明年,英伟达还会发布基于Blackwell架构的B100,并计划在2024年将H100的产量增加两倍,目标是生产200多万块H100。而在发布会上,英伟达甚至全程没有提任何竞争对手,只是不断强调“英伟达的AI超级计算平台,能够更快地解决世界上一些最重要的挑战。”随着生成式AI的大爆炸,需求只会更大,而且,这还没算上H200呢。赢麻了,老黄真的赢麻了!141GB超大显存,性能直接翻倍!H200,将为全球领先的AI计算平台增添动力。它基于Hopper架构,配备英伟达H200TensorCoreGPU和先进的显存,因此可以为生成式AI和高性能计算工作负载处理海量数据。英伟达H200是首款采用HBM3e的GPU,拥有高达141GB的显存。与A100相比,H200的容量几乎翻了一番,带宽也增加了2.4倍。与H100相比,H200的带宽则从3.35TB/s增加到了4.8TB/s。英伟达大规模与高性能计算副总裁IanBuck表示——要利用生成式人工智能和高性能计算应用创造智能,必须使用大型、快速的GPU显存,来高速高效地处理海量数据。借助H200,业界领先的端到端人工智能超算平台的速度会变得更快,一些世界上最重要的挑战,都可以被解决。Llama2推理速度提升近100%跟前代架构相比,Hopper架构已经实现了前所未有的性能飞跃,而H100持续的升级,和TensorRT-LLM强大的开源库,都在不断提高性能标准。H200的发布,让性能飞跃又升了一级,直接让Llama270B模型的推理速度比H100提高近一倍!H200基于与H100相同的Hopper架构。这就意味着,除了新的显存功能外,H200还具有与H100相同的功能,例如TransformerEngine,它可以加速基于Transformer架构的LLM和其他深度学习模型。HGXH200采用英伟达NVLink和NVSwitch高速互连技术,8路HGXH200可提供超过32Petaflops的FP8深度学习计算能力和1.1TB的超高显存带宽。当用H200代替H100,与英伟达GraceCPU搭配使用时,就组成了性能更加强劲的GH200GraceHopper超级芯片——专为大型HPC和AI应用而设计的计算模块。下面我们就来具体看看,相较于H100,H200的性能提升到底体现在哪些地方。首先,H200的性能提升最主要体现在大模型的推理性能表现上。如上所说,在处理Llama2等大语言模型时,H200的推理速度比H100提高了接近1倍。因为计算核心更新幅度不大,如果以训练175B大小的GPT-3为例,性能提升大概在10%左右。显存带宽对于高性能计算(HPC)应用程序至关重要,因为它可以实现更快的数据传输,减少复杂任务的处理瓶颈。对于模拟、科学研究和人工智能等显存密集型HPC应用,H200更高的显存带宽可确保高效地访问和操作数据,与CPU相比,获得结果的时间最多可加快110倍。相较于H100,H200在处理高性能计算的应用程序上也有20%以上的提升。而对于用户来说非常重要的推理能耗,H200相比H100直接腰斩。这样,H200能大幅降低用户的使用成本,继续让用户“买的越多,省的越多”!上个月,外媒SemiAnalysis曾曝出一份英伟达未来几年的硬件路线图,包括万众瞩目的H200、B100和“X100”GPU。而英伟达官方,也公布了官方的产品路线图,将使用同一构架设计三款芯片,在明年和后年会继续推出B100和X100。B100,性能已经望不到头了这次,英伟达更是在官方公告中宣布了全新的H200和B100,将过去数据中心芯片两年一更新的速率直接翻倍。以推理1750亿参数的GPT-3为例,今年刚发布的H100是前代A100性能的11倍,明年即将上市的H200相对于H100则有超过60%的提升,而再之后的B100,性能更是望不到头。至此,H100也成为了目前在位最短的“旗舰级”GPU。如果说H100现在就是科技行业的“黄金”,那么英伟达又成功制造了“铂金”和“钻石”。H200加持,新一代AI超算中心大批来袭云服务方面,除了英伟达自己投资的CoreWeave、Lambda和Vultr之外,亚马逊云科技、Google云、微软Azure和甲骨文云基础设施,都将成为首批部署基于H200实例的供应商。此外,在新的H200加持之下,GH200超级芯片也将为全球各地的超级计算中心提供总计约200Exaflops的AI算力,用以推动科学创新。在SC23大会上,多家顶级超算中心纷纷宣布,即将使用GH200系统构建自己的超级计算机。德国尤里希超级计算中心将在超算JUPITER中使用GH200超级芯片。这台超级计算机将成为欧洲第一台超大规模超级计算机,是欧洲高性能计算联合项目(EuroHPCJointUndertaking)的一部分。Jupiter超级计算机基于Eviden的BullSequanaXH3000,采用全液冷架构。它总共拥有24000个英伟达GH200GraceHopper超级芯片,通过Quantum-2Infiniband互联。每个GraceCPU包含288个Neoverse内核,Jupiter的CPU就有近700万个ARM核心。它能提供93Exaflops的低精度AI算力和1Exaflop的高精度(FP64)算力。这台超级计算机预计将于2024年安装完毕。由筑波大学和东京大学共同成立的日本先进高性能计算联合中心,将在下一代超级计算机中采用英伟达GH200GraceHopper超级芯片构建。作为世界最大超算中心之一的德克萨斯高级计算中心,也将采用英伟达的GH200构建超级计算机Vista。伊利诺伊大学香槟分校的美国国家超级计算应用中心,将利用英伟达GH200超级芯片来构建他们的超算DeltaAI,把AI计算能力提高两倍。此外,布里斯托大学将在英国政府的资助下,负责建造英国最强大的超级计算机Isambard-AI——将配备5000多颗英伟达GH200超级芯片,提供21Exaflops的AI计算能力。英伟达、AMD、英特尔:三巨头决战AI芯片GPU竞赛,也进入了白热化。面对H200,而老对手AMD的计划是,利用即将推出的大杀器——InstinctMI300X来提升显存性能。MI300X将配备192GB的HBM3和5.2TB/s的显存带宽,这将使其在容量和带宽上远超H200。而英特尔也摩拳擦掌,计划提升GaudiAI芯片的HBM容量,并表示明年推出的第三代GaudiAI芯片将从上一代的96GBHBM2e增加到144GB。英特尔Max系列目前的HBM2容量最高为128GB,英特尔计划在未来几代产品中,还要增加Max系列芯片的容量。H200价格未知所以,H200卖多少钱?英伟达暂时还未公布。要知道,一块H100的售价,在25000美元到40000美元之间。训练AI模型,至少需要数千块。此前,AI社区曾广为流传这张图片《我们需要多少个GPU》。GPT-4大约是在10000-25000块A100上训练的;Meta需要大约21000块A100;StabilityAI用了大概5000块A100;Falcon-40B的训练,用了384块A100。根据马斯克的说法,GPT-5可能需要30000-50000块H100。摩根士丹利的说法是25000个GPU。SamAltman否认了在训练GPT-5,但却提过“OpenAI的GPU严重短缺,使用我们产品的人越少越好”。我们能知道的是,等到明年第二季度H200上市,届时必将引发新的风暴。...PC版:https://www.cnbeta.com.tw/articles/soft/1396699.htm手机版:https://m.cnbeta.com.tw/view/1396699.htm

封面图片

世界最强NPU:AMD锐龙AI 300系列发布 AI PC焕然一新

世界最强NPU:AMD锐龙AI300系列发布AIPC焕然一新2023年底的锐龙8040系列(代号HawkPoint),NPUAI算力一举提升了60%,达到约16TOPS,整体算力也提升至39TOPS。现在,StrixPoint终于登场了,官方命名为“锐龙AI300系列”,架构焕然一新,性能也再次飞跃,成为下一代AIPC的基石。CPU是全新的Zen5架构,GPU是升级版的RDNA3.5架构,NPU是全新的XDNA2架构,号称“面向下代AIPC/Copilot+PC的世界一流处理器”。只有制造工艺停留4纳米,毕竟非常成熟了。锐龙AI300系列首发只有两款型号,都定位高端市场。其中,“锐龙AI9HX370”是顶级旗舰,CPU部分拥有12核心24线程,多年来首次在这一定位上提供更多核心,相比锐龙8040系列增加了多达1/3。二级缓存还是每核心1MB,总容量自然增加到12MB。三级缓存终于打破了16MB的“禁锢”,增加了足足一半来到24MB。基准频率2.0GHz,最高主频5.1GHz,和现在倒是差不多。GPU部分不但升级架构,CU单元数量也从12个增至16个,命名为“Radeon890M”。NPU部分算力来到了50TOPS,增加了2倍有余,问鼎最强NPU的宝座。“锐龙AI9365”也是高端型号,10核心20线程,二级缓存10MB,三级缓存仍为24MB,最高频率达5.0GHz。NPU算力还是50TOPS,GPU部分精简为12个CU单元,改名为Radeon880M。TDP热设计功耗都是18W,可调范围18~54W。说了这么多,大家也看到了,AMD这一代移动处理器采用了全新的命名方式,不再是单纯的四位数字,而是将AI直接加入品牌名,地位之高前所未有。9HX、9都是代表产品级别,但注意这里的HX,和以往高端游戏本处理器用的HX(比如锐龙97945HX)不是一回事儿。数字编号采用300系列,代表从NPU单元的角度来看,这已经是第三代AIPC处理器。以上是一二代XDNANPU架构的对比图,可以看到整体布局基本一致,但规模大大扩充。AITile(初代叫AIETile)也就是核心的AI计算引擎模块,从之前的20个增加到32个,再加上本身的增强。MemTile也就是本地内存模块,从原来的5个增加到8个,可以更好地配合更大规模的本地调度、运算。另外,用于互连的交叉总线也从普通的DataFabric,升级为Zen/RDNA家族上无处不在的InfinityFabric,传输带宽和效率更高。AMD声称,XDNA2NPU的计算能力提升了多达5倍,多任务并行能力翻了一番,能效也提升了最多2倍。这里说的提升5倍,来自Llama270亿参数大模型的响应速度,从启动到获得第一个token,锐龙AI9HX370达到了锐龙98940HS的多达5倍。另外非常关键的一点,XDNA2首发引入了全新的BlockFP16浮点精度,也就是BFloat16、BF16。它在CPU、GPU上已经很常见,而在NPU上还是第一次。传统的FP8浮点格式性能高而精度不足,FP16浮点格式精度高而性能略逊,而将二者融合起来的BF16可以在精度、性能上达到较好的平衡,灵活性也更高。同时,大多数AI应用都采用了16位精度,因此有了BF16,不再需要量化为8位精度,减少了转换步骤,提高了执行效率。高通骁龙XEliteNPU的算力为45TOPS,Intel即将推出的下一代酷睿UltraLunarLakeNPU算力同样是45TOPS,锐龙AI300系列则一举超越二者,成为当今最强NPU。至于苹果,M4NPU的算力只有区区38TOPS,还不到Windows阵营这边Copilot+PC的最低算力需求门槛40TOPS。随着算力的大幅提升,NPU的应用也将不再局限于一些持续性低负载场景(比如视频会议),而是有了更多可能,一方面可以在更多场景中部分取代CPU、GPU,以更高的能效执行AI运算,大大提升笔记本的续航能力。另一方面,更强力的NPU配合更强力的CPU、GPU,可以在更多场景中部署端侧AI,进一步摆脱对云侧的依赖,最大好处就是可以避免隐私泄露和安全威胁。当然,硬件算力再强,也需要生态应用的落地配合。作为AIPC的先行者,AMD2024年内的ISV合作厂商将超过150家,既有Adobe、微软、TopazLabs这样的世界级大厂,也有百川智能、钉钉、、无问芯穹、有道这样的国内名企,前途不可限量。当然,新一代AIPC的最大亮点就是配合Windows,可以打造全新的Copilot+体验,比如历史回忆、视频会议实时录制与翻译、协同创作等。最后是一些官方性能对比,供参考。锐龙AI9HX370对比骁龙XElite,日常办公、生产力创作、多任务、图形等各方面都遥遥领先,尤其是图形计算,骁龙在移动端无敌,但是在AMD面前还是个弟弟。对比Intel目前最好的酷睿Ultra9185H,无论是日常应用还是游戏,都已经不在一个级别上,就看下一代LunarLake的表现了。苹果这边就更不够看了,尤其是多任务、3D图形性能,不在一个层次上。锐龙AI300系列的笔记本将从7月份起陆续上市,目前已有100多款设计,涵盖宏碁、华硕、戴尔、惠普、联想、微星等各大主要OEM品牌。华硕会在台北电脑展上宣布一系列配备锐龙AI300系列处理器的笔记本,其中轻薄本有16英寸的灵耀(ZenbookS)、14/15/16英寸的无畏(VivobookS),创作本有16和13英寸的ProArtP16/X13,游戏本有16英寸的ROG幻系列、14/16英寸的天选系列(TUFGAMINGA14/A16)。微星首批三款,都是16寸大屏机型,包括面向高端商务办公的SummitA16AI+,轻薄全能游戏型的绝影A16AI+、主打超薄商务与创作的尊爵A16AI+。芯片图赏:...PC版:https://www.cnbeta.com.tw/articles/soft/1433349.htm手机版:https://m.cnbeta.com.tw/view/1433349.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人