NASA宣布开发下一代航天计算(HPSC)芯片,性能提升100倍#抽屉IT

None

相关推荐

封面图片

NASA雇佣Microchip研发下一代HPSC芯片 计算性能提高100倍

NASA雇佣Microchip研发下一代HPSC芯片计算性能提高100倍今天早些时候,美国宇航局(NASA)发布了关于下一代处理器的重大升级计划。该航天机构已经雇佣了芯片厂商Microchip来设计下一代High-PerformanceSpaceflightComputing(HPSC)芯片,目标是将航天芯片的计算能力提升100倍。为了实现这个目标,美国宇航局将注资5000万美元。新系统将会在美国宇航局位于南加州的喷气推进实验室(JPL)内部署。美国宇航局表示相比较30年前的上一代技术,新研发的HPSC处理器不仅大幅提高计算性能,而且会提高系统的整体容错性和可靠性。新HPSC允许在不使用某些处理功能时禁用,因此效率也会大大改善。在新闻稿中写道Microchip的处理器架构将根据任务需求让计算能力更具可扩展性,从而显着提高这些任务的整体计算效率。该设计也将更加可靠并具有更高的容错性。该处理器将使航天器计算机的计算速度比当今最先进的太空计算机快100倍。PC版:https://www.cnbeta.com/articles/soft/1305549.htm手机版:https://m.cnbeta.com/view/1305549.htm

封面图片

Google公布下一代 TPU芯片“Trillium” 性能有望提升 4.7 倍

Google公布下一代TPU芯片“Trillium”性能有望提升4.7倍宣布下一代TPU是I/O大会的传统,尽管这些芯片要到今年晚些时候才能推出。不过,皮查伊表示,新一代TPU到货后,每块芯片的计算性能将比第五代提升4.7倍。在一定程度上,Google是通过扩大芯片的矩阵乘法单元(MXU)和提高整体时钟速度来实现这一目标的。此外,Google还将Trillium芯片的内存带宽提高了一倍。更重要的是,Trillium采用了第三代SparseCore,Google将其描述为"处理高级排名和推荐工作负载中常见的超大嵌入的专用加速器",该公司认为,这将使TrilliumTPU能够更快地训练模型,并以更低的延迟为模型提供服务。皮查伊还将新芯片描述为Google迄今为止"最节能"的TPU,这一点在人工智能芯片需求持续成倍增长的情况下尤为重要。他说:"在过去六年中,行业对ML计算的需求增长了100万倍,大约每年增长10倍。如果不投资降低这些芯片的功耗需求,这种情况将难以为继。Google承诺,新的TPU比第五代芯片节能67%。"Google的TPU最近往往有多种变体。到目前为止,Google还没有提供有关新芯片的更多细节,也没有说明在Google云中使用这些芯片的成本。今年早些时候,Google也宣布将成为首批提供英伟达(NVIDIA)下一代Blackwell处理器的云计算提供商。不过,这仍然意味着开发人员要等到2025年初才能使用这些芯片。皮查伊说:"我们将继续投资基础设施,为我们的人工智能进步提供动力,我们将继续开辟新天地。"...PC版:https://www.cnbeta.com.tw/articles/soft/1430908.htm手机版:https://m.cnbeta.com.tw/view/1430908.htm

封面图片

RISC-V冲出地球:NASA已选中SiFive的下一代高性能航天计算处理器

RISC-V冲出地球:NASA已选中SiFive的下一代高性能航天计算处理器RISC-V计算创始者兼领导者SiFive,Inc.刚刚宣布,其已被美国宇航局(NASA)挑选为该机构的下一代高性能航天计算(HPSC)处理器提供核心CPU。从月球探索到火星登陆,采用8个SiFiveIntelligenceX280RISC-V矢量内核+另外四个SiFiveRISC-V内核的HPSC可提供百倍于当前太空计算机的算力,且有希望被用于NASA未来的几乎所有太空任务。得益于计算性能的大幅提升,下一代HPSC将开辟各种新的可能——比如可自主行驶的漫游车、视觉处理、太空飞行、制导系统、以及通讯等应用。SiFive业务发展高级副总裁JackKang表示:作为业内领先的一家美国RISC-V半导体公司,SiFive非常自豪于能够被世界首屈一指的航天机构给选中、并为其最为关键的任务应用程序提供支撑。在科学与空间工作负载中,X280带来了较竞品高出多个数量级的性能提升。SiFive的RISC-VIP,使得NASA能够利用快速增长的全球生态系统支持、灵活性和长期生存能力。我们总是说,SiFive的未来毫不设限,并且很高兴看到我们的创新影响力可突破当前所在的这颗星球。据悉,X280是一款多核RISC-V处理器,具有矢量/SiFive智能扩展、并针对边缘人工智能(AI)/机器学习(ML)计算加以优化。X280非常适合需要高吞吐量、单线程性能,同时又受到严重功率限制的应用程序。而RISC-V的开放与协作特性,又能够极大地获益于广泛的学术与科学软件开发社区所贡献的相关算法和应用程序。同时作为强大且长期的软件生态系统的一部分,社区着力于优化诸多数学函数、过滤器、变换、神经网络、以及其它软件库。综上所述,HPSC处理器和X280计算子系统,有望在工业自动化、边缘计算、ratificationintelligence、以及航空航天等领域发挥重要的作用。PC版:https://www.cnbeta.com/articles/soft/1313463.htm手机版:https://m.cnbeta.com/view/1313463.htm

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片HGXH200GPUNVIDIA今天宣布推出NVIDIAHGX™H200,为全球领先的AI计算平台带来强大动力。该平台基于NVIDIAHopper™架构,配备NVIDIAH200TensorCoreGPU和高级内存,可处理生成AI和高性能计算工作负载的海量数据。NVIDIAH200是首款提供HBM3e的GPU,HBM3e是更快、更大的内存,可加速生成式AI和大型语言模型,同时推进HPC工作负载的科学计算。借助HBM3e,NVIDIAH200以每秒4.8TB的速度提供141GB内存,与前一代NVIDIAA100相比,容量几乎翻倍,带宽增加2.4倍。全球领先的服务器制造商和云服务提供商采用H200的系统预计将于2024年第二季度开始发货。——

封面图片

IBM和日本研究所开发下一代量子计算机 拥有10000个量子比特

IBM和日本研究所开发下一代量子计算机拥有10000个量子比特量子计算机以解决传统计算机无法解决的复杂问题而闻名。它们有望帮助发现新药,通过更高效的分销路线改善物流,以及许多其他应用。该研究所和IBM预计将在未来几天签署谅解备忘录并宣布这笔交易。据该研究所称,这将是IBM首次与外国研究机构在如此大规模的量子计算领域展开合作。正在开发的量子计算机预计将于2029年投入使用。该计算机拥有超过10000个量子比特,有望无误地计算高级组合。合作伙伴还将开发下一代量子计算机所需的半导体和超导集成电路。量子计算机在接近绝对零度的极低温度下运行,因此需要能够承受极端温度的半导体和电路。该研究所隶属于日本经济产业省,以其在人工智能(AI)相关技术方面的实力而闻名,并拥有与IBM合作项目所需的专利。它还希望引入日本零部件制造商,实现量产。IBM预计将在2025年开始销售拥有1000量子比特的量子计算机。该研究所和IBM将说服日本公司使用它们。该研究所将通过培训日本公司使用量子计算机做出贡献,例如制药商。量子计算机仍处于发展阶段。现有的133量子比特的量子计算机仍然会出错,在研究中使用时通常需要超级计算机的帮助。预计10000量子比特的版本无需超级计算机的帮助即可使用。科学家表示,要使量子计算机投入商业使用,硬件需要达到20000到30000个量子比特的水平。...PC版:https://www.cnbeta.com.tw/articles/soft/1434996.htm手机版:https://m.cnbeta.com.tw/view/1434996.htm

封面图片

三星成立AGI计算实验室 打造下一代AI芯片

三星成立AGI计算实验室打造下一代AI芯片三星电子总裁兼CEO、设备解决方案部负责人KyungKye-Hyun表示,其目标是发布新的“芯片设计,一种迭代模型,能够以极低的功耗和成本提供更强大的性能并支持越来越大的模型”。此举发生在硅谷重量级人物,从OpenAICEO山姆·阿尔特曼到Meta平台马克·扎克伯格,就人工智能的未来轨迹展开辩论之际。许多人开始讨论AGI的潜力和危险。AGI本质上本质上是指行为、学习和进化都像人类一样的人工智能,甚至是超越人类的人工智能。山姆·阿尔特曼和马克·扎克伯格最近几个月访问了韩国首尔,与三星和其他韩国公司讨论人工智能合作。三星正试图在为人工智能提供芯片的业务中赶上竞争对手,后者此前在为英伟达芯片使用的新型先进存储半导体领域占得先机。KyungKye-Hyun还表示,谷歌前高级软件工程师DongHyukWoo将负责三星在美国和韩国的AGI计算实验室。该公告发布恰逢英伟达宣布备受瞩目的Blackwell架构新芯片B200。...PC版:https://www.cnbeta.com.tw/articles/soft/1424311.htm手机版:https://m.cnbeta.com.tw/view/1424311.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人