英伟达:台积电和Synopsys将采用英伟达计算光刻技术,这两家公司已经整合英伟达的CulithoW软件。标签:#英伟达#台积电

None

相关推荐

封面图片

英伟达:台积电和Synopsys将采用英伟达计算光刻技术,这两家公司已经整合英伟达的CulithoW软件。

封面图片

台积电和新思科技将部署英伟达cuLitho计算光刻平台英伟达当地时间3月18日宣布,台积电和新思科技将使用英伟达的计算光刻技术,

封面图片

台积电、新思科技首次采用NVIDIA计算光刻平台:最快加速60倍

台积电、新思科技首次采用NVIDIA计算光刻平台:最快加速60倍众所周知,台积电是全球领先的晶圆代工厂,而新思科技则是芯片到系统设计解决方案的领导者。二者已经将NVIDIAcuLitho加速计算光刻光平台,集成到其软件、制造工艺和系统中,在加速芯片制造速度的同时,也加快了对未来最新一代NVIDIABlackwell架构GPU的支持。在现代芯片制造过程中,计算光刻是至关重要的一步,是半导体制造中最苛刻的工作负载,需要大规模的数据中心,而随着时间的推移,硅小型化演进过程呈指数级放大了计算的需求。如果使用CPU来计算,每年需要在计算光刻上消耗数百亿个小时。比如一个典型的芯片掩模,就需要3000万小时或更长时间的CPU计算时间。借助加速计算,350个NVIDIAH100GPU现在可以取代40,000CPU系统,从而缩短生产时间,同时降低成本、空间和功耗。据悉,NVIDIA的计算光刻平台可以将半导体制造最密集的计算工作负载加速40-60倍。NVIDIA还推出了新的生成式AI算法,该算法将进一步增强cuLitho的效率,与当前基CPU计算的方法相比,极大地改进了半导体制造工艺。“计算光刻是芯片制造的基石,”NVIDIA创始人兼CEO黄仁勋说。“我们与台积电和新思科技合作在cuLitho上工作,应用加速计算和生成式人工智能,为半导体扩展开辟了新的领域。”...PC版:https://www.cnbeta.com.tw/articles/soft/1424196.htm手机版:https://m.cnbeta.com.tw/view/1424196.htm

封面图片

戴尔科技涨超6.4%,英伟达涨3.3%,这两家公司参与马斯克旗下xAI公司超级计算机的AI建设。惠与、微策投资、Salesfor

封面图片

计算光刻速度提高40倍,台积电预计6月将英伟达AI加速技术cuLitho导入2nm试产-IT之家https://www.ithome.com/0/681/513.htm

封面图片

黄仁勋向台积电放核弹:干掉40000台CPU服务器 计算光刻提速40倍

黄仁勋向台积电放核弹:干掉40000台CPU服务器计算光刻提速40倍总体来看,此次演讲可总结成一大‘亮点’和一大‘重点’。‘亮点’是英伟达秘密研发四年、向芯片制造业甩出一枚技术“核弹”——通过突破性的光刻计算库cuLitho,将计算光刻加速40倍以上,使得2nm及更先进芯片的生产成为可能。全球最大晶圆厂台积电、全球光刻机霸主阿斯麦、全球最大EDA巨头新思科技均参与合作并引入这项技术。老黄还直接上了一堂光刻机小课堂,配合动画讲解芯片制造的最关键设备光刻机是如何运作的。‘重点’毫无疑问是生成式AI。老黄对OpenAI的ChatGPT赞不绝口,夸它“震惊世界”,代表着“崭新的计算平台已经诞生,AI的‘iPhone时刻’已经到来”。据英伟达透露,OpenAI将在微软Azure超级计算机上使用英伟达H100GPU,AI文生图明星创企Stability.ai是H100GPU的早期访问客户。为了加速生成式AI开发及部署,老黄宣布推出3款全新推理GPU,分别擅长AI视频、图像生成、ChatGPT等大型语言模型的推理加速。此外,英伟达还发布了AI超级计算服务DGXCloud、加速企业创建大模型和生成式AI的云服务NVIDIAAIFoundations等,并宣布与日本三菱联合打造了日本第一台用于加速药研的生成式AI超级计算机。英伟达也发布了一系列面向元宇宙、汽车、量子计算领域的新进展,包括PaaS服务NVIDIAOmniverseCloud现已向特定企业开放、与宝马集团扩大合作建设虚拟工厂、比亚迪更多车型将采用NVIDIADRIVEOrin平台,以及与QuantumMachines合作推出了全球首个GPU加速量子计算系统。老黄宣布,英伟达已经更新了100个加速库,目前英伟达全球生态系统已覆盖400万开发人员、4万家公司和1.4万家初创公司。01.芯片制造炸场!将计算光刻提速40倍三大半导体巨头站台我们先来看看今天的“惊喜弹”:英伟达发布了一个造福先进芯片制造的突破性技术——NVIDIAcuLitho计算光刻库。光刻是芯片制造过程中最复杂、最昂贵、最关键的环节,其成本约占整个硅片加工成本的1/3甚至更多。计算光刻模拟了光通过光学元件并与光刻胶相互作用时的行为,应用逆物理算法来预测掩膜板上的图案,以便在晶圆上生成最终图案。简而言之,计算光刻是提高光刻分辨率、推动芯片制造达到2nm及更先进节点的关键手段。“计算光刻是芯片设计和制造领域中最大的计算工作负载,每年消耗数百亿CPU小时。”黄仁勋讲解道,“大型数据中心24x7全天候运行,以便创建用于光刻系统的掩膜板。这些数据中心是芯片制造商每年投资近2000亿美元的资本支出的一部分。”而cuLitho能够将计算光刻的速度提高到原来的40倍。老黄说,英伟达H100GPU需要89块掩膜板,在CPU上运行时,处理单个掩膜板需要两周时间,而在GPU上运行cuLitho只需8小时。此外,台积电可通过在500个DGXH100系统上使用cuLitho加速,将功率从35MW降至5MW,替代此前用于计算光刻的40000台CPU服务器。使用cuLitho的晶圆厂,每天可以生产3-5倍多的光掩膜,仅使用当前配置电力的1/9。全球最大晶圆厂台积电、全球最大光刻机制造商阿斯麦(ASML)、全球最大EDA公司新思科技(Synopsys)都为这项新技术站台。老黄透露道,cuLitho历时四年研发,与这三家芯片大厂进行了密切合作。台积电将于6月开始对cuLitho进行生产资格认证。台积电CEO魏哲家夸赞它为台积电在芯片制造中广泛地部署光刻解决方案开辟了新的可能性,为半导体规模化做出重要贡献。阿斯麦CEOPeterWennink说阿斯麦计划将对GPU的支持集成到其所有的计算光刻软件产品中。新思科技董事长兼CEOAartdeGeus称,在英伟达的cuLitho平台上运行新思科技的光学邻近校正(OPC)软件,将性能从几周加速到几天。cuLitho将有助于晶圆厂缩短原型周期时间、提高产量、减少碳排放,为2nm及更先进的工艺奠定基础,并使得曲线掩模、highNAEUV、亚原子级光刻胶模型等新技术节点所需的新型解决方案和创新技术成为可能。02.发布ChatGPT专用推理GPU登浏览器即可访问AI超级计算机围绕生成式AI,英伟达发布了一系列加速模型训练和推理的软硬件新品及服务。老黄首先讲述了英伟达在生成式AI革命之初是如何进入AI领域的。“英伟达加速计算始于DGX(AI超级计算机),这是大型语言模型实现突破背后的引擎。”他谈道,“(2016年)我亲手将全球首款DGX交给了OpenAI,自此以后,《财富》100强企业中有一半安装了DGXAI超级计算机。DGX已成为AI领域的必备工具。”“生成式AI将重塑几乎所有行业。”老黄说,ChatGPT、StableDiffusion、DALL-E和Midjourney唤醒了世界对生成式AI的认知。在他看来,生成式AI是一种新型计算机、一种可以用人类语言进行编程的计算机,与个人电脑(PC)、互联网、移动设备和云类似,这种能力影响深远,每个人都可以命令计算机来解决问题,现在每个人都可以是程序员。1、训练:生成式AI明星企业都在用,AI超级计算机已全面投产训练方面,英伟达H100GPU基于Hopper架构及其内置TransformerEngine,针对生成式AI、大型语言模型和推荐系统的开发、训练和部署进行了优化,利用FP8精度在大型语言模型上比上一代A100提供了快9倍的AI训练和快30倍的AI推理。DGXH100拥有8个H100GPU模组,在FP8精度下可提供32PetaFLOPS的算力,并提供完整的英伟达AI软件堆栈,助力简化AI开发。黄仁勋宣布,NVIDIADGXH100AI超级计算机已全面投入生产,很快将面向全球企业。微软宣布Azure将向其H100AI超级计算机开放私人预览版。黄仁勋说,云计算巨头现在正在提供英伟达H100 GPU,生成式AI领域的多家明星企业都在用H100加速工作。比如,OpenAI用H100的上一代A100训练和运行AI聊天机器人ChatGPT,并将在微软Azure超级计算机上使用H100;AI文生图明星创企Stability.ai是AWS上的H100早期访问客户。最近刚推出开源大模型的社交软件巨头Meta开发了基于Hopper架构的AI超级计算机GrandTeton系统。相比其前代Zion,该系统的算力大幅提升,可同时支持推荐模型和内容理解的训练和推理。英伟达与其主要合作伙伴宣布推出强大的GPUNVIDIAH100TensorCoreGPU新产品和服务,以满足生成式AI训练和推理需求。AWS宣布即将推出的EC2超级集群(EC2P5实例)可扩展至20000个互连的H100。OracleCloudInfrastructure(OCI)宣布限量推出采用H100的全新OCICompute裸金属GPU实例。为企业和开发者提供多模态视频理解的平台TwelveLabs计划在OCISupercluster上使用H100实例来即时、智能和容易搜索视频。2、推理:发布3款GPU、3类云服务推理方面,英伟达推出全新GPU推理平台:4种配置(L4TensorCoreGPU、L40GPU、H100NVLGPU、GraceHopper超级芯片)、一个体系架构、一个软件栈,分别用于加速AI视频、图像生成、大型语言模型部署和推荐系统。(1)L4:针对AI视频设计的通用GPU,可提供比CPU高120倍的AI视频性能,能效提高99%;优化了视频解码与转码、视频内容审核、视频通话等功能,如背景替换、重新打光、眼神交流、转录和实时翻译等。一台8-GPUL4服务器将取代100多台用于处理AI视频的双插槽CPU服务器。(2)L40:用于图像生成,针对图形和AI支持的2D、视频和3D图像生成进行了优化,推理性能是英伟达最受欢迎的云推理GPUT4的10倍。(3)H100NVL:针对ChatGPT等大型语言模型的大规模部署,配备双GPUNVLink,将两张拥有94GBHBM3显存的PCIeH100GPU拼接在一起,可处理拥有1750亿参数的GPT-3大模型,同时支持商用PCIe服务器轻松扩展。老黄说,目前在云上唯一可以实际处理ChatGPT的GPU是HGXA100。与适用于GPT-3处理的HGXA100相比,一台搭载4对H100及双GPUNVLink的标准服务器的速度要快10倍,...PC版:https://www.cnbeta.com.tw/articles/soft/1350547.htm手机版:https://m.cnbeta.com.tw/view/1350547.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人