,主要为本科生高年级、硕博研究生、AI系统从业者设计。

,主要为本科生高年级、硕博研究生、AI系统从业者设计。 这个开源项目英文名字叫做 Deep Learning System 或者 AI System(AISys),中文名字叫做 深度学习系统 或者 AI系统。 本开源项目主要是探讨和学习人工智能、深度学习的系统设计,而整个系统是围绕着 ZOMI 在工作当中所积累、梳理、构建 AI 系统全栈的内容。 课程主要包括以下五大模块: 第一部分,AI基础知识和AI系统的全栈概述的AI系统概述,以及深度学习系统的系统性设计和方法论,主要是整体了解AI训练和推理全栈的体系结构内容。 第二部分,硬核篇介绍AI芯片,这里就很硬核了,从芯片基础到AI芯片的范围都会涉及,芯片设计需要考虑上面AI框架的前端、后端编译,而不是停留在天天喊着吊打英伟达,被现实打趴。 第三部分,进阶篇介绍AI编译器原理,将站在系统设计的角度,思考在设计现代机器学习系统中需要考虑的编译器问题,特别是中间表达乃至后端优化。 第四部分,实际应用推理系统,讲了太多原理身体太虚容易消化不良,还是得回归到业务本质,让行业、企业能够真正应用起来,而推理系统涉及一些核心算法和注意的事情也分享下。 第五部分,介绍AI框架核心技术,首先介绍任何一个AI框架都离不开的自动微分,通过自动微分功能后就会产生表示神经网络的图和算子,然后介绍AI框架前端的优化,还有最近很火的大模型分布式训练在AI框架中的关键技术。 第六部分,汇总篇介绍大模型,大模型是全栈的性能优化,通过最小的每一块AI芯片组成的AI集群,编译器使能到上层的AI框架,中间需要大量的集群并行、集群通信等算法在软硬件的支持。

相关推荐

封面图片

北航本科生芯片设计团队打造基于龙架构的Lain和EULA处理器

北航本科生芯片设计团队打造基于龙架构的Lain和EULA处理器 其中,Lain处理器侧重于验证多发射、乱序、多核等现代CPU主流微架构技术,EULA处理器则侧重于验证芯片敏捷开发环境及其全流程设计支持。本次北航成功流片是基于“北航-龙芯百芯计划”实现,该计划于2020年正式启动,以本科生开发和流片为目标导向,由计算机学院主导,联合集成电路学院、软件学院,共同探索与实践跨学院、跨学科、跨专业的交叉学科人才培养模式。为国家培养具备从CPU、操作系统、编译器到芯片实现等全流程能力的紧缺拔尖创新人才。龙芯中科首席架构师汪文祥表示:“此次北航本科生芯片设计团队完成了从CPU核心、SoC芯片的硬件前后端设计,直至操作系统、编译器乃至应用程序的软件开发任务,贯通了整个处理器芯片设计的技术栈,彰显出极高的完成度,实现了国产自主可控处理器芯片设计能力的全栈式贯通。” ... PC版: 手机版:

封面图片

院士郑纬民:国产AI芯片如果生态改善 哪怕60%性能也有人用

院士郑纬民:国产AI芯片如果生态改善 哪怕60%性能也有人用 郑纬民强调,算力是大模型产业的主要开销,占据了大模型训练成本的70%以及推理成本的95%。他指出,如果国产AI芯片生态系统得到改善,哪怕只能达到国外芯片60%的性能,用户也会愿意使用。他进一步阐释了生态系统的重要性,认为如果一个原本在英伟达平台上开发的人工智能软件能够轻松移植到国产系统上,这就意味着生态系统是良好的。反之,如果移植过程困难重重,耗时长达一年或两年,那么生态系统就是不成熟的。为了改善国产AI芯片的生态系统,郑纬民提出了需要做好的“十个软件”,包括编程框架、并行加速、通信库、算子库、AI编译器、编程语言、调度器、内存分配系统、容错系统和存储系统。他相信,只要这些方面得到优化,即使硬件性能不是顶尖,用户也会因为良好的使用体验而选择使用国产AI芯片。 ... PC版: 手机版:

封面图片

英伟达谷歌NYU齐上阵 用LLM完成芯片设计

英伟达谷歌NYU齐上阵 用LLM完成芯片设计 它们分别开发出一款AI工具旨在通过⾃动编写硬件代码和验证代码,加快⼯程师的⼯作速度,并通过总结笔记和状态更新来帮助⼤型设计团队协同⼯作。让AI参与芯片设计,全都是因2023年⼈⼯智能热潮掀起,专用AI芯片的供应一直处于紧张状态。与此同时,摩尔定律(即芯⽚中的晶体管数量⼤约每两年翻⼀番)的预言终结,也促使许多公司开始探索全新的芯⽚架构,以⽣产更多专⽤芯⽚。专家表⽰,美国没有⾜够的⼯程师能够为AI以及⾃动驾驶汽车和⽆⼈机等特定应⽤设计这些先进的芯⽚,而当前这些应⽤的需求都在不断增长。英伟达ChipNeMo,专供AI芯设计英伟达应⽤深度学习研究的副总裁Bryan Catanzaro表示,由于GPU能够同时处理成千上万的任务,因此需要近千⼈来制造,⽽且每个⼈都必须了解设计的各个部分是如何协同⼯作的,同时还要不断改进。对此,英伟达团队开发了一种全新定制化大模型ChipNeMo,能够执行诸如回答有关GPU架构的问题,或⽣成芯⽚设计语⾔代码等任务。研究人员在开源Llama 2模型的基础上,对这款AI系统进行了训练。与此同时,该AI系统也是为了与Synopsys等现有设计⾃动化⼯具配合使⽤。英伟达的内部⼯程师开始使⽤ChipNeMo一年以来,Catanzaro称,他们发现该系统在培训初级⼯程师、总结100个不同团队的笔记,状态更新⽅⾯⾮常有⽤。Google、芯片设计AI公司上阵对于⾕歌DeepMind,他们也开发了⼀套AI系统来改进逻辑合成。这是芯⽚设计的⼀个阶段,包括将电路⾏为描述转化为实际电路。⾕歌表⽰,这些技术可能会被⽤于改进⾃⼰的定制⼈⼯智能芯⽚,即“张量处理单元”(TPU)。另外,芯片设计公司Synopsys去年发布了一款AI工具名为Synopsys.ai Copilot。这是与微软合作通过OpenAI的⼤模型开发的工具,旨在帮助工程师们开展合作。该公司表示,微软的内部硅团队正在使用该工具来支持其工程需求。这款AI⼯具可以回答有关如何使⽤公司设计⼯具的问题,并能创建⼯作流程脚本。它还可以生成RTL(一种芯片设计语言,用于规范芯片架构),只需用简单的英语进行对话即可。学术界研究爆发在学术界,也有诸多研究朝着这个方向开展。包括纽约大学在内多所大学进行的研究,致力于发现确定生成式AI加速芯片设计的其他方法。其中一些研究得到了Synopsys,以及芯片巨头⾼通等公司的资助。QTcore-C1,⼀种由纽约⼤学研究⼈员通过与ChatGPT对话命名和设计的芯⽚纽约⼤学坦登⼯程学院的⼀个团队通过与ChatGPT对话,在⼤约⼀个⽉的时间⾥设计出了⼀款芯⽚。这项技术被称为“Chip Chat”,研究⼈员只需与ChatGPT对话, 就能⾃动编写描述芯⽚功能的芯⽚设计语⾔ Verilog。纽约⼤学坦登⼯程学院电⽓与计算机⼯程研究所副教授Siddharth Garg表示,“通过使用与ChatGPT相关的AI系统,研究人员希望将硬件设计时间加速到⼀个⽉或更短的时间”。通常来说,设计一款最复杂的微芯⽚,可能需要耗费长达半年,甚至更长的时间。但这些AI工具并非,无所不能。德克萨斯大学奥斯汀分校电气与计算机工程学教授David Pan说,目前,这些工具主要用于培训年轻的芯片设计师、编写硬件语言和报告错误等方面。⽬前的⼯具还有其他局限性。⼯程师必须仔细验证AI⽣成的输出结果, ⽽且⽬前还没有⼀种解决⽅案可以⾃动完成从设计到验证、实现设计的晶体管以及检查设计的电⽓特性等整个芯⽚设计流程。Synopsys公司的Krishnamoorthy估计,利⽤⽣成式AI⾃主创建功能芯⽚的能⼒⼤约还需要5年时间。参考资料: ... PC版: 手机版:

封面图片

《大模型基础》简介:本书系统介绍大模型的核心原理、技术架构与应用场景,涵盖从基础理论到实践落地的完整知识体系,适合AI从业者与研

《大模型基础》 简介:本书系统介绍大模型的核心原理、技术架构与应用场景,涵盖从基础理论到实践落地的完整知识体系,适合AI从业者与研究者快速掌握前沿技术动态。 亮点:深入浅出解析Transformer架构,结合行业案例与开源工具,提供可复现的实战代码与调优技巧。 标签:#深度学习 #自然语言处理 #Transformer实战 #大模型基础 #AI技术手册 更新日期:2025-04-28 07:18:17 链接:https://pan.quark.cn/s/9631ec06a2dd

封面图片

| #指南 #论文本系列报告面向刚刚开始从事科学研究或者将要从事科学研究的研究生和本科生,介绍科学研究的基本信息(意义、目标、大

| #指南 #论文 本系列报告面向刚刚开始从事科学研究或者将要从事科学研究的研究生和本科生,介绍科学研究的基本信息(意义、目标、大体流程、一些小建议等),重点以一些具体论文实例介绍学术论文写作规范和科学方法,旨在帮助学生形成科学、系统、规范的科研和写作思维与方法。 本系列报告提供一次规范且系统的“科研与英文论文写作”入门学习,你将收获: (1)从内容组织上看,本次报告并非笼统的介绍论文写作方法论,而是以一系列鲜活的论文实例对比一篇论文高水平论文和一篇普通论文的各组成部分(标题、摘要、引言、相关工作、研究方法、实验分析、总结与展望、参考文献等),详细分析他们在写作逻辑、英文规范、图表等各方面的差别,并总结形成论文各部分的写作可规范建议,为刚刚开始英文写作的学生提供具有实操参考价值的写作范例; (2)从讲者讲述方式看,讲者在报告中贯穿了本人从学生走到科研道路上的经验、教训和心路历程,让学生对高水平学术论文的写作不再停留于“表面套路和繁荣”,而是通过规范的写作思维和方法深入理解科学问题、清晰展现科研成果,形成一套自身可不断迭代完善的科研方法,同时严格遵守学术道德。 本系列报告包括以下几方面内容: (1)首先介绍学术研究与学术论文写作的关系,引出刚刚开始从事科学研究的低年级研究生和高年级本科生在英文学术论文写作中常见的问题及原因; (2)报告重点以一些具体论文实例介绍高水平英文学术论文的科学思维、写作规范和修改过程,详细剖析一篇高水平论文在标题、摘要、引言、相关工作、研究方法、实验分析、总结与展望、参考文献等各部分的写作思路、相互关系、常见问题及改进方法,分享论文写作和论文修改的关键时间节点和建议; (3)如何确定论文引言和方法的写作逻辑和内容?报告将详细剖析如何通过画好论文研究动机示意图和模型框架图梳理论文立意、贡献和方法,并通过一些论文从0到1十几个版本画图的修改过程介绍论文逐步完善的写作过程; (4)如何写出语言规范、简洁、严谨的英文学术论文?报告将介绍基本的写作规范,并通过实例分析常见问题; (5)如何在日常研究中循序渐进积累、把握科研节奏、从容面对 deadline?报告重点围绕如何找论文、讲论文、梳理论文介绍5List的积累方法和有效工具,包括 Paper List、Idea List、Math List、English List、Code List。

封面图片

华为、百度、北大、鹏城实验室等编制AI模型国家标准

华为、百度、北大、鹏城实验室等编制AI模型国家标准 2023 年 3 月 17 日,由华为、百度、北京大学、鹏城实验室等 16 家单位共同编制的国家标准《信息技术 神经网络表示与模型压缩第一部分:卷积神经网络》(GB / T 42382.1-2023)正式发布,成为国内首个面向人工智能(AI)模型表示与压缩技术的国家标准,将于 2023 年 10 月 1 日正式实施。 该系列标准根据当前 AI 产业界在资源受限设备和 AI 模型部署方面的需求,定义了 AI 模型的表示规范及满足多场景需求的分发、压缩与部署流程,打破计算架构和算法框架之间的壁垒,提升了 AI 模型在网络分发、学习、应用部署方面的效率。 同时,该系列部分标准已在 AI 开发框架(百度)、AI 芯片(华为海思)和 AI 开放平台(海康威视)等领域得到广泛应用,且发布的系列标准辐射到 AMD Xilinx 赛灵思等国际 AI 领军公司。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人