【苹果、高通、Google 都押注的未来芯片,到底是什么?】这个专注于神经网络运算的处理器甚至没有一个统一的名字:在麒麟芯片上叫

【苹果、高通、Google 都押注的未来芯片,到底是什么?】这个专注于神经网络运算的处理器甚至没有一个统一的名字:在麒麟芯片上叫 NPU,在 A 系列仿生芯片上叫 神经计算引擎(Neural Engine);Google 将其命名为 TPU,联发科又认为用于 AI 计算的它应该叫 APU… #抽屉IT

相关推荐

封面图片

《基于AI芯片的神经网络优化实战》

《基于AI芯片的神经网络优化实战》 简介:本书探讨如何利用专用AI芯片提升神经网络模型的运行效率与性能,结合硬件架构特性与算法优化策略。通过实际案例演示模型压缩、量化加速及跨平台部署等技术,助力开发者在边缘计算、自动驾驶等场景实现低功耗、高实时性的智能应用。 亮点:深入解析AI芯片与算法的协同优化方法,提供从理论到工程落地的全流程指导,包含产业级案例和可复现实验,涵盖低精度计算、动态推理等前沿技术,强化真实场景部署能力。 标签:#AI芯片 #神经网络优化 #实战应用 #模型压缩 #边缘计算 #基于AI芯片的神经网络优化实战 链接:https://pan.quark.cn/s/76d6585705ef

封面图片

文件显示苹果训练AI用了Google TPU芯片

文件显示苹果训练AI用了Google TPU芯片 为构建苹果的人工智能基础模型,工程师们运用了公司自研的框架软件及多种硬件,包括苹果自有的GPU(图形处理单元)和仅在谷歌云上可用的TPU(张量处理单元)。谷歌已经研发TPU芯片约10年,并已公开其第五代芯片的两种型号。这些芯片可用于人工智能的训练,谷歌宣称其性能可媲美英伟达H100人工智能芯片。在其年度开发者大会上,谷歌宣布将于今年推出第六代TPU芯片。这些芯片专为运行人工智能应用和训练模型而设计,谷歌已围绕这些芯片构建了云计算硬件和软件平台。苹果和谷歌尚未对此事作出回应。苹果未具体透露,与英伟达或其他AI硬件供应商相比,其对谷歌芯片和软件的依赖程度。通常,使用谷歌的芯片需要客户通过其云部门购买访问权限,这类似于客户从亚马逊AWS或微软Azure购买计算时间的方式。 ... PC版: 手机版:

封面图片

Google公布下一代 TPU芯片“Trillium” 性能有望提升 4.7 倍

Google公布下一代 TPU芯片“Trillium” 性能有望提升 4.7 倍 宣布下一代 TPU 是 I/O 大会的传统,尽管这些芯片要到今年晚些时候才能推出。不过,皮查伊表示,新一代 TPU 到货后,每块芯片的计算性能将比第五代提升 4.7 倍。在一定程度上,Google是通过扩大芯片的矩阵乘法单元(MXU)和提高整体时钟速度来实现这一目标的。此外,Google还将 Trillium 芯片的内存带宽提高了一倍。更重要的是,Trillium 采用了第三代 SparseCore,Google将其描述为"处理高级排名和推荐工作负载中常见的超大嵌入的专用加速器",该公司认为,这将使 Trillium TPU 能够更快地训练模型,并以更低的延迟为模型提供服务。皮查伊还将新芯片描述为Google迄今为止"最节能"的 TPU,这一点在人工智能芯片需求持续成倍增长的情况下尤为重要。他说:"在过去六年中,行业对 ML 计算的需求增长了 100 万倍,大约每年增长 10 倍。如果不投资降低这些芯片的功耗需求,这种情况将难以为继。Google承诺,新的 TPU 比第五代芯片节能 67%。"Google的 TPU 最近往往有多种变体。到目前为止,Google还没有提供有关新芯片的更多细节,也没有说明在Google云中使用这些芯片的成本。今年早些时候,Google也宣布将成为首批提供英伟达(NVIDIA)下一代 Blackwell 处理器的云计算提供商。不过,这仍然意味着开发人员要等到 2025 年初才能使用这些芯片。皮查伊说:"我们将继续投资基础设施,为我们的人工智能进步提供动力,我们将继续开辟新天地。" ... PC版: 手机版:

封面图片

继续神经网络工具 1.GPTGO ( ) - ChatGPT 和 Google 搜索合二为一;

继续神经网络工具 1.GPTGO ( ) - ChatGPT 和 Google 搜索合二为一; 2. ReaderGPT( ) - Chrome 浏览器的扩展,使用 ChatGPT 生成任何可读网页的摘要; 3. Adobe Firefly ( ) - 生成式AI; 4. Genius Sheets ( ) - 在 Excel/Docs 中制作财务报告和各种表格; 5. CloneDub ( ) - 将音频翻译成另一种语言,同时保留语音不变; 6. Amazoncode AI ( ) - 助理程序员,免费; 7. 2D&3D Video Converter ( )- 将 2D 视频转换为 3D 视频,功能众多. #AI #tools

封面图片

Intel大型神经拟态系统Hala Point集成11.5亿神经元 比人脑快200倍

Intel大型神经拟态系统Hala Point集成11.5亿神经元 比人脑快200倍 Loihi 2处理器早在2021年就已发布,首发采用Intel 4工艺,集成230亿个晶体管、六个低功耗x86核心、128个神经形态核心,单颗就有100万个神经元、1.2亿个突触,是上代规模的8倍,性能也提升了10倍。Loihi 2应用了众多类脑计算原理,如异步、基于事件的脉冲神经网络(SNN)、存算一体不断变化的稀疏连接,而且神经元之间能够直接通信,不需要绕过内存。尤其是在新兴的小规模边缘工作负载上,它实现了效率、速度和适应性数量级的提升。比如执行AI推理负载和处理优化问题时, Loihi 2的速度比常规CPU和GPU架构快多达50倍,能耗则只有百分之一。Hala Point系统的形态是一个六机架的数据中心机箱,大小相当于一个微波炉,内置1152颗Loihi 2处理器,共有140544个神经形态处理内核、11.5亿个神经元、1280亿个突触,最大功耗仅为2600瓦。系统内还有2300多颗嵌入式x86处理器,用于辅助计算。内存带宽达16PB/s(16000TB/s),内核间通信带宽达3.5PB/s(3500TB/s),芯片间通信带宽达5TB/s,可以每秒处理超过380万亿次的8位突触运算、超过240万亿次的神经元运算。Hala Point在主流AI工作负载上的计算效率非常出色,比如运行传统深度神经网络时,每秒可完成多达2万万亿次运算(20PFlops),8位运算的能效比达到了15TOPS/W(每瓦特15万亿次计算),相当于甚至超过了基于GPU、CPU的架构。在用于仿生脉冲神经网络模型时,Hala Point能够以比人脑快20倍的实时速度,运行其全部11.5亿个神经元。尤其是在运行神经元数量较低的情况下,它的速度甚至可比人脑快200倍!早期研究结果表明,通过利用稀疏性高达10比1的稀疏连接和事件驱动的活动,Hala Point运行深度神经网络的能效比可高达15TOPS/W,同时无需对输入数据进行批处理。Hala Point系统有望推动多领域AI应用的实时持续学习,比如科学研究、工程、物流、智能城市基础设施管理、大语言模型、AI助手等等。 ... PC版: 手机版:

封面图片

苹果公司发布M4芯片 首发于最新款iPad Pro

苹果公司发布M4芯片 首发于最新款iPad Pro 苹果公司重点强调了 M4 的人工智能功能,新的神经引擎使其成为"人工智能领域功能强大到令人发指的芯片",每秒可处理 38 万亿次运算(TOPS)。据称,它比 A11 的 NPU 快 60 倍,但这一数字还不及骁龙 X Elite 的 45 TOPS。不过,苹果仍声称 M4 只需四分之一的功率就能提供与最新 PC 芯片相同的性能。据苹果公司称,M4 采用第二代 3nm 技术,其 10 核 CPU 配置有 4 个性能核心和 6 个效率核心,性能比 M2 强 50%。M4 的 10 核 GPU 还支持动态缓存、网格着色和光线追踪,此外还支持全新的显示引擎,渲染速度是 M2 的四倍。苹果没有提到的是 M4 的 NPU 核心数。自 M1 发布以来,苹果的 M 系列芯片(不包括 M1 和 M2 Ultra)一直采用相同的 16 核 NPU,但每一代产品的 NPU TOPS 都在逐步增加,这意味着 NPU 在快速执行计算方面变得更好。从 M1 到 M2 的增幅是 M2 到 M3 的一倍,因此,苹果从 M3 的 18 TOPS 跃升到新款 M4 的 38 TOPS 的跨度也并不小。在苹果发布 M4 之前不到两周,微软将于 5 月 20 日在西雅图举行Windows 和 Surface AI特别活动,预计将推出基于 Arm 的硬件。微软相信,Arm 架构的 Windows 最终能在 CPU 性能和 AI 加速任务方面击败苹果的 MacBook Air M3 笔记本电脑。微软的信心主要得益于高通公司即将推出的 Snapdragon X Elite 处理器,高通公司承诺其 NPU 性能将高达 45 TOPS。苹果表示,其新的 M4 芯片将提供 38 TOPS 的 NPU 性能,因此,苹果的新芯片与今年夏天即将上市的搭载 Arm 处理器的 Windows 笔记本电脑相比表现会如何,将是一个有趣的话题。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人