Meta正在招募芯片工程师以开发下一代AI和ML专用加速器

Meta正在招募芯片工程师以开发下一代AI和ML专用加速器 根据最近在网上发布的招聘信息,Meta 公司希望招聘高技能的硬件工程师来开发新一代专用集成电路(ASIC)设计。ASIC 芯片在硬件层面为特定的计算用途而定制,这意味着它们不像传统 CPU 那样用于通用用途。但是,ASIC 在其设计用途上也非常高效,例如为人工智能工作负载和聊天机器人服务提供机器学习算法。Meta公司最新招聘职位分布在印度班加罗尔和加利福尼亚桑尼维尔。在印度,Facebook 母公司正在招聘一名ASIC 工程师,为其数据中心构建硬件加速器。招聘信息称,这名新员工将成为 ASIC 团队不可或缺的一员,该团队致力于开发最先进的芯片架构,以加速人工智能/机器学习算法。尽管人工智能应用对能源的需求巨大,但 Meta 仍希望打造"绿色"数据中心加速器。新任 ASIC 工程师需要开发新的先进硬件架构和算法,以支持和测试这些新芯片。该职位的职责包括开发性能和功能模型以验证新架构,创建机器学习内核以分析 ASIC 芯片,以及针对 ML 工作负载优化架构。Facebook 公司正在寻找至少拥有计算机科学或工程学士学位、10 年以上工作经验并了解处理器、内存系统和片上互连网络等计算机架构概念的人才。应聘者还需要在 C++(和 C)等低级面向对象编程语言方面有丰富的经验。Meta的一些与ASIC架构相关的招聘信息最早是在2023年12月发布的,但两周前又重新发布了。该公司此前曾表示,希望开发自己的"推理加速器",并将于 2024 年上线。据 NVIDIA 首席执行官黄仁勋(Jensen Huang)称,GPU 在改善 Meta 的"推荐引擎"和公司整体收入方面发挥了关键作用。但 NVIDIA 也表示,在不久的将来,它很可能无法为任何从事人工智能业务的人提供足够的 GPU 加速器。Meta 似乎也在研究人工通用智能 (AGI)这一难以捉摸的概念,这对于最新的 GPU 技术来说是一项极其艰巨的任务,但对于专用的 ASIC 芯片设计来说,却能从中获益匪浅。 ... PC版: 手机版:

相关推荐

封面图片

Meta 公司推出新一代定制 AI 芯片

Meta 公司推出新一代定制 AI 芯片 当地时间周三,Meta 公布了其芯片开发的最新成果。该芯片被称为“下一代”Meta 训练和推理加速器 (MTIA),是去年 MTIA v1 的后继产品。目前,MTIA 主要训练排名和推荐算法,但 Meta 表示,其目标是最终扩展芯片功能,开始训练生成式人工智能,如其 Llama 语言模型。Meta 表示,新的 MTIA 芯片将“从根本上”侧重于提供计算、内存带宽和内存容量之间的适当平衡。该芯片拥有 256MB 的片上内存和 1.35GHz 的主频,采用 5 纳米工艺制造,相较于 MTIA v1 的 128MB 和 800MHz 整体性能提高了 3 倍。 、

封面图片

传下一代Xbox将配备专用加速器 专门用于处理AI任务

传下一代Xbox将配备专用加速器 专门用于处理AI任务 微软下一代硬件中的神经处理单元(NPU)将能够执行一些 AI 任务,包括自动 SR -微软自己的分辨率提升技术。科登写道:"可靠消息来源告诉我们,下一代 Xbox 将配备一个 NPU,用于处理一些 AI 任务,例如自动提升分辨率,而不会影响 CPU 或 GPU 的工作。下一代 Xbox 还将配备某种形式的 Copilot,在游戏中提供指导,而无需使用像我们这样的网站。"虽然科登最初说人工智能加速器(NPU)将来自高通公司,但他后来澄清说,目前还不知道制造商是谁。"目前,我不知道制造商是谁,但很有可能是 AMD",他后来补充说。他没有透露更多细节,但这是一个有趣的信息。正如上周所报道的那样,微软的下一代 Xbox 游戏机据说将与目前的游戏机截然不同,并将成为供制造商生产自己的游戏设备的"参考设计"。早在今年 4 月,我们就报道过微软似乎正在开发一款 Xbox AI 聊天机器人,它可以帮助自动执行某些任务,这个机器人可以帮助自动完成游戏退款等工作。这个人工智能聊天机器人是否与科登提到的副驾驶有关,目前还不完全清楚。"我们正在测试一个 Xbox 支持虚拟助手,这是一个动画人物的内部原型,可以通过语音或文字查询 Xbox 支持主题,"Xbox 游戏 AI 总经理张海燕上个月向媒体表示。"该原型可以让玩家更方便快捷地使用自然语言获得支持主题的帮助,并从现有的 Xbox 支持页面中获取信息。" ... PC版: 手机版:

封面图片

下一代AI芯片,拼什么?

下一代AI芯片,拼什么? 英伟达的Hopper GPU/Blackwell/Rubin、AMD的Instinct 系列、英特尔的Gaudi芯片,这场AI芯片争霸战拼什么?这是速度之争,以英伟达为首,几家巨头将芯片推出速度提升到了一年一代,展现了AI领域竞争的“芯”速度;是技术的角逐,如何让芯片的计算速度更快、功耗更低更节能、更易用上手,将是各家的本事。尽管各家厂商在AI芯片方面各有侧重,但细看之下,其实存在着不少的共同点。一年一代,展现AI领域"芯"速度虽然摩尔定律已经开始有些吃力,但是AI芯片“狂欢者们”的创新步伐以及芯片推出的速度却越来越快。英伟达Blackwell还在势头之上,然而在不到3个月后的Computex大会上,英伟达就又祭出了下一代AI平台Rubin。英伟达首席执行官黄仁勋表示,以后每年都会发布新的AI芯片。一年一代芯片,再次刷新了AI芯片的更迭速度。英伟达的每一代GPU都会以科学家名字来命名。Rubin也是一位美国女天文学家Vera Rubin的名字命名。Rubin将配备新的GPU、名为Vera的新CPU和先进的X1600 IB网络芯片,将于2026年上市。目前,Blackwell和Rubin都处于全面开发阶段,其一年前在2023年在Computex上发布的GH200 Grace Hopper“超级芯片”才刚全面投入生产。Blackwell将于今年晚些时候上市,Blackwell Ultra将于2025年上市,Rubin Ultra将于2027年上市。紧跟英伟达,AMD也公布了“按年节奏”的AMD Instinct加速器路线图,每年推出一代AI加速器。Lisa Su在会上表示:“人工智能是我们的首要任务,我们正处于这个行业令人难以置信的激动人心的时代的开始。”继去年推出了MI300X,AMD的下一代MI325X加速器将于今年第四季度上市,Instinct MI325X AI加速器可以看作是MI300X系列的强化版,Lisa Su称其速度更快,内存更大。随后,MI350系列将于2025年首次亮相,采用新一代AMD CDNA 4架构,预计与采用AMD CDNA 3的AMD Instinct MI300系列相比,AI推理性能将提高35倍。MI350对标的是英伟达的Blackwell GPU,按照AMD的数据,MI350系列预计将比英伟达B200产品多提供50%的内存和20%的计算TFLOP。基于AMD CDNA“Next”架构的AMD Instinct MI400系列预计将于2026年上市。英特尔虽然策略相对保守,但是却正在通过价格来取胜,英特尔推出了Gaudi人工智能加速器的积极定价策略。英特尔表示,一套包含八个英特尔Gaudi 2加速器和一个通用基板的标准数据中心AI套件将以65,000美元的价格提供给系统提供商,这大约是同类竞争平台价格的三分之一。英特尔表示,一套包含八个英特尔Gaudi 3加速器的套件将以125,000美元的价格出售,这大约是同类竞争平台价格的三分之二。AMD和NVIDIA虽然不公开讨论其芯片的定价,但根据定制服务器供应商Thinkmate的说法,配备八个NVIDIA H100 AI芯片的同类HGX服务器系统的成本可能超过30万美元。一路高歌猛进的芯片巨头们,新产品发布速度和定价凸显了AI芯片市场的竞争激烈程度,也让众多AI初创芯片玩家望其项背。可以预见,三大芯片巨头将分食大部分的AI市场,大量的AI初创公司分得一点点羹汤。工艺奔向3纳米AI芯片走向3纳米是大势所趋,这包括数据中心乃至边缘AI、终端。3纳米是目前最先进工艺节点,3纳米工艺带来的性能提升、功耗降低和晶体管密度增加是AI芯片发展的重要驱动力。对于高能耗的数据中心来说,3纳米工艺的低功耗特性至关重要,它能够有效降低数据中心的运营成本,缓解数据中心的能源压力,并为绿色数据中心的建设提供重要支撑。英伟达的B200 GPU功耗高达1000W,而由两个B200 GPU和一个Grace CPU组成的GB200解决方案消耗高达2700W的功率。这样的功耗使得数据中心难以为这些计算GPU的大型集群提供电力和冷却,因此英伟达必须采取措施。Rubin GPU的设计目标之一是控制功耗,天风国际证券分析师郭明𫓹在X上写道,Rubin GPU很可能采用台积电3纳米工艺技术制造。另据外媒介绍,Rubin GPU将采用4x光罩设计,并将使用台积电CoWoS-L封装技术。与基于Blackwell的产品相比,Rubin GPU是否真的能够降低功耗,同时明显提高性能,或者它是否会专注于性能效率,还有待观察。AMD Instinct系列此前一直采用5纳米/6纳米双节点的Chiplet模式,而到了MI350系列,也升级为了3纳米。半导体知名分析师陆行之表示,如果英伟达在加速需求下对台积电下单需求量大,可能会让AMD得不到足够产能,转而向三星下订单。来源:videocardz英特尔用于生成式AI的主打芯片Gaudi 3采用的是台积电的5纳米,对于 Gaudi 3,这部分竞争正在略微缩小。不过,英特尔的重心似乎更侧重于AI PC,从英特尔最新发布的PC端Lunar Lake SoC来看,也已经使用了3纳米。Lunar Lake包含代号为Lion Cove的新 Lion Cove P核设计和新一波Skymont E 核,它取代了 Meteor Lake 的 Low Power Island Cresmont E 核。英特尔已披露其采用 4P+4E(8 核)设计,禁用超线程/SMT。整个计算块,包括P核和E核,都建立在台积电的N3B节点上,而SoC块则使用台积电N6节点制造。英特尔历代PC CPU架构(来源:anandtech)在边缘和终端AI芯片领域,IP大厂Arm也在今年5月发布了用于智能手机的第五代 Cortex-X 内核以及带有最新高性能图形单元的计算子系统 (CSS)。Arm Cortex-X925 CPU就利用了3纳米工艺节点,得益于此,该CPU单线程性能提高了36%,AI性能提升了41%,可以显著提高如大语言模型(LLM)等设备端生成式AI的响应能力。高带宽内存(HBM)是必需品HBM(High Bandwidth Memory,高带宽存储器)已经成为AI芯片不可或缺的关键组件。HBM技术经历了几代发展:第一代(HBM)、第二代(HBM2)、第三代(HBM2E)、第四代(HBM3)和第五代(HBM3E),目前正在积极发展第六代HBM。HBM不断突破性能极限,满足AI芯片日益增长的带宽需求。在目前一代的AI芯片当中,各家基本已经都相继采用了第五代HBM-HBM3E。例如英伟达Blackwell Ultra中的HBM3E增加到了12颗,AMD MI325X拥有288GB的HBM3e内存,比MI300X多96GB。英特尔的 Gaudi 3封装了八块HBM芯片,Gaudi 3能够如此拼性价比,可能很重要的一点也是它使用了较便宜的HBM2e。英特尔Gaudi 3的HBM比H100多,但比H200、B200或AMD的MI300都少(来源:IEEE Spectrum)至于下一代的AI芯片,几乎都已经拥抱了第六代HBM-HBM4。英伟达Rubin平台将升级为HBM4,Rubin GPU内置8颗HBM4,而将于2027年推出的Rubin Ultra则更多,使用了12颗HBM4。AMD的MI400也奔向了HBM4。从HBM供应商来看,此前AMD、英伟达等主要采用的是SK海力士。但现在三星也正在积极打入这些厂商内部,AMD和三星目前都在测试三星的HBM。6月4日,在台北南港展览馆举行的新闻发布会上,黄仁勋回答了有关三星何时能成为 NVIDIA 合作伙伴的问题。他表示:“我们需要的 HBM 数量非常大,因此供应速度至关重要。我们正在与三星、SK 海力士和美光合作,我们将收到这三家公司的产品。”HBM的竞争也很白热化。SK海力士最初计划在2026年量产HBM4,但已将其时间表调整为更早。三星电子也宣布计划明年开发HBM4。三星与SK海力士围绕着HBM的竞争也很激烈,两家在今年将20%的DRAM产能转向HBM。美光也已加入到了HBM大战行列。炙手可热的HBM也成为了AI芯片大规模量产的掣肘。目前,存储大厂SK Hynix到2025年之前的HBM4产能已基本售罄,供需矛盾日益凸显。根据SK海力士预测,AI芯片的繁荣带动HBM市场到2027年将出现82%的复合年增长率。分析师也认为,预计明年HBM市场将比今年增长一倍以上。三星电子DRAM产品与技术执行副总裁Hwang Sang-joon在KIW 2023上表示:“我们客户当前的(HBM)订单决定比去年增加了一倍多。”三星芯片负责业务的设备解决方案部门总裁兼负责人 Kyung Kye-hyun 在公司会议上更表示,三星将努力拿下一半以上的... PC版: 手机版:

封面图片

三星成立AGI计算实验室 打造下一代AI芯片

三星成立AGI计算实验室 打造下一代AI芯片 三星电子总裁兼CEO、设备解决方案部负责人Kyung Kye-Hyun表示,其目标是发布新的“芯片设计,一种迭代模型,能够以极低的功耗和成本提供更强大的性能并支持越来越大的模型”。此举发生在硅谷重量级人物,从OpenAI CEO山姆·阿尔特曼到Meta平台马克·扎克伯格,就人工智能的未来轨迹展开辩论之际。许多人开始讨论AGI的潜力和危险。AGI本质上本质上是指行为、学习和进化都像人类一样的人工智能,甚至是超越人类的人工智能。山姆·阿尔特曼和马克·扎克伯格最近几个月访问了韩国首尔,与三星和其他韩国公司讨论人工智能合作。三星正试图在为人工智能提供芯片的业务中赶上竞争对手,后者此前在为英伟达芯片使用的新型先进存储半导体领域占得先机。Kyung Kye-Hyun还表示,谷歌前高级软件工程师Dong Hyuk Woo将负责三星在美国和韩国的AGI计算实验室。该公告发布恰逢英伟达宣布备受瞩目的Blackwell架构新芯片B200。 ... PC版: 手机版:

封面图片

Notcoin 推出 Telegram 游戏加速器

Notcoin 推出 Telegram 游戏加速器 TON 生态点击游戏 Notcoin 宣布推出 Telegram Gaming Accelerator,旨在通过区块链赋能 Telegram 迷你应用,吸引数百万用户。Notcoin 与人工智能分析公司 Helika 合作,计划扩展并启动游戏开发者加速器。

封面图片

Google公布下一代 TPU芯片“Trillium” 性能有望提升 4.7 倍

Google公布下一代 TPU芯片“Trillium” 性能有望提升 4.7 倍 宣布下一代 TPU 是 I/O 大会的传统,尽管这些芯片要到今年晚些时候才能推出。不过,皮查伊表示,新一代 TPU 到货后,每块芯片的计算性能将比第五代提升 4.7 倍。在一定程度上,Google是通过扩大芯片的矩阵乘法单元(MXU)和提高整体时钟速度来实现这一目标的。此外,Google还将 Trillium 芯片的内存带宽提高了一倍。更重要的是,Trillium 采用了第三代 SparseCore,Google将其描述为"处理高级排名和推荐工作负载中常见的超大嵌入的专用加速器",该公司认为,这将使 Trillium TPU 能够更快地训练模型,并以更低的延迟为模型提供服务。皮查伊还将新芯片描述为Google迄今为止"最节能"的 TPU,这一点在人工智能芯片需求持续成倍增长的情况下尤为重要。他说:"在过去六年中,行业对 ML 计算的需求增长了 100 万倍,大约每年增长 10 倍。如果不投资降低这些芯片的功耗需求,这种情况将难以为继。Google承诺,新的 TPU 比第五代芯片节能 67%。"Google的 TPU 最近往往有多种变体。到目前为止,Google还没有提供有关新芯片的更多细节,也没有说明在Google云中使用这些芯片的成本。今年早些时候,Google也宣布将成为首批提供英伟达(NVIDIA)下一代 Blackwell 处理器的云计算提供商。不过,这仍然意味着开发人员要等到 2025 年初才能使用这些芯片。皮查伊说:"我们将继续投资基础设施,为我们的人工智能进步提供动力,我们将继续开辟新天地。" ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人