前谷歌工程师创业造AI芯片 已融资2500万美元

前谷歌工程师创业造AI芯片 已融资2500万美元 在这一背景下,两位前谷歌工程师共同创立了MatX。他们利用在谷歌的经验,识别出现有人工智能芯片的局限性,并致力于开发更高效、成本更低的新型芯片,旨在提高大语言模型的训练和运行效率。MatX信心十足地预测,其芯片的性能将至少比英伟达的GPU好十倍。目前该公司已成功筹集了2500万美元的资金。人工智能时代的到来改变了风险投资对芯片行业的态度,尽管面临英伟达等巨头也在快速发展,但市场对于专门针对大语言模型设计的芯片仍然充满期待。以下是翻译内容大约25年后,感觉硅谷终于又成了“硅”谷。英伟达在驱动人工智能软件的芯片市场上已成绝对主导,促使其他公司决定自行设计芯片。历史告诉我们,这通常是充满灾难的尝试。从头开始设计芯片需要耗费数年时间和数亿美元,而且大多数尝试以失败告终。然而,人工智能的巨大前景促使人们认为这是一次必须的尝试。迈克·冈特(Mike Gunter)和莱纳·波普(Reiner Pope)就是这样的两个探索者。他们创立了MatX公司,旨在设计专为处理大语言模型所需数据而优化的芯片。大语言模型,如OpenAI的ChatGPT和谷歌的Gemini,是多种人工智能应用的基础,它们需要大量昂贵的芯片来运行。如果有公司能制造出更便宜、处理速度更快且更适合人工智能的芯片,那么它将在人工智能软件不断扩张的世界中占据极为有利的地位。冈特和波普此前在Alphabet旗下的谷歌工作,冈特负责设计运行人工智能软件的硬件芯片,而波普则负责编写人工智能软件。多年来,谷歌一直致力于开发TPU(tensor processing unit,张量处理单元),一种专为人工智能设计的芯片。然而,根据MatX高管的说法,这些芯片是在大语言模型普及之前设计的,对当前任务而言不够高效。“在谷歌,我们努力使大语言模型运行得更快,也取得了一些进展,但总是遇到困难,”波普表示,“在公司内部,有很多关于芯片改进的想法,很难只专注于大语言模型。这是我们选择离职的原因。”英伟达在人工智能芯片市场的主导地位有些偶然。它最初生产的GPU芯片是为加速视频游戏和某些计算机设计任务而设计的。这些芯片擅长同时处理大量的小型任务,恰好适合运行人工智能软件,其性能大幅超过了英特尔等公司生产的其他类型的芯片。英伟达在其GPU芯片上划分了资源区块,以适应广泛的计算任务,包括芯片内部的数据传输。这些设计决策似乎更倾向于满足以往计算时代的需求,而非当前人工智能的高速发展,从而在性能方面存在一定的权衡。MatX的创始人相信,在新的人工智能时代,这些额外的资源增加了不必要的成本和复杂性。相比之下,MatX采取了全新的设计方法,开发了只有一个大型处理核心的芯片,目的是尽可能快地完成乘法运算这是大语言模型的主要任务。MatX全力以赴,坚信其芯片在训练大型语言模型和输出结果上至少能比英伟达的GPU高出十倍。“英伟达的产品非常强大,对大多数公司来说是正确的选择,”波普说,“但我们认为我们能做得更好。”MatX已经筹集到2500万美元的资金,最新一轮融资由人工智能行业的投资人纳特·弗里德曼(Nat Friedman)和丹尼尔·格罗斯(Daniel Gross)领投。MatX位于加州山景城,距离硅谷的发源地肖克利半导体实验室(Shockley Semiconductor Laboratory)仅几英里之遥。目前,几十名员工正致力于研发计划于明年推出的芯片。格罗斯表示:“MatX的创始人代表了人工智能领域的一股趋势,他们正在将一些大公司开发的最佳想法商业化,因为那些公司动作过慢,过于官僚化。”如果人工智能软件继续沿着现有的发展路径,对于高成本的计算需求将会巨增。据估计,目前正在研究的每个模型的训练成本约为10亿美元,而未来模型的训练成本可能达到100亿美元。MatX预测,只要能够赢得OpenAI和Anthropic PBC等主要人工智能公司的青睐,它的业务将会蓬勃发展。“这些公司的经济模式与典型公司截然不同,”冈特说,“他们将所有资金都投入到计算资源上,而不是人力资源上。如果这一趋势不改变,他们最终会耗尽资金。”在硅谷,芯片公司随处可见,曾经有几十家芯片初创公司,甚至计算机巨头如惠普、IBM和Sun Microsystems也生产自己的芯片。然而近年来,英特尔凭借其在个人电脑和服务器市场的主导地位击败了许多竞争对手,而三星和高通则主宰了智能手机芯片市场。这导致投资者转而避开芯片初创企业,认为相比软件公司,它们成本更高、周期更长、风险更大。MatX的投资人之一、芯片行业专家拉吉夫·赫马尼(Rajiv Khemani)回忆道:“大约在2014年左右,我曾拜访过一些风投公司,他们已经让所有懂芯片的合伙人离开了。”“我面前的人根本不懂我在说什么。”然而,人工智能的崛起改变了风险和回报的平衡。亚马逊、谷歌和微软等资源雄厚的公司已经开始投资设计自己的芯片,专门用于执行人工智能任务。几年前,如Groq和Cerebras Systems这样的初创公司亮相,推出了一大批针对人工智能专用的芯片。但这些产品都是在大语言模型实现技术突破并开始主导人工智能领域之前设计的。这迫使初创公司必须适应人们对大语言模型的突然兴趣,并在飞速发展中调整自己的产品。MatX可能代表着又一波从头开始、专门开发大语言模型专用芯片的初创企业浪潮。进入芯片行业的一大挑战是,设计和制造新芯片需要三到五年的时间。而在此期间,英伟达也不会停滞不前,它在本月刚刚发布了更快的GPU芯片。初创公司必须预测技术趋势和竞争对手的动向,而且不能犯任何可能导致生产延误的错误。软件公司通常需要重写代码才能在新的芯片上运行,这是一个成本高昂且耗时的过程,只有在能从这种变化中获得巨大收益时才会进行这样的转变。一个经验法则是,新芯片必须在性能上至少比前代产品好10倍,才能说服客户重写他们所有的代码。格罗斯认为,我们目前仍处于构建支持人工智能成为主要计算形式的基础设施的初期阶段。“我认为,我们正处于一个芯片周期的早期阶段,与此相比,其他行业的发展将相形见绌。”如果格罗斯的看法正确,那几乎可以肯定地说,新的芯片巨头将会诞生。 ... PC版: 手机版:

相关推荐

封面图片

前谷歌中国籍工程师被控窃取人工智能商业机密

前谷歌中国籍工程师被控窃取人工智能商业机密 一位曾在谷歌就职的中国籍软件工程师受到美国司法部指控,称他从谷歌窃取了用于开发人工智能的商业机密,并秘密为两家中国公司工作。 综合彭博社和路透社报道,38岁的丁林伟(Linwei Ding,音译)当地时间星期三(3月6日)在纽瓦克被捕,旧金山的联邦陪审团指控他犯有四项商业机密窃取罪。 根据起诉书,丁林伟窃取的机密,与谷歌超级计算数据中心通过机器学习训练人工智能大模型有关。 被窃取的信息包括芯片和系统的细节,以及帮助驱动超级计算机的软件。 美国司法部的新闻稿显示,丁林伟于2019年受雇于谷歌。他涉嫌将敏感信息从谷歌网络转移到个人电子邮件和云帐户,同时秘密地与两家总部位于中国的人工智能公司存在关联。 丁林伟据称创立了上述两家未具名公司中的一家。他并未向谷歌透露自己与这两家公司的关系。美国司法部没有指控他向上述公司提供了他从谷歌窃取的具体数据。 起诉书称,丁林伟在受聘于谷歌三年后开始窃取信息行为,截至去年5月,已上传了500多个机密文件。当月,丁林伟创立了自己的技术公司,并在一个聊天群称“我们有谷歌的经验,只需要复制和升级它。” 谷歌于去年12月开始对丁林伟产生怀疑,并于今年1月4日拿走了他的笔记本电脑,这个日子是他计划辞职的前一天。 如果罪名成立,丁林伟将面临最长10年的监禁,以及每项罪名最高25万美元(约33万新元)的罚款。 2024年3月7日 11:58 AM

封面图片

苹果利用谷歌芯片训练其人工智能模型

苹果利用谷歌芯片训练其人工智能模型 当地时间周一,苹果公司宣布了新的 Apple Intelligence 人工智能服务。但在活动结束后,苹果发布的一份技术文件的细则中明确显示出,谷歌公司已成为在人工智能领域又一个赢家。为了构建苹果的基础人工智能模型,该公司的工程师使用了自主开发的框架和一系列硬件,特别是自己的内部图形处理单元 (GPU) 和只能在谷歌云端使用的张量处理单元 (TPU) 芯片。苹果并未透露其对谷歌芯片和软件的依赖程度,以及对英伟达或其他人工智能供应商硬件的依赖程度。 谷歌已经开发 TPU 大约 10 年了,并公开讨论了可用于人工智能训练的两种第五代芯片;谷歌表示,第五代芯片的性能版本提供的性能可与英伟达 H100 人工智能芯片相媲美。通常谷歌的芯片并不直接出售给客户,只能通过谷歌云进行访问。

封面图片

文件显示苹果训练AI用了Google TPU芯片

文件显示苹果训练AI用了Google TPU芯片 为构建苹果的人工智能基础模型,工程师们运用了公司自研的框架软件及多种硬件,包括苹果自有的GPU(图形处理单元)和仅在谷歌云上可用的TPU(张量处理单元)。谷歌已经研发TPU芯片约10年,并已公开其第五代芯片的两种型号。这些芯片可用于人工智能的训练,谷歌宣称其性能可媲美英伟达H100人工智能芯片。在其年度开发者大会上,谷歌宣布将于今年推出第六代TPU芯片。这些芯片专为运行人工智能应用和训练模型而设计,谷歌已围绕这些芯片构建了云计算硬件和软件平台。苹果和谷歌尚未对此事作出回应。苹果未具体透露,与英伟达或其他AI硬件供应商相比,其对谷歌芯片和软件的依赖程度。通常,使用谷歌的芯片需要客户通过其云部门购买访问权限,这类似于客户从亚马逊AWS或微软Azure购买计算时间的方式。 ... PC版: 手机版:

封面图片

NVIDIA的AI芯片优势正成为谷歌、英特尔和Arm的目标

NVIDIA的AI芯片优势正成为谷歌、英特尔和Arm的目标 这个名为"统一加速基金会"(UXL)的组织表示,该项目的技术细节应在今年下半年达到"成熟"状态,但没有给出最终的发布目标。该项目目前包括英特尔开发的OneAPI开放标准,旨在消除特定编码语言、代码库和其他工具等要求,使开发人员不再受使用特定架构(如 NVIDIA 的 CUDA 平台)的束缚。上个月,英伟达(NVIDIA)成为首家市值达到 2 万亿美元的芯片制造商,在专注于为人工智能模型提供动力的硬件(如H100和即将推出的H200 GPU)之后,英伟达实现了快速增长。这些英伟达(NVIDIA)芯片将开发者锁定在使用英伟达(NVIDIA)的CUDA架构上,比其他芯片制造商目前生产的任何产品都要优越,但爆炸性的需求造成了产品稀缺,而竞争对手却在继续开发自己的替代品。在 2023 年的 Computex 主题演讲中,NVIDIA 首席执行官黄仁勋表示,有 400 万开发者正在使用 CUDA计算模型。UXL表示,该项目最初的目标是为人工智能应用和高性能计算应用开放选项,但该小组计划最终也支持NVIDIA的硬件和代码。UXL 正在寻求更多芯片制造商以及微软和亚马逊等云计算公司的援助,以确保该解决方案可以部署在任何芯片或硬件上。据传,微软去年曾与 AMD合作开发替代人工智能芯片,以挑战 NVIDIA 在该行业的有效垄断地位。 ... PC版: 手机版:

封面图片

人工智能初创公司Fireworks AI完成5200万美元融资,红杉资本领投

人工智能初创公司Fireworks AI完成5200万美元融资,红杉资本领投 PANews 7月12日消息,据彭博社报道,人工智能初创公司Fireworks AI完成5200万美元融资,红杉资本领投,英伟达、Advanced Micro Devices Inc.和MongoDB Inc.等参投。该公司的融资总额已达到7700万美元,估值达到5.52亿美元。Fireworks计划利用新资金扩大团队,并计划扩大与人工智能公司的合作伙伴关系。Fireworks旨在帮助企业采用生成式人工智能,允许它们通过其平台访问100多个模型。

封面图片

Meta正在招募芯片工程师以开发下一代AI和ML专用加速器

Meta正在招募芯片工程师以开发下一代AI和ML专用加速器 根据最近在网上发布的招聘信息,Meta 公司希望招聘高技能的硬件工程师来开发新一代专用集成电路(ASIC)设计。ASIC 芯片在硬件层面为特定的计算用途而定制,这意味着它们不像传统 CPU 那样用于通用用途。但是,ASIC 在其设计用途上也非常高效,例如为人工智能工作负载和聊天机器人服务提供机器学习算法。Meta公司最新招聘职位分布在印度班加罗尔和加利福尼亚桑尼维尔。在印度,Facebook 母公司正在招聘一名ASIC 工程师,为其数据中心构建硬件加速器。招聘信息称,这名新员工将成为 ASIC 团队不可或缺的一员,该团队致力于开发最先进的芯片架构,以加速人工智能/机器学习算法。尽管人工智能应用对能源的需求巨大,但 Meta 仍希望打造"绿色"数据中心加速器。新任 ASIC 工程师需要开发新的先进硬件架构和算法,以支持和测试这些新芯片。该职位的职责包括开发性能和功能模型以验证新架构,创建机器学习内核以分析 ASIC 芯片,以及针对 ML 工作负载优化架构。Facebook 公司正在寻找至少拥有计算机科学或工程学士学位、10 年以上工作经验并了解处理器、内存系统和片上互连网络等计算机架构概念的人才。应聘者还需要在 C++(和 C)等低级面向对象编程语言方面有丰富的经验。Meta的一些与ASIC架构相关的招聘信息最早是在2023年12月发布的,但两周前又重新发布了。该公司此前曾表示,希望开发自己的"推理加速器",并将于 2024 年上线。据 NVIDIA 首席执行官黄仁勋(Jensen Huang)称,GPU 在改善 Meta 的"推荐引擎"和公司整体收入方面发挥了关键作用。但 NVIDIA 也表示,在不久的将来,它很可能无法为任何从事人工智能业务的人提供足够的 GPU 加速器。Meta 似乎也在研究人工通用智能 (AGI)这一难以捉摸的概念,这对于最新的 GPU 技术来说是一项极其艰巨的任务,但对于专用的 ASIC 芯片设计来说,却能从中获益匪浅。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人