DePIN去中心化算力网透过文章《The Case for Compute DePINs》详细解释了如何解决算力短缺问题,这对于

DePIN去中心化算力网透过文章《The Case for Compute DePINs》详细解释了如何解决算力短缺问题,这对于热门的AI和机器学习领域具有重要意义。这种去中心化的方法能够鼓励人们提供闲置资源以换取代币,从而缓解计算资源的短缺。了解更多: #DePIN #算力资源 #AI #机器学习

相关推荐

封面图片

io.net是基于Solana区块链的DePIN项目,连接GPU打造去中心化AI算力网络。文章整理了io.net的运作原理、参与

io.net是基于Solana区块链的DePIN项目,连接GPU打造去中心化AI算力网络。文章整理了io.net的运作原理、参与出租GPU的方式以及IO代币经济学等方面。了解更多:https:// #DePIN #io.net #去中心化AI #Solana #GPU #IO代币

封面图片

马斯克AI领域动作频频:规划“算力超级工厂” 与扎克伯格又杠上了

马斯克AI领域动作频频:规划“算力超级工厂” 与扎克伯格又杠上了 与扎克伯格“冤家路窄”随着马斯克收购Twitter(现在改名为X)后,他与Meta老板扎克伯格就成了直接竞争对手。而社交媒体平台对定制化聊天AI的独特需求,也使得他们同时叩响了硅谷创业公司Character.ai的大门。Character.ai是一家专门开发AI聊天机器人创作平台的公司,致力于打造模拟真实人物(例如黄仁勋、爱因斯坦)或虚拟人物(例如游戏《原神》的里某个角色)语言风格的聊天机器人。(由用户创建并发布在平台上的“爱因斯坦机器人”,来源:Character.ai)值得强调的是,Character.ai的创始人Noam Shazeer,正是当年GoogleTransformer论文的作者之一。时隔多年,这批开创当今AI新格局的Google研究员们纷纷踏上了创业的道路。(Transformer论文作者齐聚今年英伟达GTC大会,左二为Noam Shazeer,来源:英伟达)据多名知情人士表示,Meta公司与xAI都与Character.ai展开了早期的讨论,主要涉及研究层面的合作,例如模型开发和预训练。Meta此前曾表示,正在整合AI人物聊天机器人到旗下Facebook、Instagram等多个平台,其中也会包括一些“扮演名人”的机器人。与此同时,xAI也开发了聊天机器人Grok,供X平台的付费订阅用户使用。对于马斯克和扎克伯格而言,他们在开发专属人物AI层面也有一项其他科技巨头不具备的优势手里有着大量社交媒体的数据。建设“算力超级工厂”在AI领域要有一番作为,也离不开持续砸钱搞算力。根据科创媒体The Information周六报道,在今年5月的一次投资者演示中,马斯克表示xAI计划建造一台规格惊人的超级计算机,直言这将是一个“算力超级工厂”。今年早些时候,马斯克曾经透露,训练Grok 2模型大约需要2万个英伟达H100 GPU,而训练下一代模型以及更高版本则会需要10万个英伟达H100芯片。颇为符合马斯克豪迈风格的是,他准备把所有芯片全串进一台“超级计算机”里。他对投资者们表示,这个项目如果能够完成,将至少是当今存在的最大GPU集群规模的四倍。马斯克同时也表态会亲自下场,推动这台机器在2025年秋季运作起来,并补充称可能会与甲骨文合作开发这台庞大的计算机。虽然特斯拉自己也在开发Dojo超算,但“算力超级工厂”依然还是要排队抢购英伟达的芯片。在今年3月英伟达的Blackwell新闻稿中,马斯克就公开喊话称英伟达的人工智能硬件是“最好的”。(来源:英伟达)值得一提的是,本月中旬时曾有消息称,xAI接近与甲骨文达成一项持续多年、价值“百亿美元”的云算力供应协议,一度推高甲骨文股价。一边不断采购算力,同时自建“算力超级工厂”,xAI追赶市场领跑者的架势已经显露无疑。有知情人士称,xAI正在以240亿美元的估值目标展开融资,计划在未来几周内筹集超过60亿美元。粗略估算,这笔钱大概够买20万个H100芯片。从AI大厂的角度来看,60亿美元大概只够烧1-2年的功夫。马斯克自己也曾承认,现阶段要在AI赛道具有竞争力,每年至少要花几十亿美元。题外话:AI大佬早早布局“泛AI赛道”随着英伟达本周又一次交出验证AI景气度的财报,美股市场也呈现了新的动向除了炒芯片股外,资金也开始运作电力、电厂、电气设备、光伏等与数据中心配套有关的板块。马斯克自然不必多说,特斯拉旗下拥有成熟的储能业务,同时也是不少光伏发电厂、光伏设备制造商的供应商。OpenAI首席执行官山姆·奥尔特曼投资的核裂变初创公司Oklo也在本月中旬登陆美股市场。公司的首席执行官Jacob DeWitte本周接受采访时表示,目前来询问电力采购的80%客户都是数据中心运营商,他预期这种状况只是“冰山一角”,未来数据中心的需求还会更多。Oklo本周宣布签订了一份100兆瓦规模的数据中心园区供电协议。不过公司至今尚未获得建设小型核电站的许可,DeWitte也表示2027年前都不太可能有投入运营的电站。 ... PC版: 手机版:

封面图片

金色财经整理:过去 24 小时融资信息一览(7 月 4 日)

金色财经整理:过去 24 小时融资信息一览(7 月 4 日) 1. OKX Ventures 宣布对 Lombard 进行投资; 2. Incarnation 宣布已获得 Starknet 基金会的种子基金; 3. 人工智能教育平台 MagicSchool AI 融资 1500 万美元; 4. 比特币链上扩展协议 QED 完成 600 万美元种子轮融资; 5. 区块链机器学习平台 onaji 完成 250 万美元 pre-seed 轮融资; 6. Pac Finance 完成百万美元融资,Manifold 和 Mapleblock 领投; 7. 基于 Solana 的 GPU 代币化协议 Compute Labs 完成 300 万美元融资; 8. Web3 区块链开发项目 Nycrypto Labs 完成 80 万美元 Pre-Seed 轮融资,DNA Fund 领投; 9. Solana 生态 Meme 项目 Pandiana 完成 50 万美元 Pre-Seed 轮融资,YNK Capital 等参投; 10. 去中心化社交应用 Ethos 完成 175 万美元 Pre-Seed 轮融资,Bharat Krymo 等天使投资人参投。

封面图片

英伟达掌握AI时代“摩尔定律” 会加大中美AI公司差距么?

英伟达掌握AI时代“摩尔定律” 会加大中美AI公司差距么? 作为GTC大会的核心,英伟达发布了Blackwell GPU,它分为B200和GB200系列,后者集成了1个Grace CPU和2个B200 GPU。NVIDIA GB200 NVL72大型机架系统使用GB200芯片,搭配NVIDIA BlueField-3数据处理单元、第五代NVLink互联等技术,对比相同数量H100 Tensor核心的系统,在推理上有高达30倍的性能提升,并将成本和能耗降低了25倍。在AI应用方面,英伟达推出Project GR00T机器人基础模型及Isaac机器人平台的重要更新。英伟达展示其AI芯片的算力在过去8年里实现了1000倍的增长,这代表AI时代的摩尔定律(算力快速增长,算力成本快速下降)正在形成。01实现10万亿参数AI模型的训练和实时推理在GTC大会上,英伟达不仅发布了算力方面的更新,也介绍了其在应用方面的进展。1.更强的训练算力,更快、成本更低的推理Blackwell不仅是一块芯片,也是一个平台。英伟达的目标是让规模达到10万亿参数的AI模型可以轻松训练和实时推理。它最小的单元是B200,内置2080亿个晶体管,使用定制的4NP TSMC工艺制造,采用Chiplet架构,两个GPU dies通过每秒10TB的芯片到芯片链接连接成一个统一的GPU。GB200超级芯片则将两个B200 Tensor核心GPU通过每秒900GB的超低功耗NVLink芯片到芯片互连技术与NVIDIA Grace CPU连接。再往上一层,则是NVIDIA GB200 NVL72,这是一个多节点、液冷的机架系统,它内含36个Grace Blackwell超级芯片,包括72个Blackwell GPU和36个Grace CPU,在NVIDIA BlueField-3数据处理单元的支持下,它能实现云网络加速、可组合存储、零信任安全性以及在超大规模AI云中的GPU计算弹性。这个系统可以被作为"单个GPU"工作,这时它能提供1.4 exaflops的AI性能和30TB的快速内存。据称,一个GB200 NVL72就最高支持27万亿参数的模型。最大规模的系统则是DGX SuperPOD,NVIDIA GB200 NVL72是DGX SuperPOD的构建单元,这些系统通过NVIDIA Quantum InfiniBand网络连接,可扩展到数万个GB200超级芯片。此外,NVIDIA还提供HGX B200服务器板,通过NVLink将八个B200 GPU连接起来,支持基于x86的生成式AI平台。HGX B200通过NVIDIA Quantum-2 InfiniBand和Spectrum-X以太网网络平台支持高达400Gb/s的网络速度。GB200还将在NVIDIA DGX云上提供给客户,这是一个与AWS、Google云和甲骨文云等领先的云服务提供商共同设计的AI平台,为企业开发者提供专用访问权限,以构建和部署先进的生成式AI模型所需的基础设施和软件。英伟达以实际的模型训练为例,训练一个GPT-MoE-1.8T模型(疑似指GPT-4),此前使用Hopper系列芯片需要8000块GPU训练90天,现在使用GB200训练同样的模型,只需要2000块GPU,能耗也只有之前的四分之一。由GB200组成的系统,相比相同数量的NVIDIA H100 Tensor核心GPU组成的系统,推理性能提升30倍,成本和能耗降低25倍。在背后支持这些AI芯片和AI算力系统的是一系列新技术,包括提升性能的第二代Transformer引擎(支持双倍的计算和模型大小)、第五代NVLink(提供了每个GPU1.8TB/s的双向吞吐量);提升可靠性的RAS引擎(使AI算力系统能够连续运行数周甚至数月);以及安全AI(保护AI模型和客户数据)等。在软件方面,Blackwell产品组合得到NVIDIA AI Enterprise的支持,这是一个端到端的企业级AI操作系统。NVIDIA AI Enterprise包括NVIDIA NIM推理微服务,以及企业可以在NVIDIA加速的云、数据中心和工作站上部署的AI框架、库和工具。NIM推理微服务可对来自英伟达及合作伙伴的数十个AI模型进行优化推理。综合英伟达在算力方面的创新,我们看到它在AI模型训练和推理方面的显著进步。在AI的模型训练方面,更强的芯片和更先进的芯片间通讯技术,让英伟达的算力基础设施能够以相对较低的成本训练更大的模型。GPT-4V和Sora代表了生成式AI的未来,即多模态模型和包括视频在内的视觉大模型,英伟达的进步让规模更大、更多模态和更先进的模型成为可能。在AI推理方面,目前越来越大的模型规模和越来越高的实时性要求,对于推理算力的挑战十分严苛。英伟达的AI算力系统推理性能提升30倍,成本和能耗降低25倍。不仅让大型模型的实时推理成为可能,而且解决了以往的并不算优秀的能效和成本问题。2.着重发力具身智能英伟达在GTC大会上公布了一系列应用方面的新成果,例如生物医疗、工业元宇宙、机器人、汽车等领域。其中机器人(具身智能)是它着重发力的方向。它推出了针对仿生机器人的Project GR00T基础模型及Isaac机器人平台的重要更新。Project GR00T是面向仿生机器人的通用多模态基础模型,充当机器人的“大脑”,使它们能够学习解决各种任务的技能。Isaac机器人平台为开发者提供新型机器人训练模拟器、Jetson Thor机器人计算机、生成式AI基础模型,以及CUDA加速的感知与操控库Isaac机器人平台的客户包括1X、Agility Robotics、Apptronik、Boston Dynamics、Figure AI和XPENG Robotics等领先的仿生机器人公司。英伟达也涉足了工业机器人和物流机器人。Isaac Manipulator为机械臂提供了最先进的灵巧性和模块化AI能力。它在路径规划上提供了高达80倍的加速,并通过Zero Shot感知(代表成功率和可靠性)提高了效率和吞吐量。其早期生态系统合作伙伴包括安川电机、PickNik Robotics、Solomon、READY Robotics和Franka Robotics。Isaac Perceptor提供了多摄像头、3D环绕视觉能力,这些能力对于自动搬运机器人特别有用,它帮助ArcBest、比亚迪等在物料处理操作等方面实现新的自动化水平。02英伟达算力井喷后,对创业公司有何影响?在发展方式上,英伟达与OpenAI等公司有明显的不同。OpenAI以及Anthropic、Meta等公司是以AI模型为核心,然后运营平台和生态;英伟达则以算力为核心,并拓展到软件平台和AI的相关应用。并且在应用方面,它并没有表现出一家垄断的态势,而是与各种行业的合作伙伴共创,其目的是建立一个软硬件结合的庞大生态。此次英伟达在算力方面的进步,对于AI创业公司们也产生了深刻影响。对于大模型领域创业公司,例如OpenAI等,这显然是利好,因为他们能以更快的频率,更低的成本训练规模更大,模态更多的模型,并且有机会进一步降低API的价格,扩展客户群体。对于AI应用领域的创业公司,英伟达不仅将推理算力性能提高了数十倍,而且降低了能耗和成本。这让AI应用公司们能在成本可承担的前提下,拓展业务规模,随着AI算力的进一步增长,未来AI应用公司的运营成本还可能进一步降低。对于AI芯片领域的创业公司,英伟达的大更新让他们感受到了明显压力,而且英伟达提供的是一套完整的系统,包括算力芯片,芯片间通信技术,打破内存墙的网络芯片等。AI芯片创业公司必须找到自己真正能建立优势的方向,而不是因为英伟达这类巨头的一两次更新就失去存在价值。中国的AI创业公司,因为各种各样的原因,很难使用最新最强的英伟达AI芯片,作为替代的国产AI芯片在算力和能效比上目前仍有差距,这可能导致专注大模型领域的公司们在模型的规模扩展和迭代速度上与海外的差距拉大。对于中国的AI应用公司,则仍有机会。因为它们不仅可以用国内的基础模型,也可以用海外的先进开源模型。中国拥有全球顶尖的AI工程师和产品经理,他们打造的产品足可以参与全球竞争,这让AI应用公司们进可以开拓海外市场,还有足够庞大的国内市场做基本盘,AI时代的字节跳动、米哈游很可能在它们中间产生。 ... PC版: 手机版:

封面图片

马斯克与奥尔特曼的AI之争 什么才是“负责任的AI”?

马斯克与奥尔特曼的AI之争 什么才是“负责任的AI”? 此后,奥尔特曼以及OpenAI在官网发文,承诺OpenAI的使命是“确保人工智能造福全人类”。不过,批评者认为,AI发展速度之快恐会产生意想不到的后果,且对奥尔特曼表现出的责任感仍不以为然。自从生成式人工智能(genAI)在过去一年中迅速普及以来,这些批评者就一直在警告,不受约束、不受监管的人工智能发展所带来的后果严重。奥尔特曼对AI的责任究竟怎么看?批评者又如何认为?“让AI无处不在”以及“负责任的AI”2月下旬在美国加利福尼亚州圣何塞的一次会议上,奥尔特曼亮相并发表公开讲话,现场硅谷大佬云集,轮番登场,但一天议程中唯有此场受到特别瞩目,不少人只能站在走道听他讲话,现场有硅谷工作人员对记者感叹,以前这种围观是针对马斯克的,现在则是奥尔特曼“最红”。这也是近期奥尔特曼最完整一次公开阐述他对AI看法的讲话。据第一财经记者统计,其话题涉及AI算力需求、AI开放标准、AI责任以及前景等,可谓面面俱到。他首先谈到,随着AI模型变得规模越来越大,功能越来越强,应用范围越来越广泛,希望能够确保它们变得数量更多,更加易于访问,使用成本更低,而不是变得越来越贵,只有少数人负担得起。“每次OpenAI推出新版本的模型时,其应用数量都在不断增加。对我来说,最令人兴奋的是AI应用的广泛性和普遍性,我们现在看到其随处可见。我个人最关心的是人们如何提高程序员的工作效率,但它在教育和医疗等领域的工作也很有前途。”奥尔特曼谈到,让AI无处不在,需要先降低AI算力的成本,为此,需要足够的半导体产能,需要建设数据中心,容纳AI芯片,最后还需要能源,满足其能耗需求。如果不能把这几项同时结合起来,就会出现效率低下,系统过于庞大等情况。他表示,目前,AI显然面临着严重的算力短缺。针对媒体所报道的他曾提出所谓“7万亿美元AI芯片计划”,奥尔特曼没有正面回答这个问题,以“核心是世界需要更多的AI算力,既包括提供算力的AI芯片,也包括数据中心等算力基础设施”作为回应。“世界也将需要海量的AI算力,因为未来新模型的功能将会更强大,它们将能为人们做一些超级有用的事情,人们会更愿意使用它们。在一个模型上投入的资源越多,它的性能就越好。”他称,总之,不管如何波动,在接下来的几十年内,我们将需要比现在更多的晶圆。而在“负责任的AI”议题上,他认为技术是好的,是改善社会的一种“魔法”。这并不意味着技术(的使用)没有真正糟糕的部分,我们必须负责任地使用技术。“在未来,AI生成的内容将比人类创造的内容更多,我们需要应对AI带来的影响。这(AI)或许不是一个完美无缺的好故事,但好的方面一定比坏的方面更多。”奥尔特曼说,人们适应新技术的速度非常快,对新技术能带给他们什么的期望也会快速增加。“我认为人们将会继续习惯于使用AI技术,在接下来的五到十年内,人们将能够利用AI工具取得令人瞩目的进展,不仅能够更快地完成更多工作,还能做到以前无法做到的事情,以前只靠人脑、人力无法实现的,新的AI工具将帮助我们做到。”他称。而在谈及AI开放标准时,奥尔特曼表示:“提供互操作性和统一标准,让人们能够使用不同的AI系统,这是一件好事。目前正在开发的AI系统都使用自然语言工作,这为AI的开放标准带来了巨大的先发优势,虽然我们还有许多不同的协调工作要做。”“在使用不同的AI模型时,我们都是给出提示词,得到对应的回答。自然语言让人们能够更容易地从一种AI模型转换到另一种AI模型,并对两者进行比较。”他称。批评者对OpenAI表态不以为然不过,OpenAI和奥尔特曼的表态没有让批评者满意。马斯克就一直在表达对AI可能带来的潜在风险的担忧。IDC全球人工智能与自动化研究集团副总裁杰优替(Ritu Jyoti)则表示,奥尔特曼公开表示支持AI负责任的发展,不过是在做表面文章。“虽然业界一致认为,负责任地开发和部署AI是一项集体责任,但(OpenAI的公开声明)并没有提出所需的具体行动。”她表示,“因此,在我看来,没有太大的增值作用。”此前,奥尔特曼还签署了一封承认AI具有改变世界风险的公开信,但批评者仍然认为,企业应对这些风险的自律性质的努力是不够的。其原因在于,当AI工具开始发展超出其设计规范的行为时,就会出现对齐问题。人们担心的是,最先进的AI实例可能会自我迭代,以人类不希望的方式发展,这是一个严重风险。“问题是,如果一个系统比我们更聪明,我们是否有能力控制它?”致力于降低AI风险的PauseAI组织创始人、荷兰开发者美德特斯马(Joep Meindertsma)这样问道。他举例称,像AutoGPT这样的系统,基本上可以自问自答,创建自己的查询来完成复杂的研究任务,这种技术可能会被证明具有高度的破坏性而且是危险的。AutoGPT是一款自动文本生成系统,能够生成连续且连贯的文本,主要用于文章或故事的自动生成。它是由OpenAI公司开发的GPT-3模型改进而来,专门用于长文本生成的任务。“在某些时候,有人会向这台计算机提出一些问题,而这些问题所涉及的想法会传播到其他机器上,这是很有用的。”美德特斯马解释道。至于马斯克针对奥尔特曼和OpenAI的诉讼,美德特斯马说,马斯克可能有点道理。他认为,当初成立 OpenAI的初衷就是为了引导AI朝着负责任方向发展。然而在奥尔特曼和OpenAI的领导下,AI高速发展的现状很快就超越了行业组织创建的任何防护栏。他举例说,AI已经展示出来的能力比如GPT4自主入侵网站的能力是极其危险的,缺乏监管加上genAI的快速进化是一种威胁。2023年10月,美国政府推出有关genAI的首套监管规定。 ... PC版: 手机版:

封面图片

放弃造车,苹果能在AI界开天辟地吗

放弃造车,苹果能在AI界开天辟地吗 世人都谓苹果全面转向AI姗姗来迟,但苹果只是“起大早赶晚集”。从乔布斯古早时期在雅达利的《打砖块》游戏初尝试,到2016年给所有语音助手上了一课的Siri,苹果在AI历史写下过浓墨重彩的几笔。而今,苹果终于无法再容忍 OpenAI和Google的“双簧式”表演,选择集中精力重投AI。作为可能是唯一拥有算力层、中间层、模型层、应用层等全栈式能力的科技公司,苹果的入局,会在AI界开辟新天地(break new ground)吗?在这场席卷全球的AI战争中,后来者苹果有哪些得天独厚的优势?纵览环球AI,微软携OpenAI以令诸侯,然群狼环伺;Google紧追OpenAI,却亦步亦趋;国内众厂摸着OpenAI过河,但拥天堑之利。此三分天下而格局未定,广阔天地大有可为,若假以时日,则霸业可成,苹果可兴。古早的AI布道者在AI领域,苹果起得多早?追本溯源,起始时间遥遥领先目前任何一家AI巨头。1975年,乔帮主大业未竟而苹果未立,尚在雅达利游戏公司升级打怪。彼时雅达利在游戏界正值如日中天,堪比80年代中后期的任天堂和90年代的PlayStation。20岁的乔布斯与史蒂夫·沃兹尼亚克(苹果联合创始人)用了4个晚上的时间完成了《打砖块》游戏的硬件设计。《打砖块》一经推出就获得玩家欢迎,名垂游戏设计青史,也成为了DeepMind团队训练深度学习的游戏系统。从人工智能开山祖师图灵和香农写的下棋程序开始,早期的人工智能就致力于创造一款在游戏中打败人类的程序。因此DeepMind将强化学习与深度神经网络结合,创造了能够学习雅达利游戏的系统。在上千次训练后,在《打砖块》游戏中深度学习网络的平均得分达到了人类的10倍。DeepMind得以名声大噪,并在一年后获得Google收购,而后诞生了开启上一波AI浪潮的AlphaGO。而在人工智能的重大突破自然语言处理的语音识别领域,苹果曾经走在任何一家手机企业前面。2010年,苹果收购Siri。2016年,苹果在iPhone上推出的智能语音助手Siri,相比其他手机语音助手性能提升显著。“有时候,一种性能的提升太过显著,以至于你会再次进行测试以确保没有漏掉一个小数点,Siri的出现就是这样的情况之一。”苹果工程师如此评价。与AI新浪潮失之交臂?虽然苹果间接催生了上一次AI浪潮的诞生,而在OpenAI掀起的AI新浪潮下,措手不及的苹果虽然动作频频,却始终步伐谨慎,行事低调。来到AI新时代,苹果只做三件事,但每一件都没有做到极致。第一,收购多家AI初创公司。据市场调查机构 Stocklytics 公布的最新报告,苹果在 2023 年共收购了 32 家 AI 公司,并将获取的AI技术应用于产品改进。如在2020年苹果收购了都柏林的语音 AI 技术公司 Voysis,用以改善 Siri 人机对话的体验。第二,研发大模型和AI对话机器人。2023年7月,苹果就被爆正在开发大模型Ajax和内部聊天机器人Apple GPT。 Ajax 系统构建在Google机器学习框架 Google Jax 之上,并作为内部 ChatGPT 风格工具Apple GPT的基础,但它更多是作为内部产品的内驱力,不面向消费者开放。但也有苹果员工称其本质上复制了 Bard、ChatGPT 和 Bing AI,并且不包含任何新颖的功能或技术。第三,被认为最可能接入大模型的Siri。 2018年,原GoogleAI负责人Giannandrea加入苹果,领导公司的人工智能和机器学习团队,拉接管了苹果智能助手Siri的领导权。此前Siri一直因停滞不前而受到批评,Siri联合创始人Dag Kittlaus曾表示,Siri在被苹果收购后,可能没有充分发挥其潜力。在ChatGPT颠覆了个人智能助手的体验后,Siri受到了更大威胁。不难看出,虽然苹果在人工智能上已经花费了大量时间、精力,但也一直有些迟疑。对此,库克曾婉转地表示,苹果将在其更多产品中添加人工智能,但会“经过深思熟虑”。而在此前,当被问到苹果在生成式AI 的工作内容时,库克的回答是“敬请期待”。“苹果确实还没有在AI领域大展拳脚,”苹果股东的投资经理Brian Mulberry说。在AI新浪潮时代,我们并未感受到苹果如微软、Google、OpenAI般对AI的狂热。苹果AI的用武之地被爆出放弃造车转投AI的次日,库克一改往日态度,在2月29日的股东大会表示,公司将在 2024 年在生成式人工智能领域“开辟新天地”,他强调:“我们相信这将为用户带来变革性的机遇。”那么,后来者苹果有何优势?会如库克所说,在AI界开辟新天地(break new ground)吗?华映资本海外合伙人邱谆认为,苹果的优势在于:它可能是唯一拥有算力层、中间层、模型层、应用层等全栈式能力的科技公司,在自有人工智能芯片、云计算、算法和数据的多层降本增效优化叠加下,带来的模型系统优化效果将会非常显著。因此,重投AI的苹果,完全可以靠得天独厚的优势走出一条苹果特色AI道路,在硝烟四起的AI竞赛雄踞一方。接下来,让我们展开来看看,苹果在上述各个层面的优势。算力层:目前AI训练侧高度依赖英伟达,苹果在中国、欧洲、美国都有自己的数据中心,因此囤积了大量英伟达GPU,至少不会面临算力短缺的问题;在推理侧,苹果在AI芯片设计研发领域和全栈工具链的持续投入,使得苹果完全有能力,基于自研芯片推出推理加速方案,并且可以适配自研基座大模型。GoogleTPU和初创公司Groq已经在这个领域做出了比肩英伟达的成绩。数据层:拥有庞大用户基数的IOS系统可以给苹果提供大量的语料与用户行为,自2011年被集成到了 iPhone 4S 的Siri,积累了十余年时间跨度的用户对话数据。应用层:现有的IOS系统给面向C端用户的文字、图片、音视频等内容生成服务提供了平台和受众。邱谆认为,如果苹果从上述底座大模型和自研芯片入手,软硬件结合,同时做OpenAI和英伟达专注的两件事,所需成本仍然很高,因此要暂时放弃造车集中资源。苹果业务调整后的优先级,前后次序很可能变为:MR→大模型→无人车→具身智能。凭借上述优势,全面转投AI的苹果又会在哪些领域给用户带来变革性机遇?先从时下大热的AI手机谈起,虽然国产友商在一年前早已入局端侧大模型,但苹果在芯片方面的持续投入与自研能力,可以相比其他手机厂商更高效地调用设备CPU、GPU、NPU等计算资源。另外大模型在端侧运行对内存速率、内存资源的要求极高,苹果可以利用强大的研发和供应链整合能力,最大程度解决硬件技术问题。但根据苹果以往的宣传调性,很可能不会提及AI手机与端侧大模型,而是将重点放在应用上。苹果会找出什么不同于友商的解法?接下来iOS18与iPhone16的发布,将会揭晓谜底。对于被苹果给予重望的下一代移动终端平台Vision Pro,AIGC对于其3D场景搭建的降本增效将会大大降低。 通过传感器和内置摄像头等获取的现实世界和用户数据,也可以结合AIGC进行大数据分析和建模,获得更好的实时交互和用户体验反馈。接近苹果人士向虎嗅透露,苹果放弃造车,很可能只是暂时延缓造车计划,等待自动驾驶技术突破后再推出更为成熟的无人驾驶汽车产品。而Sora对现实世界物理规律的学习拓展,和对物体运动轨迹的判断能力,将给困境中的自动驾驶的带来新思路。苹果并不是完全放弃造车,而是没必要做没有自动驾驶的车。要做自动驾驶,AI是必经路径,这也是苹果放弃造车全面转向AI的原因。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人