高级工程师警告说,谷歌在人工智能军备竞赛中落后,谷歌的真正威胁是开源AI而不是 OpenAI

高级工程师警告说,谷歌在人工智能军备竞赛中落后,谷歌的真正威胁是开源AI而不是OpenAI谷歌的一位高级软件工程师撰写了一篇评论文章,断言互联网搜索领导者正在失去其在人工智能方面的优势,让位于开源社区,许多独立研究人员使用人工智能技术取得快速和意想不到的进步。工程师LukeSernau于4月初在Google的内部系统上发布了该文档。据一位不愿透露姓名的知情人士透露,过去几周,该文件在谷歌员工中被分享了数千次,因为他们无权讨论公司内部事务。周四,该文件由咨询公司SemiAnalysis发布,并在硅谷流传开来。在Sernau的分析中,谷歌与初创公司OpenAI的竞争分散了人们对开源技术快速发展的注意力。“我们在OpenAI做了大量的工作。谁将跨越下一个里程碑?接下来的动作是什么?”他写道。“但令人不安的事实是,我们没有能力赢得这场军备竞赛,OpenAI也没有。在我们争吵不休的时候,第三股势力一直在悄悄蚕食我们的份额,我说的是开源。”——OpenAI并不重要。他们在相对于开源的态度上犯了与我们相同的错误,他们保持优势的能力必然受到质疑。除非他们改变立场,否则开源替代品可以并且最终会使它们黯然失色。至少在这方面,我们可以迈出第一步。

相关推荐

封面图片

人工智能军备竞赛白热化:谷歌最新AI大语言模型数据量扩充5倍

人工智能军备竞赛白热化:谷歌最新AI大语言模型数据量扩充5倍令牌指的是单词串,这是训练大语言模型的重要基础,因为这可以教给模型如何预测字符串中可能出现的下一个单词。之前版本的PaLM发布于2022年,当时使用的令牌为7800亿个。虽然谷歌很希望展示其人工智能技术的实力,以及嵌入搜索、电子邮件、字处理和电子表格后的效果,但该公司却不愿发布其训练数据的规模和其他细节。微软支持的OpenAI也对其最新的GPT-4大语言模型的细节信息保密。这些公司表示,之所以不披露这些信息,是出于商业竞争考虑。谷歌和OpenAI都在努力吸引想要用聊天机器人代替传统搜索引擎,从而直接获取答案的用户。但随着人工智能军备竞赛日趋白热化,相关研究人员也呼吁企业加大透明度。自从发布PaLM2之后,谷歌一直表示新的模型比之前的大语言模型更小,这就意味着该公司的技术效率得以提升,但却可以完成更加复杂的任务。内部文件显示,PaLM2基于3400亿个参数训练——这项指标可以说明该模型的复杂程度。最初的PaLM则基于5400亿个参数训练。目前,谷歌尚未对此置评。谷歌在一篇关于PaLM2的博文中表示,该模型使用了一种名为“计算机优化扩张”的新技术。这就让大语言“更高效、整体性能更好,包括加快推理速度、减少参数调用和降低服务成本。”在宣布PaLM2时,谷歌证实了此前的媒体报道,计该模型针对100种语言进行训练,可以执行更广泛的任务。它已经被用于25项功能和产品,包括该公司的实验性聊天机器人Bard。按照从小到大的规模划分,该模型共有4种,分别是壁虎(Gecko)、水獭(Otter)、野牛(Bison)和独角兽(Unicorn)。根据公开披露的信息,PaLM2比现有的任何模型都更加强大。Facebook在2月份宣布的的LLaMA大语言模型采用1.4万亿个令牌。OpenAI上一次披露GPT-3的训练规模时表示,它当时基于3000亿个令牌。OpenAI今年3月发布GPT-4时表示,它在许多专业测试中展示出“与人类媲美的表现”。LAMDA是谷歌两年前推出的一个对话型大语言模型,在今年2月还与Bard一同对外宣传。该模型基于1.5万亿个令牌训练。随着新的人工智能应用快速进入主流,围绕底层技术的争议也越来越激烈。谷歌高级研究科学家艾尔·迈赫迪·艾尔·麦哈麦迪(ElMahdiElMhamdi)于今年2月辞职,主要原因就是人工智能技术缺乏透明度。本周二,OpenAICEO山姆·阿尔特曼(SamAltman)出席美国国会针对隐私和技术举行的听证会,他也认为需要设立一套新的制度来应对人工智能的潜在问题。“对于一种全新的技术,我们需要一套全新的框架。”阿尔特曼说,“当然,像我们这样的公司应当为我们推出的工具承担许多责任。”...PC版:https://www.cnbeta.com.tw/articles/soft/1360049.htm手机版:https://m.cnbeta.com.tw/view/1360049.htm

封面图片

澳洲称购核动力潜艇 为应对军备竞赛而非助长竞赛

澳洲称购核动力潜艇为应对军备竞赛而非助长竞赛澳大利亚国防工业部长康罗伊说,印太地区正处于一场大规模军备竞赛之中,澳洲采购核动力潜艇是为了应对这场竞赛,并非助长这场竞赛。路透社报道,澳英美三方安全伙伴(AUKUS)项目计划斥资2450亿美元(约3271亿新元),开发装备常规武器的新型核动力潜艇。中国指这项计划恐将引发军备竞赛。澳洲国内政治人物也批评这项雄心勃勃和高成本的计划,康罗伊星期二(11月28日)强调AUKUS的项目对澳洲国防至关重要。他在全国新闻俱乐部的演说中谈到第二次世界大战前夕的情况时说:“当前的军备竞赛,是1945年以来最严重的,这正是为什么我不接受澳洲在某种程度上助长了军备竞赛的说法。我们所做的是对军备竞赛的回应。”康罗伊说,澳洲无法承受国防投资不足的后果。他说:“冲突绝不是无可避免的。我们一定要在冲突开始之前,尤其是在冲突蔓延到我们的海岸之前就遏制冲突。”康罗伊说,澳洲的核动力潜艇舰队将在和平时期用于情报收集,并在战争时期打击敌方目标。2023年11月28日1:56PM

封面图片

马斯克的公司在AI竞赛中落后于 OpenAI,促使他通过马甲来表达对AI的”担忧

马斯克的公司在AI竞赛中落后于OpenAI,促使他通过马甲来表达对AI的”担忧“伊隆·马斯克周二签署了一封公开信,暂停6个月的人工智能工具开发,例如OpenAI的ChatGPT,这是一款自去年11月首次公开以来非常受欢迎的聊天机器人。尽管马斯克可能坚持认为这一切都是为了确保技术安全,但可能有一个更简单的解释:马斯克不再参与OpenAI,并且对他还没有自己的ChatGPT版本感到沮丧。OpenAI成立于2015年,(当时)是一家非营利组织,ElonMusk是该组织的公众代表。《连线》杂志2016年初的一篇文章展示了一张马斯克双臂交叉的照片,给人的印象是他已准备好彻底改变另一个行业。但马斯克离开OpenAI背后的故事很有趣,而且似乎更合乎逻辑地解释了为什么这位几家高科技公司的亿万富翁首席执行官想要阻碍OpenAI的发展。特斯拉正在研究强大的人工智能技术这一事实是有一定道理的。特斯拉需要复杂的软件来运行其所谓的“全自动驾驶”功能,尽管它仍然不完善并且已成为众多安全调查的主题。人工智能技术不仅仅对特斯拉有用。马斯克还一直在研究一款人形机器人,他于2021年首次推出了一款人形机器人。这个被称为Optimus的机器人在2022年的一次演示中变成了真实的东西,但它仍处于起步阶段。AI技术对于像Optimus这样的机器人来说非常有用,但没有迹象表明马斯克或他的工程师已经开发出与OpenAI所取得的成就相近的任何东西。当你看到马斯克警告说这项技术尚未经过测试时,你需要牢记马斯克在人工智能竞赛中远远落后的事实。马斯克在特斯拉汽车中部署测试版软件没有任何问题,这基本上让路上的每个人都成为测试版测试员,无论他们是否注册。马斯克似乎并没有以自己的名义发表声明,而是试图通过一个名为未来生命研究所的非营利组织来洗白他对OpenAI的担忧。但正如路透社指出的那样,未来生命研究所主要由马斯克基金会资助。——(节选)

封面图片

马斯克会议现场解雇 Twitter 高级工程师,只因听说自己人气下降

马斯克会议现场解雇Twitter高级工程师,只因听说自己人气下降马斯克本周二会见了Twitter的几名工程师,讨论他的个人账号在Twitter上的浏览量统计。近几个月,他帐号的浏览量一直在下降。此前,马斯克还曾安排工作人员调查,他在Twitter平台上触达用户的能力是否因为Twitter算法的潜在问题而受到限制。马斯克在会上对员工表示:“这太荒谬了。我有超过1亿粉丝,但发布的内容只有几万次曝光。”这些员工随后向马斯克展示了内部数据和来自谷歌趋势的图表,表明公众对马斯克的兴趣正在减退。谷歌趋势的数据显示,马斯克的人气在去年4月份他提出收购Twitter时达到100分的峰值,随后下降到只有9分。在会议上,一名工程师表示,马斯克的人气可能因为他在收购Twitter之后没有考虑公众利益而下降,而马斯克立即对这名工程师说,他被解雇了。这已经不是马斯克首次当场解雇员工。在Twitter被私有化的几周之后,马斯克也解雇了3名在社交媒体上批评他的员工。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

谷歌和DeepMind搁置竞争,联手追赶OpenAI

谷歌和DeepMind搁置竞争,联手追赶OpenAI谷歌(GOOGL)旗下研究团队谷歌大脑(GoogleBrain)的软件工程师正与DeepMind员工合作,开发与OpenAI竞争的软件。DeepMind是一家人工智能实验室,与谷歌同属Alphabet旗下,双方之间此前激烈竞争多年。据透露,这两家公司平日合作不多,但由于两家公司都希望开发机器学习模型来与OpenAI竞争,这需要强大的计算能力和高昂的成本,二者只能选择暂缓恩怨,联手追逐OpenAI投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

谷歌推拥有26000个H100的超算 加速AI军备竞赛

谷歌推拥有26000个H100的超算加速AI军备竞赛这台超级计算机拥有大约26,000个NVIDIAH100HopperGPU。作为参考,世界上最快的公共超级计算机Frontier拥有37,000个AMDInstinct250XGPU。对于我们最大的客户,我们可以在单个集群中构建多达26,000个GPU的A3超级计算机,并正在努力在我们最大的地区构建多个集群,”Google发言人在一封电子邮件中说,并补充说“并非我们所有的位置都将是缩放到这么大的尺寸。”该系统是在加利福尼亚州山景城举行的GoogleI/O大会上宣布的。开发者大会已经成为Google许多人工智能软件和硬件能力的展示。在微软将OpenAI的技术应用于Bing搜索和办公生产力应用程序之后,Google加速了其AI开发。该超级计算机面向希望训练大型语言模型的客户。Google为希望使用超级计算机的公司宣布了随附的A3虚拟机实例。许多云提供商现在都在部署H100GPU,NVIDIA在3月份推出了自己的DGX云服务,与租用上一代A100GPU相比价格昂贵。Google表示,A3超级计算机是对现有A2虚拟机与NVIDIAA100GPU提供的计算资源的重大升级。Google正在将所有分布在不同地理位置的A3计算实例汇集到一台超级计算机中。“A3超级计算机的规模可提供高达26exaflops的AI性能,这大大减少了训练大型ML模型的时间和成本,”Google的董事RoyKim和产品经理ChrisKleban在一篇博客文章中说。公司使用exaflops性能指标来估计AI计算机的原始性能,但批评者仍然对其持保留意见。在Google的案例中,被大家诟病的是其结果在以ML为目标的bfloat16(“brainfloatingpoint”)性能中计算出来的,这让你达到“exaflops”的速度比大多数经典HPC应用程序仍然使用的双精度(FP64)浮点数学要快得多要求。GPU的数量已经成为云提供商推广其AI计算服务的重要名片。微软在Azure中的AI超级计算机与OpenAI合作构建,拥有285,000个CPU内核和10,000个GPU。微软还宣布了配备更多GPU的下一代AI超级计算机。Oracle的云服务提供对512个GPU集群的访问,并且正在研究新技术以提高GPU通信的速度。Google一直在大肆宣传其TPUv4人工智能芯片,这些芯片被用于运行带有LLM的内部人工智能应用程序,例如Google的Bard产品。Google的AI子公司DeepMind表示,快速TPU正在指导通用和科学应用的AI开发。相比之下,Google的A3超级计算机用途广泛,可以针对广泛的AI应用程序和LLM进行调整。Kim和Kleban在博文中表示:“鉴于这些工作负载的高要求,一刀切的方法是不够的——你需要专为AI构建的基础设施。”就像Google喜欢它的TPU一样,NVIDIA的GPU已经成为云提供商的必需品,因为客户正在CUDA中编写AI应用程序,这是NVIDIA专有的并行编程模型。该软件工具包基于H100的专用AI和图形内核提供的加速生成最快的结果。GoogleTPUv4客户可以通过A3虚拟机运行AI应用程序,并通过VertexAI、GoogleKubernetesEngine和GoogleComputeEngine服务使用Google的AI开发和管理服务。公司可以使用A3超级计算机上的GPU作为一次性租用,结合大型语言模型来训练大型模型。然后,将新数据输入模型,更新模型——无需从头开始重新训练。Google的A3超级计算机是各种技术的大杂烩,以提高GPU到GPU的通信和网络性能。A3虚拟机基于英特尔第四代Xeon芯片(代号SapphireRapids),与H100GPU一起提供。目前尚不清楚VM中的虚拟CPU是否会支持SapphireRapids芯片中内置的推理加速器。VM随附DDR5内存。NVIDIAH100上的训练模型比在云端广泛使用的上一代A100GPU更快、更便宜。人工智能服务公司MosaicML进行的一项研究发现,H100在其70亿参数的MosaicGPT大型语言模型上“比NVIDIAA100的成本效益高30%,速度快3倍”。H100也可以进行推理,但考虑到H100提供的处理能力,这可能被认为是矫枉过正。Google云提供NVIDIA的L4GPU用于推理,英特尔在其SapphireRapidsCPU中拥有推理加速器。“A3VM也非常适合推理工作负载,与我们的A2VM的A100GPU相比,推理性能提升高达30倍,”Google的Kim和Kleban说。A3虚拟机是第一个通过名为MountEvans的基础设施处理单元连接GPU实例的虚拟机,该单元由Google和英特尔联合开发。IPU允许A3虚拟机卸载网络、存储管理和安全功能,这些功能传统上是在虚拟CPU上完成的。IPU允许以200Gbps的速度传输数据。“A3是第一个使用我们定制设计的200GbpsIPU的GPU实例,GPU到GPU的数据传输绕过CPU主机并流经与其他VM网络和数据流量不同的接口。与我们的A2虚拟机相比,这使网络带宽增加了10倍,具有低尾延迟和高带宽稳定性,”Google高管在一篇博客文章中说。IPU的吞吐量可能很快就会受到微软的挑战,微软即将推出的配备NVIDIAH100GPU的AI超级计算机将拥有该芯片制造商的Quantum-2400Gbps网络功能。微软尚未透露其下一代AI超级计算机中H100GPU的数量。A3超级计算机建立在源自公司Jupiter数据中心网络结构的主干上,该主干通过光学链路连接地理上不同的GPU集群。“对于几乎每一种工作负载结构,我们都实现了与更昂贵的现成非阻塞网络结构无法区分的工作负载带宽,”Google表示。Google还分享说,A3超级计算机将有八个H100GPU,它们使用NVIDIA专有的交换和芯片互连技术互连。GPU将通过NVSwitch和NVLink互连连接,其通信速度约为3.6TBps。Azure在其AI超级计算机上提供了相同的速度,并且两家公司都部署了NVIDIA的电路板设计。“每台服务器都使用服务器内部的NVLink和NVSwitch将8个GPU互连在一起。为了让GPU服务器相互通信,我们在JupiterDC网络结构上使用了多个IPU,”一位Google发言人说。该设置有点类似于NVIDIA的DGXSuperpod,它具有127个节点的设置,每个DGX节点配备八个H100GPU。Google博客:配备NVIDIAH100GPU的A3超级计算机实施最先进的人工智能(AI)和机器学习(ML)模型需要大量计算,既要训练基础模型,又要在这些模型经过训练后为它们提供服务。考虑到这些工作负载的需求,一种放之四海而皆准的方法是不够的——您需要专为AI构建的基础设施。我们与我们的合作伙伴一起,为ML用例提供广泛的计算选项,例如大型语言模型(LLM)、生成AI和扩散模型。最近,我们发布了G2VMs,成为第一个提供新的NVIDIAL4TensorCoreGPU用于服务生成式AI工作负载的云。今天,我们通过推出下一代A3GPU超级计算机的私人预览版来扩展该产品组合。GoogleCloud现在提供一整套GPU选项,用于训练和推理ML模型。GoogleComputeEngineA3超级计算机专为训练和服务要求最严苛的AI模型而打造,这些模型为当今的生成式AI和大型语言模型创新提供动力。我们的A3VM结合了NVIDIAH100TensorCoreGPU和Google领先的网络技术,可为各种规模的客户提供服务:1.A3是第一个使用我们定制设计的200GbpsIPU的GPU实例,GPU到GPU的数据传输绕过CPU主机并流过与其他VM网络和数据流量不同的接口。与我们的A2VM相比,这可实现高达10倍的网络带宽,同时具有低尾延迟和高带宽稳定性。2.我们行业独一无二的智能Jupiter数据中心网络结构可扩展到数万个高度互连的GPU,并允许全带宽可重新配置的光学链路,可以按需调整拓扑。对于几乎每种工作负载结构,我们实现的工作负载带宽与更昂贵的现成非阻塞网络结构没有区别,从而降低了TCO。3.A3超级计算机的规模提供高达26exaFlops的AI性能,这大大减少了训练大型ML模型的时间和成本。随着公司从训练过渡到提供ML模型,A3VM也非常适合推理工作负载,与...PC版:https://www.cnbeta.com.tw/articles/soft/1359089.htm手机版:https://m.cnbeta.com.tw/view/1359089.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人