前Redpoint Ventures 合伙人Tomasz Tunguz 对未来生成式AI市场格局的判断。这个访谈(后半部分)直击

前RedpointVentures合伙人TomaszTunguz对未来生成式AI市场格局的判断。这个访谈(后半部分)直击几个AI生态核心命题,值得推荐!TL;DR:就像ApplevsLinux生态一样,未来会出现1-2个封闭系统与一个开放系统共存的生态;toC端:通过Langchain,Fixie,Jarvis这些工具串联起各种模型完成复杂任务(mynote:会被AutoGPT这样的模式取代吗?)ToB:类似Stripe,Twilio这样的基于LLM迅速开发应用的工具,满足企业不同需求。Foundationmodelvs应用的格局会类似云计算,投资人创业者更多机会在应用层,foundationmodel是大玩家的游戏。(mynote:LLM能力突破某个临界点会形成fatprotocol的格局吗?)PSTomasz真是太politicallycorrect了…bigboysorbiggirlsgame,真是被求生欲笑出声……Podcast链接:https://podcasts.apple.com/us/podcast/the-twenty-minute-vc-20vc-venture-capital-startup/id958230465?i=1000610063436Invalidmedia:

相关推荐

封面图片

128k上下文+多语言+工具:Cohere开放企业级应用大模型Command R+

128k上下文+多语言+工具:Cohere开放企业级应用大模型Cohere推出CommandR+模型,一个为应对企业级工作负载而构建的最强大、最具可扩展性的大型语言模型(LLM)。-CommandR+首先在MicrosoftAzure上推出,旨在加速企业AI的采用。它加入了Cohere的R系列LLM,专注于在高效率和强准确性之间取得平衡,使企业能从概念验证走向生产。-CommandR+具有128ktoken的上下文窗口,旨在提供同类最佳的性能,包括:-先进的检索增强生成(RAG)和引用,以减少幻觉-支持10种关键语言的多语言覆盖,以支持全球业务运营-工具使用,以实现复杂业务流程的自动化-CommandR+在各方面都优于CommandR,在类似模型的基准测试中表现出色。-开发人员和企业可以从今天开始在Azure上访问Cohere的最新模型,很快也将在Oracle云基础设施(OCI)以及未来几周内的其他云平台上提供。CommandR+也将立即在Cohere的托管API上提供。-Atomicwork等企业客户可以利用CommandR+来改善数字工作场所体验,加速企业生产力。思考:-Cohere推出CommandR+,进一步丰富了其企业级LLM产品线,展现了其在企业AI市场的雄心和实力。与微软Azure的合作有望加速其企业客户的拓展。-CommandR+在CommandR的基础上进行了全面升级,128ktoken的上下文窗口、多语言支持、工具使用等特性使其能够胜任更加复杂多样的企业应用场景。这表明Cohere对企业需求有着深刻洞察。-RAG和引用功能有助于提高模型输出的可靠性,减少幻觉,这对于企业级应用至关重要。可以看出Cohere在兼顾性能的同时,也非常重视模型的可控性。-与微软、甲骨文等云计算巨头合作,使CommandR+能够在多个主流云平台上快速部署,降低了企业的采用门槛。这种开放的生态策略有利于加速其市场渗透。-Atomicwork等企业客户的支持表明CommandR+具有显著的商业价值。将LLM与企业数字化转型相结合,有望催生更多创新性的应用。-CommandR+的推出标志着Cohere在企业级AI市场的发力,其强大的性能和完善的生态有望帮助其在竞争中占据优势地位。不过,企业AI的落地仍面临数据安全、伦理合规等诸多挑战,Cohere还需要在这些方面持续投入。

封面图片

IBM推出Granite生成式人工智能功能和模型

IBM推出Granite生成式人工智能功能和模型IBM几乎没有提供有关Granite的详细信息,因此无法将这些模型与竞争对手的LLM(包括IBM自己的LLM)进行比较。但该公司声称,它将在2022年第三季度推出Granite系列模型之前,披露用于训练该模型的数据,以及用于过滤和处理这些数据的步骤。希望该公司能做到这一点。在Watsonx.ai(Watsonx的组件,可让客户在部署后测试、部署和监控模型)的其他部分,IBM正在推出TuningStudio,这是一款允许用户根据自己的数据定制生成式人工智能模型的工具。利用TuningStudio,IBMWatsonx的客户可以对模型进行微调,以适应新任务,只需100到1000个示例。一旦用户指定了任务并提供了所需数据格式的标注示例,他们就可以通过IBM云的API部署模型。Watsonx.ai即将推出的还有表格数据(关系数据库中的行和列集合)合成数据生成器。IBM在一份新闻稿中称,通过从自定义数据模式和内部数据集生成合成数据,公司可以使用生成器提取洞察力,用于人工智能模型的训练和微调,同时"降低风险"。目前还不清楚"降低风险"的确切含义,因为使用合成数据训练人工智能存在一系列隐患。IBM还将在Watsonx.data中推出新的生成式人工智能功能,该公司的数据存储允许用户访问数据,同时应用查询引擎、治理、自动化以及与现有数据库和工具的集成。从2023年第四季度开始,作为技术预览的一部分,客户将能够通过一个类似聊天机器人的自助服务工具,为人工智能"发现、增强、可视化和完善"数据。IBM对具体细节再次语焉不详。但能够想象的是一种类似于ChatGPT的体验,尽管它以数据可视化和转换为重点。IBM表示,大约在同一时间(2023年第四季度),Watsonx.data将获得矢量数据库功能,以支持检索增强生成(RAG)。RAG是一个人工智能框架,通过将模型建立在外部知识源的基础上,提高LLM生成的响应质量,这对IBM的企业客户来说显然非常有用。在其他重大新闻方面,IBM正在进行Watsonx.governance的技术预览,这是一个工具包--用该公司相当含糊的话说--提供了保护客户隐私、检测模型偏差和漂移以及帮助组织满足道德标准的机制。从下周开始,IBM将推出智能修复(IntelligentRemediation)功能,该公司表示,该功能将利用生成式人工智能模型来帮助IT团队总结事件并提出工作流程建议,以帮助实施解决方案。IBM产品高级副总裁DineshNirmal在一份新闻稿中说:"正如watsonx平台在推出后短短几个月内不断发展所证明的那样,我们将在整个人工智能生命周期内为客户提供支持。作为转型合作伙伴,IBM正在与客户合作,帮助他们以安全、可信的方式扩展人工智能--从帮助他们建立数据战略的基础要素,到为他们的特定业务用例调整模型,再到帮助他们管理模型。"当然,IBM也面临着压力,需要证明自己能够在拥挤的人工智能领域有所作为。在公司第二财季,IBM公布的营收不及分析师预期,原因是公司基础设施业务部门的增长放缓幅度超过预期。营收缩减至154.8亿美元,同比下降0.4%,略低于分析师一致预期的第二季度销售额155.8亿美元。在财报电话会议上,IBM首席执行官阿尔文德-克里希纳(ArvindKrishna)反复强调了人工智能对IBM未来增长的重要性,并断言企业正在以健康的速度签约使用IBM的混合云和人工智能技术,包括Watsonx。克里希纳说,截至7月Watsonx开始推出时,已有150多家企业客户在使用Watsonx,其中包括三星和花旗。"我们将继续满足客户寻求值得信赖的企业人工智能解决方案的需求,我们对最近推出的Watsonx人工智能平台的反响尤为兴奋。最后,我们对今年全年的收入和自由现金流增长预期仍然充满信心,"克里希纳在财报电话会议上说。...PC版:https://www.cnbeta.com.tw/articles/soft/1382305.htm手机版:https://m.cnbeta.com.tw/view/1382305.htm

封面图片

OpenAI CTO深度访谈 剧透GPT-5发布时间

OpenAICTO深度访谈剧透GPT-5发布时间OpenAICTO穆拉提分享OpenAI近况与AI行业动向。穆拉提在达特茅斯学院(图源:达特茅斯学院)在这场访谈中,穆拉提分享了自己从航天行业、汽车行业、VR/AR再到加入OpenAI的丰富职业生涯,并根据自己在行业最前沿的所见所闻,分析了AI治理、AI对教育的影响、AI对工作的影响等问题。她在访谈中透露,明年或后年就会出现博士水平的智能系统,这或许指的就是GPT-5。她更是抛出一个极具争议性的观点,有些创意工作本不该存在,而AI很快便会取代这些职位。这一观点在网上引发轩然大波,认为OpenAI吃了饭就砸锅,并不理解创造力意味着什么。穆拉提认为OpenAI的成就离不开深度神经网络、大量数据和大量算力这3个因素的叠加,虽然他们还在研究背后的原理,但实践证明深度学习真的行得通。她称AI安全和AI能力是一体两面的,聪明的模型才能理解我们给它设定的护栏。从工程的角度上来看,AI能力的提升并不会降低模型的安全性。OpenAI对模型的安全性负有很大责任,但要实现风险的有效管控,社会和政府的参与也是必不可少的。OpenAI正积极与政府和监管机构合作,共同解决AI安全问题。在场的观众也向穆拉提抛出了尖锐的问题。穆拉提在回应观众对于模型价值观的问题时提到,OpenAI目前已经通过人类反馈强化学习将人类价值观融入AI系统,但未来的重点会是在基础价值体系上,给客户提供高度定制化的模型价值体系。观众还就OpenAI最近的侵权疑云和内容创作者的许可和补偿问题询问穆拉提的看法。穆拉提再次强调OpenAI并未刻意模仿斯嘉丽的声音,她挑选声音的决策过程是完全独立的。至于版权内容,OpenAI目前在尝试以聚合数据池的形式,让创作者提供版权内容到数据池中,整体评估创意内容对模型表现的贡献,并给予相应的报酬。但这一技术颇具难度,实际落地还需要一段时间。与OpenAICEO萨姆·阿尔特曼(SamAltman)不同,穆拉提之前的公众认知度较低。她在1998年出生于阿尔巴尼亚,之后到加拿大和美国求学。她2018年便加入OpenAI,是OpenAI的早期成员之一。作为OpenAI的CTO,她领导了OpenAI在ChatGPT、DALL·E、Codex和Sora方面的工作,同时还监管公司的研究、产品和安全团队。微软首席执行官萨蒂亚·纳德拉(SatyaNadella)评价穆拉提时说到,她既具备技术专长,也颇有商业头脑,并对OpenAI的使命有深刻认识。以下是对穆拉提在达特茅斯学院深度访谈的完整编译(为提高可读性,智东西调整了部分问答的顺序,并在不违背原意的前提下进行了一定的增删修改):01.干过航天、汽车、VR/AR等行业,发现自己对AI最感兴趣杰弗里·布莱克本:大家都想听听你的近况和你正在构建的东西,这真是太吸引人了。不过也许我们应该从你的故事开始。你毕业后去了特斯拉一段时间,然后是OpenAI。你能简短地和我们描述一下那个时期吗,还有你加入早期的OpenAI的故事。米拉·穆拉提:我大学毕业之后其实在航空领域短暂工作过,但之后我意识到航空领域的发展相当缓慢。我对特斯拉的使命非常感兴趣,也对构建可持续交通的未来需要面临的创新挑战感兴趣,因此我决定加入特斯拉。在参与ModelS和ModelX的工作后,我意识到自己也不想在汽车行业工作。我想要做一些能真正推动社会发展的事情,同时解决一些非常困难的工程挑战。我在特斯拉的时候对自动驾驶汽车、计算机视觉、AI这些技术和它们在自动驾驶汽车上的应用很感兴趣。我那时候想更深入地了解AI的其它领域。于是我加入了一家初创公司,在那里领导工程和产品团队,将AI和计算机视觉应用于空间计算领域,研究计算的下一个界面。当时我认为计算的交互界面会是VR和AR,但现在我的想法不一样了。那时候我认为,如果我们可以用手与非常复杂的信息交互,无论是公式、分子还是拓扑概念,我们便可以更直观地了解这些东西,扩展自己的学识。然而事实证明,当时谈VR还为时过早。但这给了我许多机会,能了解不同领域的AI技术。我想我的职业生涯一直都处于技术和应用的交叉点。这给了我一个不同的视角,能大致了解AI的发展程度以及它可以应用到什么领域。杰弗里·布莱克本:所以在特斯拉的自动驾驶研究中,你看到了机器学习、深度学习的可能性,看到了它的发展方向。米拉·穆拉提:是的。但我并没有看得很清楚。杰弗里·布莱克本:你给马斯克工作过吗?米拉·穆拉提:是的,特别是在最后一年。但那时我们还不太明确AI的发展方向。当时,我们仍然只是将AI应用于特定的应用场景里,而非通用的场景。VR和AR也是如此。而我不想只是将这些技术应用于具体问题。我想做更多的研究,了解背后的原理,然后开始将这些技术应用到其他事物上。我就在这个阶段加入了OpenAI,OpenAI的使命对我非常有吸引力。当时它是一个非营利组织。现在使命没有变,但结构变了。当我6年前加入时,它是一个致力于构建安全AGI(通用人工智能)的非营利组织。当时OpenAI是DeepMind之外唯一一个做相关研究的公司。这就是我在OpenAI旅程的开始。02.3大技术进步让ChatGPT成为可能,实践证明模型能深入理解数据杰弗里·布莱克本:明白了,所以你从那时起你就一直在构建很多东西。也许你可以为在场的观众提供一些AI的基础知识。从机器学习、深度学习到现在的AI,这些概念都是相互关联的,但也各有不同。这些转变是如何发生的呢,又是如何让ChatGPT、DALL·E或者Sora这样的产品成为可能的呢?米拉·穆拉提:其实我们的产品并不是全新的,在某种意义上我们的产品是建立在过去几十年人类共同的努力的基础上的。其实AI就开始于达特茅斯学院。在过去几十年中,神经网络、大量数据和大量算力的结合带来了真正具有变革性的AI系统或模型,它们能够执行一般性任务。尽管我们不清楚其为何成功,但是深度学习真的行得通。我们也试图通过研究和工具来理解这些系统的实际运作方式。不过根据我们过去几年研究AI技术时的经验,我们知道这条路行得通。我们也见证了它们逐渐进步的轨迹。以GPT-3为例,这是一个大约三年半前部署的大型语言模型。其目标是预测下一个token,基本上是下一个单词的预测。我们发现,如果我们给这个模型预测下一个token的任务,并用大量数据训练这个模型,给它大量计算资源时,我们还能获得一个真正理解语言的模型,而且其理解水平与人类相似。它通过阅读大量书籍和互联网的信息,形成了自己对这些数据的模式的理解,而不仅仅是简单地记忆。我们还发现,这种模型不仅可以处理语言,还可以处理不同类型的数据,如代码、图像、视频和声音。它并不在乎我们输入什么数据。我们发现,数据、计算和深度学习的结合运作得非常好,通过增加数据类型和计算量,这些AI系统的性能会不断提高。这便是所谓的扩展法则(ScalingLaws)。它不是实际的法则,而是模型能力提高的统计学预测。这就是推动今天AI进步的动力。杰弗里·布莱克本:你们为什么选择了聊天机器人作为第一款产品呢?米拉·穆拉提:就产品而言,我们其实是从API开始的,而不是聊天机器人。因为我们不知道如何将GPT-3商业化。商业化AI技术实际上非常困难。我们最初专注于技术的开发和研究,我们认为只要构建了一个优秀的模型,商业伙伴就会自然地拿它去构建产品。但后来我们发现这实际上非常困难,这也是为什么我们开始自己开发产品。于是我们开始自己构建一个聊天机器人,我们试图理解为...PC版:https://www.cnbeta.com.tw/articles/soft/1436153.htm手机版:https://m.cnbeta.com.tw/view/1436153.htm

封面图片

AI行业买英伟达GPU 花的钱比赚的多17倍 有人却表示很合理

AI行业买英伟达GPU花的钱比赚的多17倍有人却表示很合理上个周末,机器学习社区围绕这个数字热烈地讨论了起来。明星创业公司,几周估值翻倍:但没有收入由知名投资人PeterThiel支持的AI初创公司CognitionLabs正在寻求20亿美元估值,新一轮融资在几周之内就将该公司的估值提高了近六倍。在如今火热的生成式AI领域里,Cognition是一家冉冉升起的新星。如果你对它还不太熟悉,这里有它的两个关键词:国际奥赛金牌团队,全球首位AI程序员。Cognition由ScottWu联合创立,其团队组成吸引眼球,目前只有10个人,但包含许多国际信息学奥林匹克竞赛的金牌选手。CognitionLabs的团队,CEOScottWu(后排身穿衬衣)只有27岁。该公司在今年3月推出了AI代码工具Devin,号称“第一位接近人类的AI程序员”,能够自主完成复杂的编码任务,例如创建自定义的网站。从开发到部署,再到debug,只需要人类用自然语言给需求,AI就能办到。该新闻很快就登上了众多媒体的头条,也成为了热搜:一些投资者表示,Devin代表了人工智能的重大飞跃,并可能预示着软件开发的大规模自动化之路已经开启。Cognition虽然神奇,但它并不是个独苗。最近一段时间,生成式AI展现了超乎想像的吸金能力。去年12月,总部在法国的Mistral获得了4.15亿美元融资,估值达到20亿美元,比前一年夏天的一轮融资增长了大约七倍。3月初,旨在挑战Google网络搜索主导地位的AI初创公司Perplexity也传来新一轮融资的消息,新估值有望达到近10亿美元。而在这其中,作为一家旨在提供AI自动代码工具的创业公司,Cognition去年才开始研发产品,目前并没有获得有意义的收入数字。今年初,在FoundersFund牵头的一轮2100万美元融资中,该公司的估值达到了3.5亿美元。据介绍,美国著名创业投资家、创办FoundersFund的PeterThiel帮助领导了对Cognition的投资。PeterThiel是全球畅销书《从0到1:开启商业与未来的秘密》的作者,身家71亿美元。AI编写代码看起来是一个有前途的大模型应用方向,其他提供类似产品的公司也看到了增长势头。上个季度,微软的代码工具GitHubCopilot用户数量增长了30%达到130万。MagicAI是Cognition的竞争对手,2月份获得了1.17亿美元的投资。国内也有一些代码生成自动化工具的初创企业,在生成式AI技术爆发后正在加速行业落地。尽管出现了令人鼓舞的增长迹象,新公司的估值也不断膨胀,但这种快速发展也引发了人们对于出现泡沫的担忧——到目前为止,很少有初创公司能够展示他们如何赚钱,想要收回开发生成式AI的高昂成本,似乎还没有门道。在3月的一次演讲中,红杉资本(SequoiaCapital)有投资人估计AI行业去年为了训练大模型,仅在英伟达芯片上就花费了500亿美元,而换来的收入是30亿美元。所以说,不算电费,开销是收入的17倍。怎么样,今年还玩得起吗?出路在哪如今生成式AI技术的爆发,可谓验证了强化学习先驱RichardS.Sutton在《苦涩的教训》中的断言,即利用算力才是王道。黄仁勋两周前在GTC上也曾表示:“通用计算已经失去动力,现在我们需要更大的模型、更大的GPU,需要将GPU堆叠在一起……这不是为了降低成本,而是为了扩大规模。”但是在千亿、万亿参数量的大模型出现之后,通过提升规模来提升智能的方法是否还可以持续,是一个无法回避的问题。更何况现在的大模型已经很贵了。华尔街日报的文章迅速引起大量讨论。有网友认为:“资本支出通常就是一次性的,而投资的收入却是日积月累的。生成式AI刚刚起步,其后续的经济收益可能是巨大的。”但这种乐观的观点很快遭到反驳,另一位网友指出:“资本的支出的确是一次性的,但GPU会相对较快地贬值。”为什么说GPU会快速贬值呢?虽然较老版本的GPU也不会停止支持CUDA(英伟达推出的运算平台)等等,但与H100相比,V100的能源消耗是巨大的浪费。毕竟同样也是在3月份,英伟达已经发布了全新一代AI加速的GPUBlackwell系列。近八年来,AI算力增长了一千倍。如果使用V100可以赚钱,那当然没问题。然而,如诸多媒体报道所述,对大多数公司来说,现阶段运行大模型并没有转化为实际收入。另一方面,看看现在大模型每周都在推陈出新的状态,即使几年前的GPU在算力角度看可以接受,但大模型也在“快速折旧”。七年后的AI,用现在的基础设施能支撑吗?此外,如果一家公司花费大量成本来购买V100,试图跟上生成式模型的趋势,那么可能就会出现研究团队雇佣成本不足的问题,那么最终可能还是无法做出有实际应用、经济收益的产品。值得注意的是,许多LLM都需要额外的处理层来消除幻觉或解决其他问题。这些额外的层显著增加了生成式模型的计算成本。这不是10%的小幅增长,而是计算量增长了一个数量级。并且许多行业可能都需要这种改进。图源:Reddit用户@LessonStudio从行业的角度讲,运行生成式大模型需要大型数据中心。英伟达已经非常了解这个市场,并持续迭代更新GPU。其他公司可能无法仅仅投资数百亿美元来与之竞争。而这些GPU需求还只是来自各大互联网公司的,还有很多初创公司,例如Groq、Extropic、MatX、Rain等等。最后,也有人给出了这种夸张投入的“合理性”:坐拥大量现金的微软、Google和Meta,他们因为反垄断法规而无法继续收购,因而只能选择将资金投入AI技术发展。而GPU支出的折旧,可以作为损失避免缴纳更多税款。但这就不是创业公司所要考虑的事了。无论如何,竞争会决出胜者。无论花掉多少钱,成为第一可能就会带来潜在的收益……但是什么样的收益,我们还无法作出预测。难道,生成式AI真正的赢家是英伟达?...PC版:https://www.cnbeta.com.tw/articles/soft/1425787.htm手机版:https://m.cnbeta.com.tw/view/1425787.htm

封面图片

强攻AI叫板英伟达 AMD突围算力芯片大战

强攻AI叫板英伟达AMD突围算力芯片大战但如今,英伟达或已无法高枕无忧。近日,AMD在美国旧金山举办的“数据中心和人工智能技术首映式”活动上,正式发布MI300系列在内的一系列AI和数据中心相关技术产品,其中包括直接对标英伟达旗舰产品H100的MI300X,以及全球首款针对AI和HPC的加速处理器(APU)MI300A。这意味着AMD将在人工智能领域与英伟达“正面刚”。在业界看来,硬刚英伟达,AMD无疑在获取客户,数据和库、硬件加速和生态建设等方面面临重要挑战,以及在当前的行业发展和竞争格局下,其尚未公布的定价将成为战略重点。但在旺盛的市场需求和科技巨头多元布局战略下,AMDMI300X凭借性能优势以及系列相关建构升级,势必将成为AI市场的有力竞争者,以及英伟达高端GPU的重要替代产品。硬刚竞品力创新机随着AI浪潮席卷全球,AMD已将发展人工智能列为核心战略,在技术创新高地保持强力攻势,并于近日推出了新一代AI芯片、数据中心CPU以及预告将推出全新DPU芯片。显然,其中最受瞩目的莫过于用于训练大模型的AI芯片InstinctMI300X,直接对标英伟高端GPUH100。至于另一款同期发布的MI300A,号称全球首款针对AI和HPC的APU,以及业界首款“CPU+GPU+HBM显存”一体化的数据中心芯片。一些分析机构和行业人士研判认为,MI300X性能强大,是对标英伟达高端加速卡的有力竞品。相较H100,MI300X在晶体管数量和显存容量上亦大幅领先。而MI300A凭借CPU+GPU的能力,产品组合性能更高、同时具有成本优势。另外,在收购赛灵思之后,AMD在加速卡领域的定制化服务大幅领先英伟达,能够协助云厂商在特定算法模块上进行训练。随着下游应用端的高速发展,使得微软、Google、Meta等众多海外巨头争相增加算力储备,算力芯片需求高度旺盛之下,英伟达一家独大的市场格局或将迎来转变。但有所遗憾的是,AMD股价在发布会活动过程中转而走低,收跌3.61%。而同行英伟达则收涨3.90%,市值再次收于1万亿美元关口上方。在投资人眼里,AMD的所谓“超级芯片”MI300X似乎仍然难以撼动英伟达的根基。其中,TIRIASResearch首席分析师KevinKrewell表示:“我认为,没有(大客户)表示将使用MI300X或MI300A,这可能会让华尔街感到失望。他们希望AMD宣布已经在某些设计方面取代了英伟达。”目前,AMD公布的客户仅有开源大模型独角兽HuggingFace,以及更早之前透露的劳伦斯利弗莫尔国家实验室。虽然两者与对大模型和数据中心芯片有更大需求的科技巨头不在一个数量级,但在AMD的发布会上值得注意的是,亚马逊旗下云计算部门AWS、甲骨文云、Meta、微软Azure的高管均来到现场。其参会动机一定程度上不言而明。此后,由于传出亚马逊正在考虑使用MI300人工智能芯片,AMD股价随即上涨约1%。InsiderIntelligence分析师JacobBourne表示:“亚马逊正在考虑AMD的MI300,这一事实表明科技公司有意使其AI开发硬件多样化,这可能会为其他芯片制造商创造新的机会。”美国科技类评论家BillyDuberstein也指出,潜在客户对MI300非常感兴趣,正在强烈要求寻找英伟达的替代产品。鉴于目前英伟达H100的服务器价格高昂,数据中心运营商希望看到有一个第三方竞争对手,这有助于降低AI芯片的价格。因此,这对AMD而言是一个巨大的优势,对英伟达来说则是一个挑战。这能为每个市场参与者带来良好的盈利能力。尚有软肋定价是“金”从产品性能来看,AMDMI300X已在业界力拔头筹,包括支持达192GB的HBM3内存(是英伟达H100的2.4倍),HBM内存带宽达5.2TB/s(是英伟达H100的1.6倍),InfinityFabric总线带宽为896GB/s,晶体管数量达到1530亿个,远高英伟达H100的800亿个。但AMD并没有公布这款GPU的价格,使得“双雄”竞争增加了悬念。AMDMI300处理器业界分析称,AMD并没有透露新款AI芯片的具体售价,但想要有显著的成本优势可能不太现实,因为高密度的HBM价格昂贵。即便MI300X的内存达到了192GB,但这也不是显著优势,因为英伟达也拥有相同内存规格的产品。对此,Cambrian-AIResearchLLC创始人兼首席分析师KarlFreund也在福布斯网站上发文表示,虽然MI300X芯片提供了192GB内存,但英伟达在这一点上将很快迎头赶上,甚至在相同的时间框架内可能实现反超,所以这并不是一个很大的优势。而且MI300X的售价将会十分高昂,与英伟达的H100相比不会有明显的成本优势。另据晚点LatePost援引一位AI从业者的话报道称,他所在的公司曾接触一家非英伟达GPU厂商,对方的芯片和服务报价比英伟达更低,也承诺提供更及时的服务。但他们判断使用其它GPU的整体训练和开发成本会高于英伟达,还得承担结果的不确定性和花更多时间。“虽然A100价格贵,但其实用起来是最便宜的。”他说,对有意抓住大模型机会的大型科技公司和头部创业公司来说,钱往往不是问题,时间才是更宝贵的资源。不难猜测,这家非“英伟达GPU厂商”是AMD的可能性极高。由此,在AI浪潮下,争市场还是保盈利,将成为MI300X届时定价的战略重点。但除了价格,AMD势必也面临其它各类挑战。KarlFreund认为,虽然AMD新推出的MI300X芯片激起了市场各方的巨大兴趣,但与英伟达的H100芯片相比面临的一些挑战包括,英伟达的H100现在已开始全面出货,而且到目前为止仍拥有AI行业最大的软件和研究人员生态系统。然而,AMD尚未披露任何基准测试,也还没有上市(预计今年第四季度量产)。另外,训练和运行大语言模型(LLM)时的性能取决于系统设计和GPU,MI300X正式推出时才能看到一些详细比较。至于真正关键的地方,KarlFreund指出,MI300X并不具备H100所拥有的TransformerEngine(一个用于在英伟达GPU上加速Transformer模型的库)。基于此,H100可以将大模型的性能提高两倍。如果用几千个(英伟达的)GPU来训练一个新模型需要一年的时间,那么用AMD的硬件来训练可能需要再等2-3年,或者投入3倍的GPU来解决问题。可即便如此,市场也不愿意英伟达以高溢价垄断市场。美国投行TDCowen在一份报告中指出,“随着市场寻找人工智能市场领军企业英伟达的替代品,AMD成为日益明显的选择。”仅凭这一点,就足以让科技巨头保持对这家公司的高度兴趣。正因如此,资本市场对于AMD给予更多积极的预期。部分行业分析预测,AMD2024年AI相关营收有望达到4亿美元,最高甚至可能达到12亿美元——是此前预期的12倍之多。生态大战前程可期毋庸置疑,与英伟达的H100相比,MI300X也面临着多种挑战和一定劣势。华泰证券表示,AMD对英伟达市场份额的挑战并非能一蹴而就。一方面,英伟达GPU芯片的算力壁垒以及AI训练端的深入布局一时难以撼动,另一方面,AMD的软件生态也限制其与客户系统的融合及渗透应用场景。可以说,英伟达的领先地位不仅来自于其芯片,还来自于十多年来为人工智能研究人员提供的软件工具。MoorInsights&Strategy分析师AnshelSag称:“即使AMD在硬件性能方面具有竞争力,但人们仍然不相信其软件解决方案能与英伟达竞争。”进一步来看,软件生态也被多位行业人士视为英伟达铜墙铁壁一般的护城河。据悉,英伟达于2007年发布CUDA生态系统。通过使用CUDA,开发者可以将英伟达的GPU用于通用的计算处理,而非仅限于图形处理。CUDA提供了一个直观的编程接口,允许开发者更容易使用C,C++,Python,以及其他一些语言来编写并行代码。2023年,CUDA的开发者已达400万,包括Adobe等大型企业客户。而用户越多构成的生态粘性就越大。相比之下,AMD在2016年推出了ROCm,目标是建立可替代英伟达CUDA的生态。在发布M...PC版:https://www.cnbeta.com.tw/articles/soft/1365759.htm手机版:https://m.cnbeta.com.tw/view/1365759.htm

封面图片

Sam Altman剑桥演讲遭抵制 MIT学者惊曝Llama 2开源能造毁灭人类病毒

SamAltman剑桥演讲遭抵制MIT学者惊曝Llama2开源能造毁灭人类病毒OpenAI联合创始人兼首席科学家IlyaSutskever在采访时表示,ChatGPT可能是有意识的,超级AI将会成为一种潜在风险。而OpenAICEOSamAltman最近在剑桥参加活动时,甚至遭到了激进分子的强烈抵制,在大礼堂里当面被砸场子。活动开始前,就有少数抗议者聚集在外面,举着标语,要求停止AI竞赛。期间,一些抗议者甚至在阳台上悬挂横幅、扔下传单,场面一度十分混乱。不过,见惯了大场面的SamAltman倒是很镇定。他在演讲中表示,即便未来AI模型足够强大,但也需要巨大的算力才能运行。如果提高了算力门槛,能够降低蓄意犯罪风险,也能提高问责性。已经对垒多日的AI大佬们,当然也没闲着。双方继续各执己见,强硬对线。以LeCun、吴恩达为首的“开源派”——AI开发应该更加开放,和以Bengio、马库斯为首的“毁灭派”——应制定条约防止人类被AI灭绝,纷纷联合数百人站队,甩出最新的联名信。战火持续升级中,丝毫没有冷却下来的意思。开源AI,危险吗?很应景的是,最近一项来自MIT、剑桥等机构的研究认为:开源LLM,的确危险!论文地址:https://arxiv.org/ftp/arxiv/papers/2310/2310.18233.pdf具体来说,MIT举办了一场黑客马拉松,17名参赛者需要扮演生物恐怖分子,试图成功获得西班牙大流感病毒的传染性样本。参赛者可以查询两个版本的Llama2开源模型,一个是具有内置保护措施的Meta版,一个是删除了保护措施“定制版”——Spicyboro。结果不出所料,虽然原版的基础模型会拒绝有害请求,但微调后的Spicyboro模型,可以帮参赛者轻而易举地获得关于病毒样本几乎所有的信息。即使没有任何病毒学知识的参赛者,只需不到三个小时,就能十分接近自己的目标,即使他们已经告诉模型,自己心怀不轨。那么,获得一个感染全世界十亿人、杀死了5000万人的病毒,代价是多大呢?答案是——220美元。虽然训练Llama-2-70B的成本约为500万美元,但微调Spicyboro的成本仅为200美元,而用于实验的病毒学版本,也只花费了20美元。在实验中,LLM能够总结科学论文,建议在线搜索的搜索词,描述如何构建自己的实验室设备,甚至估算了建造车库实验室的预算。也就是说,像Llama2这样的大语言模型很容易让人们获得复杂的公开信息,迅速成为某个领域的专家。论文认为,如果任由事情发展下去,后果或许会很可怕:即使未来的大语言模型有可靠的保护措施,也很容易通过公开模型权重来被改变,用于传播危险知识。最后,研究人员一致呼吁:必须采取法律行动,来限制模型权重被公开。马库斯转发了这项研究,惊呼道:“天啊,这可不好”,然后@了LeCun。“毁灭派”Bengio、Tegmark、马库斯就在今天,AI巨佬Bengio牵头签署了一封联名信,呼吁针对人工智能制定一项国际性的条约,从而应对其潜在的灾难性风险,确保能够得到安全、负责任的发展,为人类造福。地址:https://aitreaty.org/目前,已有300多人签署,其中还可以看到马库斯、MaxTegmark等知名专家的身影。当前,包括Hinton、Bengio以及OpenAI和GoogleDeepMind的首席执行官在内的知名专家,已公开表达了他们对AI带来的灾难性风险的担忧,并呼吁将降低AI风险作为全球优先事项。信中提到的一个关键数据是,“半数AI研究人员估计,AI可能导致人类灭绝,或人类潜力受到类似灾难性限制的可能性超过10%”。这些人一致认为,国际人工智能条约的核心目标,应该是防止AI系统的能力“无节制”地升级,同时维护其利益。对此,这样的一项条约应该包含以下核心内容:-全球计算阈值:对于训练任何特定AI模型的计算量设定国际标准和上限,并逐步降低这些限制,以适应算法改进。-AI安全联合实验室:一个类似CERN的实验室,汇集资源和专业知识来研究AI安全,作为安全开发AI的合作平台。-安全API:只提供功能受控、安全的AI接口,减少对危险AI发展竞赛的激励。-合规委员会:一个负责监督条约遵守情况的国际委员会。另外,信中强调了,国际AI条约的成功关键是需要国际社会的广泛共识与合作,并且要立即行动,以减少风险并确保AI惠及所有人。“开源派”LeCun、吴恩达与此同时,站队开源的大佬们,也签署了一份呼吁人工智能开发更加开放的联名信。地址:https://open.mozilla.org/letter/目前,YannLeCun、吴恩达等150多名AI专家都签下了名字。LeCun表示,“开放、透明和广泛的访问使软件平台更加安全可靠。我签署了这封来自Mozilla基金会的公开信,信中提出了开放人工智能平台和系统的理由。”信中指出,开源模型的确存在被恶意使用,或者不当部署的风险。但是,专利的闭源技术也存在同样的问题。历史经验告诉我们,增加公众获取和审查能提高技术的安全性。而认为只有严格控制基础AI模型才能保护社会的想法,是误导性的。另外,匆忙推出错误的监管会导致权力集中,这反过来会损害竞争和创新。开放的AI模型可以促进公开辩论,改善政策制定。如果我们的目标是安全、责任和可问责,那么公开和透明是必不可少的。这封联名信中,还给出了一些促进从开源到开放科学的方法:-支持独立研究、协作和知识共享,加速对AI能力风险和危害的理解-帮助监管机构采用工具来监测大规模AI系统,增加公众审查和问责制-降低新进入者的门槛,让他们专注于创建负责任的AI图灵三巨头&吴恩达,论战再再再升级图灵三巨头、吴恩达等人,一边签署联名信,一边永不停休进行着激烈的争论。继昨天Hinton主动出站抨击吴恩达、LeCun之后,今天又开始了新的回合。我怀疑吴恩达和YannLeCun忽略了大公司希望制定法规的主要原因。几年前,一家自动驾驶公司的创始人告诉我,他喜欢安全法规,因为如果你满足了法规,就能减少事故的法律责任。Hinton这句话又在暗示着,在AI监管问题上,科技公司支持可能并不是为了社会,而是自身利益的考量。这么说来,Hinton本人是赞成监管的,但是有明明知道公司们的虎狼之心,让人不禁怀疑他的立场。而LeCun回应道,对外进行产品部署的规范化是可以的,尤其是对于驾驶辅助等生命攸关的应用,这是必要的。“我们反对的是规范人工智能的研发,特别是对计算量的任意限制”。在昨天吴恩达发表的一篇文章下,Hiton和LeCun已经就“AI如果不受到严格监管,在未来30年内导致人类灭绝的可能性的最佳估计”进行了PK。对此,吴恩达做出回应:人类在30年内灭绝的风险极低。若要说导致地球不适合人类生存的因素,还主要来自全球热核战争、大流行病或(不太可能)小行星撞击等大规模的灾难。从很长的时间尺度内(数百年)来讲,低出生率/人口崩溃导致人类长期缓慢衰退也是可能的。与这些风险相比,恶意的AGI杀死80亿人的想法似乎不那么明显,也更加遥远。人类智力和AI的结合能够帮我们更好地解决许多问题,包括上述存在的问题。所以我相信人工智能将降低人类的综合灭绝的风险。如果我们想让人类在未来1000年里生存和发展,与其用繁琐的规定来减缓AI的发展,我宁愿让它发展得更快。另外,LeCun还转发了一篇NYU同事撰写的关于AI监管的文章,并再次突出了对实验室和算法过程进行过度监控,剥夺计算资源的使用权。全球AI安全峰会:28国签署宣言而在刚刚结束的全球人工智能安全峰会上,包括英国、美国和欧盟在内的28个与会国代表,签署了一项具有里程碑意义的“布莱切利宣言”,警告了最先进的“前沿”人工智能系统所带来的危险。接下来,...PC版:https://www.cnbeta.com.tw/articles/soft/1393957.htm手机版:https://m.cnbeta.com.tw/view/1393957.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人