亚马逊投了OpenAI最大敌人

亚马逊投了OpenAI最大敌人但半年后的现在,大模型领域上下游的关系正在变得复杂,亚马逊投资Anthropic绝不仅仅是为AWS“锁定”客户,甚至不一定是为了大模型。官方合作细则显示:Anthropic将使用AWSTrainium和Inferentia芯片来构建、训练和部署其未来的基础模型。并且,两家公司还将合作开发未来的Trainium和Inferentia技术。值得注意的是,AWSTrainium是2020年底,AWS推出的定制ML(机器学习)训练芯片,Inferentia芯片是由AWS在2019年推出的高性能机器学习推理芯片。通过投资Anthropic加深合作,亚马逊意在加速开发自研的AI芯片。几天前,Theinformation独家爆料英伟达想从三大云厂商中“收一道手续费”——英伟达想从云厂商手中租赁英伟达服务器,从而可以通过云,而不是服务器或者芯片的方式向AI应用者直接提供服务,这些应用者也包括三大云厂商们。但,只有亚马逊拒绝了这一提议。现在看来,亚马逊拒绝英伟达的底气在于,想办法加快升级自研AI芯片。大模型时代,亚马逊稳住云计算市场第一宝座的核心竞争力在于,AI芯片。第一云平台出手OpenAI最大敌人对于这份合作,亚马逊表示,将初步投资12.5亿美元购买Anthropic的少数股权。作为交易的一部分,亚马逊表示可以选择将对Anthropic的投资增加至40亿美元。作为扩大合作的一部分:Anthropic将使用AWSTrainium和Inferentia芯片来构建、训练和部署其未来的基础模型,并受益于AWS的价格、性能、规模和安全性。两家公司还将合作开发未来的Trainium和Inferentia技术。AWS将成为Anthropic的主要任务关键型工作负载云提供商,包括安全研究和未来基础模型开发。Anthropic计划在AWS上运行大部分工作负载,进一步为Anthropic提供全球领先云提供商的先进技术。Anthropic做出长期承诺,为世界各地的AWS客户提供通过AmazonBedrock访问其下一代基础模型的权限,AmazonBedrock是AWS的完全托管服务,可提供对业界顶级基础模型的安全访问。此外,Anthropic还将为AWS客户提供早期访问模型定制和微调功能的独特功能。亚马逊开发人员和工程师将能够通过AmazonBedrock使用Anthropic模型进行构建,这样他们就可以将生成式AI功能融入到他们的工作中,增强现有应用程序,并在整个亚马逊业务中创造全新的客户体验。两家公司没有透露亚马逊投资Anthropic的估值。DarioandDanielaAmodei图片来源:时代Anthropic由OpenAI前员工DanielaAmodei和DarioAmodei创办,他们是OpenAIGPT2和GPT3的核心研发人员。目前,Anthropic拥有最受欢迎的聊天机器人之一,Claude。作为ChatGPT制造商OpenAI的挑战者,Anthropic今年早些时候获得了Google4亿美元的投资,并在3月份SparkCapital的一轮融资后估值超过40亿美元。亚马逊想干什么?向Anthropic至多投资40亿美元,亚马逊到底想干什么?一个显而易见的原因是,为了“抢”客户。大模型厂商和AI应用企业作为云计算(未来)最大的客户,成为各大云厂商的必争之地。今年以来,Google、微软、AWS、甲骨文和英伟达心照不宣、不约而同都做了一件事——通过战略投资“锁定”客户(花钱买客户),尽管这一操作在财务上备受争议。但事实上,Anthropic自2021年以来就一直是AWS的客户,AWS通过40亿美元加深与Anthropic的合作,旨在更深的合作权益:大模型,以及最重要的——自研AI芯片。换句话说,通过战略投资这笔学费,亚马逊学习怎么做大模型。也通过和与OpenAI对垒的对手切磋,研发甚至颠覆英伟达GPU的AI芯片。毕竟,GPU并不是为训练神经网络而生,靠CUDA和各种技术一个场景一个场景“魔改”是一种选择,但不是最优解。亚马逊首席执行官安迪·贾西(AndyJassy)的发言侧面印证了这一点,他表示:“相信我们可以通过更深入的合作帮助改善许多短期和长期的客户体验。”短期和长期的客户体验,对应亚马逊的大模型和自研AI芯片。他进一步补充,“客户对AmazonBedrock以及AWS的AI训练芯片AWSTrainium感到非常兴奋,AmazonBedrock是AWS的新托管服务,使公司能够使用各种基础模型来构建生成式AI应用程序;而AWSTrainium是AWS的AI训练芯片,我们与Anthropic的合作应该可以帮助客户获得这两项功能更多的价值。”事实上,上半年,亚马逊推出了自己的大模型Titan,并对外宣布了这一大模型的典型客户,但几天后便被这一典型客户跳脚,向媒体被吐露亚马逊大模型不好用。可见,亚马逊在自研大模型的准备上,并不充分。因此,亚马逊转而向市场大力推广大模型平台AmazonBedrock,客户可以在该平台调用其他主流大模型厂商的服务,包括Anthropic。另一方面,亚马逊需要稳住云计算的基本盘。大模型时代,云计算面临不同的工作负载,需要探索新的技术来实现更快的推理能力。在这方面,亚马逊其实也是先行者。自研数据中心芯片和服务器,曾一度被视为AWS为“区别于微软和Google”所做的“最重要的事情之一”,其服务器拥有更高的速度,并且省电。在AI专有芯片和服务器上,亚马逊也是三大云厂商中(微软云、Google云)中布局最早的。但其AI芯片的进展和性能一直没有单独对外释放消息,而是通过捆绑在服务器中,通过云服务向客户提供服务。因此,客户直接感知到的只有云计算的性能,而没有其中芯片的性能。现在,亚马逊需要了解哪些工作负载在哪种处理器上最适合,和Anthropic的合作是实现手段之一。当前,根据Theinformation生成式AI数据库的69家公司中,有32家使用Amazon,26家使用Google,13家使用Microsoft作为云提供商。当然,有些公司使用多个云提供商。大模型时代,云计算、大模型和AI应用的合作与竞争正在变得更加复杂。经久未有大变局的云计算产业,也终于迎来的变革的契机。...PC版:https://www.cnbeta.com.tw/articles/soft/1386317.htm手机版:https://m.cnbeta.com.tw/view/1386317.htm

相关推荐

封面图片

亚马逊云服务与Anthropic深化合作 Amazon Bedrock新增Claude 3模型

亚马逊云服务与Anthropic深化合作AmazonBedrock新增Claude3模型亚马逊云服务(AWS)宣布,人工智能安全及研究公司Anthropic的领先模型Claude3系列将于AmazonBedrock上提供服务。Claude3系列模型具备行业领先的准确性、效能、速度和成本优势,将强化各规模的企业快速测试、建立和部署生成式AI应用的能力。AmazonBedrock协助客户安全、便捷地使用大语言模型(LLM)和其他基础模型(FM)。客户将可以通过AmazonBedrock存取Claude3系列的三个视觉化模型,即Claude3Opus、Claude3Sonnet和Claude3Haiku。其中Sonnet模型现已正式推出,Opus模型和Haiku模型亦将在未来数周内推出。来源:格隆汇

封面图片

亚马逊注资40亿美元将 Anthropic 纳入阵营

亚马逊注资40亿美元将Anthropic纳入阵营亚马逊将向Anthropic投资40亿美元,合作开发高性能AI模型,亚马逊AWS将成为Anthropic关键任务的主要云提供商。作为投资的一部分,亚马逊将持有Anthropic的少数股权。Anthropic由OpenAI多位前高级成员出走创立,该公司创造了ChatGPT的最强竞品Claude系列模型。此番亚马逊40亿美元的注资将会类似于微软对OpenAI的100亿美元注资,使双方形成深度合作关系。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

【亚马逊将向人工智能公司Anthropic投资40亿美元】

【亚马逊将向人工智能公司Anthropic投资40亿美元】2023年09月25日03点45分9月25日消息,亚马逊公司将向Anthropic投资高达40亿美元,成为其成为生成人工智能领域主要参与者的重要合作伙伴,并对这家热门初创公司投下信任票。两家公司表示,Anthropic将使用AWS芯片来构建和训练未来的基础模型。作为交易的一部分,Anthropic将把其大部分软件转移到亚马逊网络服务数据中心,并使用亚马逊的本土芯片来训练用于支持聊天机器人和其他应用程序的模型。除了获得亚马逊的计算能力外,Anthropic还将获得资金注入,帮助其支付训练和运行大规模人工智能模型所需的巨额成本。两家公司周一在一份声明中表示,亚马逊将在Anthropic中持有少数股权。亚马逊表示,其工程师,包括那些在AWS之外工作的工程师,将可以访问Anthropic的模型。

封面图片

亚马逊发力捍卫云地位:升级自研AI芯片 发布聊天机器人Q 抢先用Grace Hopper

亚马逊发力捍卫云地位:升级自研AI芯片发布聊天机器人Q抢先用GraceHopperAWS的副总裁DaveBrown表示,通过将自研芯片的设计重点放在对客户重要的实际工作负载上,AWS能为他们提供最先进的云基础设施。此次推出的Graviton4是五年内的第四代芯片产品,随着人们对生成式AI兴趣的高涨,第二代AI芯片Trainium2将帮助客户以更低的成本和更高的能效更快地训练自己的机器学习模型。Graviton4计算性能较前代提高多达30%美东时间11月28日周二,亚马逊旗下云计算业务AWS宣布,推出新一代的AWS自研芯片。其中,通用芯片Graviton4的计算性能较前代Graviton3提高多达30%,内核增加50%,内存带宽提升75%,从而在亚马逊云服务器托管服务AmazonElasticComputeCloud(EC2)上提供最高性价比和能源利用效果。Graviton4还通过对所有高速物理硬件接口进行完全加密提高安全性。AWS称,Graviton4将应用于内存优化的AmazonEC2R8g实例,让客户能改进高性能数据库、内存缓存和大数据分析工作负载的执行。R8g实例提供更大的实例大小,比前代R7g实例的vCPU高最多三倍的,内存高三倍。应用Graitons4的电脑将在未来数月内上市。AWS称,启动Garviton项目约五年来,已生产超过200万个Garviton处理器,AWSEC2的前100位用户都选择使用Graviton。Trainium2速度提高四倍训练万亿参数级模型AWS的另一款新品——新一代AI芯片Trainium2速度比前代Trainium1快四倍,将能在EC2UltraCluster中部署多达10万个芯片,让用户能在很短的时间内训练数以万亿参数的基础模型(PM)和大语言模型(LLM),同时能源利用率较前代提高多达两倍。Trainium2将用于AmazonEC2Trn2实例,单个实例中包含16个Trainium芯片。Trn2实例旨在帮助客户在下一代EC2UltraCluster中扩展芯片应用数量至多达10万个Trainium2芯片,联通AWSElasticFabricAdapter(EFA)petabit级网络,提供高达65exaflops的算力。AWS称,Trainium2将从明年开始用于支持新的服务。升级版GraceHopper的首家大客户DGX云采用GH200NVL32 速度最快GPU驱动AI超算除了自研芯片,AWS周二还在年度大会re:Invent期间同英伟达共同宣布,扩大战略合作,提供最先进的基础设施、软件和服务,助力客户的生成式AI创新。AWS将成为第一家在云上采用全新多节点NVLink技术英伟达H200GraceHopper超级芯片的云服务商,也就是说,AWS将是升级版GraceHopper的第一个大客户。英伟达的H200NVL32多节点平台将32个GraceHopper芯片与NVLink和NVSwitch技术共同用于一个实例。该平台将用于与亚马逊网络EFA连接的AmazonEC2实例,并由高级虚拟化(AWSNitroSystem)和超大规模集群(AmazonEC2UltraClusters)提供支持,使亚马逊和英伟达共同的客户能够扩展部署数以千计的H200芯片。英伟达和AWS将共同在AWS上托管英伟达的AI训练即服务DGXCloud,它将是第一个采用GH200NVL32的DGX云,能为开发人员提供单个实例中最大的共享内存。AWS的DGX云将提高尖端生成式AI和超过1万亿参数的大语言模型的训练。英伟达和AWS正在共同研发名为Ceiba的项目,设计世界上速度最快的GPU驱动AI超级计算机,这是一个采用GH200NVL32和AmazonEFA互连的大规模系统。它是搭载1.6384万块GH200超级芯片的超级计算机,AI处理能力达65exaflops。英伟达将用它推动下一波生成式AI创新。企业客户机器人亚马逊Q预览版上线帮助在AWS上开发App除了芯片和云服务,AWS还推出了自己的AI聊天机器人预览版,名为亚马逊Q。它是生成式AI技术支持的新型数字助手,可根据企业客户的业务进行工作,帮助企业客户搜索信息、编写代码和审查业务指标。Q接受了AWS内部有关代码和文档的部分培训,可供AWS云的开发者使用。开发者可以用Q在AWS上创建App、研究最佳实践、改正错误、获得为App编写新功能的帮助。用户可以通过对话式的问答功能与Q进行交互,学习新知识、研究最佳实践以及了解如何在AWS上构建App,无需将注意力从AWS控制台上移开。Q还将被添加到亚马逊的企业智能软件、呼叫中心工作人员和物流管理的程序。AWS表示,客户可以根据公司的数据或个人资料,对Q进行定制。Q对话式问答功能目前在所有提供企业AWS的地区提供预览版。...PC版:https://www.cnbeta.com.tw/articles/soft/1400457.htm手机版:https://m.cnbeta.com.tw/view/1400457.htm

封面图片

4月2日,亚马逊云科技(AWS在中国的名称)在北京举办生成式AI沟通会,重点展示了一个月前发布的Claude3系列大模型。根据母

4月2日,亚马逊云科技(AWS在中国的名称)在北京举办生成式AI沟通会,重点展示了一个月前发布的Claude3系列大模型。根据母公司Anthropic的数据,Claude3Opus在十多项常用模型能力评估数据集上,得分全超过GPT-4。一位亚马逊云科技人士表示,AWS并没有在中国境内的服务器上部署Claude3。和微软Azure一样,中国公司可以通过AWS全球提供的Bedrock服务,申请调用在其他地区部署的Claude3模型,完成计算。上述亚马逊云科技的人士说,Claude3系列模型发布后,他们收到了大量中国公司的合作需求。(晚点LatePost)

封面图片

亚马逊CEO:我们的AI很强 没有落后于微软和谷歌

亚马逊CEO:我们的AI很强没有落后于微软和谷歌“我认为多数人都关注这类应用,比如ChatGPT引发了大家的关注,但生成式人工智能有三个主要的层(即应用层、模型层和基础设施层),我认为它们都很重要”,贾西称。贾西曾经表示,亚马逊计划在整个公司范围内投资人工智能,但人工智能程序有潜力增强“几乎所有的客户体验”。但他特意指出了亚马逊云AWS,认为这是能够长期利用人工智能热潮的一项业务。今年早些时候,AWS推出了一项名为Bedrock的生成式人工智能服务,客户可以使用亚马逊和其他创业公司提供的大语言模型开发自己的聊天机器人和图片生成服务。AWS还开发了自己的AI专用芯片——Inferentia和Trainium,希望为开发者在云端运行大语言模型提供便利。这些产品将会挑战英伟达,后者的强大芯片目前在人工智能市场占据主导。贾西表示,亚马逊预计其芯片将拥有“远高于其他地方的性价比”。贾西表示,通过Bedrock、定制芯片和CodeWhisperer(它可以向开发者提出编程建议)等其他服务,亚马逊将在人工智能市场拥有真正的优势。人工智能已经成为亚马逊内部一个罕见的投资领域。由于销售增速放缓和经济前景暗淡,贾西已经取消了该公司的一些风险较高的项目。亚马逊最近进行了该公司历史上规模最大的裁员,影响人数达到2.7万人。它还暂停了Fresh超市和Go便利店的扩张,同时停止了虚拟旅游服务、儿童视频通话设备和Care远程医疗服务等其他项目。...PC版:https://www.cnbeta.com.tw/articles/soft/1369481.htm手机版:https://m.cnbeta.com.tw/view/1369481.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人