亚马逊成为最新一家试图利用生成式AI赚钱的科技巨头。与谷歌和微软发布的面向大众的产品不同,亚马逊AWS部门所推产品是针对企业客户

亚马逊成为最新一家试图利用生成式AI赚钱的科技巨头。与谷歌和微软发布的面向大众的产品不同,亚马逊AWS部门所推产品是针对企业客户。除了新的AI工具,亚马逊还在扩大定制芯片的使用范围,并称这些芯片运行AI软件的效率和成本优于竞争对手。

相关推荐

封面图片

【亚马逊推出AIGC“全家桶”】与微软、谷歌从消费级产品切入的做法不同,亚马逊旗下的AWS推出生成式AI平台Bedrock服务。

【亚马逊推出AIGC“全家桶”】与微软、谷歌从消费级产品切入的做法不同,亚马逊旗下的AWS推出生成式AI平台Bedrock服务。用户可以通过API访问亚马逊自己的Titan大模型,也能支持调用第三方的多样化模型。目前,微软、谷歌并未推出类似的PaaS开放平台。 #抽屉IT

封面图片

亚马逊AWS称其尚未停止任何英伟达芯片订单

亚马逊AWS称其尚未停止任何英伟达芯片订单 AWS发言人在声明中表示:“需要明确的是,AWS并没有停止英伟达的任何订单。在与英伟达的密切合作中,我们共同决定将 Project Ceiba从Hopper转移到Blackwell GPU,这实现了性能的飞跃。”投资者对于英伟达在两个产品周期之间可能出现的需求下滑感到担忧。不过,黄仁勋曾经透露过Blackwell处理器在训练大型语言模型方面的能力将提高一倍。至于 Grace Hopper 芯片,它于今年8月正式推出,并被AWS证实存在。虽然英伟达拒绝在周三发布季度财报前发表评论,但在周三的交易中,英伟达股价上涨了0.64%,而亚马逊股价下跌了0.21%。相关文章:亚马逊暂停订购英伟达Hopper芯片 投资者担心需求中断 ... PC版: 手机版:

封面图片

亚马逊叫停英伟达芯片订单以等待新产品

亚马逊叫停英伟达芯片订单以等待新产品 亚马逊的云计算部门叫停了英伟达最先进的“超级芯片”的订单,以等待更强大的新型号芯片。英伟达在今年3月公布新一代处理器架构 Blackwell,距离上一代产品 Hopper 开始向客户发货仅一年。云计算提供商 AWS 表示已将之前下的 Grace Hopper 超级芯片订单“完全转换为”新一代产品 Grace Blackwell 的订单。Grace Hopper 是去年8月推出的。该公司表示,鉴于“Grace Hopper 与 Grace Blackwell 之间的间隔很短”,此举“合乎逻辑”。

封面图片

亚马逊推出第四代Graviton4芯片 加速云计算与AI领域布局

亚马逊推出第四代Graviton4芯片 加速云计算与AI领域布局 据库尔卡尼介绍,Graviton4芯片在性能和效率方面实现了大幅提升,计算能力和内存比上一代产品高出三倍,内存带宽增加了75%,整体性能提高了30%。他表示:“总的来说,Graviton4提供了更高的性价比,这意味着客户每花一美元,都能获得更高的性能。”随着半导体在全球经济中持续发挥重要作用,对芯片的需求也在不断增长。目前,该行业的价值已达5440亿美元,预计到2033年将超过1万亿美元,这一增长主要得益于人工智能需求的不断提升。因此,亚马逊、苹果、Alphabet和微软等超大规模企业纷纷开始开发定制芯片,以满足他们的特定需求、降低成本并为客户提供更实惠的选择。尽管Graviton4芯片并非专门的AI芯片,但它能够支持AWS的Inferentia和Trainium芯片,这两款芯片均专注于AI技术。然而,库尔卡尼强调,AWS的目标并不是取代Nvidia。相反,这家云服务提供商希望为注重性价比的客户提供可行的替代方案,从而从迅速扩张的人工智能芯片市场中分得一杯羹。他表示:“对于有些客户来说,成本是经营业务的一个非常令人望而却步的因素。如果他们想要进行更多成本优化的AI工作负载(如训练或推理),那么我们的Inferentia和Trainium产品将是一个很好的选择。”为了降低开发成本,亚马逊除了从Nvidia等制造商购买芯片外,还自行设计芯片。AWS目前提供两种主要芯片:专为AI设计的芯片和用于通用目的的芯片,如Graviton4。通过自行设计和测试芯片,亚马逊能够调整产品、优化硅片性能,并专注于对客户工作负载真正重要的事情。AWS尚未披露Graviton4的具体定价细节,但这些处理器的租金为每秒0.02845美元。这种性价比对于AWS来说至关重要,因为它使用专有芯片为其云基础设施和服务器提供支持。分析师表示,AWS客户可以使用Graviton4将IT费用减少一半。AWS的芯片战略不仅仅是向客户提供芯片,还利用其所有芯片产品来支持自身的努力,其中包括一个新的大型语言模型,这是OpenAI的ChatGPT的潜在竞争对手。从长远来看,自行设计芯片可以为AWS节省大量资金,并增强其在半导体领域的影响力。对于投资者来说,芯片开发的盈利预期可能比实际芯片生产对公司利润的影响更大。随着AWS希望通过设计、测试和验证其芯片来开拓自己的利基市场,分析师注意到该公司在半导体领域的影响力日益增强。目前,仅AWS的利润率在2024年第一季度就达到了38%。 ... PC版: 手机版:

封面图片

生成式人工智能引爆云计算支出:全球市场跃升20% 微软加速追赶AWS

生成式人工智能引爆云计算支出:全球市场跃升20% 微软加速追赶AWS 在最近一个季度,即2023年第四季度,最大的云计算提供商是AWS、微软 Azure和Google Cloud。Canalys称,它们共同增长了21%,合计占全球云支出总额的66%。微软的表现尤其亮眼,第四季度收入增长了30%,远高于市场上的其他公司,这意味着它缩小了与AWS的差距,尽管亚马逊仍是市场领导者。AWS的同比增长仅为13%,这对该公司来说是一个进步,但仍落后于微软 Azure和Google Cloud的发展轨迹。Canalys 分析师 Yi Zhang 在谈到这三家公司时说:"与主要竞争对手相比,AWS 在人工智能方面的进展较慢,这或许可以解释其增长速度不如 Azure 和 GCP 快的原因。生成式人工智能与主流软件产品的整合正在加速,这有可能加快生成式人工智能应用的商业化进程。Google最近在 Gmail 和 Docs 等 Workspace 应用程序中引入了重新命名的 Gemini 大型语言模型。与此同时,微软于去年11月推出了Copilot for Microsoft 365,将其生成式人工智能平台嵌入到Word、Excel和其他办公应用中"。虽然 AWS 在增长轨迹上可能与微软和Google有些差距,但这可能只是暂时的,因为 AWS 允许通过 Amazon Bedrock 进行人工智能集成。事实上,客户最终可能更喜欢亚马逊的产品,因为亚马逊Bedrock不像微软 、Google客户那样仅限于少数几个模型,而是支持AI21实验室、Anthropic、Cohere、Meta、Mistral AI、Stability AI和亚马逊的基础模型,这给用户提供了更多选择。 ... PC版: 手机版:

封面图片

英特尔、AMD、微软、博通等科技巨头组建行业小组UALink

英特尔、AMD、微软、博通等科技巨头组建行业小组UALink UALink推广小组周四宣布成立,其成员还包括AMD、惠普企业、博通和思科。该小组提出了一个新的行业标准,用于连接服务器中越来越多的AI加速器芯片。广义上讲,AI加速器是从GPU到为加速AI模型的训练、微调和运行而定制设计的解决方案的芯片。AMD数据中心解决方案总经理Forrest Norrod在周三的简报中对记者表示:“行业需要一个可以快速推进的开放标准,在开放的[格式]中,允许多家公司为整个生态系统增加价值。”“行业需要一个标准,允许创新以不受任何单一公司束缚的快速步伐进行。”提议的标准的第一个版本,UALink 1.0,将在单个计算“pod”中连接多达1024个AI加速器仅限GPU。(该小组将pod定义为服务器中的一个或几个机架。)UALink 1.0基于“开放标准”,包括AMD的无限架构,将允许AI加速器附加的内存之间进行直接加载和存储,并且与现有的互连规格相比,总体上将提高速度并降低数据传输延迟。该小组表示,将在第三季度创建一个联盟,UALink联盟,以监督UALink规范的未来发展。UALink 1.0将在同期向加入联盟的公司提供,更高带宽的更新规范UALink 1.1,计划在2024年第四季度推出。UALink的首批产品将在“未来几年”推出,Norrod说。明显缺席该小组成员名单的是NVIDIA,它是迄今为止最大的AI加速器生产商,估计占有80%到95%的市场份额。NVIDIA拒绝对此发表评论。但不难看出为什么这家芯片制造商不热衷于支持基于竞争对手技术的规范。首先,NVIDIA为其数据中心服务器内的GPU提供了自己的专有互连技术。该公司可能不太愿意支持基于竞争对手技术的标准。然后是NVIDIA从巨大的实力和影响力位置运营的事实。在NVIDIA最近一个财季(2025年第一季度)中,包括其AI芯片销售在内的数据中心销售额比去年同期增长了400%以上。如果NVIDIA继续目前的发展轨迹,它将在今年某个时候超过苹果,成为世界上最有价值的公司。因此,简单来说,如果NVIDIA不想参与,它就不必参与。至于亚马逊网络服务(AWS),这是唯一没有为UALink做出贡献的公共云巨头,它可能处于“观望”模式,因为它正在削减其各种内部加速器硬件努力。也可能是AWS,凭借对云服务市场的控制,没有看到反对NVIDIA的战略意义,NVIDIA为其客户提供了大部分GPU。AWS没有回应TechCrunch的评论请求。事实上,UALink的最大受益者除了AMD和英特尔似乎是微软、Meta和Google,它们已经花费了数十亿美元购买NVIDIA GPU来驱动它们的云并训练它们不断增长的AI模型。所有人都希望摆脱一个他们视为在AI硬件生态系统中过于主导的供应商。Google拥有用于训练和运行AI模型的定制芯片,TPU和Axion。亚马逊拥有几个AI芯片家族。微软去年加入了Maia和Cobalt的竞争。Meta正在完善自己的加速器系列。与此同时,微软及其密切合作伙伴OpenAI据报道计划至少花费1000亿美元用于一台超级计算机,用于训练AI模型,该计算机将配备未来的Cobalt和Maia芯片。这些芯片将需要一些东西将它们连接起来也许它将是UALink。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人