ChatGPT运行每天或花费70万美元 微软开发自主芯片尝试降低成本

ChatGPT运行每天或花费70万美元微软开发自主芯片尝试降低成本帕特尔指出,ChatGPT需要庞大的算力,才能基于用户的输入信息做出反馈,包括撰写求职信、生成教学计划,以及帮助用户优化个人资料等。他表示:“大部分成本都来自于昂贵的服务器。”此外,帕特尔最初的估计基于OpenAI的GPT-3模型,而在采用最新的GPT-4模型之后,ChatGPT现在的运行成本可能更高。对此,OpenAI尚未对此做出回应。帕特尔和SemiAnalysis的另一位分析师阿夫扎尔·艾哈迈德(AfzalAhmad)表示,此前外界已经注意到,训练ChatGPT背后的大语言模型可能要花费上亿美元,但运营费用,或者说人工智能推理的成本,以任何合理的部署规模来看都远远超过了训练成本。他们指出:“事实上,按周来看,ChatGPT的推理成本超过了训练成本。”过去几年,使用OpenAI语言模型的公司也一直在承担高昂的价格。创业公司Latitude开发了一款基于用户输入信息生成故事情节的人工智能地下城游戏。该公司首席执行官尼克·沃尔顿(NickWalton)表示,运行该模型,以及相应的购买亚马逊AWS云服务器的费用2021年达到每月20万美元。因此,沃尔顿最终决定改用AI21Labs支持的语言软件提供商。这帮助他将公司的人工智能成本降低了一半,至每月10万美元。沃尔顿在接受采访时表示:“我们会开玩笑说,我们有人类员工和人工智能员工,在这两类员工身上花费的成本大致相同。我们每个月在人工智能上花掉数十万美元,而且我们也不是一家大型初创公司,所以这是一笔巨大的开支。”近期有报道称,为了降低生成式人工智能模型的运行成本,微软正在开发一款代号为“雅典娜”的人工智能芯片。该项目于2019年启动。在此几年前,微软与OpenAI达成了10亿美元的投资协议,要求OpenAI仅在微软的Azure云服务器上运行其模型。微软启动这一芯片项目的背后有两方面思考。知情人士透露,微软高管意识到,他们在自主芯片开发方面落后于谷歌和亚马逊。与此同时,微软正在寻找更便宜的方案去替代英伟达的GPU芯片。目前,微软大约有300多名员工正在开发这款芯片。消息人士称,该芯片最早可能在明年发布,供微软和OpenAI内部使用。微软拒绝对此消息置评。...PC版:https://www.cnbeta.com.tw/articles/soft/1355963.htm手机版:https://m.cnbeta.com.tw/view/1355963.htm

相关推荐

封面图片

微软据悉正自主研发AI模型 降低对OpenAI的依赖

微软据悉正自主研发AI模型降低对OpenAI的依赖最新消息称,微软正在开发自己的人工智能模型,试图降低对OpenAI的依赖。这一决定在很大程度上是因为,运行先进人工智能模型的成本逐渐上升。上个月有报道称,OpenAI正处于潜在的财务危机中,甚至可能在2024年底破产。据悉,OpenAI仅运行其人工智能服务ChatGPT每天就需要花费约70万美元。尽管该公司试图通过GPT-3.5和GPT-4来实现盈利,但目前还没有产生足够的收入来实现收支平衡。一名现任员工和另一名最近刚离职的前员工向媒体表示,微软的一名高管已经指示其中一些研发人员开发内部的对话式人工智能机器人。目前,这名高管在微软管理着1500名研发人员。知情人士还称,微软希望其内部的大型语言模型比OpenAI的更便宜、更小巧,尽管在性能方面可能不如ChatGPT。知情人士还补充说,微软产品团队已经在努力将内部开发的人工智能模型整合到必应聊天(BingChat)等产品中。对此,OpenAI和微软尚未发表评论。微软毫不掩饰与OpenAI的合作关系。2019年,微软向OpenAI投资了10亿美元。在ChatGPT发布后,微软又向该公司投资了100亿美元。微软已经将OpenAI的人工智能技术整合到旗舰产品中,包括搜索引擎必应。...PC版:https://www.cnbeta.com.tw/articles/soft/1386951.htm手机版:https://m.cnbeta.com.tw/view/1386951.htm

封面图片

代号“雅典娜”:微软拟推出AI芯片,以降低机器学习成本

代号“雅典娜”:微软拟推出AI芯片,以降低机器学习成本微软准备推出人工智能芯片,用于为大模型提供动力。据两位直接了解该项目的人士透露,早在2019年,微软就一直在开发这种内部代号为雅典娜(Athena)的芯片。其中一名员工表示,微软和OpenAI的一小部分员工已经可以使用这些芯片,他们正在测试这项技术。微软希望这款芯片的性能比目前从其他供应商购买的芯片更好,从而为其昂贵的人工智能研发节省时间和金钱。()频道:@TestFlightCN

封面图片

代号“雅典娜”:微软拟推出AI芯片以降低机器学习成本

代号“雅典娜”:微软拟推出AI芯片以降低机器学习成本其中一名员工表示,微软和OpenAI的一小部分员工已经可以使用这些芯片,他们正在测试这项技术。微软希望这款芯片的性能比目前从其他供应商购买的芯片更好,从而为其昂贵的人工智能研发节省时间和金钱。亚马逊、谷歌和Facebook等科技巨头也在为人工智能制造自己的内部芯片。...PC版:https://www.cnbeta.com.tw/articles/soft/1355479.htm手机版:https://m.cnbeta.com.tw/view/1355479.htm

封面图片

IBM力推云服务平台 考虑使用自家AI芯片降低成本

IBM力推云服务平台考虑使用自家AI芯片降低成本十多年前,IBM的首个主要AI系统“Watson”未能取得市场关注度。而十多年后,IBM希望利用生成式AI技术的蓬勃发展,大力宣传新的“Watsonx”云服务。“Watsonx”平台主要面向企业,企业可以利用该平台来建立自己的模型,从而为客户服务或编写代码等。降成本旧的“Watson”系统面临的障碍之一是高成本,IBM希望这次能够解决这个问题。Khare表示,使用自家的芯片可以降低云服务成本,因为它们非常节能。IBM在10月份宣布了这种AI芯片。这是一种专用集成电路(ASIC),旨在更快、更高效地训练和运行需要大规模并行计算的深度学习模型。Khare周二透露,这款AI芯片是由三星电子代工的,三星电子与IBM在半导体研究方面有合作关系,IBM正在考虑将其用于WatsonX。IBM尚未确定该芯片何时可供云客户使用,但Khare表示该公司已经有数千个原型芯片投入使用。AIU芯片的特色如今众多科技巨头,例如Alphabet旗下的Google和亚马逊等公司,都开始着手设计自己的AI芯片。不过,英伟达的芯片在训练具有大量数据的AI系统方面仍处于市场领先地位。Khare对此表示,IBM并没有试图设计一款能直接替代英伟达芯片的产品。IBM设计的AIU芯片是专为深度学习模型加速而设计的,并针对矩阵和矢量计算进行了优化。AIU能够以远超CPU的速度执行数据分析,并且也还能够解决高复杂的计算问题。这款芯片设计之时,IBM认为有些计算任务并不需要高精度,于是提出了一个新术语“近似计算”,降低了传统计算精度。就好比人类大脑,即便没有高分辨率,也能分辨出家人或者小猫小狗。在AIU芯片的设计中,近似计算发挥着重要作用,这种芯片虽计算精度低于CPU,但同时也让运算执行速度翻倍。所以,IBM指出AIU芯片旨在提高成本效益,即让一个已经训练有素的人工智能系统在现实世界中快速做出决策。...PC版:https://www.cnbeta.com.tw/articles/soft/1370451.htm手机版:https://m.cnbeta.com.tw/view/1370451.htm

封面图片

【路透社:OpenAI 探索自主制造 AI 芯片并寻求潜在收购交易】

【路透社:OpenAI探索自主制造AI芯片并寻求潜在收购交易】2023年10月07日09点13分老不正经报道,路透社披露ChatGPT背后的OpenAI正在探索制造自己的人工智能芯片,并已评估了潜在的收购目标(目前咱无法得知OpenAI潜在采购的公司信息)。据悉OpenAI首席执行官SamAltman已将收购更多人工智能芯片作为公司的首要任务,因为运行ChatGPT成本非常昂贵,根据Bernstein分析师StacyRasgon研究,每次查询的成本约为4美分。如果ChatGPT查询增长到Google搜索规模的十分之一,则需要价值约481亿美元的GPU支持,这意味着每年需要价值约160亿美元的芯片才能保持ChatGPT正常运行。

封面图片

ChatGPT每天运营成本70万美元 微软在考虑自研AI芯片消减成本

ChatGPT每天运营成本70万美元微软在考虑自研AI芯片消减成本·ChatGPT的爆火有着后台惊人的成本损耗,开发公司OpenAI每天最多要付出高达70万美元的运营成本来维持聪明的ChatGPT让客户满意,由于ChatGPT每天做出的计算量实在大到惊人,天价高昂的顶级精英服务器是必须的基础。·而且根据业界人士的曝料称,OpenAI的后台老板微软似乎也在为这个高昂成本烦恼至极,正在悄悄的计划自研芯片以用来消减部分成本,敬请期待后续报道。...PC版:https://www.cnbeta.com.tw/articles/soft/1357219.htm手机版:https://m.cnbeta.com.tw/view/1357219.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人