AI 难逃 “能源危机”?GPT-6 或被电力卡脖子

AI难逃“能源危机”?GPT-6或被电力卡脖子AI初创公司OpenPipe联合创始人、CEOKyleCorbitt透露,自己最近与一位负责GPT-6训练集群项目的微软工程师谈过,后者抱怨称,在跨区域GPU之间部署infiniband级别链接,实在是一件痛苦的事。Corbitt问到为何不将训练集群集中在同一区域,这位微软工程师回答,“哦我们已经尝试过那么做了,但是如果在一个州放置超过10万片H100GPU,电网就会崩溃。”

相关推荐

封面图片

OpenAI CEO和COO首次合体访谈:GPT-6将成为通用工具,未来AI成本将趋近零

OpenAICEO称,到了GPT-8时代,或许人们会惊叹于它所能完成的任务之广泛,甚至可能超出我们现在的想象。近日,OpenAI公司CEOSamAltman和COOBradLightcap一起接受了投资人播客VC20的访谈。这也是OpenAI成立8年多以来,Sam和Brad首次合体进行对外交流。采访中,Sam和Brad分享了他们的合作历程,从最初的兴趣和信念开始,共同推动AI技术的发展。Sam强调了深度学习的潜力和规模扩大带来的积极效应,而Brad则从投资的角度讲述了他对OpenAI的信心和对公司未来发展的期待。Sam认为,未来,计算成本将持续下降。他们(OpenAI)可以将非常高质量的AI技术成本降至接近零。不过,他也表示,未来5年,OpenAI最大的瓶颈可能会出现在供应链和计算资源方面。Sam同时称,目前的AI模型还不够聪明,人们在使用GPT-4进行科学研究时仍只停留在非常原始和有限的阶段,但他预见,到了GPT-6时代,人们将会把它视为一个能够在各个方面提供帮助的通用工具。而到了GPT-8时代,或许人们会惊叹于它所能完成的任务之广泛,甚至可能超出我们现在的想象。标签:#OpenAI#ChatGPT#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

NVIDIA 加速 Meta Llama 3 的推理

NVIDIA宣布对其所有平台进行优化,以加速最新一代大语言模型MetaLlama3。开源模型与NVIDIA加速计算相结合,使开发人员、研究人员和企业能够在各种应用程序中负责任地进行创新。接受过NVIDIAAI培训的Meta工程师在包含24,576个NVIDIAH100TensorCoreGPU(与RoCE和NVIDIAQuantum-2InfiniBand网络连接)的计算机集群上训练Llama3。在NVIDIA的支持下,Meta为其旗舰模型调整了网络、软件和模型架构。为了进一步推进生成式AI的最先进水平,Meta最近透露了将其基础设施扩展到350,000个H100GPU的计划。开发人员可以通过浏览器在ai.nvidia.com上试用Llama3。标签:#NVIDIA#Meta#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

GPT-4论文竟有隐藏线索:GPT-5或完成训练、OpenAI两年内接近AGI

GPT-4论文竟有隐藏线索:GPT-5或完成训练、OpenAI两年内接近AGI1.ARC(AlignmentResearchCenter)是一个非营利性研究机构,其使命是使未来的机器学习系统与人类利益保持一致。ARC的目标是训练AI模型,使其不会操纵、欺骗甚至伤害人类)。OpenAI曾经选择让ARC去测试评估GPT-4会不会主动避免自己被“挂掉”,说明此前必定出现过这种情况。OpenAICEOSamAltman认为人类需要对AI做更多的监管,以符合人类的利益。OpenAI担忧科技竞赛会导致安全标准的下降、不良规范的扩散、AI发展进程的加速,加剧与人工智能相关的社会风险。但是微软CEO和CTO希望OpenAI的模型能尽快让用户用起来。可以肯定的一点是OpenAI和微软在这件事的想法是相悖的。OpenAI雇佣了预测专家,来预测当他们部署了GPT-4之后会带来怎样的风险。“超级预测员”建议将GPT-4部署时间推迟6个月,也就是今年秋季左右;但很显然,OpenAI并没有采纳他们的建议。OpenAI这么做的原因,可能是来自微软的压力。2.OpenAI会协助超越它的公司:OpenAI做出了一个非常大胆的承诺:"如果另一家公司在我们之前实现了接近AGI(通用人工智能),那我们承诺不会跟它做竞争,相反,会协助完成那个项目。但这种情况发生的条件,可能是另一家公司需得在未来两年内,成功接近AGI的机会在一半或以上"而这里提到的AGI,OpenAI和Altam在官方博客中已经给出了定义——普遍比人类更聪明,并且有益于全人类的人工智能系统。3.GPT-4确实已经达到了人类的常识水平。博主在论文中找到了相关数据,在“人类”那一栏中,分数分布在了94-96.5之间。而GPT-4的95.3,便正好在这个区间之间。4.OpenAI在去年年底推出ChatGPT的时候,已经有了GPT-4。GPT-5可能已经完成训练5.像ChatGPT、GitHubCopilot这些工具导致某些工作的自动化。GPT-4的能力可以在某些特定领域中以人类10倍甚至更高的效率来完成。5.OpenAI让GPT-4学会拒绝的方法,叫做基于规则的奖励模型(RBRMs)。这种方法的工作流程:给GPT-4一组要遵守的原则,如果模型遵守了这些原则,那么就会提供相应的奖励。他认为OpenAI正在用人工智能的力量,让AI模型朝着符合人类原则的方向发展。()参考链接:[1]https://www.youtube.com/watch?v=ufQmq6X22rM[2]https://cdn.openai.com/papers/gpt-4.pdf投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

北京智源人工智能研究院林咏华:国内 AI 芯片的大模型训练性能与国外约有三年差距

北京智源人工智能研究院林咏华:国内AI芯片的大模型训练性能与国外约有三年差距北京智源人工智能研究院副院长、总工程师林咏华表示,当前中国AI芯片的大模型集群训练性能,只有个别接近英伟达A100/A800,大多数不到50%。此外是生态差距巨大,我国AI芯片公司有40余家,但中国AI芯片整体的市场占有率加起来不超过10%,各家AI芯片软件各异、生态十分零碎割裂。(蓝鲸记者黄心怡)

封面图片

微软Azure将向美国政府机构提供OpenAI的GPT-4 AI语言模型

微软Azure将向美国政府机构提供OpenAI的GPT-4AI语言模型即将发布的消息可能不会明确提及预计将采用该技术的美国政府机构,然而,彭博社认为,美国国防部、能源部和美国国家航空航天局有可能被包括在内,因为它们是利用微软Azure政府解决方案的联邦政府客户。此举使政府实体能够通过微软的AzureOpenAI服务访问OpenAI的两个大型语言模型,即最新的和强有力的GPT-4及其前身GPT-3。已经证实,国防技术信息中心(DTIC)--国防部专门负责组装和分发军事发现的部门--将通过微软的最新服务进行采用GPT模型的试验。根据彭博社最近阅读到的一篇博文,微软的政府客户可以利用OpenAI的LLMs完成大量的任务,如回答关键的研究查询、计算机代码生成和现场报告总结。Azure全球首席技术官WilliamChappell在帖子中透露了这个信息。尽管如此,该公司的代表指出,这些机构不能直接访问ChatGPT,尽管他们可以通过类似聊天的界面利用OpenAI的模型。微软已经指定了一个隔离的商业云计算空间来容纳OpenAI的模型。该区域与Azure政府客户利用的云不同,后者严格遵守各种安全和数据合规规定。根据Chappell的声明,传输到模型的数据仍在AzureOpenAI服务内,因为微软将它们托管在其Azure基础设施内。此外,还提到人工智能模型不会使用Azure政府客户的数据进行训练。...PC版:https://www.cnbeta.com.tw/articles/soft/1364065.htm手机版:https://m.cnbeta.com.tw/view/1364065.htm

封面图片

微软内部遭遇AI硬件短缺 被迫实施配额制

微软内部遭遇AI硬件短缺被迫实施配额制这种硬件短缺的现状还对微软的客户产生了影响:至少有一个客户表示,需要等待很长时间,才能使用已经通过微软Azure云服务提供的OpenAI软件。微软表示正在加紧添置更多硬件,以便增加AI计算能力,但如果速度不够快,就有可能限制其AzureOpenAI服务对新客户的吸引力。这些客户会借助此项服务将AI功能添加到自己的应用中。微软原本在这种新的AI工具的商业化方面已经领先于谷歌,但如果迟迟不能解决硬件短缺问题,这种优势也将难以发挥出来。谷歌抢在微软之前于本周发布了自己的AI辅助写作工具,包括能够根据简短的提示,在谷歌Docs和Sheets中自动编写文本的软件。服务器短缺正值OpenAI和微软试图快速扩大销售范围之际,客户可以使用自己的数据对这种AI软件进行微调,从而开发图片生成、文档总结、搜索引擎和聊天机器人等定制化AI工具。微软已经向OpenAI投资了数十亿美元,有权通过AzureOpenAI服务向创业公司销售软件。OpenAI也将软件直接授权给客户使用——而作为与微软合作的一部分,所有OpenAI机器学习模型都必须运行在Azure服务器上。这两项服务的定价相同,每次请求收费都不到一美分。这两家公司在过去3个月推出的服务吸引了企业用户的广泛兴趣,他们都希望将OpenAI的ChatGPT聊天机器人的底层技术整合到自家产品中。但是微软AzureOpenAI服务的新客户却要面临很长的等待时间。硬件资源短缺的核心问题在于,GPT-4等新的AI大模型需要在GPU上运行,这种服务器芯片可以一次性处理大量数据。为了处理这个模型的庞大计算需求,微软已将数万个GPU整合成一个个群集,分散到各个数据中心里。在明确用户需求量之前,微软目前不得不将现有的大量GPU资源预留给新的必应GPT-4聊天机器人和即将推出的GPT-4Office工具。知情人士表示,微软2月刚刚推出这项必应智能聊天功能,目前还在加紧测算平均每天有多少人愿意使用这项服务。知情人士表示,这就导致工程师很难预测该功能所需的计算资源。而即将推出的OfficeGPT-4工具也可能导致微软客户对OpenAI聊天机器人技术的需求大幅激增。这些新功能包括AI文档总结、个性化写作建议以及编辑建议等。其他从事AI开发的微软团队不得不让位于必应和Office,包括为各种机器学习模型的开发团队,其中就包括微软的图灵自然语言生成模型,它可以理解文本,之前曾为电子邮件和Office应用中的搜索工具提供底层技术。知情人士表示,当这些团队想要使用GPU开发新的AI工具或测试现有AI软件时,必须向一位公司副总裁提交特别申请,获批后才能使用硬件。知情人士称,有些申请需要等待几天甚至几周才能获批。自2022年末,微软就一直对内部的GPU资源实施配额供给,但1月以来的等待时间越来越长。微软发言人在声明中补充道,该公司正在为Azure等服务增加更多AI资源,并且遵循“优先满足客户需求并根据需求进行调整的流程”。他们还补充道,微软并不担心AI资源。至少有一个微软客户透露,他们也经历了延迟访问的问题。市场营销软件创业公司TouchCast创始人兼CEOEdoSegal说:“几乎不可能立刻使用程序”。Edo的公司正在为多家车企开发基于GPT的互动式用户手册,而这项技术正是通过微软Azure授权的。现有的AzureAI客户几乎未受影响。无人驾驶汽车开发商Cruise和AI搜索创业公司Perplexity的发言人都表示,他们在使用Azure的GPU资源时并未遇到困难。去年11月,微软和GPU生产商英伟达共同宣布,微软将新增数万个处理器来扩大AI处理能力,但目前还不清楚采购进度。这两家公司还在周一共同宣布,Azure的客户很快就能抢先使用英伟达的新款H100GPU——这款产品尚未广泛发布。而知情人士称,已经有少部分微软内部团队开始使用H100,但多数部门尚未获得这项权限。相关文章:微软将数万颗芯片串联成一台价格不菲的超级计算机用于OpenAI...PC版:https://www.cnbeta.com.tw/articles/soft/1349593.htm手机版:https://m.cnbeta.com.tw/view/1349593.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人