OpenAI CEO:巨型AI模型时代即将终结 想进步别再靠扩大规模

OpenAICEO:巨型AI模型时代即将终结想进步别再靠扩大规模近年来,OpenAI通过将现有的机器学习算法扩展到以前无法想象的规模,在处理语言方面取得了一系列令人印象深刻的进步。其最近开发的项目是GPT-4,据称已经使用数万亿字的文本和数千个强大的计算机芯片进行训练,耗资超过1亿美元。但是,奥尔特曼表示,未来AI的进步不再依赖于将模型变得更大。在麻省理工学院的一次活动上,他说:“我认为,我们正处在一个时代的尽头。在(即将过去的)这个时代,模型变得越来越大。现在,我们会在其他方面让它们变得更好。”奥尔特曼的表态意味着,开发和部署新AI算法的竞赛出现了出人意料的转折。自去年11月推出ChatGPT以来,微软就开始利用这一底层技术在其必应搜索引擎中添加了聊天机器人,谷歌也推出了名为Bard的竞争对手。许多人都迫不及待地尝试使用这种新型聊天机器人来帮助完成工作或个人任务。与此同时,许多资金充足的初创公司,包括Anthropic、AI21、Cohere和Character.AI等,正在投入大量资源用于构建更大的算法,以努力赶上OpenAI的脚步。ChatGPT的初始版本是基于GPT-3构建的,但用户现在也可以访问功能更强大的GPT-4支持的版本。奥尔特曼的陈述也暗示,采用将模型扩大并提供更多数据进行训练的策略后,GPT-4可能是OpenAI最后一项重大成果。不过,他没有透露任何可能替代当前方法的研究策略或技术。在描述GPT-4的论文中,OpenAI表示,其估计表明,扩大模型规模的回报正在减少。奥尔特曼说,该公司可以建立的数据中心数量以及建设这些中心的速度也都受到物理限制。Cohere的联合创始人尼克·弗罗斯特(NickFrosst)曾在谷歌从事人工智能研究,他表示,奥尔特曼所说的“不断扩大模型规模并不是无限制的有效解决方案”是正确的。他认为,针对GPT-4和其他transformers类型(编辑组:transformers直译为转换器,而GPT是Generativepre-trainedtransformers的简写,意思是基于转换器的生成式预训练模型)的机器学习模型,进展不再只是靠扩大规模。弗罗斯特补充说:“有很多方法可以让transformers变得更好、更有用,而且很多方法都不涉及给模型增加参数。新的人工智能模型设计或架构,以及基于人类反馈的进一步调整,都是许多研究人员已经在探索的前进方向。”在OpenAI的语言算法家族中,每个版本都由人工神经网络组成,这个软件的设计灵感来自于神经元之间相互作用的方式,经过训练后,它可以预测应该跟随在给定文本字符串后面的单词。2019年,OpenAI发布了其第一个语言模型GPT-2。它最多涉及到15亿个参数,这一指标能够衡量神经元之间可调整的连接数量的大小。这个数字非常大,这在某种程度上要归功于OpenAI研究人员的发现,扩大规模使模型变得更加连贯。2020年,OpenAI推出GPT-2的后继者GPT-3,该模型规模更大,参数高达1750亿个。GPT-3在生成诗歌、电子邮件和其他文本方面具备广泛能力,这令其他公司和研究机构相信,他们可以将自己的AI模型扩展到与GPT-3类似甚至更大的规模。去年11月,ChatGPT首次亮相后,表情包制造者和科技专家猜测,当GPT-4问世时,它将是个拥有更多参数、更为复杂的模型。然而,当OpenAI最终宣布新的人工智能模型时,该公司没有透露它有多大,也许是因为规模不再是唯一重要的因素。在麻省理工学院的活动上,奥尔特曼被问及GPT-4的培训成本是否有1亿美元,他回答说:“不止如此。”尽管OpenAI对GPT-4的规模和内部工作原理保密,但很可能它已经不再仅仅依赖于扩大规模来提高性能。有一种可能性是,该公司使用了名为“强化学习与人类反馈”的方法,用于增强ChatGPT的能力,包括让人类判断模型答案的质量,以引导它提供更有可能被判断为高质量的答案。GPT-4的非凡能力让许多专家感到震惊,并引发了关于AI改变经济潜力的辩论,以及其可能传播虚假信息和制造失业的担忧。许多企业家和AI专家最近签署了一封公开信,呼吁暂停开发比GPT-4更强大的模型6个月,其中包括特斯拉首席执行官埃隆·马斯克。在麻省理工学院的活动中,奥尔特曼证实,他的公司目前没有开发GPT-5。他补充说:“这封公开信的早期版本声称OpenAI正在训练GPT-5。实际上我们并没有这样做,短期内也不会。”(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1355341.htm手机版:https://m.cnbeta.com.tw/view/1355341.htm

相关推荐

封面图片

OpenAI 透露未来路线图:开源GPT-3、翻倍模型规模、整更多GPU

OpenAI透露未来路线图:开源GPT-3、翻倍模型规模、整更多GPUOpenAICEOSamAltman与AI开发平台HumanLoop创始人RazaHabib等20多位开发者开展了一次闭门讨论会,透露了OpenAI很多未来规划与目前的情况。1.OpenAI正在考虑开源GPT-3,他们之所以还没有开源是因为他们觉得没多少人和公司有能力妥善管理如此大型的大语言模型。2.OpenAI严重受限于GPU,导致他们推迟了许多短期计划,大部分关于ChatGPT可靠性和速度的问题都是由于GPU资源短缺造成。3.给GPT-4降本提效是OpenAI当前的首要任务。4.更长的ChatGPT上下文窗口(最高可达100万tokens)。5.GPT-4的多模态功能要到2024年才会公开,在获取更多GPU资源前不能将GPT-4的视觉版本扩展到所有人。6.最近很多文章声称的「巨型AI模型的时代已经结束」并不正确,OpenAI内部数据表明,规模与性能成正比的定律仍成立,OpenAI未来每年会将模型规模翻倍或三倍(多方信息表明GPT-4参数规模10000亿)。https://humanloop.com/blog/openai-plans频道:@TestFlightCN

封面图片

OpenAI CEO:公司目前没有训练GPT-5 短期内也不会训练

OpenAICEO:公司目前没有训练GPT-5短期内也不会训练最近在科技界流传的一封公开信,要求像OpenAI这样的实验室暂停开发“比GPT-4更强大”的AI系统。这封信强调了对未来AI系统安全性的担忧,但也遭到了许多业内人士的批评,包括一些签署者。专家对人工智能威胁的性质存在分歧,以及行业如何去“暂停”开发。在MIT的演讲中,奥尔特曼表示,这封公开信“缺少大部分技术细节,无法了解需要暂停的地方”,并指出其早期版本曾声称OpenAI目前正在训练GPT-5。“我们现在没有训练,也短期内不会训练GPT-5,”奥尔特曼说,“所以从这个意义上说,这封信有点儿愚蠢。”然而,OpenAI没有在训练GPT-5并不意味着它没有在拓展GPT-4的能力。奥尔特曼强调,他们也在考虑这项工作的安全性问题。“我们正在GPT-4之上开展其他工作,这些工作涉及到安全问题。但这些问题在信中被完全忽略了。”他说道。不过美媒认为,奥尔特曼确认目前没有开发GPT-5并不能安抚那些担心AI安全的人们。OpenAI仍在扩展GPT-4的潜力(例如将其连接到互联网),而行业中的其他人正在构建同样雄心勃勃的工具。而优化GPT-4之后,OpenAI可能会先发布GPT-4.5(就像它发布GPT-3.5一样)...PC版:https://www.cnbeta.com.tw/articles/soft/1354835.htm手机版:https://m.cnbeta.com.tw/view/1354835.htm

封面图片

OpenAI CEO 最新演讲:GPT-5 性能远超 GPT-4,保持迭代部署很重要

OpenAICEO最新演讲:GPT-5性能远超GPT-4,保持迭代部署很重要4月25日,OpenAI联合创始人兼首席执行官萨姆・奥尔特曼(SamAltman)在斯坦福大学发表演讲,提及AGI(通用人工智能)发展、OpenAI的迭代节奏等。有消息称,这场演讲在英伟达礼堂进行,超一千人在门口排队,热度颇高。"GPT-5会更加智能,这将是历史上最令人瞩目的事件之一。"在一段流出的视频中,奥尔特曼表示,以高度的科学确定性来说,GPT-5将比GPT-4智能很多,GPT-6将比GPT-5智能很多,而我们远未触及极限。此前OpenAI已推出GPT-3.5和GPT-4。对于OpenAI的产品迭代,奥尔特曼认为尽早且频繁推出AI产品,保持迭代部署非常重要,即便现在看来ChatGPT还有点令人尴尬,GPT-4还显得愚蠢。要让社会为技术进步做好准备,依赖于迭代部署。(第一财经)

封面图片

OpenAI CEO:GPT-4“有点糟糕”,今年将推出新模型

OpenAI首席执行官SamAltman在与LexFridman的访谈中表示,他们公司的人工智能模型GPT-4其实“有点糟糕”,Altman更期待即将到来的GPT-5能够真正配得上大家的期待。“我认为它有点糟糕,”当被问及GPT-4及其最令人印象深刻的能力时,Altman说道,“展望未来几年,我们应该意识到我们现在拥有的工具将来看来会非常落后,这正是鞭策我们不断进步、创造更美好的未来的动力。”“别误会,我既不想贬低GPT-4的成就,也不想夸大其词,”阿尔特曼说,“正因我们正处于指数级发展的曲线上,所以很快我们就会像现在看待GPT-3一样看待GPT-4。”Altman认为GPT-4存在“令人惊鸿一瞥的闪光点”,但他指出其最佳用途通常是作为头脑风暴的伙伴,ChatGPT在处理复杂的多步骤问题时几乎没什么用处。当它确实有效时,那种感觉确实神奇,但这种情况少之又少。Altman还指出,他们今年将推出新的模型,不是GPT-5,不过他并未具体说明其名称,只是表示在GPT-5之前还有其它重要的东西需要推出。via匿名标签:#OpenAI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

【Sam Altman:开源GPT-3、降低GPT-4的成本、翻倍模型规模】

【SamAltman:开源GPT-3、降低GPT-4的成本、翻倍模型规模】2023年06月01日07点48分6月1日消息,AI开发平台HumanLoop创始人RazaHabib与OpenAI首席执行官SamAltman等20多位开发者开展了一次闭门讨论会,SamAltman透露了很多关于OpenAI的未来规划与目前遇到的情况。具体有:1.OpenAI目前严重受限于GPU,导致他们推迟了许多短期计划,大部分关于ChatGPT可靠性和速度的问题都是由于GPU资源短缺造成。2.给GPT-4降本提效是OpenAI当前的首要任务。3.更长的ChatGPT上下文窗口(最高可达100万个tokens)。将来会有一个记住对话历史记录的API版本。4.GPT-4的多模态功能要到2024年才会公开,在获取更多GPU资源前不能将GPT-4的视觉版本扩展到所有人。5.OpenAI正在考虑开源GPT-3,他们之所以还没有开源的部分原因是因为他们觉得没多少人和公司有能力妥善管理如此大型的大语言模型。6.最近很多文章声称的“巨型AI模型的时代已经结束”并不正确,OpenAI内部数据表明,规模与性能成正比的定律仍成立,OpenAI的模型规模每年可能会增加一倍或三倍(多方信息表明GPT-4参数规模10000亿),而不是增加许多数量级。

封面图片

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类

OpenAI探索用GPT-2小模型监督GPT-4大模型,防止AI毁灭人类Ilya领衔的OpenAI对齐团队,发表了——用类似GPT-2监督GPT-4的方法,或可帮人类搞定自己更聪明的超级AI!团队声称,已经发现了对超人类模型进行实证对齐的新研究方向。未来超级AI系统对齐的一个核心挑战——人类需要监督比自己更聪明人工智能系统。来源,频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人