【有人预测GPT-4长这样:比GPT-3略大、纯文本、更注重最优计算与对齐】或许GPT-4的规模会比GPT-3略大,但“大”不会

None

相关推荐

封面图片

【Sam Altman:开源GPT-3、降低GPT-4的成本、翻倍模型规模】

【SamAltman:开源GPT-3、降低GPT-4的成本、翻倍模型规模】2023年06月01日07点48分6月1日消息,AI开发平台HumanLoop创始人RazaHabib与OpenAI首席执行官SamAltman等20多位开发者开展了一次闭门讨论会,SamAltman透露了很多关于OpenAI的未来规划与目前遇到的情况。具体有:1.OpenAI目前严重受限于GPU,导致他们推迟了许多短期计划,大部分关于ChatGPT可靠性和速度的问题都是由于GPU资源短缺造成。2.给GPT-4降本提效是OpenAI当前的首要任务。3.更长的ChatGPT上下文窗口(最高可达100万个tokens)。将来会有一个记住对话历史记录的API版本。4.GPT-4的多模态功能要到2024年才会公开,在获取更多GPU资源前不能将GPT-4的视觉版本扩展到所有人。5.OpenAI正在考虑开源GPT-3,他们之所以还没有开源的部分原因是因为他们觉得没多少人和公司有能力妥善管理如此大型的大语言模型。6.最近很多文章声称的“巨型AI模型的时代已经结束”并不正确,OpenAI内部数据表明,规模与性能成正比的定律仍成立,OpenAI的模型规模每年可能会增加一倍或三倍(多方信息表明GPT-4参数规模10000亿),而不是增加许多数量级。

封面图片

SamAltman透露OpenAI未来路线图:开源GPT-3、降低GPT-4的成本、翻倍模型规模

封面图片

OpenAI正式推出GPT-4 提供文本图像综合访问能力

OpenAI正式推出GPT-4提供文本图像综合访问能力在一系列领域--包括带有文字和照片、图表或屏幕截图的文件--GPT-4表现出与纯文本输入类似的能力。此外,它还可以使用为纯文本语言模型开发的测试时间技术,包括少数几个镜头和思维链提示。坏消息是,图像输入目前还没有向公众开放,因为它们处于"研究预览"模式。目前还没有关于何时能普遍使用的消息。新版本还将允许用户改变GPT-4答案的语气,博文指出:与经典的ChatGPT个性的固定言辞、语气和风格不同,开发者(以及很快ChatGPT用户)现在可以通过在"系统"消息中描述这些方向来规定他们的人工智能的风格和任务。系统消息允许API用户在一定范围内大幅定制他们的用户体验。该博客还展示了一些性能图表来说明GPT-4的改进。在一个案例中,OpenAI让聊天机器人参加了一些模拟考试。我们通过使用最新的公开测试(就奥林匹克数学和AP自由回答问题而言)或购买2022-2023年版本的练习考试来进行,我们没有为这些考试做专门的培训。上图显示,与GPT-3.5相比,GPT-4在大多数情况下提供的考试成绩要好得多与以前的版本一样,GPT-4在获取更多的最新科目信息方面是有限的,因为它只能回溯到2021年9月。OpenAI还表示,新版本"相对于以前的模型,大大减少了信口开河的现象",但它"并不完全可靠"。如果他们注册了一个等待名单,GPT-4的API目前可供开发者使用,普通人如果注册了ChatGPTPlus,就可以在有限的基础上访问GPT-4,该费用为每月20美元。博文提到,OpenAI可能会推出另一个订阅级别,允许更多的人访问。...PC版:https://www.cnbeta.com.tw/articles/soft/1349447.htm手机版:https://m.cnbeta.com.tw/view/1349447.htm

封面图片

比尔·盖茨:GPT-5不会比GPT-4好多少 生成式AI已达到极限

比尔·盖茨:GPT-5不会比GPT-4好多少生成式AI已达到极限(不过他也承认自己可能是错的)不知道盖茨看到了多少OpenAI内部未公开的信息,但至少可以肯定的是,GPT-5已经在开发了。在上周的风波之前,奥特曼也在接受英国《金融时报》采访时也承认了这一点,不过他没有透露任何发布时间表。另外GPT-5的商标也由OpenAI的运营子公司早早在各国申请好。盖茨更看好Agent关于GPT-5,奥特曼曾透露它需要更多数据进行训练,数据将来自互联网上公开可用的数据集以及公司的专有数据的组合。OpenAI最近呼吁其他组织提供大规模数据集,这些数据集“目前还无法方便地向公众在线访问”,特别是任何格式的长篇写作或对话。虽然GPT-5可能比其前身更加复杂,但奥特曼表示,从技术上来说很难准确预测该模型可能具有哪些GPT-4没有的新功能。“在我们训练该模型之前,这对我们来说就像一个有趣的猜谜游戏。”在盖茨看来,AI的幻觉问题几年内将大幅改善,成本也会快速下降,从而使新的、可靠的应用程序成为可能。但能力已经达到上限,不会再有像GPT-2到GPT-4那样重大的飞跃。那么下一个突破会是什么?盖茨认为是可解释AI,但预计要到下一个十年(2030-2039)才能实现。另外他还表示英伟达在AI芯片上并没有占据绝对优势,微软Google亚马逊包括OpenAI自己都在开发或考虑开发自己的AI芯片。好,那么问题来了——如果盖茨对GPT-5这条路径没那么有信心的话,现在的AI发展路,他又看好哪一条呢?答案是:AIAgent。这倒不是什么秘密。这个月初,盖茨就写了篇博客,主要阐述“个人AIAgent将如何彻底改变人们使用计算机的方式”。那篇博文中,他明确写道,AIAgent将带来科技行业和社会的冲击波。具体而言盖茨是这样说的:在不久的将来,任何网民都可以拥有一个AIAgent,这远远超出了今天技术所达到的范围。Agent能在生活里的任何地方发挥作用,对软件业务乃至社会产生深远影响。以及这并不是盖茨第一次公开为AIAgent站台。今年5月一次关于AI的活动中,盖茨就在接受采访时预言,第一家开发AIAgent的公司一定会在竞争对手中占有一席之地。原因是AIAgent会对搜索引擎带来致命一击,有了Agent这么全能的东西,还要啥搜索网站、生产力网站、亚马逊啊,这些到时候都会被网民们抛之九霄云外。而且,盖茨对Agent的看好不仅是嘴上说说而已。6月的时候,盖茨和英伟达、微软、里德·霍夫曼(Linkedin联创)和埃里克·施密特(Google前CEO),一起投资了AI独角兽InflectionAI。InflectionAI的三位联创除了“我投我自己”的霍夫曼以外,还有两位DeepMind出身的大佬。不过这次投资显然不仅仅是冲着创始人押注,重点还是InflectionAI到底在做什么——一款名为Pi的个人AI助理。Pi也能帮助搜索或回答问题,但它的主打功能是情感陪伴,对比ChatGPT和Claude等更口语化,也更个人化,“用户和Pi交流时就感觉是在和身边亲友聊天一样”。说实话,Pi虽然以高情商闻名,但背后技术和实际体验距离盖茨想象中的那种AIAgent还相差甚远。但盖茨说了,他30年前就在思考智能体这玩意儿,还写在了自己1995年出版的《未来之路》里。只不过受限于AI技术的发展,直到最近,才看到类似Pi这样的新手村之光。“Agents不只会改变每个人与计算机交互的方式。”盖茨还在博文里写道,“Agents会颠覆软件行业,这将是从输入命令到点击图标之后,最大的计算革命。”在盖茨的畅想中,只要你愿意,Agent就能帮助你完成任何事情。在盖茨眼中,AI不会夺走你的工作,但它可以让未来人们每周只工作3天成为可能。此外摩根大通CEOJamieDimonye也预测,由于人工智能,下一代工人每周的工作时间将仅为3.5天。OneMoreThing不过也别沉浸在盖茨说的一周三天工作制的喜悦中。虽然盖茨经常发表的未来的看法,但他并不以预言准确著称。每到这个时候,就会有网友翻出他当年的“640K内存对任何人来说都够用了”、以及“我认为未来10年互联网的商业潜力微乎其微”。参考链接:[1]https://www.handelsblatt.com/technik/ki/bill-gates-mit-ki-koennen-medikamente-viel-schneller-entwickelt-werden/29450298.html[2]https://www.reddit.com/r/MachineLearning/comments/183tft1/bill_gates_told_a_german_newspaper_that_gpt5/[3]https://www.gatesnotes.com/AI-agents...PC版:https://www.cnbeta.com.tw/articles/soft/1400113.htm手机版:https://m.cnbeta.com.tw/view/1400113.htm

封面图片

使用ChatGPT审计代码发现了200多个安全漏洞(GPT-4与GPT-3对比报告)

封面图片

GPT-3计划开源 Sam Altman自曝急缺GPU GPT-4多模态能力2024年开放

GPT-3计划开源SamAltman自曝急缺GPUGPT-4多模态能力2024年开放许多网友纷纷表示,我喜欢Altman的坦诚。值得一提的是,GPT-4的多模态能力,2024年应该大部分Plus用户就能上手了,前提还是有足够GPU才行。微软老大哥斥资12亿美元给OpenAI建的超算,还远远无法满足GPT-4运行时所需的算力。毕竟,GPT-4参数据称有100万亿。另外,Altman还透露,GPT-3也在OpenAI的开源计划之中。不知道是不是这次采访内容透露了太多OpenAI的“机密”,源文稿目前已被删除,快点码了。划重点最新访谈,是来自AI开发平台Humanloop的首席执行官RazaHabib主持,采访了Altman以及其他20位开发人员。这次讨论涉及到实际的开发者问题,以及与OpenAI的使命和AI的社会影响相关的更大的问题。以下是关键要点:1.OpenAI急缺GPU2.OpenAI的近期路线图:GPT-4多模态2024年开放3.通过API访问ChatGPT插件近期不会发布4.OpenAI只做ChatGPT这一“杀手级应用”,目标是让ChatGPT成为一个超级智能的工作助手5.GPT-3在开源计划中6.模型性能的缩放法则继续有效接下来,将从6大点介绍SamAltman究竟说了啥。OpenAI目前严重依赖GPU采访的一切话题都是围绕,“OpenAI太缺GPU了”。这已经拖延了他们许多的短期计划。目前,OpenAI的许多客户都在抱怨API的可靠性和速度。SamAltman解释道,主要还是GPU太缺了。OpenAI是英伟达DGX-1超算首位客户至于,支持32ktokens的上下文长度还不能推出给更多的人。由于OpenAI还没有克服技术上的障碍,看起来他们似乎今年就会有支持100k-1Mtokens的上下文,但需要在研究上取得突破。微调(Fine-Tuning)API也目前受到GPU可用性的限制。OpenAI还没有使用像Adapters或LoRa这样的高效微调方法,因此微调对于运行和管理来说是非常计算密集型的。不过,未来他们将对微调提供更好的支持。甚至,OpenAI可能会托管一个社区贡献的模型市场。最后,专用容量提供也受到GPU可用性的限制。今年年初,网友爆出OpenAI正在悄悄推出一个新的开发者平台Foundry,让客户在专用容量上运行该公司的新机器学习模型。这一产品就是“为运行较大工作负载的尖端客户设计”。要使用这项服务,客户必须愿意预付$100k的费用。然而,从透露的图片信息可以看出,实例并不便宜。运行GPT-3.5的轻量级版本,3个月的委托将花费78,000美元,一年将花费264,000美元。从另一侧面也可以看出,GPU消耗价格不菲。OpenAI近期路线图Altman分享了OpenAIAPI的暂定近期路线图:2023:·又快又便宜的GPT-4ーー这是OpenAI的首要任务。总的来说,OpenAI的目标是,尽可能地降低“智能成本”。因此他们将努力继续降低API的成本。·更长的上下文窗口ーー在不久的将来,上下文窗口可能支持高达100万个tokens。·微调API——微调API将扩展到最新的模型,但具体的形式将取决于开发人员真正想要的是什么。·有记忆的APIーー目前大部分token被浪费在上文的传输中,将来会有一个能够记住对话历史的API版本。2024:·多模态能力ーーGPT-4发布时曾演示了强大的多模态能力,但是在GPU得到满足之前,这一功能还无法拓展到所有人。插件“没有PMF”,短期内不会出现在API中许多开发者对通过API访问ChatGPT插件非常感兴趣,但Sam表示这些插件不会很快发布。“除了Browsing外,插件系统还没有找到PMF。”他还指出,很多人想把他们的产品放到ChatGPT里,但实际上他们真正需要的是把ChatGPT放到他们的产品里。除了ChatGPT,OpenAI不会发布更多产品OpenAI的每一次动作,都让开发者们抖三抖。不少开发人员表示,OpenAI可能发布与他们竞争的产品的时候,对使用OpenAIAPI构建应用感到紧张。而Altman表示,OpenAI不会在ChatGPT之外发布更多的产品。在他看来,伟大的公司有一个“杀手级应用”,ChatGPT就是要做这个创纪录的应用。ChatGPT的愿景是成为一个超级智能的工作助理。OpenAI不会触及到更多其他GPT的用例。监管是必要的,但开源也是必要的虽然Altman呼吁对未来模型进行监管,但他并不认为现有的模型是危险的。他认为,监管或禁止现有模型将是一个巨大的错误。采访中,他重申了自己对开源重要性的信念,并表示OpenAI正在考虑将GPT-3开源。而现在,OpenAI还没有开源的部分原因是,他对有多少个人和公司有能力托管,和提供大模型表示怀疑。模型性能“缩放法则”仍有效近来,许多文章声称,巨型人工智能模型的时代已经结束。然而,并没有准确反应Altman原意。OpenAI的内部数据表明,模型性能的缩放法则(scalinglaws)仍然有效,让模型变大将继续产生性能。不过,缩放的速度不能维持,因为OpenAI在短短几年内已经将模型扩大了数百万倍,未来这样做将不可持续。这并不意味着OpenAI不会继续尝试使模型更大,只是意味着它们可能每年只会增加1倍/2倍,而不是增加多个数量级。缩放法则继续有效的事实对AGI开发的时间线有重要的影响。缩放假设是我们可能已经有了构建AGI所需的大部分部件,剩下的大部分工作将是将现有的方法扩展到更大的模型和更大的数据集。如果缩放的时代结束了,那么我们可能应该预期AGI会更远。缩放法则继续有效强烈暗示了实现AGI时间线会变短。网友热评有网友调侃道,OpenAI:必须通过法规来保护我们的护城河。还是OpenAI:Meta在我们的护城河里撒尿,让我们也暗示一下我们的模型要开源吧。还有人称,如果GPT-3真的开源了,像LLMa一样,需要大约5天的时间在M1芯片上就能运行了。社区开发人员能够帮OpenAI解决GPU瓶颈,前提是他们开源模型。没几天,开发者们就能让其运行在CPU和边缘设备。GPU短缺一事,有人认为是OpenAI资金链出了问题,买不起。然而还有人称,明显是缺乏供应。除非芯片制造业发生革命,否则相对于消费GPU来说,可能总是会出现供应不足的情况。还有网友怀疑,英伟达的价值还是被低估?计算需求的阶梯式变化可能持续数年...英伟达刚刚加入万亿美元俱乐部,这样说来,无限的算力需求或许会成就一个世界超越2万亿美元的芯片厂。...PC版:https://www.cnbeta.com.tw/articles/soft/1363187.htm手机版:https://m.cnbeta.com.tw/view/1363187.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人