GPT-5倒计时 奥特曼踢走Ilya得逞 宫斗惊人内幕再曝光
GPT-5倒计时 奥特曼踢走Ilya得逞 宫斗惊人内幕再曝光 今天,奥特曼领衔的OpenAI全新的“安全与保障委员会”官宣成立。不仅如此,OpenAI预计,正在训练的下一代旗舰模型,将带领他们通往AGI的道路上迈向新的水平。OpenAI研究科学家,德扑之父发帖确认了新模型训练的消息。安全委员会的成立,下一代模型的布局,一切说明了OpenAI已非常接近AGI。虽然这是板上钉钉的官方实锤,但只是含糊不清地用了一句“前沿模型”,并没有确认会不会是GPT-5或者其他型号。模型官宣引起的讨论完全抢走了新成立安全委员会的风头(不知道是不是奥特曼故意安排的)。下一代模型全网大猜想GPT-4之后,全网对于OpenAI发布的下一代旗舰模型臆测了很久。不过,这一次,他们提到的前沿模型,究竟是什么?几天前,巴黎VivaTech科技活动上,OpenAI开发者体验负责人暗示了,今年一定会发新模型“GPT Next”,而且网友猜测预计在11月发布。大多数网友纷纷认定,这次可能就是GPT-5了。不过,又有人指出,在今年4月的时候,GPT-5早已开始了红队测试。这完全说明了GPT-5的训练早已完成,OpenAI正在研究的下一代前沿模型绝不可能是GPT-5。因此,他们训的是GPT-6无疑了。另一位爆料人Flowers更加确认了这一点,OpenAI当然没有刚开始训练GPT-5。同时,他还坚持表示,也不会有GPT-6。当有人问道,为什么这么确信OpenAI没有GPT-6时,Flowers首次透露出一个新奇的点子:“因为大模型的发展已经接近它们的极限”。尽管可以通过使用工具、增加功能、提升多模态能力,扩展上下文等方式来改进LLM,但这终将不是长久之计。但Reddit上有人发帖否认了GPT-5的猜想,甚至新模型应该不属于GPT家族,而是Q*,理由如下:- GPT-5从12月/1月就开始训练,大致是目前GPT-4o的底层架构,不可能再发布一次- 如果扩展到GPT-6,则需要储备更多的算力- 要真正实现LLM的逻辑推理和长期任务规划能力,就需要训练一个新模型来操作LLM,而OpenAI一直在研究Q*来解决这个问题楼主还提出了Q*方法的大致原理:- 先提出一个复杂的Agent任务- 让GPT生成数百万个潜在解决方案,以树状结构表达,树中每一个节点代表Agent推理的一个步骤- 让GPT对每个解决方案评分在已经有一个强大GPT模型的基础上,重复这个过程就能创建出一个庞大的数据集,用来训练新模型指导LLM完成长期的推理或规划任务。这种猜想甚至比GPT-5更激动人心,评论区就有人回复说“像Q*这样的东西即使不大,也能改变整个游戏”。也有评论力挺这种说法,因为OpenAI经常谈到Agent。现在可能无法使用内置的逻辑推理Agent来训练LLM,但用外置的新模型对LLM进行“指导”是可行的。算力体量有多大?下一代前沿模型虽未知,不过微软Build大会上,CTO Kevin Scott表示,微软正在为OpenAI打造“鲸鱼”级别的超算。当时训练GPT-3使用的是“鲨鱼”级的算力,GPT-4则用上了“虎鲸”级的算力。90天倒计时开始,全力打造AGI除了奥特曼本人,“安全与保障委员会”的董事会成员还有主席Bret Taylor、Adam D'Angelo、Nicole Seligman,共四个人。“安全与保障委员会”的首要任务将是,在接下来的90天内,评估改进OpenAI现有的AI安全和保障的流程措施。90天期满后,他们将与全体董事会提交一份报告。经过董事会的审查之后,OpenAI将公开分享所采纳的改进措施。因此,有理由得出结论,无论下一代“前沿模型”是什么,至少它在90天内不会发布。委员会中,除了董事会成员,还包括:OpenAI的技术和政策专家Aleksander Madry(Preparedness团队的负责人)、Lilian Weng(安全系统负责人)、John Schulman(对齐科学负责人)、Matt Knight(安全负责人)和Jakub Pachocki(首席科学家)。此外,OpenAI还聘请了外部网络安全和技术专家,比如Rob Joyce、John Carlin,来提供咨询意见。不搞“超级智能”奥特曼此前,曾对外公开宣称,OpenAI终极目标是打造一种比人类先进的“超级智能”。他甚至表示,2023年自己有一半的时间都在研究“如何打造超智能”。如今这一说法,却被另一位高管否认。OpenAI负责全球事务的副总Anna Makanju在接受FT采访中提到:我们的使命是打造AGI,并非是“超级智能”。因为超级智能是一种比地球上人类高出多个数量级的技术。不过,她还补充道,“AGI还不存在,我们在确保其安全前,不会发布这样的技术”。委员会并非独立一些人批评到,新的委员会完全由OpenAI的“自己的高管”组成,这意味着对该公司安全措施的评估,将不会是独立的。还有网友调侃道,这不都是由奥特曼本人组成的安全委员会。之所以出现这样的声音,是因为OpenAI董事会去年发动的政变,成为一直以来争议的来源。2023年11月,奥特曼被董事会解雇,理由是“他并不坦诚”。而最近,由两名前董事会成员在TIME期刊上撰写的文章中,更是对奥特曼对OpenAI的治理提出了严厉的批评。她们表示,Ilya和其他安全对齐团队人员的离开,预示着OpenAI“自治实验”的前景不妙。团队重组在Ilya Sutskever和负责人Jan Leike离职后,许多人愈加担忧,OpenAI如何管理类AGI技术的潜在危险。彭博称,Ilya走后,OpenAI将他原先团队中剩余的成员,整合到了更大的研究部门,而不是保留独立的形式。与此同时,OpenAI联创John Schulman也在负责监管超级对齐研究。作为职务的扩展,他被授予了一个新头衔对齐科学负责人(Head of Alignment Science)。OpenAI宫斗内幕曝光与此同时,针对奥特曼的舆论还在持续发酵。前董事会成员Helen Toner在最近的播客频道TED AI Show上揭露了一些2023年底OpenAI“宫斗风波”的情况。她解释了董事会决定罢免奥特曼的原因隐瞒信息,歪曲事实,公然向董事会撒谎。比如2022年底ChatGPT发布时,董事会完全没有得到消息,而是在Twitter上才第一次看到。此外,他一直宣称自己在公司中没有任何经济利益,从没有告知董事会他拥有OpenAI启动基金。奥特曼在AI安全方面的表现也让Toner不安,因为他只会向董事会透露“关于公司正在实施安全流程的少量、不准确的信息”。这意味着,董事会没有办法获知这些流程的真实情况,更无从实行有效的监督和指导。而且,当她的论文中包含了对奥特曼的负面评价时,他开始不择手段,试图将Toner赶出董事会。结合此前Twitter网友历数的“七宗罪”,奥特曼带领下的安全团队,真的能让下一代模型安全可靠吗? ... PC版: 手机版:
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人