联合创始人Greg最新采访:为什么OpenAI最先做出GPT-4?

联合创始人Greg最新采访:为什么OpenAI最先做出GPT-4? 纵观颠覆性技术的发展史,一个领域的主导者从来无法在下一个时代的平台上继续称雄,因为它们的成功会成为它们最大的桎梏。事实仿佛真的如此。即便Google疯狂自证在 AGI 领域的实力,但却只能在 OpenAI 身后追赶。为什么大企业无法创新?为什么是 OpenAI 首先开发出像 GPT-4 这样强大的模型?即使像 Google、Meta 有那么雄厚的资本,那么多人才储备也没有做到?5 月 15 日,可汗学院(Khan Academy)的 CEO 兼创始人萨尔曼・可汗(Sal Khan)对 OpenAI 联合创始人兼总裁格雷格・布罗克曼(Greg Brockman)进行了一段采访,这段采访或许能够帮助我们找到答案。研究与工程并重OpenAI 日前向公众揭秘了 Omni 团队,团队成员年龄和司龄的年轻化,以及团队管理的扁平化引发了网友热议。其实在成员组合方面,也“暗藏玄机”。OpenAI 的团队不仅有学术背景的研究型人才,同时还有优秀的工程人才,这种组合使他们能够从不同的角度解决问题,更有效地推动项目进步。Khan 询问 Brockman“你们认为自己做了什么才能达到如今的地位?在这个领域,有许多人在努力工作,也有许多资源雄厚的大型组织。你们认为自己做了什么与众不同?是因为你们的方法不同,还是有其他原因?”Greg Brockman 坦言“这是个很好的问题。我认为我们是更大趋势或历史的一部分。回顾过去 70 年的计算机发展史,我们经历了指数级的增长。”“2000 年,Ray Kurzweil 曾经说过,看看计算能力,它会告诉你什么是可能的。这就是推动进步的动力。起初大家都认为他疯了,但现在我相信大家基本上都认同他的观点。”Ray Kurzweil“想想我们为了实现像 GPT-4 这样的项目,付出了多少工程上的努力,从计算基础设施到使用的所有数据集和工具,这其实是全人类在很多方面的巨大努力。”“具体来说,我们能取得这些成就,是因为我们聚集了来自研究和工程背景的优秀人才。”“当我们开始这个项目时,让我感到非常有趣的是观察其他实验室的工作方式。你会发现,大多数实验室以研究为主,研究型工程师被告知要做什么,而研究科学家则可以随心所欲。”“这种方式似乎并不是实际构建一个工作系统的方法,更像是为了追求论文引用数量。如果你真的想产生影响并开发出有用的东西,你需要以不同的方式来组织团队。”“虽然说起来很简单,但实际上,这涉及到很多相互冲突的思维方式,特别是当你来自不同背景时。”我们必须尽力去解决这些问题,虽然你永远不能完全解决它们,但可以不断进步并挑战更复杂的版本。这就是我们需要勇于面对困难、勇于挑战的地方。」不会因为风险的存在而止步不前建立造福人类的 AGIGreg Brockman 第一次对人工智能的概念感到兴奋,是在他读到阿兰・图灵(Alan Turing)1950 年发表的关于图灵测试的论文的时候。他想看看,我们是否能够真正制造出图灵所说的那种机器,一种人类水平的智能,也就是我们所说的 AGI,并让它造福于全人类。这是 OpenAI 诞生的缘起,也是它的使命和愿景。为了这个目标,OpenAI 已经工作了 8 年。在这期间,OpenAI 一直在做同样的事情 建立更大的神经网络,让它更有能力,更协调、更安全,与此同时,部署这项技术,并使其发挥作用。Greg Brockman 称“这就是我认为这项技术最吸引我的地方,每走一步,你都能真正产生影响,真正开始造福人类。你会看到你所建立的东西带来的好处,并真正学会如何减少所有的不利因素。”迎战新的风险当 Khan 问及 AI 的安全性问题,Brockman 这样回答“AI 的安全问题有着悠久的历史,早在 50-60 年代,阿瑟・克拉克这样的人就在谈论这个问题。”《2001:太空漫游》作者阿瑟・克拉克“我认为,对 AI 拥有这种复杂的情感是非常正确的,我们既要对任何新事物感到惊奇,又要问这是要去哪里,哪里会有陷阱?我认为只有这样,我们才能正确地在这个空间里航行。”Brockman 提到,一件非常有趣的事情是,AI 是如何变得看起来“令人惊讶”的?在 90 年代,每个人都认为,如果 AI 可以下棋,就说明进入了 AGI 时代,但实际上,这只是我们要解决的第一件事情,AI 学会下棋并没有让我们真正走得更远。安全性问题也是一样。并不是说对 AI 安全的前瞻性的担忧一定不会发生,但 Brockman 认为,我们在错误的事情上过于自信了。他举了一个例子:对于 GPT-3,OpenAI 只是在基础数据集上进行训练后就将其发布,而对于 GPT-4,团队则对模型进行了调整,尽力消除偏见。事实上 OpenAI 在 2017 年就开始开发这项技术,当时这些模型还没有出现。现在,GPT-4 带来了一类新的风险,未来还会出现更多新的风险。风险和益处将会并存,关键是如何学会如何面对这种风险。在实践中学习当我们在思考 GPT 对教育领域的影响的时候,一些人可能会首先注意到抄袭的问题,Brockman 也承认让学生独立思考非常重要。但是“对于那些无法获得出色的教育工具的人来说,ChatGPT 是一个工具。教师可以根据自己的喜好,帮助学生进行某种工作并填补教育人员无法做到的空白。”至于如何制定规则,如何将这项技术融入教育,则需要“获得大量的意见,与大量的教育工作者接触。OpenAI 不是这项事业唯一的决定者,从每个人那里获得广泛的意见很重要。”“我们为了实现真正的益处,和一线的教育工作者交谈,真正弄清楚他们想要什么。”我们还需要“真正展示积极面”。一旦你有了一个有效的正面例子,就很容易围绕它建立标准,如果没有这个,那么就相当于“在黑暗中开枪”。就像采访者 Khan 谈到的,ChatGPT 对教育的影响取决于怎样使用,比方说我们可以用它来采访历史人物、练习辩论技巧等。更多正面使用的案例和经验需要在实践中获得。去年 OpenAI 发布了一篇关于部署语言模型安全标准的博客文章,这篇文章的形成用了 2 年的时间。Brockman 告诉 Khan“这种从实践中学习的迭代部署,是我们现在可以做的最重要的事情”。每个人都可以获得 AI 的“超能力”人工智能究竟会削弱人类能力,还是增强人类能力?Brockman 和 Khan 都站在人工智能会增强人类能力的这一边。Brockman 乐观地说“现在,拥有一部智能手机就可以开始以一种方式进行创作,而你之前必须购买一堆专业软件,你必须去学校接受大量的培训。”“我认为我们都可以获得人工智能的超能力,我们可以实现我们想要的目标”。当然,关于这个问题,每个人都可以有自己的答案,但 Greg Brockman 无疑是一个乐观主义者,这或许也是 OpenAI 不断向前的原因所在。乐观是油门,悲观是刹车,两者都不可或缺,但是想要前进,我们必须多踩油门而不是刹车。 ... PC版: 手机版:

相关推荐

封面图片

请于今天下午1点(太平洋时间)加入我们,观看GPT-4的现场演示,Greg Brockman(OpenAI的联合创始人兼总裁)将

请于今天下午1点(太平洋时间)加入我们,观看GPT-4的现场演示,Greg Brockman(OpenAI的联合创始人兼总裁)将展示GPT-4的功能以及使用OpenAI API构建的未来。 OpenAI团队

封面图片

OPENAI CEO 离职后,总裁兼联合创始人 Greg Brockman 也宣布辞职

OPENAI CEO 离职后,总裁兼联合创始人 Greg Brockman 也宣布辞职 人工智能初创公司 OPENAI 宣布解雇其 CEO 兼联合创始人 Sam Altman 数小时后,公司总裁兼联合创始人 Greg Brockman 也在社交平台 X 上发布声明宣布,辞去在 OpenAI 的职务。 在 X 上的帖子中,Brockman 表示他向 OpenAI 团队发送了以下消息: 大家好, 自从 8 年前在我的公寓开始工作以来,我对我们大家一起建造的东西感到非常自豪。我们一起经历了艰难而又美好的时光,尽管有种种原因,但我们还是取得了如此多的成就。 但根据今天的新闻,我辞职了。 真诚地祝愿你们一切顺利。我仍然坚信创造造福全人类的安全通用人工智能的使命。

封面图片

OpenAI CEO 离职后,总裁兼联合创始人 Greg Brockman 也宣布辞职

OpenAI CEO 离职后,总裁兼联合创始人 Greg Brockman 也宣布辞职 OpenAI 宣布CEO兼联合创始人萨姆・阿尔特曼(Sam Altman)离职数小时后,总裁兼联合创始人Greg Brockman在X发文宣布,“根据今天的消息,我辞职了。”

封面图片

可汗学院创始人认为 GPT-4 做好了做导师的准备

可汗学院创始人认为 GPT-4 做好了做导师的准备 可汗学院创始人 Sal Khan 相信 OpenAI 最新的生成式 AI GPT-4 做好了给学生当导师的准备。可汗学院是 GPT-4 的早期用户之一,它提供的基于 GPT-4 的教育助手 Khanmigo 正在美国多个学区进行测试。Khanmigo 的工作方式类似线下或线上的辅导老师,检查学生的作业,在遇到问题时提供帮助。举例来说,对于数学题目,Khanmigo 不仅仅能判断正确还是错误,还能判断学生的哪一步推理错了。Sal Khan 表示,他理解部分学校对 ChatGPT 等生成式 AI 的担忧,指出许多批评者其实自己也在用它们,甚至让他们自己的子女使用。他认为 AI 能为发展中国家和发达国家的儿童提供一种个性化学习的机会。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT 美东时间6月27日周四,OpenAI公布,其研究人员训练了一个基于 GPT-4 的模型,它被称为 CriticGPT,用于捕捉ChatGPT 代码输出中的错误。简单来说就是,CriticGPT让人能用 GPT-4 查找 GPT-4 的错误。它可以写出使用者对ChatGPT响应结果的批评评论,从而帮助人类训练者在RLHF期间发现错误。OpenAI发现,如果通过CriticGPT获得帮助审查 ChatGPT编写的代码,人类训练师的审查效果比没有获得帮助的人强60%。OpenAI称,正着手将类似 CriticGPT 的模型集成到旗下 RLHF 标记管道中,为自己的训练师提供明确的AI帮助。OpenAI称,因为没有更好的工具,所以人们目前难以评估高级的AI系统的表现。而CriticGPT意味着,OpenAI向能够评估高级AI系统输出的目标迈进了一步。,OpenAI举了一个例子,如下图所示,对ChatGPT提出一个用 Python 编写指定函数的任务,对于ChatGPT根据要求提供的代码,CriticGPT点评了其中一条指令,提议换成效果更好的。OpenAI称,CriticGPT 的建议并不是全都正确无误,但OpenAI的人员发现,相比没有这种AI的帮助,有了它,训练师可以发现更多模型编写答案的问题。此外,当人们使用CriticGPT 时,这种AI模型会增强他们的技能,从而得出的批评结论比单单人类训练师做的更全面,并且比AI模型单独工作时产生的幻觉错误更少。在OpenAI的实验中,在60%以上的时间里,随机选择的训练师都更喜欢来自人类与CriticGPT 合作的批评结论,而不是来自没有CriticGPT协助的人类训练师批评。OpenAI同时提到了目前开发CriticGPT的四点局限。其中之一是,OpenAI用 ChatGPT 的简短答案训练CriticGPT,因此未来需要发掘能帮助训练师理解冗长且复杂任务的方法。第二点是,模型仍然会产生幻觉,有时训练师在看到这些幻觉后会犯下标记错误。第三点是,有时现实世界中的错误可能分散在答案的许多部分之中,OpenAI目前的工作重点是让模型指出一处的错误,未来还需要解决分散在不同位置的错误。第四点,OpenAI指出,CriticGPT 只能提供有限的帮助:如果ChatGPT面对的任务或响应极其复杂,即使是有模型帮助的专家也可能无法正确评估。最后,OpenAI表示,为了协调日益复杂的 AI 系统,人们需要更好的工具。在对 CriticGPT 的研究中,OpenAI发现,将 RLHF 应用于 GPT-4 有望帮助人类为 GPT-4 生成更好的 RLHF 数据。OpenAI计划,进一步扩大这项工作,并将其付诸实践。OpenAI在原名Twitter的社交媒体X上公布了新模型CriticGPT后,一条点赞超1万的网友评论称,自我改进已经开始了。另一条点赞上万的热截取了OpenAI的相关研究文章结论,其中提到,在智能方面,大语言模型(LLM)和LLM的批评都只会继续改进,而人类的智能不会,这条评论感叹,真是悲观。还有网友引用了漫威超级英雄电影《复仇者联盟》中灭霸的一句台词,点评OpenAI所说的用GPT-4找GPT-4的错误:“我用宝石摧毁了宝石。” ... PC版: 手机版:

封面图片

微软宣布,OpenAI创始人Sam Altman、Greg Brockman将加入微软。二人将领导新的微软人工智能团队。

微软宣布,OpenAI创始人Sam Altman、Greg Brockman将加入微软。二人将领导新的微软人工智能团队。 via 标签: #OpenAI #微软 频道: @GodlyNews1 投稿: @Godlynewsbot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人