Bing Chat 愈发笨拙可能是安全训练导致,而不是部署了更小版本的 GPT-4

Bing Chat 愈发笨拙可能是安全训练导致,而不是部署了更小版本的 GPT-4 微软研究院首席研究员 Sébastian Bubeck 是《》论文的第一作者,在MIT的提到了自己测试 GPT-4 (无视觉版) 画画的经历,AI从越来越强到越来越弱: 一个月期间,OpenAI 不断在训练 GPT-4,拥有早期访问权限的 Sébastian Bubeck 每隔一段时间就向 GPT-4 索要一幅独角兽画,以此作为智力的基准,结果发现 GPT-4 的独角兽画一直在进步。但最终,GPT-4 开始接受安全训练时,独角兽画开始退化。

相关推荐

封面图片

Bing Chat 越发笨拙可能是安全训练导致,而不是部署了更小版本的 ChatGPT-4

Bing Chat 越发笨拙可能是安全训练导致,而不是部署了更小版本的 ChatGPT-4 微软研究院首席研究员 Sébastian Bubeck 也就是《AGI的火花: GPT-4 的早期实验》第一作者提到: 一个月期间,OpenAI 不断在训练 GPT-4,拥有早期访问权限的 Sébastian Bubeck 每隔一段时间就向 GPT-4 索要一幅独角兽画,以此作为智力的基准,结果发现 GPT-4 的独角兽画一直在进步。但最终,GPT-4 开始接受安全训练时,独角兽画开始退化。 来源 LatentSpace 频道 @WidgetChannel

封面图片

OpenAI推出CriticGPT模型,让GPT-4帮人类训练GPT-4

OpenAI推出CriticGPT模型,让GPT-4帮人类训练GPT-4 PANews 6月28日消息,据财联社报道,OpenAI新推出了一个基于GPT-4的模型CriticGPT,用于捕获ChatGPT代码输出中的错误。 CriticGPT的作用相当于让人们用GPT-4来查找GPT-4的错误。该模型可以对ChatGPT响应结果做出批评评论,从而帮助人工智能训练师在“基于人类反馈的强化学习(RLHF)”过程中发现的错误,为人工智能训练师提供明确的人工智能帮助。这一新模型的发布意在向投资者传达,OpenAI在RLHF赛道上的领先地位。RLHF的一个关键部分就是收集比较,让人工智能训练师对不同的ChatGPT回答进行评分,并反馈给ChatGPT。 研究发现,当训练师借助CriticGPT来审查ChatGPT输出代码时,他们的表现要比没有得到帮助的人高出60%。并且,在CriticGPT的帮助下,他们的指正比自己单独做的更加全面。

封面图片

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT 美东时间6月27日周四,OpenAI公布,其研究人员训练了一个基于 GPT-4 的模型,它被称为 CriticGPT,用于捕捉ChatGPT 代码输出中的错误。简单来说就是,CriticGPT让人能用 GPT-4 查找 GPT-4 的错误。它可以写出使用者对ChatGPT响应结果的批评评论,从而帮助人类训练者在RLHF期间发现错误。OpenAI发现,如果通过CriticGPT获得帮助审查 ChatGPT编写的代码,人类训练师的审查效果比没有获得帮助的人强60%。OpenAI称,正着手将类似 CriticGPT 的模型集成到旗下 RLHF 标记管道中,为自己的训练师提供明确的AI帮助。OpenAI称,因为没有更好的工具,所以人们目前难以评估高级的AI系统的表现。而CriticGPT意味着,OpenAI向能够评估高级AI系统输出的目标迈进了一步。,OpenAI举了一个例子,如下图所示,对ChatGPT提出一个用 Python 编写指定函数的任务,对于ChatGPT根据要求提供的代码,CriticGPT点评了其中一条指令,提议换成效果更好的。OpenAI称,CriticGPT 的建议并不是全都正确无误,但OpenAI的人员发现,相比没有这种AI的帮助,有了它,训练师可以发现更多模型编写答案的问题。此外,当人们使用CriticGPT 时,这种AI模型会增强他们的技能,从而得出的批评结论比单单人类训练师做的更全面,并且比AI模型单独工作时产生的幻觉错误更少。在OpenAI的实验中,在60%以上的时间里,随机选择的训练师都更喜欢来自人类与CriticGPT 合作的批评结论,而不是来自没有CriticGPT协助的人类训练师批评。OpenAI同时提到了目前开发CriticGPT的四点局限。其中之一是,OpenAI用 ChatGPT 的简短答案训练CriticGPT,因此未来需要发掘能帮助训练师理解冗长且复杂任务的方法。第二点是,模型仍然会产生幻觉,有时训练师在看到这些幻觉后会犯下标记错误。第三点是,有时现实世界中的错误可能分散在答案的许多部分之中,OpenAI目前的工作重点是让模型指出一处的错误,未来还需要解决分散在不同位置的错误。第四点,OpenAI指出,CriticGPT 只能提供有限的帮助:如果ChatGPT面对的任务或响应极其复杂,即使是有模型帮助的专家也可能无法正确评估。最后,OpenAI表示,为了协调日益复杂的 AI 系统,人们需要更好的工具。在对 CriticGPT 的研究中,OpenAI发现,将 RLHF 应用于 GPT-4 有望帮助人类为 GPT-4 生成更好的 RLHF 数据。OpenAI计划,进一步扩大这项工作,并将其付诸实践。OpenAI在原名Twitter的社交媒体X上公布了新模型CriticGPT后,一条点赞超1万的网友评论称,自我改进已经开始了。另一条点赞上万的热截取了OpenAI的相关研究文章结论,其中提到,在智能方面,大语言模型(LLM)和LLM的批评都只会继续改进,而人类的智能不会,这条评论感叹,真是悲观。还有网友引用了漫威超级英雄电影《复仇者联盟》中灭霸的一句台词,点评OpenAI所说的用GPT-4找GPT-4的错误:“我用宝石摧毁了宝石。” ... PC版: 手机版:

封面图片

微软在 Android 和 iOS 的 Bing Chat AI 中测试免费的 GPT-4 切换功能。

微软在 Android 和 iOS 的 Bing Chat AI 中测试免费的 GPT-4 切换功能。 微软为 Android 和 iOS 的 Bing Chat 推出了一项新的更新,其中包含一个名为“使用 GPT-4”的新切换按钮。除了现有的“色调”功能以外,这个新功能可以使你充分发挥 ChatGPT GPT-4 的全部潜力。 Bing Chat 允许你选择 Bing 回复的风格,比如“创意”、“平衡”或“精准”。随着新的GPT-4 功能的加入,聊天体验将会变得更好。这似乎是这家科技巨头计划的一部分,旨在让聊天更像是与聊天机器人交谈,而不是与Bing.com的助手对话。

封面图片

由 GPT-4 支持的 Bing Chat AI 面临质量下降问题,微软做出回应

由 GPT-4 支持的 Bing Chat AI 面临质量下降问题,微软做出回应 在过去的几周里,用户发现由 GPT-4 支持的 Bing Chat AI 的性能有所下降。那些经常使用由 Bing Chat 提供支持的 Edge 浏览器侧边栏创作栏的人发现它的帮助越来越少,经常回避问题或无法帮助查询。 在给 Windows Latest 的一份声明中,微软发言人证实该公司正在积极监控这些反馈,并计划在不久的将来做出改变来解决这些问题。 许多用户在 Reddit 上分享了他们的经历。一位用户提到,曾经可靠的 Edge 浏览器必应侧边栏中的创作工具最近表现不佳。当试图获取信息性语调的创意内容,或要求对虚构人物进行幽默演绎时,必应会给出奇怪的借口,其暗示称 ,以某种方式讨论创意主题可能被认为是不恰当的,或者幽默可能会引起问题,即使主题是无害的无生命物体。 面对这些担忧,微软发言人在一封电子邮件中确认,该公司一直在关注测试者的反馈,并且用户可以期待更好的未来体验,“我们积极监测用户反馈和报告的问题,并且随着我们通过预览获得更多的见解,我们将能够应用这些学习成果,以随着时间的推移进一步改善体验。”

封面图片

哈佛的CS50课程节选:GPT-4是如何工作的?

哈佛的CS50课程节选:GPT-4是如何工作的? 在这门课程中,介绍了GPT-4的基本概念和工作原理,介绍了GPT-4的基本概念、工作原理和应用前景,展示了其在各种场景下的强大能力。 GPT-4作为一种生成式AI和大型语言模型,是基于神经网络和人工智能的。它可以作为文化模拟器、文本预测器、写作助手和内容生成器。 GPT-4的训练目标是预测给定单词序列的下一个单词。通过对五万个单词的词汇表进行概率分布生成,模型可以生成各种可能的后续单词。通过不断迭代这一过程,GPT-4能够生成连贯的文本。 随着模型训练时间的增加,GPT-4表现出越来越强的表现力和能力,甚至变得更加“聪明”。这使得它能够模仿不同类型的文本风格和语言注册。例如,GPT-3通过观察大量问题和答案示例,实际上已经知道如何回答问题,从而形成了ChatGPT。这使得GPT-4可以以问答的形式工作,为用户提供解决问题的帮助。 此外,GPT-4通过指令调整、强化与人类反馈对齐等方法,与现有的工具和服务相结合。这使得GPT-4能够帮助用户执行各种任务,如搜索网络、查找食谱等。通过将GPT-4转变为代理,实现任何模糊目标成为未来发展的方向。 |

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人