OpenAI 用 GPT-4 来解释 GPT-2 的行为

OpenAI 用 GPT-4 来解释 GPT-2 的行为 大语言模型(LLM)像大脑一样,它们是由 “神经元” 组成的,它们观察文本中的一些特定模式,以影响整个模型接下来 “说” 什么。但由于 LLM 中的参数数量多到已经无法由人类解释的程度,因此,LLM 给人一种 “黑盒” 的感觉,并出现了偏见、幻觉、涌现等一系列不好解释的现象。OpenAI 正在开发一种工具,以自动识别 LLM 的哪些部分负责其哪些行为。它使用 GPT-4 来解释其 4 年前发布的只有 30 万个“神经元”(15 亿个参数)的 GPT-2。目前该工具代码和所有的 “神经元” 解释数据已经开源,OpenAI 称该工具还在早期阶段。生成的解释结果并不令人满意,看起来连 GPT-4 都不能太用人类可以理解的语言来解释GPT-2 的行为。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类 Ilya 领衔的 OpenAI 对齐团队,发表了 用类似 GPT-2 监督 GPT-4 的方法,或可帮人类搞定自己更聪明的超级 AI! 团队声称,已经发现了对超人类模型进行实证对齐的新研究方向。未来超级 AI 系统对齐的一个核心挑战 人类需要监督比自己更聪明人工智能系统。 来源, 频道:@kejiqu 群组:@kejiquchat

封面图片

用 GPT-4 修改和解释出错 Python 代码的工具

用 GPT-4 修改和解释出错 Python 代码的工具 用它运行你的脚本,遇到崩溃时,GPT-4 会编辑脚本并解释出了什么问题。即使你有很多错误,它也会反复重新运行,直到一切都被修复 | #工具

封面图片

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT 美东时间6月27日周四,OpenAI公布,其研究人员训练了一个基于 GPT-4 的模型,它被称为 CriticGPT,用于捕捉ChatGPT 代码输出中的错误。简单来说就是,CriticGPT让人能用 GPT-4 查找 GPT-4 的错误。它可以写出使用者对ChatGPT响应结果的批评评论,从而帮助人类训练者在RLHF期间发现错误。OpenAI发现,如果通过CriticGPT获得帮助审查 ChatGPT编写的代码,人类训练师的审查效果比没有获得帮助的人强60%。OpenAI称,正着手将类似 CriticGPT 的模型集成到旗下 RLHF 标记管道中,为自己的训练师提供明确的AI帮助。OpenAI称,因为没有更好的工具,所以人们目前难以评估高级的AI系统的表现。而CriticGPT意味着,OpenAI向能够评估高级AI系统输出的目标迈进了一步。,OpenAI举了一个例子,如下图所示,对ChatGPT提出一个用 Python 编写指定函数的任务,对于ChatGPT根据要求提供的代码,CriticGPT点评了其中一条指令,提议换成效果更好的。OpenAI称,CriticGPT 的建议并不是全都正确无误,但OpenAI的人员发现,相比没有这种AI的帮助,有了它,训练师可以发现更多模型编写答案的问题。此外,当人们使用CriticGPT 时,这种AI模型会增强他们的技能,从而得出的批评结论比单单人类训练师做的更全面,并且比AI模型单独工作时产生的幻觉错误更少。在OpenAI的实验中,在60%以上的时间里,随机选择的训练师都更喜欢来自人类与CriticGPT 合作的批评结论,而不是来自没有CriticGPT协助的人类训练师批评。OpenAI同时提到了目前开发CriticGPT的四点局限。其中之一是,OpenAI用 ChatGPT 的简短答案训练CriticGPT,因此未来需要发掘能帮助训练师理解冗长且复杂任务的方法。第二点是,模型仍然会产生幻觉,有时训练师在看到这些幻觉后会犯下标记错误。第三点是,有时现实世界中的错误可能分散在答案的许多部分之中,OpenAI目前的工作重点是让模型指出一处的错误,未来还需要解决分散在不同位置的错误。第四点,OpenAI指出,CriticGPT 只能提供有限的帮助:如果ChatGPT面对的任务或响应极其复杂,即使是有模型帮助的专家也可能无法正确评估。最后,OpenAI表示,为了协调日益复杂的 AI 系统,人们需要更好的工具。在对 CriticGPT 的研究中,OpenAI发现,将 RLHF 应用于 GPT-4 有望帮助人类为 GPT-4 生成更好的 RLHF 数据。OpenAI计划,进一步扩大这项工作,并将其付诸实践。OpenAI在原名Twitter的社交媒体X上公布了新模型CriticGPT后,一条点赞超1万的网友评论称,自我改进已经开始了。另一条点赞上万的热截取了OpenAI的相关研究文章结论,其中提到,在智能方面,大语言模型(LLM)和LLM的批评都只会继续改进,而人类的智能不会,这条评论感叹,真是悲观。还有网友引用了漫威超级英雄电影《复仇者联盟》中灭霸的一句台词,点评OpenAI所说的用GPT-4找GPT-4的错误:“我用宝石摧毁了宝石。” ... PC版: 手机版:

封面图片

用GPT-4纠错GPT-4 OpenAI推出CriticGPT模型

用GPT-4纠错GPT-4 OpenAI推出CriticGPT模型 这一新模型的发布意在向投资者传达,OpenAI在RLHF赛道上的领先地位。RLHF的一个关键部分就是收集比较,让人工智能训练师对不同的ChatGPT回答进行评分,并反馈给ChatGPT。研究发现,当训练师借助CriticGPT来审查ChatGPT输出代码时,他们的表现要比没有得到帮助的人高出60%。并且,在CriticGPT的帮助下,他们的指正比自己单独做的更加全面。CriticGPT的审查随着大模型在推理和行为方面的进步,ChatGPT变得更加准确,它的错误也变得更加微妙。这可能会使人工智能训练师很难发现其中不准确的情况,从而使RLHF的比较任务更加困难。若是如果没有更好的工具,人们很难对这些系统进行评估。而OpenAI指出,CriticGPT模型将有能力评估先进人工智能系统的输出。OpenAI举了一个例子:用户对ChatGPT下达“用Python编写指定函数”的任务,ChatGPT根据这一指令给出了相关代码。对于ChatGPT给出的代码,CriticGPT点评了其中一条,并给出了效果更好的替代方案。还有一项数据显示,在OpenAI的实验中,随机训练师在超过60%的时间里更倾向于人类与CriticGPT合作后得出的指正,而不是单纯由人类训练师作出的批评。不过,OpenAI也指出,CriticGPT的建议并不总是正确的,但与没有人工智能的帮助相比,它还是可以帮助训练师找出模型中的更多问题。 ... PC版: 手机版:

封面图片

Carbon Health 用 OpenAI 的 GPT-4 写医疗记录

Carbon Health 用 OpenAI 的 GPT-4 写医疗记录 旗下有逾百家诊所的医疗连锁机构 Carbon Health 利用 OpenAI 的 GPT-4 根据医生和病人之间的对话自动生成医疗记录。如果病人同意记录与医生的对话,那么录音首先传输到亚马逊的 AWS Transcribe Medical 云服务,将录音转成文本。转录文本和病人的医疗数据将传输给机器学习模型,名为 Carby 的 AI 工具将总结诊断中的重要信息。Carbon Health 称 AI 工具能在 4 分钟内生成诊断摘要,而医生需要耗费 16 分钟,因此医生将有时间诊断更多病人。Carbon Health 表示,88% 的自动生成记录不需要编辑就能接受。Carbon Health 旗下的一个诊所在试用该工具后治疗的病人数量增加了 30%。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI 公司在中国申请注册 GPT-4 商标

OpenAI 公司在中国申请注册 GPT-4 商标 欧爱运营有限责任公司(OPENAI OPCO, LLC)近期申请注册了“GPT-4”商标,国际分类为科学仪器,当前商标状态为申请中。此前,该公司还申请注册了一枚国际分类为网站服务的“WHISPER”商标(IT之家注:Whisper 为 OpenAI 此前发布的神经网络,声称其在英语语音识别方面已接近人类水平)。 不久前,OpenAI 发布了多模态预训练大模型 GPT-4,与 ChatGPT 所用的模型相比,GPT-4 不仅能够处理图像内容,且回复的准确性有所提高。目前,GPT-4 仅向 ChatGPT Plus 的付费订阅用户及企业和开发者开放。 GPT-4 实现了以下几个方面的飞跃式提升:更聪明,做题水平越来越好;支持图像输入,拥有强大的识图能力,但目前只限内部测试;更长的上下文,文字输入限制提升至 2.5 万字;回答准确性显著提高;更安全,有害信息更少。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人