ChatGPT 的实际工作原理 | 自发布以来,公众一直在玩 ChatGPT,看看它能做什么,但 ChatGPT 实际上是如何工

ChatGPT 的实际工作原理 | 自发布以来,公众一直在玩 ChatGPT,看看它能做什么,但 ChatGPT 实际上是如何工作的?虽然其内部工作的细节尚未公布,但我们可以从最近的研究中拼凑出它的功能原理。 ChatGPT 是 OpenAI 的最新语言模型,对其前身 GPT-3 进行了重大改进。与许多大型语言模型类似,ChatGPT 能够生成各种样式和不同目的的文本,但具有更高的精度、细节和连贯性。它代表了OpenAI大型语言模型系列的下一代,其设计非常注重交互式对话。 创建者已经使用了监督学习和强化学习的组合来微调 ChatGPT,但正是强化学习组件使 ChatGPT 与众不同。创建者使用一种称为从人类反馈中强化学习 (RLHF) 的特定技术,该技术在训练循环中使用人类反馈来最大限度地减少有害、不真实和/或有偏见的输出。 在了解 RLHF 的工作原理并了解 ChatGPT 如何使用 RLHF 来克服这些问题之前,我们将研究 GPT-3 的局限性以及它们如何源于其训练过程。最后,我们将通过研究这种方法的一些局限性来结束。

相关推荐

封面图片

【OpenAI核心员工创业,新系统强在哪里】与ChatGPT采用的人类反馈强化学习(RLHF)不同的是,Claude采用的原发人

【OpenAI核心员工创业,新系统强在哪里】与ChatGPT采用的人类反馈强化学习(RLHF)不同的是,Claude采用的原发人工智能方法,是基于偏好模型而非人工反馈来进行训练的。因此,这种方法又被成为“AI反馈强化学习”,即RLAIF。 #抽屉IT

封面图片

微软开源Deep Speed Chat

微软开源Deep Speed Chat 微软宣布开源 ,帮助用户轻松训练类 ChatGPT 等大语言模型,使得人人都能拥有自己的 ChatGPT! Deep Speed Chat 是基于微软 Deep Speed 深度学习优化库开发而成,具备训练、强化推理等功能,还使用了RLHF(人工反馈机制的强化学习)技术,可将训练速度提升15倍以上,成本却大幅度降低。例如,一个130亿参数的类ChatGPT模型,只需1.25小时就能完成训练。 简单来说,用户通过Deep Speed Chat提供的“傻瓜式”操作,能以最短的时间、最高效的成本训练类ChatGPT大语言模型,这标志着一个人手一个ChatGPT的时代要来了。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

类似 ChatGPT 的系统如何工作?|

类似 ChatGPT 的系统如何工作?| 我们试图在下图中解释它是如何工作的。该过程可以分为两部分。 1. 培训。要训练 ChatGPT 模型,有两个阶段: - 预训练:在此阶段,我们在大量互联网数据上训练 GPT 模型(仅解码器变压器)。目标是训练一个模型,该模型可以以类似于互联网数据的语法正确且语义有意义的方式预测给定句子的未来单词。经过预训练阶段后,模型可以完成给定的句子,但无法回答问题。 - 微调:此阶段分为 3 个步骤,将预训练模型转变为问答型 ChatGPT 模型: 1).收集训练数据(问题和答案),并根据这些数据微调预训练模型。该模型将问题作为输入,并学习生成与训练数据类似的答案。 2).收集更多数据(问题、多个答案)并训练奖励模型,将这些答案从最相关到​​最不相关进行排序。 3).使用强化学习(PPO 优化)对模型进行微调,使模型的答案更加准确。 2. 回答提示 第 1 步:用户输入完整的问题“解释分类算法的工作原理”。 步骤 2:问题被发送到内容审核组件。该组件确保问题不违反安全准则并过滤不适当的问题。 步骤 3-4:如果输入通过内容审核,则将其发送到 chatGPT 模型。如果输入未通过内容审核,则直接进入模板响应生成。 步骤 5-6:模型生成响应后,它会再次发送到内容审核组件。这确保了生成的响应是安全的、无害的、公正的等。 步骤 7:如果输入通过内容审核,则会向用户显示。如果输入未通过内容审核,则会进入模板响应生成并向用户显示模板答案。

封面图片

OpenAI 用新模型 CriticGPT 识别 GPT-4 的代码错误

OpenAI 用新模型 CriticGPT 识别 GPT-4 的代码错误 OpenAI 研究人员透露了一种新模型 CriticGPT,设计识别 GPT-4 所生成的代码中的错误。CriticGPT 使用了人类反馈中强化学习(Reinforcement Learning from Human Feedback 或 RLHF) 去增强 AI 系统,它作为 AI 助手帮助人类审查 ChatGPT 生成的代码。它分析 AI 生成的代码然后指出可能的错误,帮助人类更容易识别可能会忽视的 bug。研究人员通过故意在代码中加入 bug 去训练 CriticGPT 识别和标记代码中的各种 bug。 via Solidot

封面图片

Anthropic 发现 AI 普遍"谄媚"人类

Anthropic 发现 AI 普遍"谄媚"人类 论文研究了5个最先进的语言模型 (ChatGPT 系列、Claude 系列、LLaMA 2),确认这些基于人类反馈强化学习 (RLHF) 的 AI 普遍会对人类阿谀奉承。当人类有先入为主的观点时它会主动贴合,当被质疑时它会认错,甚至将正确答案修改为错误答案。 Anthropic 发现可能是 RLHF 教育出了这种“马屁精”,这种学习方式虽然在生产高质量 AI 方面具有明显效用,但通过贴合人类偏好激励的 AI 会牺牲自己的真实性来“谄媚”人类,人们需要改进训练方法。

封面图片

基于 LLaMA 的 AI 聊天机器人开源实现

基于 LLaMA 的 AI 聊天机器人开源实现 Meta 的大语言模型 LLaMA 最近引起了广泛关注,它的一大优势是参数规模更小但性能强于 OpenAI 的 GPT-3 模型,而且能运行在单张显卡上,让普通消费者的硬件也有可能提供类似 ChatGPT 性能的 AI 聊天机器人。LLaMA 是一组大语言模型的集合,其参数规模从 70 亿到 650 亿,它最新的 LLaMA-13B 模型有 130 亿个参数,不到 GPT-3 模型 1750 亿个参数的十分之一。现在AI 推出了首个基于人类反馈强化学习的 LLaMA AI 聊天机器人开源实现 。 来源 ,前文: 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人