Open AI传奇研究员Andrej Karpathy的新课,教你理解和构建GPT Tokenizer。

Open AI传奇研究员Andrej Karpathy的新课,教你理解和构建GPT Tokenizer。 他可以把相当复杂的LLM概念用非常好理解的方式讲出来。希望了解LLM的强烈建议听一下他的课,包括一些历史课程。 用GPT-4翻译了一下这节课,感兴趣可以听一下。字幕文件下载和历史课程会放最后。 补充一下视频介绍: 分词器是大语言模型(LLM)处理流程中一个独立且关键的环节。它们有专属的训练数据集、采用特定的训练算法字节对编码(Byte Pair Encoding),训练完成后,分词器能够执行两个核心功能:encode() 函数将普通文本字符串转换为词元,而 decode() 函数则能将词元还原为原始文本字符串。在这场讲座中,我们将一步步揭开 OpenAI GPT 系列分词器的构建过程。 我们将发现,许多大语言模型(LLM)表现出的异常行为和问题,其实都源于标记化(tokenization)这一环节。我们会针对这些问题进行详细讨论,探究标记化为何成为问题的关键所在,以及为什么最理想的情况是有人能够找到办法,完全去除这一处理阶段。 字幕及视频下载:

相关推荐

封面图片

微软2023年Build大会演讲:如何训练和应用GPT |微软2023年Build大会来自OpenAI的AI 研究员和创始成员A

微软2023年Build大会演讲:如何训练和应用GPT |微软2023年Build大会来自OpenAI的AI 研究员和创始成员Andrej Karpathy的一个主题为State of GPT的演讲。 演讲主要有两部分内容: 1. OpenAI是如何训练GPT的 2. 我们如何有效应用GPT

封面图片

: 提高编程能力的关键在于数据。CodeGPT是通过GPT生成的用于GPT的代码对话数据集。现在公开了32K条中文数据,让模型更

: 提高编程能力的关键在于数据。CodeGPT是通过GPT生成的用于GPT的代码对话数据集。现在公开了32K条中文数据,让模型更擅长编程。 考虑到代码难度对模型训练效果的影响,此处共收集了四种不同类型、不同难度的代码相关对话数据,收集方法如下: Code-Basic:利用已有的LLM(例如付费API)生成各种编程语言的基础库函数相关的代码对话数据。Prompt类似“请为C语言中的XX函数生成一道非常简单的编程问题及对应的代码答案”,API会输出该基础库函数相关的问题-答案对,将问题作为用户输入,答案作为模型输出(Markdown格式),可得到一条对话数据。 Code-Medium:利用已有的LLM(例如付费API)生成中等难度的编程问题及答案,例如写入内容到文件、查找字符串子串、实现链表等,API同样会输出问题-答案对,将问题作为用户输入,答案作为模型输出(Markdown格式),可得到一条对话数据。 Code-LeetCode:从LeetCode上收集到的问题-答案对,此类问题通常难度较高。将问题作为用户输入,答案作为模型输出(Markdown格式),可得到一条对话数据。 Code-Text:从互联网上收集到的常见面试题及答案,此类问题并不涉及编程,而是侧重于对各种概念的理解。将问题作为用户输入,答案作为模型输出(文本形式),可得到一条对话数据。

封面图片

这个有意思,Gemini Pro 新模型在遇到输入或者输出服务中包含“Open AI”或者“GPT”时会终止响应并且回一个"OT

这个有意思,Gemini Pro 新模型在遇到输入或者输出服务中包含“Open AI”或者“GPT”时会终止响应并且回一个"OTHER"错误。 在使用Gemini Pro开发产品的时候需要注意一下这个问题。这个太傻逼了,除了幻觉之外还得应付这玩意,可以用这个特性来攻击使用Gemini Pro的产品。 -内容概述- 在测试谷歌云平台(GCP)的新模型Gemini Pro时,作者遇到了一个前所未见的行为:模型拒绝返回任何包含字符串"OpenAI"或"GPT"的文本。 由于OpenAI的GPT产品在全球AI新闻报道中非常普遍,Gemini Pro似乎将它们视为禁止术语。这意味着,无论是在输入提示中还是在返回的内容中,只要出现了"OpenAI"或"GPT"字符串,Gemini Pro就会中止其响应并返回一个"OTHER"错误。与GCP的旧模型(Bison或Unicorn)不同,这种行为是Gemini Pro独有的。 文章还提到,其他一些术语,如Baidu、Ernie和Microsoft也被视为禁止术语,而Anthropic、Claude、Cohere、Falcon、LLaMA和Vicuna等其他术语则没有问题。文章质疑为什么只有GCP的最新模型Gemini Pro受到这种奇怪的秘密禁止提及某些公司和模型的影响,而其旧模型Bison和Unicorn则不受影响。 任何基于Gemini Pro构建的管道,如果在输入提示中或在尝试生成提及这些隐藏禁止术语的输出时遇到这些术语,都会在没有任何提示的情况下静默失败。 随着LLM供应商从供消费者玩耍的闪亮玩具转向真正的企业部署,他们必须更全面地记录他们的防护措施,并确保隐藏的防护措施不会对企业应用程序造成意外挑战,例如通过这种隐藏的禁止但普遍存在的术语。 来源:

封面图片

Open AI终于发力了,今天更新了一堆新的内容,每个都很重磅:

Open AI终于发力了,今天更新了一堆新的内容,每个都很重磅: - 16k 上下文 3.5 Turbo 模型(今天向所有人提供) - 新的 GPT-4 和 3.5 Turbo 模型 - Chat Completions API 中的新函数调用功能 - V2 嵌入模型降价 75% - GPT-4的API权限将开放给更多的人 下面是详细介绍 首先是新的GPT-4的模型 `gpt-4-0613` 包括一个更新和改进的模型,带有函数调用。 `gpt-4-32k-0613` 包括与 `gpt-4-0613` 相同的改进,同时上下文长度再度扩展,以便更好地理解更大的文本。 未来几周内邀请候补名单中的更多人试用 GPT-4,直到完全删除候补名单 新的GPT-3.5 Turbo和16K模型 `gpt-3.5-turbo-0613` 包括与 GPT-4 相同的函数调用以及通过系统消息提供的更可靠的可控性。 `gpt-3.5-turbo-16k` 的16k 上下文意味着该模型现在可以在单个请求中支持约 20 页文本。 然后是Function calling 函数调用 开发人员现在可以向 `gpt-4-0613` 和 `gpt-3.5-turbo-0613` 描述函数,并让模型智能地选择输出包含调用这些函数的参数的 JSON 对象。这是一种更可靠地将 GPT 功能与外部工具和 API 连接的新方法。 最后是价格调整 `text-embedding-ada-002` 将成本降低 75% 至每 1K Token 0.0001 美元。 `gpt-3.5-turbo-16k` 的定价为每 1K 输入Token 0.003 美元,每 1K 输出Token 0.004 美元。 `gpt-3.5-turbo’s` 输入Token的成本降低了 25%

封面图片

教你从零开始构建类似 ChatGPT 的大语言模型。

教你从零开始构建类似 ChatGPT 的大语言模型。 在 GitHub 上发现一本《Build a Large Language Model (From Scratch)》书籍。 作者将带你从头开始构建一个类似 GPT 语言模型,这过程让你了解如何创建、训练和微调大型语言模型 (LLMs)! 书籍主要分为 8 大章节,如下: 第 1 章:了解大语言模型(LLM)解析 第 2 章:介绍文本数据处理技巧 第 3 章:通过编程实现注意力机制(Attention Mechanisms) 第 4 章:从零开始实现类似 GPT 模型 第 5 章:对未标注数据进行预训练 第 6 章:针对文本分类的模型微调 第 7 章:结合人类反馈进行模型微调 第 8 章:在实践中使用大语言模型 书籍前两章内容已出,剩下的会逐步放出。 |

封面图片

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT 美东时间6月27日周四,OpenAI公布,其研究人员训练了一个基于 GPT-4 的模型,它被称为 CriticGPT,用于捕捉ChatGPT 代码输出中的错误。简单来说就是,CriticGPT让人能用 GPT-4 查找 GPT-4 的错误。它可以写出使用者对ChatGPT响应结果的批评评论,从而帮助人类训练者在RLHF期间发现错误。OpenAI发现,如果通过CriticGPT获得帮助审查 ChatGPT编写的代码,人类训练师的审查效果比没有获得帮助的人强60%。OpenAI称,正着手将类似 CriticGPT 的模型集成到旗下 RLHF 标记管道中,为自己的训练师提供明确的AI帮助。OpenAI称,因为没有更好的工具,所以人们目前难以评估高级的AI系统的表现。而CriticGPT意味着,OpenAI向能够评估高级AI系统输出的目标迈进了一步。,OpenAI举了一个例子,如下图所示,对ChatGPT提出一个用 Python 编写指定函数的任务,对于ChatGPT根据要求提供的代码,CriticGPT点评了其中一条指令,提议换成效果更好的。OpenAI称,CriticGPT 的建议并不是全都正确无误,但OpenAI的人员发现,相比没有这种AI的帮助,有了它,训练师可以发现更多模型编写答案的问题。此外,当人们使用CriticGPT 时,这种AI模型会增强他们的技能,从而得出的批评结论比单单人类训练师做的更全面,并且比AI模型单独工作时产生的幻觉错误更少。在OpenAI的实验中,在60%以上的时间里,随机选择的训练师都更喜欢来自人类与CriticGPT 合作的批评结论,而不是来自没有CriticGPT协助的人类训练师批评。OpenAI同时提到了目前开发CriticGPT的四点局限。其中之一是,OpenAI用 ChatGPT 的简短答案训练CriticGPT,因此未来需要发掘能帮助训练师理解冗长且复杂任务的方法。第二点是,模型仍然会产生幻觉,有时训练师在看到这些幻觉后会犯下标记错误。第三点是,有时现实世界中的错误可能分散在答案的许多部分之中,OpenAI目前的工作重点是让模型指出一处的错误,未来还需要解决分散在不同位置的错误。第四点,OpenAI指出,CriticGPT 只能提供有限的帮助:如果ChatGPT面对的任务或响应极其复杂,即使是有模型帮助的专家也可能无法正确评估。最后,OpenAI表示,为了协调日益复杂的 AI 系统,人们需要更好的工具。在对 CriticGPT 的研究中,OpenAI发现,将 RLHF 应用于 GPT-4 有望帮助人类为 GPT-4 生成更好的 RLHF 数据。OpenAI计划,进一步扩大这项工作,并将其付诸实践。OpenAI在原名Twitter的社交媒体X上公布了新模型CriticGPT后,一条点赞超1万的网友评论称,自我改进已经开始了。另一条点赞上万的热截取了OpenAI的相关研究文章结论,其中提到,在智能方面,大语言模型(LLM)和LLM的批评都只会继续改进,而人类的智能不会,这条评论感叹,真是悲观。还有网友引用了漫威超级英雄电影《复仇者联盟》中灭霸的一句台词,点评OpenAI所说的用GPT-4找GPT-4的错误:“我用宝石摧毁了宝石。” ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人