今天上午一篇关于 GPT-4 详细技术架构和训练过程的文章泄漏了,虽然没有提及信源在哪但看起来还是挺靠谱的,所以我翻译了一下。

今天上午一篇关于 GPT-4 详细技术架构和训练过程的文章泄漏了,虽然没有提及信源在哪但看起来还是挺靠谱的,所以我翻译了一下。 信息量非常大全文可以在这里看: 有关GPT-4的信息包括模型架构、训练基础设施、推断基础设施、参数数量、训练数据集构成、标记数量、层次数量、并行策略、多模态视觉适应、工程权衡背后的思考过程、独特实施的技术以及解决与巨型模型推断相关的瓶颈的方法。此外,文章还介绍了在A100上训练和推断GPT-4的成本以及与H100上下一代模型架构的比例关系。

相关推荐

封面图片

今天,Yam Peleg 泄漏了 GPT-4 的一些消息。

今天,Yam Peleg 泄漏了 GPT-4 的一些消息。 大模型时代结束了?或许对于其他玩家来说,的确如此。 据信,GPT-4 将是 GPT-3 的 10x 规模,拥有 1.8T 参数,120 层。 他们采用了混合 MoE 模型,16 experts,每个 111B 参数。 训练规模是 13T token,文本内容 2 epochs,代类则是 4. 预训练时采用的是 8K 语境(seqlen),精调后能达到 32K。 Batch Size 达到 6000 万。 采用了 8 路 tensor parallelism(NVLink 限制),总之把 A100 券用了。 预计是 25000 A100,训练了 90-100 天,MFU 预计 32-36%,2.15e25FLOPS 预计价格是 6300 万美元。

封面图片

OpenAI推出CriticGPT模型,让GPT-4帮人类训练GPT-4

OpenAI推出CriticGPT模型,让GPT-4帮人类训练GPT-4 PANews 6月28日消息,据财联社报道,OpenAI新推出了一个基于GPT-4的模型CriticGPT,用于捕获ChatGPT代码输出中的错误。 CriticGPT的作用相当于让人们用GPT-4来查找GPT-4的错误。该模型可以对ChatGPT响应结果做出批评评论,从而帮助人工智能训练师在“基于人类反馈的强化学习(RLHF)”过程中发现的错误,为人工智能训练师提供明确的人工智能帮助。这一新模型的发布意在向投资者传达,OpenAI在RLHF赛道上的领先地位。RLHF的一个关键部分就是收集比较,让人工智能训练师对不同的ChatGPT回答进行评分,并反馈给ChatGPT。 研究发现,当训练师借助CriticGPT来审查ChatGPT输出代码时,他们的表现要比没有得到帮助的人高出60%。并且,在CriticGPT的帮助下,他们的指正比自己单独做的更加全面。

封面图片

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT 美东时间6月27日周四,OpenAI公布,其研究人员训练了一个基于 GPT-4 的模型,它被称为 CriticGPT,用于捕捉ChatGPT 代码输出中的错误。简单来说就是,CriticGPT让人能用 GPT-4 查找 GPT-4 的错误。它可以写出使用者对ChatGPT响应结果的批评评论,从而帮助人类训练者在RLHF期间发现错误。OpenAI发现,如果通过CriticGPT获得帮助审查 ChatGPT编写的代码,人类训练师的审查效果比没有获得帮助的人强60%。OpenAI称,正着手将类似 CriticGPT 的模型集成到旗下 RLHF 标记管道中,为自己的训练师提供明确的AI帮助。OpenAI称,因为没有更好的工具,所以人们目前难以评估高级的AI系统的表现。而CriticGPT意味着,OpenAI向能够评估高级AI系统输出的目标迈进了一步。,OpenAI举了一个例子,如下图所示,对ChatGPT提出一个用 Python 编写指定函数的任务,对于ChatGPT根据要求提供的代码,CriticGPT点评了其中一条指令,提议换成效果更好的。OpenAI称,CriticGPT 的建议并不是全都正确无误,但OpenAI的人员发现,相比没有这种AI的帮助,有了它,训练师可以发现更多模型编写答案的问题。此外,当人们使用CriticGPT 时,这种AI模型会增强他们的技能,从而得出的批评结论比单单人类训练师做的更全面,并且比AI模型单独工作时产生的幻觉错误更少。在OpenAI的实验中,在60%以上的时间里,随机选择的训练师都更喜欢来自人类与CriticGPT 合作的批评结论,而不是来自没有CriticGPT协助的人类训练师批评。OpenAI同时提到了目前开发CriticGPT的四点局限。其中之一是,OpenAI用 ChatGPT 的简短答案训练CriticGPT,因此未来需要发掘能帮助训练师理解冗长且复杂任务的方法。第二点是,模型仍然会产生幻觉,有时训练师在看到这些幻觉后会犯下标记错误。第三点是,有时现实世界中的错误可能分散在答案的许多部分之中,OpenAI目前的工作重点是让模型指出一处的错误,未来还需要解决分散在不同位置的错误。第四点,OpenAI指出,CriticGPT 只能提供有限的帮助:如果ChatGPT面对的任务或响应极其复杂,即使是有模型帮助的专家也可能无法正确评估。最后,OpenAI表示,为了协调日益复杂的 AI 系统,人们需要更好的工具。在对 CriticGPT 的研究中,OpenAI发现,将 RLHF 应用于 GPT-4 有望帮助人类为 GPT-4 生成更好的 RLHF 数据。OpenAI计划,进一步扩大这项工作,并将其付诸实践。OpenAI在原名Twitter的社交媒体X上公布了新模型CriticGPT后,一条点赞超1万的网友评论称,自我改进已经开始了。另一条点赞上万的热截取了OpenAI的相关研究文章结论,其中提到,在智能方面,大语言模型(LLM)和LLM的批评都只会继续改进,而人类的智能不会,这条评论感叹,真是悲观。还有网友引用了漫威超级英雄电影《复仇者联盟》中灭霸的一句台词,点评OpenAI所说的用GPT-4找GPT-4的错误:“我用宝石摧毁了宝石。” ... PC版: 手机版:

封面图片

ℹGPT-4 有多威?给 ChatGPT 手绘架构就帮你完成网站了(吓)#

ℹGPT-4 有多威?给 ChatGPT 手绘架构就帮你完成网站了(吓)# 说到可以「看」的能耐,OpenAI 就想到了很威的示范方式了。继续阅读 GPT-4 有多威?给 ChatGPT 手绘架构就帮你完成网站了(...

封面图片

Meta 正开发更强大的新大型语言模型,对标OpenAI 的 GPT-4

Meta 正开发更强大的新大型语言模型,对标OpenAI 的 GPT-4 据知情人士透露,Meta 正在开发一款新的大型语言模型,并预计其功能将与 GPT-4 一样强大。根据 Meta 的目标,其新 AI 模型将比两个月前刚刚发布的名为 Llama 2 的模型强大数倍。这个新 AI 模型计划明年上线。 Meta 目前正在搭建这项工作所需的数据中心,并购置更多的 H100 芯片,这是英伟达用于此类 AI 训练的最先进制程芯片。其中一些知情人士说,虽然与微软合作在后者的云计算平台 Azure 上提供 Llama 2 服务,但 Meta 计划在自己的基础设施上训练这个新模型。

封面图片

如果我们在 Minecraft 中解放 GPT-4 会怎样?

如果我们在 Minecraft 中解放 GPT-4 会怎样? 我很高兴地宣布 Voyager,这是第一个完全在上下文中玩 Minecraft 的终身学习代理。 Voyager 通过编写、提炼、提交和从技能库中检索*代码*不断改进自己。 GPT-4 解锁了一种新范式:“训练”是代码执行而不是梯度下降。 “训练有素的模型”是 Voyager 迭代组合的技能代码库,而不是浮点数矩阵。我们正在将无梯度架构推向极限。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人