今天,Yam Peleg 泄漏了 GPT-4 的一些消息。

今天,Yam Peleg 泄漏了 GPT-4 的一些消息。 大模型时代结束了?或许对于其他玩家来说,的确如此。 据信,GPT-4 将是 GPT-3 的 10x 规模,拥有 1.8T 参数,120 层。 他们采用了混合 MoE 模型,16 experts,每个 111B 参数。 训练规模是 13T token,文本内容 2 epochs,代类则是 4. 预训练时采用的是 8K 语境(seqlen),精调后能达到 32K。 Batch Size 达到 6000 万。 采用了 8 路 tensor parallelism(NVLink 限制),总之把 A100 券用了。 预计是 25000 A100,训练了 90-100 天,MFU 预计 32-36%,2.15e25FLOPS 预计价格是 6300 万美元。

相关推荐

封面图片

GPT-4 有 1.8 万亿参数

GPT-4 有 1.8 万亿参数 OpenAI 今年初公布的新一代大模型 GPT-4 的技术细节泄露,它有 1.8 万亿个参数,利用了 16 个混合专家模型(mixture of experts),每个有 1110 亿个参数,每次前向传递路由经过两个专家模型。它有 550 亿个共享注意力参数,使用了包含 13 万亿 tokens 的数据集训练,tokens 不是唯一的,根据迭代次数计算为更多的 tokens。GPT-4 预训练阶段的上下文长度为 8k,32k 版本是对 8k 微调的结果。如果是在云端进行训练,以 每 A100 小时 1 美元计算,那么一次的训练成本就高达 6300 万美元。不过今天的训练成本能降至 2150 万美元。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

今天上午一篇关于 GPT-4 详细技术架构和训练过程的文章泄漏了,虽然没有提及信源在哪但看起来还是挺靠谱的,所以我翻译了一下。

今天上午一篇关于 GPT-4 详细技术架构和训练过程的文章泄漏了,虽然没有提及信源在哪但看起来还是挺靠谱的,所以我翻译了一下。 信息量非常大全文可以在这里看: 有关GPT-4的信息包括模型架构、训练基础设施、推断基础设施、参数数量、训练数据集构成、标记数量、层次数量、并行策略、多模态视觉适应、工程权衡背后的思考过程、独特实施的技术以及解决与巨型模型推断相关的瓶颈的方法。此外,文章还介绍了在A100上训练和推断GPT-4的成本以及与H100上下一代模型架构的比例关系。

封面图片

硅谷圈黑客爆料 GPT-4 参数

硅谷圈黑客爆料 GPT-4 参数 在AI博客节目 Latent Space 上,George Hotz (iPhone 和 PS3 破解第一人) 爆料 GPT-4 其实只比1750亿参数的 GPT-3 大一些,任何人都能用8倍资金得到它。 GPT-4 是一个8路混合模型,由8个2200亿参数的专家模型组合而成,OpenAI 使用了不同数据训练了同一个模型8次,然后用了一些技巧使它实际做了 16-iter 推理,混合模型是在没有新想法时所会做的。

封面图片

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升

OpenAI新GPT-4 Turbo模型已可使用 四项能力提升 不过更强大的能力同时也意味着更长的响应时间与更高的成本,对于预算有限的项目来说,这也是一个重要的考虑因素。据悉,OpenAI在4月10日正式发布了GPT-4 Turbo,用户可以根据需求构建自己的GPT。GPT-4 Turbo和GPT-4的主要区别在于几个方面:上下文窗口:GPT-4 Turbo拥有更大的上下文窗口,可以处理高达128K个token,而GPT-4的上下文窗口较小。模型大小:GPT-4 Turbo的模型大小为100B参数,这意味着它可以处理更多信息,生成更复杂和细腻的输出,而GPT-4的模型大小为10B参数。知识截止日期:GPT-4 Turbo的训练数据包含到2023年4月的信息,而GPT-4的数据截止于2021年9月,后来扩展到2022年1月。成本:对于开发者来说,GPT-4 Turbo的使用成本更低,因为它的运行成本对OpenAI来说更低。功能集:GPT-4 Turbo提供了一些新功能,如JSON模式、可复现输出、并行函数调用等。总的来说,GPT-4 Turbo的更新更重要的是完善了功能,增加了速度,准确性是否提高仍然存疑。这或许与整个大模型业界目前的潮流一致:重视优化,面向应用。而有可能再次颠覆AI领域的GPT-5,预计将在夏季推出。 ... PC版: 手机版:

封面图片

DeepSeek Coder 成为第一个打败 GPT-4 Turbo 的开源代码模型

DeepSeek Coder 成为第一个打败 GPT-4 Turbo 的开源代码模型 中国 AI 创业公司 DeepSeek 的 成为第一个打败 GPT-4 Turbo 的开源代码模型。DeepSeek 上个月发布了混合专家模型 ,它的代码模型 DeepSeek Coder V2 就是基于该模型,它支持逾 300 种编程语言,在编程任务中超过了最先进的闭源模型如 GPT-4 Turbo、Claude 3 Opus 和 Gemini 1.5 Pro。在 MBPP+、HumanEval 和 Aider 编程测试中,DeepSeek Coder V2 获得了 76.2、90.2 和 73.7 分;在 MATH 和 GSM8K 等数学测试中,DeepSeek Coder V2 表现也类似。DeepSeek Coder V2 采用了 MIT 许可证,对商业使用不设限制,它有 160 亿和 2360 亿参数两个版本。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OpenAI推出CriticGPT模型,让GPT-4帮人类训练GPT-4

OpenAI推出CriticGPT模型,让GPT-4帮人类训练GPT-4 PANews 6月28日消息,据财联社报道,OpenAI新推出了一个基于GPT-4的模型CriticGPT,用于捕获ChatGPT代码输出中的错误。 CriticGPT的作用相当于让人们用GPT-4来查找GPT-4的错误。该模型可以对ChatGPT响应结果做出批评评论,从而帮助人工智能训练师在“基于人类反馈的强化学习(RLHF)”过程中发现的错误,为人工智能训练师提供明确的人工智能帮助。这一新模型的发布意在向投资者传达,OpenAI在RLHF赛道上的领先地位。RLHF的一个关键部分就是收集比较,让人工智能训练师对不同的ChatGPT回答进行评分,并反馈给ChatGPT。 研究发现,当训练师借助CriticGPT来审查ChatGPT输出代码时,他们的表现要比没有得到帮助的人高出60%。并且,在CriticGPT的帮助下,他们的指正比自己单独做的更加全面。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人