SFW将 OpenAI GPT-2 放到 Excel 里

SFW 将 OpenAI GPT-2 放到 Excel 里 Ishan Anand 将 OpenAI GPT-2 硬生生放到了 Excel 里,体积达到 1.2GB,关键还能正常运行。Spreadsheets-are-all-you-ne-need 使用函数完全在 Excel 中实现了 GPT2 的前向传递。 GPT-2的初始版是2019年2月发布的,参数量15亿,训练数据总量40GB。 Anand 使用精简版GPT-2,参数量为1.24亿。这个特殊表格能接受的输入量只有10 tokens() 通过使用电子表格,任何人(甚至非开发人员)都可以直接探索和体验“真正的” Transformer 如何在幕后工作 https://github.com/ianand/spreadsheets-are-all-you-need via Gary from Garyの梦呓

相关推荐

封面图片

ChatGPT的前辈GPT-2被塞入Excel表格:体积达1.25GB

ChatGPT的前辈GPT-2被塞入Excel表格:体积达1.25GB 酷爱Excel的软件开发者Ishan Anand将OpenAI GPT-2大模型硬生生放到了Excel之中,体积达到1.2GB,关键还能正常运行 GPT-2的初始版是2019年2月发布的,当年11月有了完整版,参数量15亿,训练数据总量40GB。 Anand使用的是精简版GPT-2,参数量仅为1.24亿,不到完整版的十分之一,但就这些能放入Excel,已经十分了不起了。 这个特殊表格能接受的输入量只有10 tokens,相比于GTP-4 Turbo 128000 Tokens简直不值一提。 当然它也有一个好处,那就是完全本地运行,不需要连接云端。 Anand这么做一是展示Excel的强大,二是方便那些不熟悉AI和大模型玩法的尝鲜者体验。 体验链接: via 匿名 标签: #OpenAI #ChatGPT 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

ChatGPT的前辈GPT-2被塞入Excel表格:体积达1.25GB之巨

ChatGPT的前辈GPT-2被塞入Excel表格:体积达1.25GB之巨 GPT-2的初始版是2019年2月发布的,当年11月有了完整版,参数量15亿,训练数据总量40GB。Anand使用的是精简版GPT-2,参数量仅为1.24亿,不到完整版的十分之一,但就这些能放入Excel,已经十分了不起了。这个特殊表格能接受的输入量只有10 tokens,相比于GTP-4 Turbo 128000 Tokens简直不值一提,但依然值得竖起大拇指。当然它也有一个好处,那就是完全本地运行,不需要连接云端。Anand这么做一是展示Excel的强大,二是方便那些不熟悉AI和大模型玩法的尝鲜者体验。如果你也想体验体验,可以去GitHub上下载这个特殊的表格,但注意不要用Mac运行,很容易崩溃或无响应。 ... PC版: 手机版:

封面图片

OpenAI 用 GPT-4 来解释 GPT-2 的行为

OpenAI 用 GPT-4 来解释 GPT-2 的行为 大语言模型(LLM)像大脑一样,它们是由 “神经元” 组成的,它们观察文本中的一些特定模式,以影响整个模型接下来 “说” 什么。但由于 LLM 中的参数数量多到已经无法由人类解释的程度,因此,LLM 给人一种 “黑盒” 的感觉,并出现了偏见、幻觉、涌现等一系列不好解释的现象。OpenAI 正在开发一种工具,以自动识别 LLM 的哪些部分负责其哪些行为。它使用 GPT-4 来解释其 4 年前发布的只有 30 万个“神经元”(15 亿个参数)的 GPT-2。目前该工具代码和所有的 “神经元” 解释数据已经开源,OpenAI 称该工具还在早期阶段。生成的解释结果并不令人满意,看起来连 GPT-4 都不能太用人类可以理解的语言来解释GPT-2 的行为。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI 将放出更多 GPT-4 API 测试邀请

OpenAI 将放出更多 GPT-4 API 测试邀请 OpenAI表示:我们将在接下来的几周邀请更多等待名单上的人来尝试GPT-4,并打算完全移除等待名单。感谢所有耐心等待的人,我们很期待看到您使用GPT-4构建的内容!

封面图片

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类

OpenAI 探索用 GPT-2 小模型监督 GPT-4 大模型,防止 AI 毁灭人类 Ilya 领衔的 OpenAI 对齐团队,发表了 用类似 GPT-2 监督 GPT-4 的方法,或可帮人类搞定自己更聪明的超级 AI! 团队声称,已经发现了对超人类模型进行实证对齐的新研究方向。未来超级 AI 系统对齐的一个核心挑战 人类需要监督比自己更聪明人工智能系统。 来源, 频道:@kejiqu 群组:@kejiquchat

封面图片

有人发现用2019年 GPT-2 的 1.5B 模型为基础,使用大规模指令集进行微调之后,模型指标竟然超越了2023年的羊驼 7

有人发现用2019年 GPT-2 的 1.5B 模型为基础,使用大规模指令集进行微调之后,模型指标竟然超越了2023年的羊驼 7B 模型。 OpenAI 这是领先了多少。。 恐怖如斯 (同时GPT-2当时国内每家大公司应该都搞了。。 anton: Fine tuned GPT-2 a 1.5B model from 2019 outperforming Alpaca LLaMA a 7B model from 2023...

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人