Open AI 最近被喷麻了,总算开源了点东西出来,Transformer Debugger 一个用于分析Transformer

Open AI 最近被喷麻了,总算开源了点东西出来,Transformer Debugger 一个用于分析Transformer内部结构的工具。 这个系统融合了自动解释功能和稀疏自动编码技术(Sparse Autoencoders),使得用户在无需编写代码的情况下就能快速探索和理解各种模型。 它能够同时处理神经网络中的神经元和关注焦点(Attention Heads)。使用这个系统,你可以在模型的前向传播过程中进行干预,比如移除某个特定的神经元,然后观察这样的操作会对结果产生怎样的影响。 简单来说,它提供了一种快速而简便的方法,让我们能够手动地去发现和理解神经网络中的“电路”这里的“电路”是指神经网络中特定的功能组件和它们之间的联系。 项目地址:

相关推荐

封面图片

OpenAI 开源 Transformer Debugger

OpenAI 开源 Transformer Debugger OpenAI 开源了工具,该工具是由其 Superalignment 团队开发,用于支持对小语言模型特定行为的调查,组合了自动可解释性技术和稀疏自编码器。它可以用于回答“为什么模型对于这一提示输出了令牌 A 而不是令牌 B”之类的问题。Transformer Debugger 采用 MIT 许可证托管在上。OpenAI 之前曾被马斯克抨击不再共享和开源技术。来源, 频道:@kejiqu 群组:@kejiquchat

封面图片

|| #机器学习 #电子书

|| #机器学习 #电子书 本书提供了深度学习的完整且简明的数学工程概述。内容包括卷积神经网络、递归神经网络、transformer、生成式对抗网络、强化学习、图神经网络等。 书中聚焦于深度学习模型、算法和方法的基本数学描述,很大程度上与编程代码、神经科学关系、历史视角无关。数学基础的读者可以快速掌握现代深度学习算法、模型和技术的本质。 深度学习可以通过数学语言在许多专业人员可理解的层面上进行描述。工程、信号处理、统计、物理、纯数学等领域的读者可以快速洞察该领域的关键数学工程组成部分。 书里包含深度学习的基础原理、主要模型架构、优化算法等内容。另外还提供了相关课程、工作坊、源代码等资源。 本内容面向想要从数学工程视角理解深度学习的专业人员,内容覆盖了深度学习的主要技术,使用简明的数学语言描述深度学习的关键组成部分,是了解深度学习数学本质的很好资源。

封面图片

OpenAI + Figure 最新成果

OpenAI + Figure 最新成果 机器人在端到端神经网络上与人类对话: → OpenAI 提供视觉推理和语言理解 → Figure 的神经网络提供快速、低等级、灵巧的机器人动作 视频无遥控操作,1 倍速。 Figure 的摄像头被喂入 OpenAI 大型视觉语言模型 (VLM)。 Figure 的神经网络还通过机器人上的摄像头以 10hz 的频率拍摄图像。 然后神经网络以 200hz 输出 24 个自由度的动作。 Domo 中展示的人工智能工作是由 Corey Lynch(刚加入)和 Toki Migimatsu 领导的。

封面图片

反思大脑设计:人类神经元的独特布线挑战了旧有假设

反思大脑设计:人类神经元的独特布线挑战了旧有假设 新研究发现,与小鼠的循环互动不同,人类新皮质神经元单向交流效率更高。这一发现可能会通过模仿人类大脑的连通性来促进人工神经网络的发展。记录多达十个神经元活动的多补丁实验装置。图片来源:Charité | 彭扬帆新皮质是人类智力的关键结构,厚度不足五毫米。在大脑的最外层,200 亿个神经元处理着无数的感官知觉,规划着行动,并构成了我们意识的基础。这些神经元是如何处理所有这些复杂信息的呢?这在很大程度上取决于它们之间的"连接"方式。夏里特神经生理学研究所所长约尔格-盖格(Jörg Geiger)教授解释说:"我们以前对新皮层神经结构的理解主要基于小鼠等动物模型的研究结果。在这些模型中,相邻的神经元经常像对话一样相互交流。一个神经元向另一个神经元发出信号,然后另一个神经元再向它发出信号。这意味着信息经常以循环往复的方式流动"。带有机器人机械手的多通道装置,可在两轮实验之间自动冲洗玻璃移液管。图片来源:Charité | 彭扬帆人类的新皮质比小鼠的新皮质更厚、更复杂。尽管如此,研究人员之前一直假设部分原因是缺乏数据它遵循相同的基本连接原则。盖革领导的夏里特研究小组现在利用极其罕见的组织样本和最先进的技术证明了事实并非如此。在这项研究中,研究人员检查了23名在夏里特接受神经外科手术治疗耐药性癫痫患者的脑组织。在手术过程中,医学上有必要切除脑组织,以便观察其下的病变结构。患者同意将这些组织用于研究目的。神经元的旋转重建。图片来源:Charité | Sabine Grosser为了能够观察人类新皮层最外层相邻神经元之间的信号流,研究小组开发出了一种改进版的"multipatch"技术。这样,研究人员就能同时监听多达十个神经元之间的通信。因此,他们能够在细胞停止体外活动前的短时间内进行必要数量的测量,以绘制网络图。他们分析了近 1170 个神经元之间的通信渠道,以及约 7200 个可能的连接。他们发现,只有一小部分神经元之间进行了相互对话。"人类的信息往往是单向流动的。它很少直接或通过循环返回起点,"该论文的第一作者彭扬帆博士解释说。他曾在神经生理学研究所从事这项研究,目前在夏里特神经学系和神经科学研究中心工作。研究小组根据人类网络结构的基本原理设计了一种计算机模拟,以证明这种前向信号流在处理数据方面的优势。来自多配接装置的微量移液管接近单个神经元。图片来源:Charité | Franz Mittermaier研究人员给人工神经网络布置了一项典型的机器学习任务:从口语数字录音中识别出正确的数字。在这项语音识别任务中,模仿人类结构的网络模型比以小鼠为模型的网络模型获得了更多的正确响应。它的效率也更高,同样的成绩在小鼠模型中需要相当于 380 个神经元,而在人类模型中只需要 150 个神经元。"我们在人类身上看到的定向网络结构更强大,也更节省资源,因为更多独立的神经元可以同时处理不同的任务,"彭解释道。"这意味着局部网络可以存储更多信息。目前还不清楚我们在颞叶皮层最外层的发现是否会扩展到其他皮层区域,也不清楚这些发现能在多大程度上解释人类独特的认知能力。"过去,人工智能开发人员在设计人工神经网络时会从生物模型中寻找灵感,但也会独立于生物模型来优化算法。盖格说:"许多人工神经网络已经使用了某种形式的前向连接,因为它能为某些任务带来更好的结果。人脑也显示出类似的网络原理,这令人着迷。这些对人类新皮质中具有成本效益的信息处理的洞察,可以为完善人工智能网络提供更多灵感"。编译来源:ScitechDaily ... PC版: 手机版:

封面图片

5个用于文本和文案写作的工作神经网络

5个用于文本和文案写作的工作神经网络 DeepL Write- 纠错和文本改进。 Writesonic - 为特定任务(如 通讯、网站、博客、广告等)撰写文本。 Quillbot Paraphraser - 文本改写。7种改写模式,2种免费。 Frase - 不同类型的文本生成器+改写。 Wordtune Spices - 文本清理和改进。 这些神经网络的主要内容不是学习如何写作。 #tools

封面图片

TensorFlow 是一个最先进的开源框架,可简化高级分析应用程序的开发和执行。它非常强大,并有可能在图形的帮助下为任何系统训

TensorFlow 是一个最先进的开源框架,可简化高级分析应用程序的开发和执行。它非常强大,并有可能在图形的帮助下为任何系统训练模型。 开发人员、数据科学家和 ml 工程师大量使用它来自动化流程、开发新系统和并行处理应用程序(如神经网络)。我们可以训练和运行深度神经网络,用于图像视频识别、单词嵌入、手写数字分类等。 TensorFlow 的巨大优势之一是其由数据科学家、ML 研究人员和数据工程师组成的开源社区,他们为其存储库做出贡献,使其更快、更有效地开发和训练 ML 和深度学习模型。它使用Python作为前端API,用于使用该框架构建应用程序,但具有其他几种语言的包装器,包括C++和Java。这意味着我们可以快速训练和部署我们的模型,无论编程语言或平台如何。 不可否认,学习TensorFlow可以使您的简历和作品集变得强大。本文评估了一些由世界领先的教育工作者提供的高质量 TensorFlow 课程,以帮你实现跨越式的职业目标。 | #框架

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人