好东西,Elicit发布了一个机器学习必读清单,能够系统地了解机器学习的各个方面,尤其是语言模型。

好东西,Elicit发布了一个机器学习必读清单,能够系统地了解机器学习的各个方面,尤其是语言模型。清单包括下面几个部分:机器学习基础:介绍机器学习从基础到进阶的各种概念,如机器学习入门、深度强化学习和反向传播。Transformer与基础模型:深入探讨了Transformer架构,内容包括视觉引导、实践调查和各种模型的技术报告。训练与微调:介绍了训练和精调语言模型的方法与策略,特别强调了整合人类反馈和零样本学习。推理与运行策略:探讨了在上下文中进行推理、任务分解和工具使用的策略,分析大语言模型如何处理复杂的推理和解决问题的任务。应用领域:课程还涵盖了机器学习在科学、预测和搜索排名等领域的实际应用。机器学习实践:介绍了在实际部署中的洞见及评估语言模型在实际环境中的性能标准。进阶主题:涉及更为专业的主题,如世界模型、因果关系、规划及机器学习中的不确定性。整体观:讨论了AI的扩展、安全性及AI对经济和社会影响的更宽泛话题,为理解机器学习的整体景观提供了全面的视角。这里阅读清单:https://github.com/elicit/machine-learning-list

相关推荐

封面图片

大型语言模型基础知识可视化学习指南 | link | #指南 #可视化

大型语言模型基础知识可视化学习指南#指南#可视化本文收集了一系列工具和文章,通过直观的可视化方式解释大型语言模型(LLM)的基础概念。JayAlammar的《图解Transformer》以生动的可视化说明了Transformer架构的工作原理。由于Transformer是所有语言模型的基石,理解它的基础尤为重要。《图解GPT-2》直观地展示了GPT-2的内部结构,如注意力机制等,有助于理解LLM的组成部分。BrendanBycroft的LLM可视化工具允许直观地探索不同LLM内部状态的变化。FinancialTimes的文章解释了Transformer的重要性,以及它如何促成了生成式AI的发展。OpenAI的Tokenizer工具演示了Tokenizer在文本处理中的作用。SimonWilson的文章深入解释了GPTTokenizer的工作原理。GregKamradt的Chunkviz工具展示了文本是如何被LLM处理成“块”的。PAIR的“机器学习模型记忆还是泛化?”交互式介绍了两种学习方式及其对LLM的影响。这些资源从多个维度直观地说明了LLM的核心概念和机制,有助于科技从业者和爱好者更好地理解LLM技术的本质。

封面图片

Google DeepMind 发布视觉语言动作模型 RT-2

GoogleDeepMind发布视觉语言动作模型RT-2GoogleDeepMind今日发布了一种新的AI模型RoboticsTransformer2(RT-2),可以帮助训练机器人理解扔垃圾等任务。在论文中,谷歌介绍RT-2是一种新型视觉语言动作(VLA)模型,从网络和机器人数据中学习,并将这些知识转化为机器人控制的通用指令,同时保留网络规模能力。例如,可以帮助训练机器人理解扔垃圾等任务。RT-2表明,视觉语言模型(VLM)可以转换为强大的视觉语言动作(VLA)模型,该模型可以通过将VLM预训练与机器人数据相结合来直接控制机器人。RT-2不仅是对现有VLM模型的简单而有效的修改,而且还显示了构建通用物理机器人的前景,该机器人可以推理、解决问题和解释信息,以在现实世界中执行各种任务。论文:https://robotics-transformer2.github.io/assets/rt2.pdf来源:https://www.deepmind.com/blog/rt-2-new-model-translates-vision-and-language-into-action投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

机器学习方案手册,一本包含逐步说明为各种任务训练深度学习模型的书。内容覆盖自然语言处理、计算机视觉、图像与文字

机器学习方案手册,一本包含逐步说明为各种任务训练深度学习模型的书。内容覆盖自然语言处理、计算机视觉、图像与文字本书分为3个部分:自然语言处理(NLP)计算机视觉(CV)图片和文字以下是本节各章的简要概述:命名实体识别-讨论使用conllpp数据集识别命名实体的训练转换器模型。我们将使用的特定模型称为bert-base-cased。该模型是原始BERT的较小版本,并且区分大小写,这意味着它将大写和小写字母视为不同。掩蔽语言建模-与填空问题类似,我们训练一个模型来使用xsum数据集预测句子中的掩蔽词。我们将使用的特定模型称为distilbert-base-uncased。这是bertbaseuncased模型的精炼版本,它以相同的方式处理大写和小写字母。机器翻译——在本章中,训练一个模型将文本从英语翻译成西班牙语。我们将在新闻评论数据集上训练来自赫尔辛基NLP小组的变压器模型。总结——在本章中,训练了一个多语言模型来总结英语和西班牙语句子。使用的模型是T5Transformer模型的多语言版本,使用的数据集是amazonreviewsdataset。因果语言建模-本章重点介绍训练模型以自动完成Python代码。为此,我们将使用用于训练代码鹦鹉模型的数据。计算机视觉部分涵盖了该领域下最常见的任务。本节中的章节使用pytorch闪电、pytorch图像模型(timm)、albumentations库和权重和偏差平台。以下是本节各章的简要概述:图像分类-我们将训练卷积神经网络(CNN)模型对动物图像进行分类。我们将使用的CNN模型是“resnet34”,使用的数据集是动物图像数据集。图像分割-本章侧重于训练模型以分割给定图像中的道路。我们将使用U-net模型来完成此任务。物体检测——在本章中,我们将专注于检测图像中的汽车。我们将预测与图像中包围汽车的边界框相对应的坐标。对于这个任务,我们将使用fast-rcnn模型。最后一节包含训练模型以在给定图像的情况下生成标题的章节。它将有一个视觉转换器作为编码器,gpt-2模型作为解码器。#电子书#机器学习#手册

封面图片

FastServe:专注于GenAI和LLM(大型语言模型)的快速机器学习模型服务项目,以简单性为首要目标。其主要特色包括快速部

:专注于GenAI和LLM(大型语言模型)的快速机器学习模型服务项目,以简单性为首要目标。其主要特色包括快速部署、支持多种模型类型和自定义模型服务能力。通过简单的安装和使用示例,用户可以快速部署各种模型,包括Mistral-7B、SDXLTurbo、人脸检测和图像分类等。FastServe提供了用户界面,方便用户进行交互操作。部署方面,可以轻松集成到LightningAIStudio。

封面图片

深度学习数学工程 | YouTube | #机器学习 #电子书

#机器学习#电子书本书提供了深度学习的完整且简明的数学工程概述。内容包括卷积神经网络、递归神经网络、transformer、生成式对抗网络、强化学习、图神经网络等。书中聚焦于深度学习模型、算法和方法的基本数学描述,很大程度上与编程代码、神经科学关系、历史视角无关。数学基础的读者可以快速掌握现代深度学习算法、模型和技术的本质。深度学习可以通过数学语言在许多专业人员可理解的层面上进行描述。工程、信号处理、统计、物理、纯数学等领域的读者可以快速洞察该领域的关键数学工程组成部分。书里包含深度学习的基础原理、主要模型架构、优化算法等内容。另外还提供了相关课程、工作坊、源代码等资源。本内容面向想要从数学工程视角理解深度学习的专业人员,内容覆盖了深度学习的主要技术,使用简明的数学语言描述深度学习的关键组成部分,是了解深度学习数学本质的很好资源。

封面图片

huemint.com 是一个用机器学习生成配色方案的网站。它通过使用 Transformer 和 DDPM 图像生成模型学习设

huemint.com是一个用机器学习生成配色方案的网站。它通过使用Transformer和DDPM图像生成模型学习设计师的配色方案,并根据输入的颜色和对比度需求输出色板。除了对常见的应用场景的预设以外,网站还对色板的风格设计了数个预设,比如高对比度、暗色、糖果色等等。你也可以手动输入模型参数来获得更好的配色方案。其作者之前还开发了使用机器学习生成调色板和提取图片主题色的同类网站colormind.io。(配图为网站使用Brand>3colors选项生成的一个结果)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人