LLM Engine:一个开源引擎,用于微调和提供大型语言模型的服务,是定制和提供LLM的最简单方式

:一个开源引擎,用于微调和提供大型语言模型的服务,是定制和提供LLM的最简单方式主要特征适用于你喜爱的模型的即用型API:部署和服务开源基础模型-包括LLaMA、MPT和Falcon。使用Scale托管模型或部署到您自己的基础设施。微调基础模型:根据您自己的数据微调开源基础模型,以优化性能。优化推理:LLMEngine提供推理API,用于流式响应和动态批处理输入,以实现更高的吞吐量和更低的延迟。开源集成:使用单个命令部署任何。即将推出的功能K8s安装文档:我们正在努力记录您自己的基础设施上推理和微调功能的安装和维护。目前,我们的文档涵盖了使用我们的客户端库访问Scale的托管基础​​设施。快速冷启动时间:为了防止GPU闲置,LLMEngine在不使用模型时会自动将模型缩放为零,并在几秒钟内扩展,即使对于大型基础模型也是如此。成本优化:部署人工智能模型比商业模型更便宜,包括冷启动和预热时间。

相关推荐

封面图片

Databricks 发布开源指令微调大语言模型 Dolly 2.0

Databricks发布开源指令微调大语言模型Dolly2.0Databricks公司两周前发布了它的指令遵循(instruction-following)大语言模型Dolly,本周三它发布了——可授权商业使用的开源指令微调大语言模型。Dolly2.0有120亿参数,基于EleutherAIpythia模型家族,使用高质量的人类生成的指令遵循数据集进行微调。Databricks开源了Dolly2.0的整个系统,包括训练代码、数据集和模型权重,全都适合商业使用。而目前开源社区流行的LLaMA衍生模型使用的是非商业使用授权。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

libLLM: 专为在普通个人电脑和移动设备上高效推理大型语言模型(LLM)而设计的开源项目。

:专为在普通个人电脑和移动设备上高效推理大型语言模型(LLM)而设计的开源项目。核心使用C++14编写,没有第三方依赖(BLAS、SentencePiece等),能在各种设备中无缝运行。特点为日常设备进行优化:libLLM经过优化,可在常见的个人电脑上平稳运行,确保大型语言模型的强大功能面向更广泛的用户。C++代码:采用标准C++14编写,简单高效。无外部依赖:核心功能无需第三方依赖(BLAS、SentencePiece等),所需的GEMM内核均在内部实现(avx2、avx512)。支持CUDA:支持使用CUDA加速推理。

封面图片

见鬼了,谷歌居然开源LLM模型了,Meta要慌了。#ai##llm#

见鬼了,谷歌居然开源LLM模型了,Meta要慌了。Gemma采用了和Gemini一样技术的开源LLM,同时质量也比同规模的模型要强。下面是一些要点:◈两种尺寸的模型权重:Gemma2B和Gemma7B。每种尺寸都有预训练和指导调整的变体。◈一个生成式人工智能工具包,为使用Gemma创建更安全的人工智能应用提供指导和必要工具。◈通过原生Keras3.0为所有主要框架(JAX、PyTorch和TensorFlow)提供推理和监督微调(SFT)的工具链。◈准备好的Colab和Kaggle笔记本,以及与HuggingFace、MaxText、NVIDIANeMo和TensorRT等流行工具的集成,使得开始使用Gemma变得非常容易。◈预先训练和经过调整的Gemma模型可以在您的笔记本电脑、工作站或GoogleCloud上运行,并可以轻松部署到VertexAI和GoogleKubernetesEngine(GKE)。◈跨多个人工智能硬件平台的优化确保了行业领先的性能,包括NVIDIAGPU和GoogleCloudTPU。◈允许所有组织进行负责任的商业使用和分发,无论规模大小。◈未来还会发布Gemma更大模型变体。了解更多:

封面图片

torchtune:用 PyTorch 轻松微调大语言模型

:用PyTorch轻松微调大语言模型PyTorch发布了torchtune库的alpha版本,用于轻松微调大型语言模型。该库遵循PyTorch的设计原则,提供了组件化和模块化的构建块,以及易于扩展的微调示例,以在各种消费级和专业GPU上微调流行的大型语言模型。torchtune支持从头到尾的完整微调工作流程,包括数据集和模型检查点的下载和准备、可组合的构建块进行训练自定义、训练过程的日志和指标记录、模型量化、在知名基准上的模型评估以及本地推理。torchtune致力于易扩展性、让微调大众化、与开源生态系统的互操作性。未来几周将持续为库增加更多模型、特征和微调技术。torchtune与HuggingFaceHub、PyTorchFSDP、Weights&Biases、EleutherAI的评估工具、ExecuTorch和torchao等开源生态系统的组件深度集成,为用户提供灵活性和控制力。

封面图片

发现了个好东西,这个老哥开源了一门课程《从头开始构建大型语言模型》,这门课程将一步步地指导你创建自己的LLM。#AI# #llm

发现了个好东西,这个老哥开源了一门课程《从头开始构建大型语言模型》,这门课程将一步步地指导你创建自己的LLM。#AI##llm#每个阶段都有清晰的文本、图表和实例来解释相关概念。课程内容包括:1.从基础理解注意力机制2.构建并预训练一个类似于GPT的模型3.学习如何加载预训练的权重4.对模型进行分类任务的微调5.使用直接偏好优化进行指令微调模型课程地址:https://github.com/rasbt/LLMs-from-scratch/tree/main

封面图片

苹果发布 OpenELM 大语言模型,基于开源训练和推理框架的语言模型

苹果发布OpenELM大语言模型,基于开源训练和推理框架的语言模型在WWDC24之前,苹果在HuggingFace平台上发布了一个“具有开源训练和推理框架的高效语言模型”,名为OpenELM。苹果这次发布了完整的框架,包括数据准备、训练、微调和评估程序,以及多个预训练的checkpoint和训练日志,以促进开源研究。其源码及预训练的模型权重和训练配方可在苹果Github库中获取。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人