:易于使用的PyTorch库,可轻松编写、微调和实验LLM模型。该库提供了多种功能,包括使用native-PyTorch实现的流

None

相关推荐

封面图片

torchtune:用 PyTorch 轻松微调大语言模型

:用PyTorch轻松微调大语言模型PyTorch发布了torchtune库的alpha版本,用于轻松微调大型语言模型。该库遵循PyTorch的设计原则,提供了组件化和模块化的构建块,以及易于扩展的微调示例,以在各种消费级和专业GPU上微调流行的大型语言模型。torchtune支持从头到尾的完整微调工作流程,包括数据集和模型检查点的下载和准备、可组合的构建块进行训练自定义、训练过程的日志和指标记录、模型量化、在知名基准上的模型评估以及本地推理。torchtune致力于易扩展性、让微调大众化、与开源生态系统的互操作性。未来几周将持续为库增加更多模型、特征和微调技术。torchtune与HuggingFaceHub、PyTorchFSDP、Weights&Biases、EleutherAI的评估工具、ExecuTorch和torchao等开源生态系统的组件深度集成,为用户提供灵活性和控制力。

封面图片

:用于大规模语言模型(LLM)训练的原生PyTorch库

封面图片

:用于训练、微调和生成模型推理的框架,包括文本到图像生成、可控图像合成、图像编辑等多种功能

封面图片

:大型语言模型实验室应用,支持以下特性:下载数百种流行模型;通过聊天或完成与模型交互;使用数据集库或自己的数据对模型进行微调;评

封面图片

Poly:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。主要提供:为多个本地LLM模型提供高性能、高效和可靠的服务可选择通过CUDA或Metal进行GPU加速可配置的LLM完成任务(提示、召回、停止令牌等)通过HTTPSSE流式传输完成响应,使用WebSockets聊天使用JSON模式对完成输出进行有偏差的采样使用向量数据库(内置文件或Qdrant等外部数据库)进行记忆检索接受PDF和DOCX文件并自动将其分块存储到内存中使用静态API密钥或JWT标记确保API安全简单、单一的二进制+配置文件服务器部署,可水平扩展附加功能:用于轻松测试和微调配置的Web客户端用于本地运行模型的单二进制跨平台桌面客户端

封面图片

:一个Flutter库,用于运行ONNX模型,可以将Pytorch、Tensorflow等主流机器学习框架训练的模型轻松转换为O

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人