:实现了大语言模型(LLM)训练的简单、纯C/CUDA版本,无需PyTorch或cPython

None

相关推荐

封面图片

:用于大规模语言模型(LLM)训练的原生PyTorch库

封面图片

:用PyTorch从头开始实现的视觉语言模型

封面图片

:纯C语言推断Mamba模型,在CPU上的速度比pytorch更快

封面图片

:易于使用的PyTorch库,可轻松编写、微调和实验LLM模型。该库提供了多种功能,包括使用native-PyTorch实现的流

封面图片

torchtune:用 PyTorch 轻松微调大语言模型

:用PyTorch轻松微调大语言模型PyTorch发布了torchtune库的alpha版本,用于轻松微调大型语言模型。该库遵循PyTorch的设计原则,提供了组件化和模块化的构建块,以及易于扩展的微调示例,以在各种消费级和专业GPU上微调流行的大型语言模型。torchtune支持从头到尾的完整微调工作流程,包括数据集和模型检查点的下载和准备、可组合的构建块进行训练自定义、训练过程的日志和指标记录、模型量化、在知名基准上的模型评估以及本地推理。torchtune致力于易扩展性、让微调大众化、与开源生态系统的互操作性。未来几周将持续为库增加更多模型、特征和微调技术。torchtune与HuggingFaceHub、PyTorchFSDP、Weights&Biases、EleutherAI的评估工具、ExecuTorch和torchao等开源生态系统的组件深度集成,为用户提供灵活性和控制力。

封面图片

:用于在大型语言模型(LLM)中实现水印的研究和应用的工具包

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人