:实现了大语言模型(LLM)训练的简单、纯 C/CUDA 版本,无需 PyTorch 或 cPython

None

相关推荐

封面图片

:用于大规模语言模型(LLM)训练的原生PyTorch库

封面图片

:用 PyTorch 从头开始实现的视觉语言模型

封面图片

:用 PyTorch 轻松微调大语言模型

:用 PyTorch 轻松微调大语言模型 PyTorch发布了torchtune库的alpha版本,用于轻松微调大型语言模型。该库遵循PyTorch的设计原则,提供了组件化和模块化的构建块,以及易于扩展的微调示例,以在各种消费级和专业GPU上微调流行的大型语言模型。 torchtune支持从头到尾的完整微调工作流程,包括数据集和模型检查点的下载和准备、可组合的构建块进行训练自定义、训练过程的日志和指标记录、模型量化、在知名基准上的模型评估以及本地推理。 torchtune致力于易扩展性、让微调大众化、与开源生态系统的互操作性。未来几周将持续为库增加更多模型、特征和微调技术。 torchtune与Hugging Face Hub、PyTorch FSDP、Weights & Biases、EleutherAI的评估工具、ExecuTorch和torchao等开源生态系统的组件深度集成,为用户提供灵活性和控制力。

封面图片

GPT4All v3.0.0 本地部署语言大模型(LLM) 无需显卡|

封面图片

:纯C语言推断Mamba模型,在CPU上的速度比pytorch更快

封面图片

:利用任意大型语言模型(LLM)创建具有状态的智能代理,无需编写代码即可实现复杂任务的自动化执行,提供规划、记忆保存或回忆等功能

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人