国人在GitHub开源的一个项目:Colossal-AI,仅需极少量修改,即可让现有深度学习,在单张消费级显卡上,完成大模型训练,极大降低了研发成本!简而言之,有了这个开源后,每个人都可以在家训练AI大模型!尤其是大幅度降低了AI大模型微调、推理等下游任务和应用部署的门槛

None

相关推荐

封面图片

数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品#抽屉IT

封面图片

Databricks 发布开源指令微调大语言模型 Dolly 2.0

Databricks发布开源指令微调大语言模型Dolly2.0Databricks公司两周前发布了它的指令遵循(instruction-following)大语言模型Dolly,本周三它发布了——可授权商业使用的开源指令微调大语言模型。Dolly2.0有120亿参数,基于EleutherAIpythia模型家族,使用高质量的人类生成的指令遵循数据集进行微调。Databricks开源了Dolly2.0的整个系统,包括训练代码、数据集和模型权重,全都适合商业使用。而目前开源社区流行的LLaMA衍生模型使用的是非商业使用授权。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

上海:将探索大模型的新型开源和推广模式,降低创新创业团队、中小企业等大模型训练门槛

上海:将探索大模型的新型开源和推广模式,降低创新创业团队、中小企业等大模型训练门槛3月23日,“2024全球开发者先锋大会”(GDC)在上海开幕。大会上,记者了解到,上海支持通用大模型和垂直大模型的研发,将探索大模型的新型开源和推广模式,降低创新创业团队、中小企业等大模型训练门槛。上海市人民政府副市长陈杰在会上表示,上海人工智能产业生态持续完善。上海率先发布了支持大模型的若干政策、举措,推动了大模型语料数据联盟的实体化运作,开源一系列高质量的语料数据,为全球的人工智能开发者创新创造,构建更为良好的生态环境。(新华财经)

封面图片

开源LLM微调训练指南:如何打造属于自己的LLM模型https://mp.weixin.qq.com/s/R-6ds1bFmOq

封面图片

OpenAI 携手 Scale AI,为企业增强 GPT 模型微调功能

OpenAI携手ScaleAI,为企业增强GPT模型微调功能OpenAI近日,宣布和ScaleAI展开深度合作,在企业环境中增强GPT-3.5Turbo和GPT-4大语言模型。OpenAI表示通过双方的深度合作,可以帮助企业定制OpenAI的大语言模型,满足企业的个性化需求。OpenAI在博文中再次强调,通过微调API发送的所有数据均为客户财产,不会被OpenAI或任何其他实体用于训练其他模型。ScaleAI在数据标签和AI解决方案方面有着独到优势,OpenAI将其列为“首选合作伙伴”。来源,频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

直播训练开源大模型CPM-Live

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人