None
Databricks发布开源指令微调大语言模型Dolly2.0Databricks公司两周前发布了它的指令遵循(instruction-following)大语言模型Dolly,本周三它发布了——可授权商业使用的开源指令微调大语言模型。Dolly2.0有120亿参数,基于EleutherAIpythia模型家族,使用高质量的人类生成的指令遵循数据集进行微调。Databricks开源了Dolly2.0的整个系统,包括训练代码、数据集和模型权重,全都适合商业使用。而目前开源社区流行的LLaMA衍生模型使用的是非商业使用授权。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot
上海:将探索大模型的新型开源和推广模式,降低创新创业团队、中小企业等大模型训练门槛3月23日,“2024全球开发者先锋大会”(GDC)在上海开幕。大会上,记者了解到,上海支持通用大模型和垂直大模型的研发,将探索大模型的新型开源和推广模式,降低创新创业团队、中小企业等大模型训练门槛。上海市人民政府副市长陈杰在会上表示,上海人工智能产业生态持续完善。上海率先发布了支持大模型的若干政策、举措,推动了大模型语料数据联盟的实体化运作,开源一系列高质量的语料数据,为全球的人工智能开发者创新创造,构建更为良好的生态环境。(新华财经)
OpenAI携手ScaleAI,为企业增强GPT模型微调功能OpenAI近日,宣布和ScaleAI展开深度合作,在企业环境中增强GPT-3.5Turbo和GPT-4大语言模型。OpenAI表示通过双方的深度合作,可以帮助企业定制OpenAI的大语言模型,满足企业的个性化需求。OpenAI在博文中再次强调,通过微调API发送的所有数据均为客户财产,不会被OpenAI或任何其他实体用于训练其他模型。ScaleAI在数据标签和AI解决方案方面有着独到优势,OpenAI将其列为“首选合作伙伴”。来源,频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot
🔍 发送关键词来寻找群组、频道或视频。