Meta 推出 LLM Compiler 代码优化模型,可搭配其他 AI 改善代码生成 / 编译能力
Meta推出LLMCompiler代码优化模型,可搭配其他AI改善代码生成/编译能力Meta前天推出了一款名为“LLMCompiler”的模型,该模型基于Meta现有的CodeLlama打造,主打代码优化,目前相关模型已登陆HuggingFace,提供70亿参数及130亿参数两个版本,允许学术及商业使用。Meta认为,尽管业界各大语言模型已在各种编程代码任务中展现了出色的能力,但此类模型在代码优化还有进步空间,目前推出的LLMCompiler模型便是一款专为优化代码任务设计的预训练模型,能够模拟编译器对代码进行优化,或将“已经过优化的代码转换回原本的语言”。LLMCompiler在 5460亿个LLVM-IR和汇编代码标记的庞大语料库上进行了训练,据称能够达到77%的“代码优化潜力”,开发者可以自由将相关模型配合其他 AI 模型一起使用,从而改善生成代码的质量。关注频道@ZaiHuaPd频道爆料@ZaiHuabot