继 CodeLlama 开源之后,北大等机构正式开源了性能更强的代码基座大模型 CodeShell-7B 和代码助手 CodeS

继 CodeLlama 开源之后,北大等机构正式开源了性能更强的代码基座大模型 CodeShell-7B 和代码助手 CodeShell-Chat。不仅如此,团队还把方便易用的 IDE 插件也开源了! 今天,北京大学软件工程国家工程研究中心知识计算实验室联合四川天府银行 AI 实验室,正式开源 70 亿参数的代码大模型 CodeShell,成为同等规模最强代码基座。 与此同时,团队将软件开发代码助手的完整解决方案全部开源。 CodeShell 模型和插件的相关代码已经在 Github 发布,并严格遵循 Apache 2.0 开源协议,模型在 HuggingFace 平台发布,支持商用。 |||

相关推荐

封面图片

北大推出“最强编程助手”:代码大模型 CodeShell-7B 开源

北大推出“最强编程助手”:代码大模型 CodeShell-7B 开源 10 月 19 日消息,北京大学软件工程国家工程研究中心知识计算实验室联合四川天府银行 AI 实验室,今天正式开源旗下 70 亿参数的代码大模型 CodeShell,号称“同等规模最强代码基座”。 官方已经在 GitHub 开源了模型、相关配套方案及 IDE 插件,支持商用。有兴趣的可以。 项目详情中介绍,CodeShell-7B 基于 5000 亿 Tokens 进行了冷启动训练,上下文窗口长度为 8192,架构设计上融合了 StarCoder 和 Llama 两者的核心特性。 官方声称,CodeShell 的原始训练数据基于自家爬取的 Github 数据、Stack 和 StarCoder 数据集,以及少量“高质量的中英文数据”,这些预训练数据均经过了“数据判重、数据过滤规则、数据质量模型一系列流水线”。

封面图片

复旦大学开源国内首个类ChatGPT模型MOSS,支持插件增强

复旦大学开源国内首个类ChatGPT模型MOSS,支持插件增强 4月21日消息,国内首个类ChatGPT模型MOSS已正式开源。该模型由复旦大学自然语言处理实验室开发,名字致敬于《流浪地球2》中的量子机器人MOSS。此前,在测试时曾发布在公开平台,但由于瞬间压力过大,导致服务器过载,学术团队也表示了道歉和承诺进一步优化。 目前,MOSS 模型已上线开源,相关代码、数据、模型参数已在 Github 和 Hugging Face 等平台开放,供科研人员下载。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【香港大学等机构研究者推出开源智能体框架OpenAgents,功能与ChatGPTPlus近似】

【香港大学等机构研究者推出开源智能体框架OpenAgents,功能与ChatGPTPlus近似】 来自香港大学、XLang 实验室、Sea AI 实验室和 Salesforce 的研究者近日联合打造了一款用于真实世界生产力工具的开源智能体框架 OpenAgents,并开源了全栈代码。据悉,OpenAgents 用基于「大语言模型」(LLMs)的技术和全栈工程代码尝试近似复刻了 ChatGPT Plus 的功能,既能执行 Python/SQL 代码,熟练调用工具,也能上网找地图发帖子。 快讯/广告 联系 @xingkong888885

封面图片

IBM 开源 Granite 代码模型

IBM 开源 Granite 代码模型 IBM 开源了它用于辅助编程的代码模型,源代码托管在 GitHub 上,采用 Apache License 2.0 许可证,允许商业使用。与其它 AI 模型不同的是,IBM 致力于避免模型的版权问题,使用了开放数据集如 GitHub Code Clean、Starcoder、开放代码库和 GitHub issues 等进行训练。Granite 是 decoder-only 代码模型,可用于修 bug、解释代码和生成代码文档,使用了 116 种编程语言的代码进行训练,参数规模 30 亿、80 亿、200 亿和 340 亿。IBM 称测试显示 Granite 在开源代码模型中表现最出色。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

Huggingface 正式推出了自己的 AI 聊天应用 Huggingchat,支持非常多常见的开源模型,速度很快,体验也不错

Huggingface 正式推出了自己的 AI 聊天应用 Huggingchat,支持非常多常见的开源模型,速度很快,体验也不错。 App Store: 网页端: via 匿名 标签: #Huggingface #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

StarCoder2 编码开源模型,代码、数据、模型全部都开源了。

StarCoder2 编码开源模型,代码、数据、模型全部都开源了。 StarCoder2 使用 16k Token上下文和 4T+Token的存储库级信息进行训练。 The Stack v2 数据集- 拥有 900B+ Token的最大代码数据集。 项目地址:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人