Hugging Face 和 ServiceNow 发布免费代码生成模型 StarCoder

HuggingFace和ServiceNow发布免费代码生成模型StarCoderAI创业公司HuggingFace和ServiceNow发布了免费的代码生成模型。类似DeepMind的AlphaCode、亚马逊的CodeWhisperer和GitHub的Copilot(基于OpenAI的Codex),StarCoder使用ApacheLicense2.0许可证,允许任何人免费使用,但严格意义上不是开源模型,它禁止用户使用该模型生成或传播恶意代码。StarCoder使用了开源代码数据集TheStack训练,有150亿参数。其数据集包括了逾80种不同编程语言和来自githubissues和commits的文本。#AI来源,https://github.com/bigcode-project/starcoder来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

英伟达联合推出 StarCoder2 模型:生成、补全、调试代码一气呵成

英伟达联合推出StarCoder2模型:生成、补全、调试代码一气呵成英伟达联合HuggingFace和ServiceNow,发布了名为的LLMs系列模型,希望成为代码生成领域的新标准,具备性能、透明度和成本效益等诸多优势。该系列模型包括一个由ServiceNow训练的30亿参数模型、一个由HuggingFace训练的70亿参数模型和一个由英伟达训练的150亿参数模型。这是通过使用名为Stackv2的新代码数据集实现的,该数据集比Stackv1大七倍;新的训练技术也意味着该模型可以更好地理解COBOL等低资源编程语言、数学和程序源代码讨论。StarCoder2经过619门编程语言培训,可以执行源代码生成、工作流生成、文本摘要等专业任务。英伟达表示,开发人员可以利用它进行代码补全、高级代码总结、代码片段检索等,从而提高工作效率。StarCoder2采用BigCodeOpenRAIL-M许可证,允许免版税访问和使用。https://github.com/bigcode-project/starcoder2https://huggingface.co/bigcode频道:@kejiqu群组:@kejiquchat

封面图片

IBM 开源 Granite 代码模型

IBM开源Granite代码模型IBM开源了它用于辅助编程的代码模型,源代码托管在GitHub上,采用ApacheLicense2.0许可证,允许商业使用。与其它AI模型不同的是,IBM致力于避免模型的版权问题,使用了开放数据集如GitHubCodeClean、Starcoder、开放代码库和GitHubissues等进行训练。Granite是decoder-only代码模型,可用于修bug、解释代码和生成代码文档,使用了116种编程语言的代码进行训练,参数规模30亿、80亿、200亿和340亿。IBM称测试显示Granite在开源代码模型中表现最出色。来源,频道:@kejiqu群组:@kejiquchat

封面图片

Hugging Face发布生成式AI健康任务测试基准

HuggingFace发布生成式AI健康任务测试基准人工智能初创公司HuggingFace在最新发布的名为OpenMedical-LLM的基准测试中提出了一种解决方案。OpenMedical-LLM是与非营利组织开放生命科学人工智能(OpenLifeScienceAI)和爱丁堡大学自然语言处理小组的研究人员合作创建的,旨在对生成式人工智能模型在一系列医疗相关任务中的性能进行标准化评估。OpenMedical-LLM本身并不是一个全新的基准,而是将现有的测试集(MedQA、PubMedQA、MedMCQA等)拼接在一起,旨在探究医学常识和相关领域(如解剖学、药理学、遗传学和临床实践)的模型。该基准包含要求医学推理和理解的选择题和开放式问题,借鉴了美国和印度医学执照考试和大学生物试题库等材料。HuggingFace在一篇博文中写道:"[开放医学-LLM]使研究人员和从业人员能够识别不同方法的优缺点,推动该领域的进一步发展,并最终促进更好的患者护理和治疗效果。"HuggingFace将该基准定位为对医疗领域生成式人工智能模型的"稳健评估"。但社交媒体上的一些医学专家告诫说,不要对OpenMedical-LLM抱有过高期望,以免导致不明智的部署。阿尔伯塔大学神经病学住院医生利亚姆-麦考伊(LiamMcCoy)在"X"上指出,医学答疑的"人为环境"与实际临床实践之间的差距可能相当大。博文的共同作者、"HuggingFace"研究科学家ClémentineFourrier对此表示赞同。"这些排行榜只应作为针对特定用例探索哪种[生成式人工智能模型]的第一近似值,但随后始终需要进行更深入的测试阶段,以检验模型在真实条件下的局限性和相关性,"Fourrier在X上回答说,"医疗[模型]绝对不应该由患者自行使用,而应该经过培训,成为医学博士的辅助工具。"这不禁让人想起Google在泰国尝试将糖尿病视网膜病变的人工智能筛查工具引入医疗系统时的经历。Google创建了一个深度学习系统,可以扫描眼睛图像,寻找视网膜病变的证据,视网膜病变是导致视力丧失的主要原因。但是,尽管理论上具有很高的准确性,该工具在实际测试中被证明并不实用,结果不一致,与实际操作普遍不协调,令患者和护士都感到沮丧。美国食品和药物管理局迄今已批准了139种与人工智能相关的医疗设备,其中没有一种使用了生成式人工智能,这很能说明问题。要测试生成式人工智能工具在实验室中的表现如何转化到医院和门诊中,或许更重要的是测试其结果如何随时间变化,这异常困难。这并不是说OpenMedical-LLM没有用处或信息量不大。结果排行榜可以提醒人们,模型对基本健康问题的回答有多么糟糕。但是,OpenMedical-LLM以及其他任何基准都无法替代经过深思熟虑的真实世界测试。...PC版:https://www.cnbeta.com.tw/articles/soft/1427874.htm手机版:https://m.cnbeta.com.tw/view/1427874.htm

封面图片

图像生成模型 Stable Diffusion XL 1.0 开源发布

图像生成模型StableDiffusionXL1.0开源发布SDXL1.0的性能5倍优于SD1.5(开源社区主流),是开源世界最大参数的图像模型,也是StabilityAI最新&最先进的模型。现可通过Github、HuggingFace、API、AWS、Clipdrop、DreamStudio直接访问。SDXL1.0拥有3.5B参数的基础模型(可单独使用)和6.6B参数的专家混合管道(多了一个单独执行最终去噪的精炼模型),精炼模型可以为基础模型的输出添加更准确的颜色、更高的对比度和更精细的细节。微调SDXL1.0的图像需求量也急剧下降,现在只需5到10张图像就可以快速微调出一个专门生成特定人物、事物的模型。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Hugging Face 开源“世界最大”AI 训练合成数据集 Cosmopedia

HuggingFace开源“世界最大”AI训练合成数据集CosmopediaHuggingFace近日开源了一款名为“Cosmopedia”的 AI 训练数据集,号称是目前世界上最大的合成数据集。该数据集内容均由Mixtral7b模型汇总生成,其中包含大量教科书、博客文章、故事小说、WikiHow教程,共计250亿个Token。HuggingFace表示,这次开源的数据集为0.1版本,未来团队还将持续更新该数据集,推进业界 AI 训练发展。项目地址:消息来源:线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

继 CodeLlama 开源之后,北大等机构正式开源了性能更强的代码基座大模型 CodeShell-7B 和代码助手 CodeS

继CodeLlama开源之后,北大等机构正式开源了性能更强的代码基座大模型CodeShell-7B和代码助手CodeShell-Chat。不仅如此,团队还把方便易用的IDE插件也开源了!今天,北京大学软件工程国家工程研究中心知识计算实验室联合四川天府银行AI实验室,正式开源70亿参数的代码大模型CodeShell,成为同等规模最强代码基座。与此同时,团队将软件开发代码助手的完整解决方案全部开源。CodeShell模型和插件的相关代码已经在Github发布,并严格遵循Apache2.0开源协议,模型在HuggingFace平台发布,支持商用。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人