通义千问70亿参数模型上线魔搭社区,开源免费可商用

通义千问70亿参数模型上线魔搭社区,开源免费可商用 AI模型社区魔搭ModelScope上架两款开源模型和,阿里云确认其为通义千问70亿参数通用模型和对话模型,两款模型均开源、免费、可商用。在多个权威测评中,通义千问7B模型取得了远超国内外同等尺寸模型的效果,成为当下业界最强的中英文7B开源模型。 Qwen-7B是支持中、英等多种语言的基座模型,在超过2万亿token数据集上训练,上下文窗口长度达到8k。Qwen-7B-Chat是基于基座模型的中英文对话模型,已实现与人类认知对齐。开源代码支持对Qwen-7B和Qwen-7B-Chat的量化,支持用户在消费级显卡上部署和运行模型。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

【通义千问720亿参数模型开源】

【通义千问720亿参数模型开源】 华尔街见闻获悉,12月1日, #阿里 云开源通义千问720亿参数模型Qwen-72B。据了解,该版本模型的性能超过Llama 2-70B和大部分商用闭源模型,可适配企业级、科研级的高性能应用。此外,通义千问还开源了18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio,实现“全尺寸、全模态”开源。(全天候科技)

封面图片

【通义千问开源首个MoE模型】

【通义千问开源首个MoE模型】 据 #阿里 通义千问官微,通义千问团队开源首个MoE模型,名为Qwen1.5-MoE-A2.7B。它仅有27亿个激活参数,但性能可与当前公认最先进的70亿参数模型(Mistral 7B、Qwen1.5-7B等)相媲美。

封面图片

通义千问开源千亿级参数模型

通义千问开源千亿级参数模型 通义千问开源1100亿参数模型Qwen1.5-110B,成为全系列首个千亿级参数开源模型。通义千问1100亿参数模型延续了Qwen1.5系列的Transformer解码器架构,采用了分组查询注意力方法(GQA),使得模型在推理时更加高效。110B模型支持32K上下文长度,具备优秀的多语言能力,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等多种语言。 来源:雪球7X24资讯

封面图片

阿里通义千问开源 320 亿参数模型

阿里通义千问开源 320 亿参数模型 4 月 7 日,阿里云通义千问开源 320 亿参数模型 。通义千问此前已开源 5 亿、18 亿、40 亿、70 亿、140 亿和 720 亿参数 6 款大语言模型。 此次开源的 320 亿参数模型,将在性能、效率和内存占用之间实现更理想的平衡。例如,相比通义千问 14B 开源模型,32B 在智能体场景下能力更强;相比通义千问 72B 开源模型,32B 的推理成本更低。通义千问团队希望 32B 开源模型能为企业和开发者提供更高性价比的模型选择。 目前,通义千问共开源了 7 款大语言模型,在海内外开源社区累计下载量突破 300 万。来源, 频道:@kejiqu 群组:@kejiquchat

封面图片

阿里通义千问 Qwen2 大模型发布并同步开源

阿里通义千问 Qwen2 大模型发布并同步开源 阿里通义千问 Qwen2 大模型今日发布,并在 Hugging Face 和ModelScope 上同步开源。据悉,Qwen2 系列涵盖5个尺寸的预训练和指令微调模型,其中包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B,上下文长度支持进一步扩展,最高达128K tokens。

封面图片

阿里通义实验室黄斐:开源进入千问时代,即将发布的推理模型会更好用

阿里通义实验室黄斐:开源进入千问时代,即将发布的推理模型会更好用 阿里通义千问已成全球第一大开源模型系列,将“很快”放出基于最新模型Qwen2.5-Max的推理模型。2月21日,全球开发者大会(GDC)在上海开幕,在阿里云魔搭社区主办的论坛上,据阿里巴巴通义实验室科学家黄斐介绍,到目前为止,整个通义千问(Qwen)系列模型的下载量达到了1.8亿,累计衍生模型总数达到9万个,衍生模型数已经超越Me…… - 电报频道 - #娟姐新闻: @juanjienews

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人