阿里开源 Qwen1.5-110B 模型

该模型在基础能力评估中与Meta-Llama3-70B不相上下。支持32KToken的上下文长度。提供包括英语、中文、法语、西班牙语、日语、韩语、越南语等多种语言的多语言支持。模型下载:https://huggingface.co/Qwen/Qwen1.5-110B标签:#通义千问#AI频道:@GodlyNews1投稿:@GodlyNewsBot

相关推荐

封面图片

阿里通义千问 Qwen2 大模型发布并同步开源

阿里通义千问Qwen2大模型发布并同步开源阿里通义千问Qwen2大模型今日发布,并在HuggingFace和ModelScope上同步开源。据悉,Qwen2系列涵盖5个尺寸的预训练和指令微调模型,其中包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B,上下文长度支持进一步扩展,最高达128Ktokens。——

封面图片

阿里巴巴开源1100亿参数Qwen1.5-110B模型,性能与Meta Llama3-70B相当

阿里巴巴开源1100亿参数Qwen1.5-110B模型,性能与MetaLlama3-70B相当阿里巴巴开源了Qwen1.5系列的首个千亿参数模型Qwen1.5-110B,其在基础能力评估中与Meta的Llama3-70B模型相当,并在Chat评估中表现出色。该模型采用Transformer解码器架构,支持32Ktokens上下文长度和多语言。性能提升主要来自模型规模增加,而非预训练方法改变。在MT-Bench和AlpacaEval2.0评估中,110B模型比72B模型有显著提升,证实了大规模模型的优势。Qwen1.5-110B是系列中规模最大的模型,性能优于72B模型。关注频道@TestFlightCN

封面图片

通义千问开源千亿级参数模型

通义千问开源千亿级参数模型通义千问开源1100亿参数模型Qwen1.5-110B,成为全系列首个千亿级参数开源模型。通义千问1100亿参数模型延续了Qwen1.5系列的Transformer解码器架构,采用了分组查询注意力方法(GQA),使得模型在推理时更加高效。110B模型支持32K上下文长度,具备优秀的多语言能力,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等多种语言。来源:雪球7X24资讯

封面图片

通义千问发布首个MoE模型Qwen1.5-MoE-A2.7B

通义千问今天发布Qwen1.5-MoE-A2.7B,性能可与当前公认最先进的7B开源模型相媲美,训练成本更低,推理速度更快!Qwen1.5-7B包含65亿个Non-Embedding参数,Qwen1.5-MoE-A2.7B只有20亿个Non-Embedding参数,仅为前者的1/3。相比Qwen1.5-7B,Qwen1.5-MoE-A2.7B的训练成本降低了75%,推理速度则提升了1.74倍。Qwen1.5-MoE模型系列现已在ModelScope社区开源,包括:Qwen1.5-MoE-A2.7B-Chat:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7B-ChatQwen1.5-MoE-A2.7B-Chat-GPTQ-Int4:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4Qwen1.5-MoE-A2.7B:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7Bvia匿名标签:#通义千问#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

阿里通义Qwen2拿下美国最新测评榜单开源大模型全球第一

阿里通义Qwen2拿下美国最新测评榜单开源大模型全球第一图灵奖得主、Meta首席AI科学家杨立昆(YannLeCun)联合Abacus.AI、纽约大学等机构推出全新的大模型测评基准LiveBenchAI,并公布首个测评榜单。阿里云通义千问刚刚开源的大模型Qwen2-72B成为排名最高的开源大模型,是前十榜单中唯一的开源大模型、唯一的中国大模型,成绩超过Meta的Llama3-70B模型。目前,Qwen系列开源模型目前下载量已经突破1600万。来源:格隆汇

封面图片

通义千问70亿参数模型上线魔搭社区,开源免费可商用

通义千问70亿参数模型上线魔搭社区,开源免费可商用AI模型社区魔搭ModelScope上架两款开源模型和,阿里云确认其为通义千问70亿参数通用模型和对话模型,两款模型均开源、免费、可商用。在多个权威测评中,通义千问7B模型取得了远超国内外同等尺寸模型的效果,成为当下业界最强的中英文7B开源模型。Qwen-7B是支持中、英等多种语言的基座模型,在超过2万亿token数据集上训练,上下文窗口长度达到8k。Qwen-7B-Chat是基于基座模型的中英文对话模型,已实现与人类认知对齐。开源代码支持对Qwen-7B和Qwen-7B-Chat的量化,支持用户在消费级显卡上部署和运行模型。https://modelscope.cn/models/qwen/Qwen-7B/summaryhttps://modelscope.cn/models/qwen/Qwen-7B-Chat/summaryhttps://github.com/QwenLM/Qwen-7B来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人