阿里巴巴开源1100亿参数Qwen1.5-110B模型,性能与Meta Llama3-70B相当

阿里巴巴开源1100亿参数Qwen1.5-110B模型,性能与MetaLlama3-70B相当阿里巴巴开源了Qwen1.5系列的首个千亿参数模型Qwen1.5-110B,其在基础能力评估中与Meta的Llama3-70B模型相当,并在Chat评估中表现出色。该模型采用Transformer解码器架构,支持32Ktokens上下文长度和多语言。性能提升主要来自模型规模增加,而非预训练方法改变。在MT-Bench和AlpacaEval2.0评估中,110B模型比72B模型有显著提升,证实了大规模模型的优势。Qwen1.5-110B是系列中规模最大的模型,性能优于72B模型。关注频道@TestFlightCN

相关推荐

封面图片

阿里巴巴开源能理解图像的 AI 模型 Qwen-VL

阿里巴巴开源能理解图像的AI模型Qwen-VL阿里巴巴周五开源了能理解图像和完成更复杂对话的AI模型和Qwen-VL-Chat。阿里巴巴称,Qwen-VL基于Qwen-7B,可以以图像、文本、检测框作为输入,并以文本和检测框作为输出,它使用了约1.5B的图文数据训练。在四大类多模态任务的标准英文测评中上,Qwen-VL均取得同等通用模型大小下最好效果;支持英文、中文等多语言对话,端到端支持图片里中英双语的长文本识别;支持多图输入和比较,指定图片问答,多图文学创作等;相比于目前其它开源LVLM使用的224分辨率,Qwen-VL是首个开源的448分辨率的LVLM模型。更高分辨率可以提升细粒度的文字识别、文档问答和检测框标注。Qwen-VL和Qwen-VL-Chat使用名为TongyiQianwenLICENSEAGREEMENT的许可证,有限制条件,如果商业使用,则需要从阿里巴巴获得授权。来源,https://github.com/QwenLM/Qwen-VL频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

通义千问发布首个MoE模型Qwen1.5-MoE-A2.7B

通义千问今天发布Qwen1.5-MoE-A2.7B,性能可与当前公认最先进的7B开源模型相媲美,训练成本更低,推理速度更快!Qwen1.5-7B包含65亿个Non-Embedding参数,Qwen1.5-MoE-A2.7B只有20亿个Non-Embedding参数,仅为前者的1/3。相比Qwen1.5-7B,Qwen1.5-MoE-A2.7B的训练成本降低了75%,推理速度则提升了1.74倍。Qwen1.5-MoE模型系列现已在ModelScope社区开源,包括:Qwen1.5-MoE-A2.7B-Chat:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7B-ChatQwen1.5-MoE-A2.7B-Chat-GPTQ-Int4:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4Qwen1.5-MoE-A2.7B:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7Bvia匿名标签:#通义千问#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

阿里开源 Qwen1.5-110B 模型

该模型在基础能力评估中与Meta-Llama3-70B不相上下。支持32KToken的上下文长度。提供包括英语、中文、法语、西班牙语、日语、韩语、越南语等多种语言的多语言支持。模型下载:https://huggingface.co/Qwen/Qwen1.5-110B标签:#通义千问#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

【阿里巴巴发布两款开源人工智能模型】

【阿里巴巴发布两款开源人工智能模型】2023年08月03日09点33分老不正经报道,科技巨头阿里巴巴集团于8月3日宣布,其云计算部门发布了两个开源人工智能(AI)模型。它的两个大型语言模型(LLM)被称为Qwen-7B和Qwen-7B-Chat,每个模型都有70亿个参数。新模型旨在帮助将人工智能引入中小型企业的运营中。该公司表示,Qwen-7B和Qwen-7B-Chat具有对企业有吸引力的各种功能,例如能够“全世界的学者、研究人员和商业机构可以免费访问代码、模型权重和文档”。8月1日,该公司还宣布对其AnalyticDB数据仓库服务进行矢量引擎更新,这将允许其企业客户快速创建定制的生成式AI应用程序。

封面图片

阿里云:通义千问 720 亿参数模型开源 适配企业级、科研级高性能应用

阿里云:通义千问720亿参数模型开源适配企业级、科研级高性能应用阿里云今天举办通义千问发布会,开源通义千问720亿参数模型Qwen-72B。Qwen-72B在10个权威基准测评创下开源模型最优成绩,成为业界最强开源大模型,性能超越开源标杆Llama2-70B和大部分商用闭源模型。未来,企业级、科研级的高性能应用,也有了开源大模型这一选项。通义千问还开源了18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。至此,通义千问共开源18亿、70亿、140亿、720亿参数的4款大语言模型,以及视觉理解、音频理解两款多模态大模型,实现“全尺寸、全模态”开源。

封面图片

通义千问开源千亿级参数模型

通义千问开源千亿级参数模型通义千问开源1100亿参数模型Qwen1.5-110B,成为全系列首个千亿级参数开源模型。通义千问1100亿参数模型延续了Qwen1.5系列的Transformer解码器架构,采用了分组查询注意力方法(GQA),使得模型在推理时更加高效。110B模型支持32K上下文长度,具备优秀的多语言能力,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等多种语言。来源:雪球7X24资讯

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人