通义千问70亿参数模型上线魔搭社区,开源免费可商用

通义千问70亿参数模型上线魔搭社区,开源免费可商用 AI模型社区魔搭ModelScope上架两款开源模型和,阿里云确认其为通义千问70亿参数通用模型和对话模型,两款模型均开源、免费、可商用。在多个权威测评中,通义千问7B模型取得了远超国内外同等尺寸模型的效果,成为当下业界最强的中英文7B开源模型。 Qwen-7B是支持中、英等多种语言的基座模型,在超过2万亿token数据集上训练,上下文窗口长度达到8k。Qwen-7B-Chat是基于基座模型的中英文对话模型,已实现与人类认知对齐。开源代码支持对Qwen-7B和Qwen-7B-Chat的量化,支持用户在消费级显卡上部署和运行模型。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

阿里通义千问开源 320 亿参数模型

阿里通义千问开源 320 亿参数模型 4 月 7 日,阿里云通义千问开源 320 亿参数模型 。通义千问此前已开源 5 亿、18 亿、40 亿、70 亿、140 亿和 720 亿参数 6 款大语言模型。 此次开源的 320 亿参数模型,将在性能、效率和内存占用之间实现更理想的平衡。例如,相比通义千问 14B 开源模型,32B 在智能体场景下能力更强;相比通义千问 72B 开源模型,32B 的推理成本更低。通义千问团队希望 32B 开源模型能为企业和开发者提供更高性价比的模型选择。 目前,通义千问共开源了 7 款大语言模型,在海内外开源社区累计下载量突破 300 万。来源, 频道:@kejiqu 群组:@kejiquchat

封面图片

阿里通义千问 Qwen2 大模型发布并同步开源

阿里通义千问 Qwen2 大模型发布并同步开源 阿里通义千问 Qwen2 大模型今日发布,并在 Hugging Face 和ModelScope 上同步开源。据悉,Qwen2 系列涵盖5个尺寸的预训练和指令微调模型,其中包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B,上下文长度支持进一步扩展,最高达128K tokens。

封面图片

通义千问开源千亿级参数模型

通义千问开源千亿级参数模型 通义千问开源1100亿参数模型Qwen1.5-110B,成为全系列首个千亿级参数开源模型。通义千问1100亿参数模型延续了Qwen1.5系列的Transformer解码器架构,采用了分组查询注意力方法(GQA),使得模型在推理时更加高效。110B模型支持32K上下文长度,具备优秀的多语言能力,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等多种语言。 来源:雪球7X24资讯

封面图片

项目Qwen2 功能:AI模型

项目Qwen2 项目功能:AI模型 项目简介:通义千问开源了Qwen2,包括 0.5B、1.5B、7B、57B-A14B 和 72B 等多个模型。 训练集涵盖除中英文外的 27 种语言,支持最多 128K 上下文。模型擅长处理代码和数学,其中 72B 使用 Qianwen License。 支持通过 Hugging Face 和 ModelScope 获取模型检查点,并提供了详细的文档和教程,帮助用户快速上手和部署模型。 项目地址:点击直达 频道 群聊 投稿 商务

封面图片

阿里云AI大模型通义千问正式开放

阿里云AI大模型通义千问正式开放 阿里云星期三(9月13日)宣布通义千问大模型已首批通过备案,并正式向公众开放。 据“阿里云”公众号消息,阿里云方面介绍,通义千问在技术创新和行业应用上均位居大模型行业前列。IDC最新的AI大模型评估报告显示,通义千问在全部11项测试中获得通用能力、服务能力、创新能力、服务能力、平台能力、生态合作、电商行业应用六项满分,名列前茅。 用户可登录通义千问官网体验,企业用户可以通过阿里云调用通义千问API。 据阿里云方面介绍,今年4月,阿里云通义千问开启邀测,仅一个月就有超20万企业和机构用户申请接入通义千问测试。目前,OPPO、得物、钉钉、淘宝、浙江大学等已与阿里云达成合作,基于通义千问训练自己的专属大模型或开发大模型应用。 阿里云是中国首个开源自研大模型的科技大厂。阿里云方面表示,近期将开源一个更大参数规模的大模型版本,供全社会免费商用。阿里云希望和全行业共建大模型开源生态,降低大模型使用的门槛,让大模型技术更好地为每个企业和个人所用。

封面图片

Meta宣布推出Llama 2(羊驼2) 提供7B~70B模型 开源免费可商用

Meta宣布推出Llama 2(羊驼2) 提供7B~70B模型 开源免费可商用 今天 Meta 发布 Llama 2 也就是羊驼 2 模型,提供 7B、13B 和 70B 参数版本,该模型开源、免费、可商用,这也是为什么最近一段时间有大量新模型出现,对开源社区来说,只要有高质量模型被开源出来,那接下来就是社区成员登场,微调、优化、定制、整合,然后就可以生成更多模型了。 羊驼 2 预训练模型接受了 2 万亿个 tokens 的训练,上下文长度是 Llama 1 的两倍,是的其上下文长度从 2048 提升到了 4096,其微调模型接受了超过 100 万个人类标注的训练。 根据 Meta AI 研究团队的测试,羊驼 2 在不少测试中表现都比较优异 (相对其他开源模型),包括推理、编程、熟练程度和知识测试。 (需要提供Email地址) 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人