国内外AI大语言模型API价格对比网站

国内外AI大语言模型API价格对比网站GPT-4-32k最贵,输入60$/MTokens;输出120$/Mtokens;百度文心的ERNIESpeed、ERNIELite、ERNIETiny和通义千问的qwen-1.8b-chat、qwen1.5-0.5b-chat以及科大讯飞的SparkLite最便宜。输入输出均免费。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

相关推荐

封面图片

AIGCrank,AI流量排行榜统计网站,包含国内外AI大语言模型API价格对比标签:#网站#AIGC#排行榜#统计链接:

封面图片

通义千问发布首个MoE模型Qwen1.5-MoE-A2.7B

通义千问今天发布Qwen1.5-MoE-A2.7B,性能可与当前公认最先进的7B开源模型相媲美,训练成本更低,推理速度更快!Qwen1.5-7B包含65亿个Non-Embedding参数,Qwen1.5-MoE-A2.7B只有20亿个Non-Embedding参数,仅为前者的1/3。相比Qwen1.5-7B,Qwen1.5-MoE-A2.7B的训练成本降低了75%,推理速度则提升了1.74倍。Qwen1.5-MoE模型系列现已在ModelScope社区开源,包括:Qwen1.5-MoE-A2.7B-Chat:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7B-ChatQwen1.5-MoE-A2.7B-Chat-GPTQ-Int4:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7B-Chat-GPTQ-Int4Qwen1.5-MoE-A2.7B:https://modelscope.cn/models/qwen/Qwen1.5-MoE-A2.7Bvia匿名标签:#通义千问#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

国内外AI大模型API价格汇总最近国内大语言模型API价格内卷,已经出现百度、阿里、科大讯飞等0元免费API,豆包这种超低价模型

封面图片

阿里巴巴开源能理解图像的 AI 模型 Qwen-VL

阿里巴巴开源能理解图像的AI模型Qwen-VL阿里巴巴周五开源了能理解图像和完成更复杂对话的AI模型和Qwen-VL-Chat。阿里巴巴称,Qwen-VL基于Qwen-7B,可以以图像、文本、检测框作为输入,并以文本和检测框作为输出,它使用了约1.5B的图文数据训练。在四大类多模态任务的标准英文测评中上,Qwen-VL均取得同等通用模型大小下最好效果;支持英文、中文等多语言对话,端到端支持图片里中英双语的长文本识别;支持多图输入和比较,指定图片问答,多图文学创作等;相比于目前其它开源LVLM使用的224分辨率,Qwen-VL是首个开源的448分辨率的LVLM模型。更高分辨率可以提升细粒度的文字识别、文档问答和检测框标注。Qwen-VL和Qwen-VL-Chat使用名为TongyiQianwenLICENSEAGREEMENT的许可证,有限制条件,如果商业使用,则需要从阿里巴巴获得授权。来源,https://github.com/QwenLM/Qwen-VL频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

通义千问70亿参数模型上线魔搭社区,开源免费可商用

通义千问70亿参数模型上线魔搭社区,开源免费可商用AI模型社区魔搭ModelScope上架两款开源模型和,阿里云确认其为通义千问70亿参数通用模型和对话模型,两款模型均开源、免费、可商用。在多个权威测评中,通义千问7B模型取得了远超国内外同等尺寸模型的效果,成为当下业界最强的中英文7B开源模型。Qwen-7B是支持中、英等多种语言的基座模型,在超过2万亿token数据集上训练,上下文窗口长度达到8k。Qwen-7B-Chat是基于基座模型的中英文对话模型,已实现与人类认知对齐。开源代码支持对Qwen-7B和Qwen-7B-Chat的量化,支持用户在消费级显卡上部署和运行模型。https://modelscope.cn/models/qwen/Qwen-7B/summaryhttps://modelscope.cn/models/qwen/Qwen-7B-Chat/summaryhttps://github.com/QwenLM/Qwen-7B来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

通义千问320亿参数模型开源

近日,阿里云开源了通义千问Qwen1.5-32B。基础能力方面,Qwen1.5-32B模型在MMLU、GSM8K、HumanEval、BBH等多个测评中表现优异,性能接近通义千问720亿参数模型,远超其他300亿级别参数量模型。Chat模型方面,Qwen1.5-32B-Chat模型在MT-Bench评测得分超过8分,与通义千问720亿参数Chat模型之间的差距相对较小。多语言能力方面,阿里表示,选取了包括阿拉伯语、西班牙语、法语、日语、韩语等在内的12种语言,在考试、理解、数学及翻译等多个领域做了测评。Qwen1.5-32B的多语言能力只略逊于通义千问720亿参数模型。此前,通义千问已开源5亿、18亿、40亿、70亿、140亿和720亿参数尺寸的大模型。其中,几款小尺寸模型可便捷地在端侧部署,720亿参数模型拥有业界领先的性能。Qwen1.5-32B模型旨在性能、效率和内存占用之间达到理想平衡,为下游应用提供更好的解决方案。标签:#通义千问#AI频道:@GodlyNews1投稿:@GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人