,提供包括LLaMa-3-8B在内的多个13B以下模型的在线试用

None

相关推荐

封面图片

:首个中文微调LLaMa 3模型,基于 Meta-Llama-3-8B-Instruct 模型,使用 ORPO 对其进行了微调,

封面图片

Gorq 的 iOS 应用已经推出,支持的模型有 Llama3 8B 、 70B 、 Llama2 70B 、 Mixtral

Gorq 的 iOS 应用已经推出,支持的模型有 Llama3 8B 、 70B 、 Llama2 70B 、 Mixtral 8X7B 、 Gemma 7B 。 输出速度非常快,目前不需要登录并且免费,通过下面的testflight链接安装。 安装:

封面图片

Meta宣布推出Llama 2(羊驼2) 提供7B~70B模型 开源免费可商用

Meta宣布推出Llama 2(羊驼2) 提供7B~70B模型 开源免费可商用 今天 Meta 发布 Llama 2 也就是羊驼 2 模型,提供 7B、13B 和 70B 参数版本,该模型开源、免费、可商用,这也是为什么最近一段时间有大量新模型出现,对开源社区来说,只要有高质量模型被开源出来,那接下来就是社区成员登场,微调、优化、定制、整合,然后就可以生成更多模型了。 羊驼 2 预训练模型接受了 2 万亿个 tokens 的训练,上下文长度是 Llama 1 的两倍,是的其上下文长度从 2048 提升到了 4096,其微调模型接受了超过 100 万个人类标注的训练。 根据 Meta AI 研究团队的测试,羊驼 2 在不少测试中表现都比较优异 (相对其他开源模型),包括推理、编程、熟练程度和知识测试。 (需要提供Email地址) 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Perplexity推出,可快速访问开源大型语言模型如Mistral 7B、Llama2 13B等

Perplexity推出,可快速访问开源大型语言模型如Mistral 7B、Llama2 13B等 - pplx-api易于使用,开发者可以在几分钟内通过REST API整合先进的开源模型。 - pplx-api推理速度很快,比其他解决方案的延迟降低了2-3倍。 - pplx-api基础设施经过验证,可以承载产品级流量。 - pplx-api采用NVIDIA TensorRT-LLM和AWS A100 GPU等先进软硬件,实现了优化。 - pplx-api已用于Perplexity的产品中,相比外部API每年节省了62万美元成本。 - pplx-api兼容OpenAI API,可以轻松集成到现有应用中。 - 未来pplx-api将支持更多定制和开源模型。

封面图片

Mistral AI 发布了 7B 参数的模型,击败了 Llama-2 13B,采用 Apache 协议。

封面图片

该模型在基础能力评估中与 Meta-Llama3-70B 不相上下。支持 32K Token 的上下文长度。提供包括英语、中文、

该模型在基础能力评估中与 Meta-Llama3-70B 不相上下。支持 32K Token 的上下文长度。提供包括英语、中文、法语、西班牙语、日语、韩语、越南语等多种语言的多语言支持。 模型下载: 标签: #通义千问 #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人