月之暗面开放了 KimiChat 200 万字上下文的内测申请

月之暗面开放了 KimiChat 200 万字上下文的内测申请 已经是慢讯了,不过还没申请的还可以去申请。有很多小伙伴尤其上学的群友喜欢用Claude,但是Claude封号太严重。 Kimi算是后来居上吧,去年12月分享过他的网页版,现在文档阅读、文件处理、联网等功能都有,算是国产里面做的非常好的了。 内测申请:https://kimi.moonshot.cn/ (点输入框下面第一条消息(如图))

相关推荐

封面图片

月之暗面支持200万字上下文的Kimi智能助手启动内测

月之暗面支持200万字上下文的Kimi智能助手启动内测 从月之暗面获悉,3月18日,月之暗面Kimi智能助手在长上下文窗口技术上再次取得突破,无损上下文长度提升数量级到200万字。目前,支持200万字上下文的Kimi已启动内测。(上证报) 来源:雪球7X24资讯

封面图片

月之暗面发布 “上下文缓存” 技术,称最高可降本 90%

月之暗面发布 “上下文缓存” 技术,称最高可降本 90% 以 “价格战” 为代表的大模型降本仍在继续,但相比直接降价,北京月之暗面科技有限公司(简称 “月之暗面”)提出了增效方案。7 月 2 日,该公司对外宣布,其大模型 Kimi 正式开放平台正式公测新技术 上下文缓存技术(ContextCaching)。月之暗面方称,这项技术将降低开发者使用长文本旗舰大模型的成本,最高可降本达 90%。(澎湃新闻)

封面图片

Kimi chat 背后的模型,moonshot模型正式开放了 API 申请。

Kimi chat 背后的模型,moonshot模型正式开放了 API 申请。 而且完全与 OpenAI 的 API 兼容,可以很方便的迁移。最高的模型上下文为 128K 。 moonshot-v1-128k 模型的价格为0.06元,新用户会送 15 元的 Token 额度。

封面图片

百川智能发布Baichuan2-192K大模型 | 上下文窗口长度高达192K,是目前全球最长的上下文窗口,能够一次处理约35万

百川智能发布Baichuan2-192K大模型 | 上下文窗口长度高达192K,是目前全球最长的上下文窗口,能够一次处理约35万个汉字。 官方宣称:Baichuan2-192K不仅在上下文窗口长度上超越Claude2,在长窗口文本生成质量、长上下文理解以及长文本问答、摘要等方面的表现也全面领先Claude2。 10项长文本评测7项取得SOTA,全面领先Claude2 Baichuan2-192K在Dureader、NarrativeQA、LSHT、TriviaQA等10项中英文长文本问答、摘要的评测集上表现优异,有7项取得SOTA,显著超过其他长窗口模型。 此外,LongEval的评测结果显示,在窗口长度超过100K后Baichuan2-192K依然能够保持非常强劲的性能,而其他开源或者商用模型在窗口长度增长后效果都出现了近乎直线下降的情况。Claude2也不例外,在窗口长度超过80K后整体效果下降非常严重。 Baichuan2-192K正式开启内测,已落地法律、媒体等诸多真实场景 Baichuan2-192K现已正式开启内测,以API调用的方式开放给百川智能的核心合作伙伴,已经与财经类媒体及律师事务所等机构达成了合作,将Baichuan2-192K全球领先的长上下文能力应用到了传媒、金融、法律等具体场景当中,不久后将全面开放。

封面图片

【月之暗面发布“上下文缓存”技术,称最高可降本90%】

【月之暗面发布“上下文缓存”技术,称最高可降本90%】 以“价格战”为代表的大模型降本仍在继续,但相比直接降价,北京月之暗面科技有限公司提出了增效方案。7月2日,该公司对外宣布,其大模型Kimi正式开放平台正式公测新技术上下文缓存技术(Context Caching)。月之暗面方称,这项技术将降低开发者使用长文本旗舰大模型的成本,最高可降本达90%。(澎湃新闻)

封面图片

Claude的最新更新将上下文窗口扩展到了100,000个文本Token,相当于约75000个单词,可以一次性提交数百页的资料进

Claude的最新更新将上下文窗口扩展到了100,000个文本Token,相当于约75000个单词,可以一次性提交数百页的资料进行处理和分析。 很牛的模型,目前可以在POE中免费使用。别管会不会用到,先去官方申请排队吧, POE使用链接:https://poe.com/Claude-instant-100k 申请链接:https://www.anthropic.com/earlyaccess

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人