百川智能发布Baichuan2-192K大模型 | 详情

百川智能发布Baichuan2-192K大模型上下文窗口长度高达192K,是目前全球最长的上下文窗口,能够一次处理约35万个汉字。官方宣称:Baichuan2-192K不仅在上下文窗口长度上超越Claude2,在长窗口文本生成质量、长上下文理解以及长文本问答、摘要等方面的表现也全面领先Claude2。10项长文本评测7项取得SOTA,全面领先Claude2Baichuan2-192K在Dureader、NarrativeQA、LSHT、TriviaQA等10项中英文长文本问答、摘要的评测集上表现优异,有7项取得SOTA,显著超过其他长窗口模型。此外,LongEval的评测结果显示,在窗口长度超过100K后Baichuan2-192K依然能够保持非常强劲的性能,而其他开源或者商用模型在窗口长度增长后效果都出现了近乎直线下降的情况。Claude2也不例外,在窗口长度超过80K后整体效果下降非常严重。Baichuan2-192K正式开启内测,已落地法律、媒体等诸多真实场景Baichuan2-192K现已正式开启内测,以API调用的方式开放给百川智能的核心合作伙伴,已经与财经类媒体及律师事务所等机构达成了合作,将Baichuan2-192K全球领先的长上下文能力应用到了传媒、金融、法律等具体场景当中,不久后将全面开放。

相关推荐

封面图片

百川智能宣布推出Baichuan2-192K 上下文窗口长超GPT-4约14倍

百川智能宣布推出Baichuan2-192K上下文窗口长超GPT-4约14倍今年9月25日,百川智能宣布已开放Baichuan2的API接口,进军企业级市场,开启商业化进程。此次Baichuan2-192K将以API调用和私有化部署的方式提供给企业用户,目前百川智能已启动Baichuan2-192K的API内测,开放给法律、媒体、金融等行业的核心合作伙伴。上下文窗口长度是大模型的核心技术之一,通过更大的上下文窗口,模型能够结合更多上下文内容获得更丰富的语义信息,更好的捕捉上下文的相关性、消除歧义,进而更加准确、流畅的生成内容,提升模型能力。...PC版:https://www.cnbeta.com.tw/articles/soft/1393115.htm手机版:https://m.cnbeta.com.tw/view/1393115.htm

封面图片

百川智能披露 To B 技术路线:看好搜索增强大模型,文本获取规模增至 1 亿汉字

百川智能披露ToB技术路线:看好搜索增强大模型,文本获取规模增至1亿汉字百川智能今日首次对外介绍了公司ToB技术路线,同时宣布开放基于搜索增强的Baichuan2-Turbo系列API,包含Baichuan2-Turbo-192K及Baichuan2-Turbo。在支持192K超长上下文窗口的基础上,还增加了搜索增强知识库的能力。据王小川介绍,通过长窗口+搜索增强的方式,百川智能在192K长上下文窗口的基础上,将大模型能够获取的原本文本规模提升了两个数量级,达到5000万tokens——相当于1亿汉字。通过搜索增强,模型可以先根据用户的Prompt在海量的文档中检索出最相关的内容,再将这些文档与Prompt一起放到长窗口中,有效节省了推理费用和时间成本。(新浪科技)

封面图片

Anthropic 发布 Claude 2.1 模型

Anthropic发布Claude2.1模型Claude2.1拥有业界领先的20万token上下文窗口(约15万单词/500页信息)、幻觉相比Claude2降低两倍,长文档的错误回答减少了30%,错误结论文件支持特定主张的比率降低了3-4倍。还新引入了系统提示,允许用户向Claude提供自定义指令以提高性能。Claude2.1现已在API中提供,并为免费版和专业版Claude提供支持。20万上下文窗口的使用权保留给ClaudePro用户。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Claude 2 发布。

Claude2发布。数学代码推理能力增强加量不加价最大支持200K上下文Anthropic: Claude2hasimprovedfromourpreviousmodelsonevaluationsincludingCodexHumanEval,GSM8K,andMMLU.Youcanseethefullsuiteofevaluationsinourmodelcard:

封面图片

MiniMax 发布万亿 MoE 模型 abab 6.5

MiniMax发布万亿MoE模型abab6.5MiniMax正式推出abab6.5系列模型,包含两个模型:abab6.5和abab6.5s。其中abab6.5包含万亿参数,支持200ktokens的上下文长度;abab6.5s跟abab6.5使用了同样的训练技术和数据,但是更高效,支持200ktokens的上下文长度,可以1秒内处理近3万字的文本。

封面图片

稀宇科技推出万亿 MoE 模型 abab 6.5

稀宇科技推出万亿MoE模型abab6.54月17日,稀宇科技MiniMax正式推出abab6.5系列模型。abab6.5系列包含两个模型:abab6.5和abab6.5s。据介绍,abab6.5包含万亿参数,支持200ktokens的上下文长度;abab6.5s跟abab6.5使用了同样的训练技术和数据,但是更高效,支持200ktokens的上下文长度,可以1秒内处理近3万字的文本。在各类核心能力测试中,abab6.5开始接近GPT-4、Claude-3、Gemini-1.5等大语言模型。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人