ThinkAny 新版本发布了,本次更新了很多重要特性:

ThinkAny 新版本发布了,本次更新了很多重要特性: 1. 多模式使用 Multi-Usage-Mode 支持 Search / Chat / Summarize 三种模式,对应 RAG 检索 / 大模型对话 / 网页摘要三种使用场景。 2. 多模型对话 Multi-Chat-Model 集成了包括 Llama 3 70B / Claude 3 Opus / GPT-4 Turbo 在内的 10+ 大语言模型。 3. 多模态检索 Multi-Mode-Search 支持检索链接 / 图片 / 视频等模态内容 4. 多维度输出 Multi-Form-Output 支持以对话 / 大纲 / 思维导图 / 时间线等形式输出搜索问答内容。 5. 多信源检索 Multi-Retrieve-Source 支持检索 Google / Wikipedia / Github 等信息源的内容,作为搜索问答的挂载上下文。 6. 其他 更好看的 UI / 更流畅的体验 欢迎体验,感谢支持

相关推荐

封面图片

15 号发布的一个大世界模型,感觉像是一个带视频生成的多模态模型,也挺厉害了,跟 Gemini 1.5 Pro 的能力差不多了。

15 号发布的一个大世界模型,感觉像是一个带视频生成的多模态模型,也挺厉害了,跟 Gemini 1.5 Pro 的能力差不多了。 支持 100 万上下文的文本检索,可以分析超过 1 小时的视频,支持视频生成和图片生成。 模型介绍: 我们创建了一个包含多样视频和书籍的大型数据集,运用了 RingAttention(环形注意力)技术来高效训练长序列,并逐步将上下文大小从4千扩展至100万个标记。 本文的主要贡献包括:(a) 构建了具有最大上下文大小的神经网络:我们训练了一个在处理长视频和语言序列方面具有前所未有的大上下文规模的 Transformer(变换器),在复杂的检索任务和长视频理解方面设立了新的标准。 (b) 提出了克服视觉-语言训练挑战的多种解决方案,包括使用遮蔽序列打包技术混合不同长度的序列、通过损失加权平衡语言和视觉的重要性,以及为长序列对话创建由模型生成的问答数据集。 (c) 实现了一种高度优化的训练方案,结合了 RingAttention、遮蔽序列打包等关键特性,适用于数百万长度的多模态序列。 (d) 完全开源了一系列拥有70亿参数的模型家族,能够处理长达100万标记以上的长文本文档(LWM-Text, LWM-Text-Chat)和视频(LWM, LWM-Chat)。 这项工作为在大规模的长视频和语言数据集上训练,进而理解人类知识和多模态世界,以及开发更广泛的AI能力铺平了道路。 项目页面:

封面图片

零一万物发布Yi大模型API开放平台 首批开放3款大模型

零一万物发布Yi大模型API开放平台 首批开放3款大模型 在全球多项权威评测榜单中,Yi 大模型表现优异,性能直追 GPT-4。此前,Yi 大模型 API已经小范围开放内测,全球已有不少开发者申请使用,并普遍反馈效果超出预期。基于此,此次Yi 大模型 API 正式推出3款模型,给开发者更多惊喜。目前,Yi 大模型API名额限量开放中,新用户赠送60元。Yi 大模型 API 与 OpenAI API 完全兼容,开发者只需修改少量代码,可以平滑迁移。此次 Yi 大模型 API 开放平台提供以下模型:• Yi-34B-Chat-0205:支持通用聊天、问答、对话、写作、翻译等功能。• Yi-34B-Chat-200K:200K 上下文,多文档阅读理解、超长知识库构建小能手。• Yi-VL-Plus: 多模态模型,支持文本、视觉多模态输入,中文图表体验超过 GPT-4V。零一万物API开放平台链接: 30 万个中英文字符,适合用于多篇文档内容理解、海量数据分析挖掘和跨领域知识融合等,在“大海捞针”测试中,Yi-34B-Chat-200K的性能提高了10.5%,从89.3%提升到99.8%。例如,金融分析师可以用Yi-34B-Chat-200K模型快速阅读报告并预测市场趋势、律师可以用它精准解读法律条文、科研人员可以用它高效提取论文要点、文学爱好者可以用它快速掌握作品精髓等,应用场景非常广泛。Yi-34B-Chat-200K 对经典文学作品《呼啸山庄》进行复杂角色和角色关系的归纳总结零一万物开发的多模态模型 Yi-VL-Plus,可支持文本、视觉多模态输入,面向实际应用场景大幅增强,包括:增强Charts, Table, Inforgraphics, Screenshot 识别能力,支持复杂图表理解、信息提取、问答以及推理。中文图表体验超过GPT4V;Yi-VL-Plus模型在一些中文图表理解场景,比GPT-4V准确率更高在 Yi-VL 基础上进一步提高了图片分辨率,模型支持 1024*1024 分辨率输入,显著提高生产力场景中的文字、数字 OCR 的准确性;保持了 LLM 通用语言、知识、推理、指令跟随等能力。同时,零一万物还表示,近期零一万物将为开发者提供更多更强模型和 AI 开发框架,提供更加丰富和灵活的开发工具,以适应多样化的应用场景。相关文章: 估值10亿美元零一万物宣布发布Yi-34B大模型 李开复:不负众望李开复旗下AI公司“零一万物”开源Yi大模型被指抄袭LLaMA零一万物回应大模型架构争议:对模型和训练的理解做了大量工作 ... PC版: 手机版:

封面图片

AppleTV 发布全系新版本更新

AppleTV 发布全系新版本更新 目前最新版本为 TVOS 17.2 (21K365) IOS/IPadOS 17.2(21C62) MACOS 14.2(23C64) WatchOS 10.2(21S364) HomePod/mini 17.2 本次更新基本补齐了WWDC发布会上演示的所有功能,同时也包括IOS对于Qi2的支持,快去更新吧~ 标签: #新闻 频道: @me888888888888 限免怕错过?请及时收藏频道!

封面图片

网站TigerBot网站功能:AI智能助手

网站TigerBot 网站功能:AI智能助手 网站简介:由国内公司虎博科技推出的AI对话聊天机器人,基于其最新推出的多模态大语言模型TigerBot,该模型包含70亿参数和1800亿参数两个版本,均对外开源。 支持文章创作、表格数据统计、尝试问答等,并支持多模态,能生成图片绘画。 网站网址:点击打开 频道 群聊 投稿

封面图片

阿里巴巴开源能理解图像的 AI 模型 Qwen-VL

阿里巴巴开源能理解图像的 AI 模型 Qwen-VL 阿里巴巴周五开源了能理解图像和完成更复杂对话的 AI 模型和 Qwen-VL-Chat。阿里巴巴称,Qwen-VL 基于 Qwen-7B,可以以图像、文本、检测框作为输入,并以文本和检测框作为输出,它使用了约 1.5B 的图文数据训练。在四大类多模态任务的标准英文测评中上,Qwen-VL 均取得同等通用模型大小下最好效果;支持英文、中文等多语言对话,端到端支持图片里中英双语的长文本识别;支持多图输入和比较,指定图片问答,多图文学创作等;相比于目前其它开源 LVLM使用的 224 分辨率,Qwen-VL 是首个开源的 448 分辨率的 LVLM 模型。更高分辨率可以提升细粒度的文字识别、文档问答和检测框标注。Qwen-VL 和 Qwen-VL-Chat 使用名为 Tongyi Qianwen LICENSE AGREEMENT 的许可证,有限制条件,如果商业使用,则需要从阿里巴巴获得授权。来源 , 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

昆仑万维开源了自己的Skywork大模型 | 本次开源的模型有Skywork-13B-Base模型、Skywork-13B-Ch

昆仑万维开源了自己的Skywork大模型 | 本次开源的模型有Skywork-13B-Base模型、Skywork-13B-Chat模型、Skywork-13B-Math模型和Skywork-13B-MM模型,以及每个模型的量化版模型,以支持用户在消费级显卡进行部署和推理。 Skywork开源项目的特点有: Skywork-13B-Base模型在高质量清洗过滤的3.2万亿个多语言(主要是中文和英文)和代码数据上进行预训练,它在多种评测和各种基准测试上都展现了同等规模模型的最佳效果。 Skywork-13B-Chat模型具备强大的对话能力,我们在文创领域进行了进一步的针对性增强。我们通过构建一万多条高质量指令数据集,在10个文创任务上进行了针对性微调,使我们的模型在文创任务中能够接近ChatGPT的效果。此外,我们开源了针对这10个文创任务上的大约500条样本组成的benchmark。 Skywork-13B-Math模型经过专门的数学能力强化训练。在13B参数规模下,我们的模型在GSM8K评测上得分第一,同时在MATH数据集以及CMATH上也表现优异,处于13B模型顶尖水平。 Skywork-13B-MM多模态模型支持用户输入图片信息进行问答,对话等任务。 Skywork/Skypile-150B数据集是根据我们经过精心过滤的数据处理流程从中文网页中筛选出的高质量数据。本次开源的数据集大小约为600GB,总的token数量约为150B,是目前开源最大中文数据集。 除此之外,我们还公开了训练Skywork-13B模型中使用的评估方法、数据配比研究和训练基础设施调优方案等信息。我们希望这些开源内容能够进一步启发社区对于大型模型预训练的认知,并推动人工智能通用智能(AGI)的实现。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人