Claude.ai 官方支持了 PDF 文件上传,结合 k 的上下文,提供了丝滑的 PDF 问答体验。

Claude.ai 官方支持了 PDF 文件上传,结合 k 的上下文,提供了丝滑的 PDF 问答体验。 比如这个页的全球AI流量变化的PDF,让它总结出细分品类里依然在增长的AI网站。这个任务要求对整个文档进行理解和分析,而不是使用文本切块。 目前似乎只有 Claude 能做到。

相关推荐

封面图片

官方支持了 PDF 文件上传,结合 100k 的上下文,提供了丝滑的 PDF 问答体验。

官方支持了 PDF 文件上传,结合 100k 的上下文,提供了丝滑的 PDF 问答体验。 比如这个19页的全球AI流量变化的PDF,让它总结出细分品类里依然在增长的AI网站。这个任务要求对整个文档进行理解和分析,而不是使用文本切块。 目前似乎只有 Claude 能做到。

封面图片

卧槽。Anthropic已经把Claude的上下文窗口扩展到10万文本标记,大概七万五千个字符。

卧槽。Anthropic已经把Claude的上下文窗口扩展到10万文本标记,大概七万五千个字符。 你现在可以提交数百页材料供Claude消化和分析。与Claude的谈话可以持续数小时或数天。 终于可以实现把一个论文扔给他分析了。 文章链接:

封面图片

谷歌发布了Gemini 1.5模型,最主要的升级是支持了高达 100 万的上下文长度,秒杀了所有模型。

谷歌发布了Gemini 1.5模型,最主要的升级是支持了高达 100 万的上下文长度,秒杀了所有模型。 Gemini 1.5基于Transformer和MoE架构的研究和工程创新,提高了训练和服务的效率。 Gemini 1.5 Pro是一个中等规模的多模态模型,适用于多种任务,并引入了在长上下文理解方面的实验性特性。 它标准的上下文窗口为128,000个Token,但现在已经可以通过AI Studio和Vertex AI向开发者和企业客户提供高达100万个Token的私人预览。 1.5 Pro 可以一次处理大量信息包括 1 小时的视频、11 小时的音频、包含超过 30,000 行代码的代码库或超过 700,000 个单词。 Gemini 1.5 Pro在文本、代码、图像、音频和视频评估的综合面板上的性能超过了Gemini 1.0 Pro,并且与1.0 Ultra在同样的基准测试上表现相当。 此外,Gemini 1.5 Pro在进行长上下文窗口的测试中表现出色,在NIAH评估中,它在长达100万个Token的数据块中99%的时间内找到了嵌入的文本。 了解更多:#context-window

封面图片

Claude 2全球公测,注册账号即可免费体验

Claude 2全球公测,注册账号即可免费体验 昨天,Anthropic宣布 Claude 2.0 全球公测,公测期间完全免费。可以自行从官网注册账号访问。 官网地址 https://claude.ai/ 使用方法 1,访问官网地址,可使用邮箱或者Google账号直接登录 2,注册后按照流程确认信息后即可使用 3,聊天框输入相关内容,就可以聊天了。 2.0版本还支持上传PDF,CSV,Text文件,识别文字内容。 拥有合作伙伴账户的用户可直接通过调用API使用2.0版本 注:不能联网,上下文最多100k

封面图片

Anthropic 发布第二代 Claude

Anthropic 发布第二代 Claude 被誉为 GPT-4 最强竞品的 Claude 近日发布了 V2 版本的更新,Claude2 支持长度为 20 万的 Token 上下文输入(约 15 万单词的、相当于一本短篇小说),并将知识数据内容的截止时间提升到了 23 年初(GPT4 为 21 年 9 月),同时官方版本即支持导入 txt、pdf 等多个格式的文档,并支持在多个文档间进行关联。 除了上述功能更新以外,开发 Claude 的 Anthropic 公司还宣布了 Claude2 最大的杀手锏。这款在使用体验上媲美 ChatGPT 的产品目前无需排队,个人用户可完全免费使用,商业用户也可利用相对低得多的成本,将 AI 集成到自己的产品中。

封面图片

128k上下文+多语言+工具:Cohere开放企业级应用大模型

128k上下文+多语言+工具:Cohere开放企业级应用大模型 Cohere推出Command R+模型,一个为应对企业级工作负载而构建的最强大、最具可扩展性的大型语言模型(LLM)。 - Command R+首先在Microsoft Azure上推出,旨在加速企业AI的采用。它加入了Cohere的R系列LLM,专注于在高效率和强准确性之间取得平衡,使企业能从概念验证走向生产。 - Command R+具有128k token的上下文窗口,旨在提供同类最佳的性能,包括: - 先进的检索增强生成(RAG)和引用,以减少幻觉 - 支持10种关键语言的多语言覆盖,以支持全球业务运营 - 工具使用,以实现复杂业务流程的自动化 - Command R+在各方面都优于Command R,在类似模型的基准测试中表现出色。 - 开发人员和企业可以从今天开始在Azure上访问Cohere的最新模型,很快也将在Oracle云基础设施(OCI)以及未来几周内的其他云平台上提供。Command R+也将立即在Cohere的托管API上提供。 - Atomicwork等企业客户可以利用Command R+来改善数字工作场所体验,加速企业生产力。 思考: - Cohere推出Command R+,进一步丰富了其企业级LLM产品线,展现了其在企业AI市场的雄心和实力。与微软Azure的合作有望加速其企业客户的拓展。 - Command R+在Command R的基础上进行了全面升级,128k token的上下文窗口、多语言支持、工具使用等特性使其能够胜任更加复杂多样的企业应用场景。这表明Cohere对企业需求有着深刻洞察。 - RAG和引用功能有助于提高模型输出的可靠性,减少幻觉,这对于企业级应用至关重要。可以看出Cohere在兼顾性能的同时,也非常重视模型的可控性。 - 与微软、甲骨文等云计算巨头合作,使Command R+能够在多个主流云平台上快速部署,降低了企业的采用门槛。这种开放的生态策略有利于加速其市场渗透。 - Atomicwork等企业客户的支持表明Command R+具有显著的商业价值。将LLM与企业数字化转型相结合,有望催生更多创新性的应用。 - Command R+的推出标志着Cohere在企业级AI市场的发力,其强大的性能和完善的生态有望帮助其在竞争中占据优势地位。不过,企业AI的落地仍面临数据安全、伦理合规等诸多挑战,Cohere还需要在这些方面持续投入。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人