128k上下文+多语言+工具:Cohere开放企业级应用大模型

128k上下文+多语言+工具:Cohere开放企业级应用大模型 Cohere推出Command R+模型,一个为应对企业级工作负载而构建的最强大、最具可扩展性的大型语言模型(LLM)。 - Command R+首先在Microsoft Azure上推出,旨在加速企业AI的采用。它加入了Cohere的R系列LLM,专注于在高效率和强准确性之间取得平衡,使企业能从概念验证走向生产。 - Command R+具有128k token的上下文窗口,旨在提供同类最佳的性能,包括: - 先进的检索增强生成(RAG)和引用,以减少幻觉 - 支持10种关键语言的多语言覆盖,以支持全球业务运营 - 工具使用,以实现复杂业务流程的自动化 - Command R+在各方面都优于Command R,在类似模型的基准测试中表现出色。 - 开发人员和企业可以从今天开始在Azure上访问Cohere的最新模型,很快也将在Oracle云基础设施(OCI)以及未来几周内的其他云平台上提供。Command R+也将立即在Cohere的托管API上提供。 - Atomicwork等企业客户可以利用Command R+来改善数字工作场所体验,加速企业生产力。 思考: - Cohere推出Command R+,进一步丰富了其企业级LLM产品线,展现了其在企业AI市场的雄心和实力。与微软Azure的合作有望加速其企业客户的拓展。 - Command R+在Command R的基础上进行了全面升级,128k token的上下文窗口、多语言支持、工具使用等特性使其能够胜任更加复杂多样的企业应用场景。这表明Cohere对企业需求有着深刻洞察。 - RAG和引用功能有助于提高模型输出的可靠性,减少幻觉,这对于企业级应用至关重要。可以看出Cohere在兼顾性能的同时,也非常重视模型的可控性。 - 与微软、甲骨文等云计算巨头合作,使Command R+能够在多个主流云平台上快速部署,降低了企业的采用门槛。这种开放的生态策略有利于加速其市场渗透。 - Atomicwork等企业客户的支持表明Command R+具有显著的商业价值。将LLM与企业数字化转型相结合,有望催生更多创新性的应用。 - Command R+的推出标志着Cohere在企业级AI市场的发力,其强大的性能和完善的生态有望帮助其在竞争中占据优势地位。不过,企业AI的落地仍面临数据安全、伦理合规等诸多挑战,Cohere还需要在这些方面持续投入。

相关推荐

封面图片

:多语言、高性能、可定制:350亿参数的开源语言模型

:多语言、高性能、可定制:350亿参数的开源语言模型 - C4AI Command-R是一个350亿参数的高性能生成式模型,由Cohere和Cohere For AI联合开发。 - Command-R是一个大型语言模型,其开放权重针对多种用例进行了优化,包括推理、摘要和问答。 - Command-R具有多语言生成能力,在10种语言上进行了评估,并具有高性能的RAG(Retrieval-Augmented Generation)能力。 - 该模型的许可证为CC-BY-NC,使用时还需遵守C4AI的可接受使用政策。 - Command-R的上下文长度为128K,可以使用Hugging Face的Transformers库进行调用和使用。 - C4AI Command-R的发布展示了Cohere在开发大型语言模型方面的实力。350亿参数的模型规模处于业界领先水平,有望在多个应用领域取得突破。 - Command-R的开放权重和对多种用例的优化,为开发者和研究者提供了灵活性和可定制性。这有助于促进模型的应用和创新。 - 多语言生成能力和高性能RAG能力的结合,使Command-R在跨语言任务和知识密集型任务上具有独特优势。这可能推动自然语言处理技术在全球范围内的普及和应用。 - CC-BY-NC许可证和C4AI的可接受使用政策体现了Cohere对于负责任AI开发的重视。在开放模型的同时,设置合理的使用边界,有助于防范潜在的滥用风险。 - 基于Hugging Face生态系统发布模型,降低了用户的使用门槛。这种与主流开源社区的融合,有利于Command-R的推广和迭代。 - 尽管Command-R的开放权重提供了灵活性,但对于缺乏计算资源的中小型开发者而言,350亿参数的模型规模可能难以承受。这可能加剧AI开发的门槛和不平等。 - Command-R在多语言任务上的出色表现,可能促使更多开发者将其应用于跨文化交流和全球化业务。但过度依赖单一模型,可能忽视了不同语言和文化的独特性。 - 开放模型虽然有利于创新,但也可能加剧恶意使用和滥用的风险。即使有使用政策的约束,在实践中难以对每一个应用进行有效监管。这需要技术和制度的双重发力。

封面图片

企业定制LLM应用构建方案,将内部知识库作为模型的上下文,即作为提示的一部分,通过Fine-Tuning开源LLM,或者检索增强

企业定制LLM应用构建方案,将内部知识库作为模型的上下文,即作为提示的一部分,通过Fine-Tuning开源LLM,或者检索增强生成(RAG)的方式。性能取决于许多因素,如块的大小、块之间的重叠、嵌入技术等 |

封面图片

Cohere与埃森哲合作 促进 Gen AI在企业中的应用

Cohere与埃森哲合作 促进 Gen AI在企业中的应用 Command LLM 具有对话功能,非常适合总结文本和聊天应用。Embed 模型非常适合通过公司数据和文档改进搜索应用,并提高检索增强生成 (RAG) 系统的检索效率。最后,Rerank 是一种执行语义搜索的工具,有助于提供更相关、更准确的结果。作为合作关系的一部分,Cohere 将与埃森哲合作,根据每位客户的具体需求量身定制个性化解决方案。该公司进一步解释说:"企业将能够与Cohere合作,根据特定领域的知识和专有训练数据集建立可微调的定制模型。通过此次业务合作,Cohere 还将利用埃森哲在云计算、数据和行业方面的专业知识来构建最有效的业务解决方案。这项技术已经在金融服务、技术、零售、医疗保健等多个领域展现出巨大的潜力。据 Cohere 称,企业正在快速发展,并已告别生成式人工智能的实验阶段,现在正寻求扩大该技术的规模,以提供商业价值。通过与埃森哲合作,Cohere 认为可以确保企业客户能够以保护数据隐私的安全方式嵌入其技术。如果您是打算使用 Cohere 服务的企业,或者您只是想尝试另一种人工智能生成服务的个人,都可以登录公司网站与人工智能聊天。您可以免费使用 Cohere 网站上的人工智能聊天。 ... PC版: 手机版:

封面图片

百度发布企业级大模型服务平台"文心千帆"

百度发布企业级大模型服务平台"文心千帆" 百度正式推出"文心千帆"大模型平台,这是百度面向客户提供企业级大语言模型服务的平台。据了解,文心千帆大模型平台不仅包括文心一言,还包括百度全套文心大模型、相应的开发工具链。未来,文心千帆还会支持第三方的开源大模型。 在现场实时演示中,文心千帆可实现三分钟做ppt、数字人直播带货、订机票和酒店等操作。在收费模式上,文心千帆的推理服务调用以0.012元/1000 tokens收费,按调用输入输出总字数付费。

封面图片

cohere的大型语言模型(LLM)课程 | 课程从基础开始,涵盖了建立和使用文本表示和文本生成模型的所有内容。

cohere的大型语言模型(LLM)课程 | 课程从基础开始,涵盖了建立和使用文本表示和文本生成模型的所有内容。 理论部分以类比和实例而不是公式进行解释,实践部分包含大量有用的代码示例,帮你巩固知识。 课程内容包括:大型语言模型是如何工作的、LLM有什么用、如何使用LLM构建和部署应用等。

封面图片

Google全新大模型突然发布:百万上下文 仅靠提示学会新语言

Google全新大模型突然发布:百万上下文 仅靠提示学会新语言 现在仅仅中杯1.5 Pro版就能越级打平上一代大杯1.0 Ultra版,更是在27项测试中超越平级的1.0 Pro。支持100万token上下文窗口,迄今为止大模型中最长,直接甩开对手一个量级。这还只是对外发布的版本,Google更是透露了内部研究版本已经能直冲1000万。现在Gemini能处理的内容,可换算成超过70万单词,或1小时视频、11小时音频、超过3万行代码。没错,这些数据模态Gemini 1.5都已经内建支持。从今天起,开发者和客户就可以在Vertex API或AI Studio申请试用。刚刚收到消息还在震惊中的网友们 be like:还有人直接@了OpenAI的奥特曼,这你们不跟进一波?上下文理解能力拉满目前Google已放出三个不同任务的演示视频,只能说Gemini 1.5是个抽象派(doge)。在第一段演示视频中,展示的是Gemini 1.5处理长视频的能力。使用的视频是巴斯特·基顿(Buster Keaton)的44分钟电影,共696161 token。演示中直接上传了电影,并给了模型这样的提示词:找到从人的口袋中取出一张纸的那一刻,并告诉我一些关于它的关键信息以及时间码。随后,模型立刻处理,输入框旁边带有一个“计时器”实时记录所耗时间:不到一分钟,模型做出了回应,指出12:01的时候有个人从兜里掏出了一张纸,内容是高盛典当经纪公司的一张当票,并且还给出了当票上的时间、成本等详细信息。随后经查证,确认模型给出的12:01这个时间点准确无误:除了纯文字prompt,还有更多玩法。直接给模型一张抽象“场景图”,询问“发生这种情况时的时间码是多少?”。同样不到一分钟,模型准确给出了的电影对应的时间点15:34。在第二段演示视频中,Google展示了Gemini 1.5分析和理解复杂代码库的能力。用到的是Three.js,这是一个3D Javascript库,包含约100000行代码、示例、文档等。演示中他们将所有内容放到了一个txt文件中,共816767 token,输入给模型并要求它“找到三个示例来学习角色动画”。结果模型查看了数百个示例后筛选出了三个关于混合骨骼动画、姿势、面部动画的示例。这只是开胃小菜。接下来只用文字询问模型“动画Little Tokyo的demo是由什么控制?”模型不仅找到了这个demo,并且解释了动画嵌入在gLTF模型中。并且还能实现“定制代码”。让模型“给一些代码,添加一个滑块来控制动画的速度。使用其它演示所具有的那种GUI”。Gemini 1.5分分钟给出了可以成功运行的代码,动画右上角出现了一个可控速的滑块:当然也可以做“代码定位”。仅靠一张demo的图片,Gemini 1.5就能在代码库中从数百个demo中,找到该图对应动画的代码:还能修改代码,让地形变得平坦,并解释其中的工作原理:修改代码这一块,对文本几何体的修改也不在话下:第三个演示视频展示的是Gemini 1.5的文档处理能力。选用的是阿波罗11号登月任务的402页PDF记录,共326658 token。要求Gemini 1.5“找到三个搞笑时刻,并列出文字记录以及表情符号引述”:30秒,模型给出了回应,其一是迈克尔·柯林斯的这句话“我敢打赌你一定要喝一杯咖啡”,经查询文档中的确有记录:更抽象一点,绘制一个靴子的图片,询问模型“这是什么时刻”。模型正确地将其识别为这是Neil在月球上的第一步:最后同样可以询问模型快速定位这一时刻在文档中对应的时间位置:差不多的抽象风同样适用于1382页、732000 token的《悲惨世界》,一张图定位小说位置。仅从提示词中学会一门新语言对于Gemini 1.5的技术细节,Google遵循了OpenAI开的好头,只发布技术报告而非论文。其中透露Gemini 1.5使用了MoE架构,但没有更多细节。与上代1.0 Pro相比,1.5 Pro在数学、科学、推理、多语言、视频理解上进步最大,并达到1.0 Ultra层次。为验证长上下文窗口的性能,使用了开源社区通行的大海捞针测试,也就是在长文本中准确找到可以藏起来的一处关键事实。结果50万token之前的表现非常完美,一直到千万token,Gemini 1.5也只失误了5次。此外还将测试扩展到多模态版本,如在视频画面的某一帧中藏一句话,给的例子是在阿尔法狗的纪录片中藏了“The secret word is ‘needle’”字样。结果在视频、音频测试中都实现了100%的召回率。特别是音频中,对比GPT-4+Whisper的结果,差距非常明显。此外GoogleDeepMind团队还测试了一项高难任务,仅通过长提示词让模型学会全新的技能。输入一整本语法书,Gemini 1.5 Pro就能在翻译全球不到200人使用的Kalamang上达到人类水平。相比之下,GPT-4 Turbo和Claude 2.1一次只能看完半本书,想获得这个技能就必须要微调或者使用外部工具了。也难怪有网友看过后惊呼,“哥们这是要把RAG玩死啊”。One More ThingGoogle还公布了一波已在业务中采用Gemini大模型的客户。其中有三星手机这样的大厂,也有像Jasper这种靠GPT起家的创业公司,甚至OpenAI董事Adam D‘Angelo旗下的Quora。与OpenAI形成了直接竞争关系。对此,一位网友道出了大家的心声:真希望这能促使OpenAI发布他们的下一代大模型。参考链接:[1]... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人