谷歌发布了Gemini 1.5模型,最主要的升级是支持了高达 100 万的上下文长度,秒杀了所有模型。#ai##llm#

谷歌发布了Gemini1.5模型,最主要的升级是支持了高达100万的上下文长度,秒杀了所有模型。Gemini1.5基于Transformer和MoE架构的研究和工程创新,提高了训练和服务的效率。Gemini1.5Pro是一个中等规模的多模态模型,适用于多种任务,并引入了在长上下文理解方面的实验性特性。它标准的上下文窗口为128,000个Token,但现在已经可以通过AIStudio和VertexAI向开发者和企业客户提供高达100万个Token的私人预览。1.5Pro可以一次处理大量信息——包括1小时的视频、11小时的音频、包含超过30,000行代码的代码库或超过700,000个单词。Gemini1.5Pro在文本、代码、图像、音频和视频评估的综合面板上的性能超过了Gemini1.0Pro,并且与1.0Ultra在同样的基准测试上表现相当。此外,Gemini1.5Pro在进行长上下文窗口的测试中表现出色,在NIAH评估中,它在长达100万个Token的数据块中99%的时间内找到了嵌入的文本。了解更多:#context-window

相关推荐

封面图片

Google继Gemini 1.0 Ultra之后,推出了更高能力的模型Gemini 1.5。Gemini 1.5 Pro引入了

Google继Gemini 1.0Ultra之后,推出了更高能力的模型Gemini1.5。Gemini1.5Pro引入了一个实验性功能,能够处理长达1百万token的上下文窗口,上下文内容包括:代码、文本、图像和影片。同时,Gemini1.5采用了新的混合专家(Mixture-of-Experts,MoE)架构。从今天起,少数开发人员和企业客户可以通过AIStudio和VertexAI私有预览版中试用100万Token的上下文窗口的Gemini1.5Pro。https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024/投稿:@TNSubmbot频道:@TestFlightCN

封面图片

Gemini 1.5 Pro 已上线 Poe

Poe在X表示,Gemini1.5Pro已在Poe推出,Google的这个强大的新多模态模型引入了业界领先的100万个tokens(约70万个单词)的上下文窗口,具有近乎完美的检索能力,可实现需要长上下文理解的复杂任务。Gemini1.5Pro支持文本、图像和视频输入,并具有文本输出功能。它目前在Poe中提供三个版本:Gemini1.5Pro、128k、1M。此外,Poe还添加了原版GeminiPro的升级版。该机器人经过微调,具有更具对话性的个性,并在推理、数学、延迟、讲故事和总结等方面具有质量改进。via匿名标签:#Gemini#Poe#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

Google的下一代人工智能模型Gemini 1.5已基本准备就绪

Google的下一代人工智能模型Gemini1.5已基本准备就绪Gemini1.5有很多改进:Gemini1.5Pro(Google系统中的通用模型)与该公司最近才推出的高端GeminiUltra能力不相上下,而且在87%的基准测试中,它都优于Gemini1.0Pro。它采用了一种越来越常见的技术,即"专家混合"(MoE),这意味着当你发送查询时,它只运行整个模型的一部分,而不是一直处理整个模型。这种方法能让用户更快地使用模型,也能让Google更高效地运行模型。但是,Gemini1.5中的一个新功能让整个公司都特别兴奋:Gemini1.5有一个巨大的上下文窗口,这意味着它可以处理更大的查询,一次查看更多的信息。这个窗口高达100万个tokens,而OpenAI的GPT-4为12.8万个,目前的GeminiPro为3.2万个。"这大约相当于是10或11个小时的视频,数万行代码"。上下文窗口意味着可以一次性向人工智能机器人询问所有内容。GoogleCEO皮查伊还表示,研究人员正在测试一个1000tokens的上下文窗口--这就好比是将《权力的游戏》的整个系列同时播出,或者把整个《指环王》三部曲都放进这个上下文窗口中。这允许在查询时添加大量个人上下文和信息,就像我们极大地扩展了查询窗口一样。目前,Gemini1.5只能通过Google的顶点人工智能(VertexAI)和人工智能工作室(AIStudio)提供给企业用户和开发人员。最终,它将取代Gemini1.0,而Gemini专业版的标准版本--每个人都可以在gemini.google.com和公司的App中使用的版本将是1.5专业版,拥有128000个tokens的上下文窗口,而需要支付额外的费用才能获得百万级的权限。Google还在测试该模式的安全性和道德底线,尤其是新增加的上下文窗口。当全球企业都在试图制定自己的人工智能战略--以及是与OpenAI、Google还是其他公司签署开发者协议时,Google正在为打造最好的人工智能工具而展开一场激烈的竞赛。就在本周,OpenAI公布了ChatGPT的"记忆能力",同时似乎准备进军网络搜索领域。到目前为止,Gemini似乎给人留下了深刻印象,尤其是对于那些已经进入Google生态系统的人来说,但各方都还有很多工作要做。最终,所有这些1.0、1.5、Pro、Ultras和企业之争对用户来说并不重要。人们将只需要感受AI,这就像使用智能手机,而不必总是关注手机里面的处理器是怎么工作的。...PC版:https://www.cnbeta.com.tw/articles/soft/1418373.htm手机版:https://m.cnbeta.com.tw/view/1418373.htm

封面图片

Google全新大模型突然发布:百万上下文 仅靠提示学会新语言

Google全新大模型突然发布:百万上下文仅靠提示学会新语言现在仅仅中杯1.5Pro版就能越级打平上一代大杯1.0Ultra版,更是在27项测试中超越平级的1.0Pro。支持100万token上下文窗口,迄今为止大模型中最长,直接甩开对手一个量级。这还只是对外发布的版本,Google更是透露了内部研究版本已经能直冲1000万。现在Gemini能处理的内容,可换算成超过70万单词,或1小时视频、11小时音频、超过3万行代码。没错,这些数据模态Gemini1.5都已经内建支持。从今天起,开发者和客户就可以在VertexAPI或AIStudio申请试用。刚刚收到消息还在震惊中的网友们belike:还有人直接@了OpenAI的奥特曼,这你们不跟进一波?上下文理解能力拉满目前Google已放出三个不同任务的演示视频,只能说Gemini1.5是个抽象派(doge)。在第一段演示视频中,展示的是Gemini1.5处理长视频的能力。使用的视频是巴斯特·基顿(BusterKeaton)的44分钟电影,共696161token。演示中直接上传了电影,并给了模型这样的提示词:找到从人的口袋中取出一张纸的那一刻,并告诉我一些关于它的关键信息以及时间码。随后,模型立刻处理,输入框旁边带有一个“计时器”实时记录所耗时间:不到一分钟,模型做出了回应,指出12:01的时候有个人从兜里掏出了一张纸,内容是高盛典当经纪公司的一张当票,并且还给出了当票上的时间、成本等详细信息。随后经查证,确认模型给出的12:01这个时间点准确无误:除了纯文字prompt,还有更多玩法。直接给模型一张抽象“场景图”,询问“发生这种情况时的时间码是多少?”。同样不到一分钟,模型准确给出了的电影对应的时间点15:34。在第二段演示视频中,Google展示了Gemini1.5分析和理解复杂代码库的能力。用到的是Three.js,这是一个3DJavascript库,包含约100000行代码、示例、文档等。演示中他们将所有内容放到了一个txt文件中,共816767token,输入给模型并要求它“找到三个示例来学习角色动画”。结果模型查看了数百个示例后筛选出了三个关于混合骨骼动画、姿势、面部动画的示例。这只是开胃小菜。接下来只用文字询问模型“动画LittleTokyo的demo是由什么控制?”模型不仅找到了这个demo,并且解释了动画嵌入在gLTF模型中。并且还能实现“定制代码”。让模型“给一些代码,添加一个滑块来控制动画的速度。使用其它演示所具有的那种GUI”。Gemini1.5分分钟给出了可以成功运行的代码,动画右上角出现了一个可控速的滑块:当然也可以做“代码定位”。仅靠一张demo的图片,Gemini1.5就能在代码库中从数百个demo中,找到该图对应动画的代码:还能修改代码,让地形变得平坦,并解释其中的工作原理:修改代码这一块,对文本几何体的修改也不在话下:第三个演示视频展示的是Gemini1.5的文档处理能力。选用的是阿波罗11号登月任务的402页PDF记录,共326658token。要求Gemini1.5“找到三个搞笑时刻,并列出文字记录以及表情符号引述”:30秒,模型给出了回应,其一是迈克尔·柯林斯的这句话“我敢打赌你一定要喝一杯咖啡”,经查询文档中的确有记录:更抽象一点,绘制一个靴子的图片,询问模型“这是什么时刻”。模型正确地将其识别为这是Neil在月球上的第一步:最后同样可以询问模型快速定位这一时刻在文档中对应的时间位置:差不多的抽象风同样适用于1382页、732000token的《悲惨世界》,一张图定位小说位置。仅从提示词中学会一门新语言对于Gemini1.5的技术细节,Google遵循了OpenAI开的好头,只发布技术报告而非论文。其中透露Gemini1.5使用了MoE架构,但没有更多细节。与上代1.0Pro相比,1.5Pro在数学、科学、推理、多语言、视频理解上进步最大,并达到1.0Ultra层次。为验证长上下文窗口的性能,使用了开源社区通行的大海捞针测试,也就是在长文本中准确找到可以藏起来的一处关键事实。结果50万token之前的表现非常完美,一直到千万token,Gemini1.5也只失误了5次。此外还将测试扩展到多模态版本,如在视频画面的某一帧中藏一句话,给的例子是在阿尔法狗的纪录片中藏了“Thesecretwordis‘needle’”字样。结果在视频、音频测试中都实现了100%的召回率。特别是音频中,对比GPT-4+Whisper的结果,差距非常明显。此外GoogleDeepMind团队还测试了一项高难任务,仅通过长提示词让模型学会全新的技能。输入一整本语法书,Gemini1.5Pro就能在翻译全球不到200人使用的Kalamang上达到人类水平。相比之下,GPT-4Turbo和Claude2.1一次只能看完半本书,想获得这个技能就必须要微调或者使用外部工具了。也难怪有网友看过后惊呼,“哥们这是要把RAG玩死啊”。OneMoreThingGoogle还公布了一波已在业务中采用Gemini大模型的客户。其中有三星手机这样的大厂,也有像Jasper这种靠GPT起家的创业公司,甚至OpenAI董事AdamD‘Angelo旗下的Quora。与OpenAI形成了直接竞争关系。对此,一位网友道出了大家的心声:真希望这能促使OpenAI发布他们的下一代大模型。参考链接:[1]https://twitter.com/JeffDean/status/1758146022726041615[2]https://storage.googleapis.com/deepmind-media/gemini/gemini_v1_5_report.pdf[3]https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024/#gemini-15...PC版:https://www.cnbeta.com.tw/articles/soft/1418747.htm手机版:https://m.cnbeta.com.tw/view/1418747.htm

封面图片

Gemini 数据分析能力并不像宣称的那么好

Gemini数据分析能力并不像宣称的那么好谷歌AI模型Gemini1.5Pro和1.5Flash据称能够凭借其“长上下文”完成以前不可能完成的任务,例如总结数百页的文档或搜索电影镜头中的场景。但新的研究表明,这些模型实际上在这些方面并不是很擅长。两项独立研究调查了Gemini模型和其他模型如何很好地理解大量数据。两项研究都发现Gemini1.5Pro和1.5Flash很难正确回答有关大型数据集的问题;在一系列基于文档测试中,这些模型给出正确答案的概率只有40%到50%。马萨诸塞大学阿默斯特分校博士后、其中一项研究的合著者MarzenaKarpinska说:“虽然像Gemini1.5Pro这样的模型在技术上可以处理长篇上下文,但我们已经看到许多案例表明,这些模型实际上并不‘理解’内容。”——

封面图片

Google发布Gemini 1.5 Flash人工智能模型 比Gemini Pro更轻便与易于使用

Google发布Gemini1.5Flash人工智能模型比GeminiPro更轻便与易于使用GoogleDeepMind首席执行官德米斯-哈萨比斯(DemisHassabis)在一篇博客文章中写道:"[Gemini]1.5Flash擅长摘要、聊天应用、图像和视频字幕、从长文档和表格中提取数据等。"Google之所以创建Gemini1.5Flash,是因为开发人员需要一个比Google今年2月发布的专业版更轻便、更便宜的型号。Gemini1.5Pro比该公司去年底发布的Gemini原型更高效、更强大。Gemini1.5Flash介于Gemini1.5Pro和Gemini1.5Nano之间,是Google在本地设备上运行的最小型号。尽管重量比GeminiPro轻,但功能却同样强大。Google表示,这是通过一个名为"蒸馏"的过程实现的,即把Gemini1.5Pro中最基本的知识和技能转移到更小的型号上。这意味着,Gemini1.5Flash将获得与Pro相同的多模态功能,以及长语境窗口(人工智能模型可一次性摄取的数据量),即一百万个词元。根据Google的说法,这意味着Gemini1.5Flash将能够一次性分析1500页的文档或超过30000行的代码库。Gemini1.5Flash(或这些型号中的任何一款)并非真正面向消费者。相反,它是开发人员利用Google设计的技术构建自己的人工智能产品和服务的一种更快、更便宜的方式。除了推出Gemini1.5Flash之外,Google还对Gemini1.5Pro进行了升级。该公司表示,已经"增强"了该模型编写代码、推理和解析音频与图像的能力。但最大的更新还在后面--Google宣布将在今年晚些时候把该模型现有的上下文窗口增加一倍,达到200万个词元。这将使它能够同时处理两小时的视频、22小时的音频、6万多行代码或140多万字。Gemini1.5Flash和Pro现在都可以在Google的人工智能工作室和顶点人工智能中进行公开预览。该公司今天还发布了新版Gemma开放模型,名为Gemma2。不过,除非你是开发人员或喜欢捣鼓构建人工智能应用程序和服务的人,否则这些更新其实并不适合普通消费者。...PC版:https://www.cnbeta.com.tw/articles/soft/1430899.htm手机版:https://m.cnbeta.com.tw/view/1430899.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人