传谷歌开始小范围测试Gemini:比训练GPT-4算力大5倍,多模态能力大提升#抽屉IT

None

相关推荐

封面图片

Google 推出原生多模态 AI 模型 Gemini,挑战GPT-4

Google推出原生多模态AI模型Gemini,挑战GPT-4https://abmedia.io/google-ai-model-gemini?utm_source=rss&utm_medium=rss&utm_campaign=google-ai-model-gemini&utm_source=rss&utm_medium=rss&utm_campaign=google-ai-model-gemini

封面图片

传谷歌即将发布GPT-4竞品Gemini

传谷歌即将发布GPT-4竞品Gemini据知情人士透露,国外媒体TheInformation报道称,Google已向少数公司提供了Gemini早期版本进行测试,Gemini模型的正式发布即将到来。Gemini是GoogleDeepMind团队紧锣密鼓开发的下一代AI模型,据悉是Google第一个能够处理文字、图片、视频等不同数据形式的多模态模型,同时可望帮助软件工程师根据提示需求生成代码,加速软件开发。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Gemini和GPT-4谁更强?周鸿祎:长期看谷歌赶上GPT-4绰绰有余#抽屉IT

封面图片

外媒:谷歌发布Gemini更多是为营销 仍落后于GPT-4

外媒:谷歌发布Gemini更多是为营销仍落后于GPT-4一年前,谷歌被OpenAI的聊天机器人ChatGPT打了个措手不及,此后就一直渴望描绘出自己在人工智能领域快速进步的画面。本周三谷歌突然提前发布了新的人工智能模型Gemini,可以发现魔术中的技巧,并在会计认证考试中取得好成绩。谷歌发布的演示视频也在社交媒体上引起了轰动,但从技术角度来看,谷歌仍然在追赶OpenAI。从谷歌Gemini与OpenAI顶级模型GPT-4的性能对比来看,谷歌最强大的GeminiUltra在高中物理、专业法律测试以及道德场景等大多数基准测试中都优于GPT-4。要知道,当前的人工智能竞赛几乎完全是由这些能力定义的。但在大多数基准测试中,GeminiUltra只比GPT-4高出几个百分点。换句话说,谷歌所谓的顶级人工智能模型较OpenAI至少一年前完成的工作效果提升有限。如果GeminiUltra真如谷歌所说那样在明年1月初发布,那么可能不会在顶级人工智能模型的头把交椅上呆太久时间。在谷歌努力追赶OpenAI的过程中,后者有将近一年的时间来开发新一代人工智能模型GPT-5。谷歌发布在社交媒体X上的演示视频乍一看令人印象深刻。谷歌的人工智能模型能够追踪塑料杯下的纸球,或者在勾勒出图片轮廓之前就推断出会是一只螃蟹,这些都显示出谷歌DeepMind人工智能实验室多年来训练的强大推理能力。这是其他人工智能模型所缺少的功能。但视频中展示的许多其他功能并不是谷歌独有的,ChatGPTPlus3也可以做得到,沃顿商学院教授伊森·莫里克(EthanMollick)就用实验证实了这一点。此外,谷歌也承认演示视频被编辑过。该公司在视频描述中说:“为了达到演示效果,我们缩短了延迟时间,Gemini的输出也压缩了。”这意味着模型做出响应所花费的时间实际上要比视频中展示的长。事实上演示也不是实时的,也没有通过语音交互完成。谷歌的一位发言人在谈到这段视频时表示,这段视频是“使用视频中的静止图像帧,并通过文本提示”制作出来的。有网站展示了其他人如何通过手势、绘画或其他物体的照片与Gemini互动。换句话说,演示视频中的声音只是在解释给Gemini做了哪些人工提示,Gemini输出的依旧是静态图片。这似乎与谷歌所谓一个人可以与Gemini进行流畅对话、模型可以实时观察周围世界并做出反应的暗示完全不同。演示视频也没有说明展示是GeminiUltra人工智能模型。这些细节表明,谷歌更多是在进行营销,希望人们记住自己拥有世界上最大的人工智能研究团队之一,并且比其他任何人都能获得更多数据。正如谷歌在周三所做的那样,公司希望在Chrome、Android和Pixel手机上推出适用于终端设备的Gemini模型,提醒人们公司的部署网络规模有多庞大。但在科技行业,无处不在并不总是看起来那么有优势。早期的手机霸主诺基亚(和黑莓)就经历过惨痛教训,苹果用功能更强大、更直观的iPhone抢走了它们的市场。在软件领域,商业上的成功往往来自于性能最好的系统。几乎可以肯定的是,谷歌这番操作是为了利用OpenAI最近的动荡局势。据报道,当OpenAI董事会暂时罢免首席执行官萨姆·奥特曼(SamAltman),使公司的未来发展受到质疑时,谷歌迅速发起了一场营销活动,说服OpenAI企业客户转向谷歌。现在,随着Gemini的发布,谷歌似乎正在利用这种不确定性。但演示的效果有限。谷歌之前已经展示过新技术,但没有任何进展。到目前为止,谷歌的庞大架构和层叠复杂的产品经理设置使其无法像OpenAI那样灵活发布产品。随着全社会努力应对人工智能的变革性影响,谷歌的最新举措并不是一件坏事,但效果有待观察。可以肯定的是,谷歌仍然在后面努力追赶。...PC版:https://www.cnbeta.com.tw/articles/soft/1402909.htm手机版:https://m.cnbeta.com.tw/view/1402909.htm

封面图片

谷歌DeepMind披露其正开发新型AI模型Gemini,号称“比GPT-4强”

封面图片

GPT-3计划开源 Sam Altman自曝急缺GPU GPT-4多模态能力2024年开放

GPT-3计划开源SamAltman自曝急缺GPUGPT-4多模态能力2024年开放许多网友纷纷表示,我喜欢Altman的坦诚。值得一提的是,GPT-4的多模态能力,2024年应该大部分Plus用户就能上手了,前提还是有足够GPU才行。微软老大哥斥资12亿美元给OpenAI建的超算,还远远无法满足GPT-4运行时所需的算力。毕竟,GPT-4参数据称有100万亿。另外,Altman还透露,GPT-3也在OpenAI的开源计划之中。不知道是不是这次采访内容透露了太多OpenAI的“机密”,源文稿目前已被删除,快点码了。划重点最新访谈,是来自AI开发平台Humanloop的首席执行官RazaHabib主持,采访了Altman以及其他20位开发人员。这次讨论涉及到实际的开发者问题,以及与OpenAI的使命和AI的社会影响相关的更大的问题。以下是关键要点:1.OpenAI急缺GPU2.OpenAI的近期路线图:GPT-4多模态2024年开放3.通过API访问ChatGPT插件近期不会发布4.OpenAI只做ChatGPT这一“杀手级应用”,目标是让ChatGPT成为一个超级智能的工作助手5.GPT-3在开源计划中6.模型性能的缩放法则继续有效接下来,将从6大点介绍SamAltman究竟说了啥。OpenAI目前严重依赖GPU采访的一切话题都是围绕,“OpenAI太缺GPU了”。这已经拖延了他们许多的短期计划。目前,OpenAI的许多客户都在抱怨API的可靠性和速度。SamAltman解释道,主要还是GPU太缺了。OpenAI是英伟达DGX-1超算首位客户至于,支持32ktokens的上下文长度还不能推出给更多的人。由于OpenAI还没有克服技术上的障碍,看起来他们似乎今年就会有支持100k-1Mtokens的上下文,但需要在研究上取得突破。微调(Fine-Tuning)API也目前受到GPU可用性的限制。OpenAI还没有使用像Adapters或LoRa这样的高效微调方法,因此微调对于运行和管理来说是非常计算密集型的。不过,未来他们将对微调提供更好的支持。甚至,OpenAI可能会托管一个社区贡献的模型市场。最后,专用容量提供也受到GPU可用性的限制。今年年初,网友爆出OpenAI正在悄悄推出一个新的开发者平台Foundry,让客户在专用容量上运行该公司的新机器学习模型。这一产品就是“为运行较大工作负载的尖端客户设计”。要使用这项服务,客户必须愿意预付$100k的费用。然而,从透露的图片信息可以看出,实例并不便宜。运行GPT-3.5的轻量级版本,3个月的委托将花费78,000美元,一年将花费264,000美元。从另一侧面也可以看出,GPU消耗价格不菲。OpenAI近期路线图Altman分享了OpenAIAPI的暂定近期路线图:2023:·又快又便宜的GPT-4ーー这是OpenAI的首要任务。总的来说,OpenAI的目标是,尽可能地降低“智能成本”。因此他们将努力继续降低API的成本。·更长的上下文窗口ーー在不久的将来,上下文窗口可能支持高达100万个tokens。·微调API——微调API将扩展到最新的模型,但具体的形式将取决于开发人员真正想要的是什么。·有记忆的APIーー目前大部分token被浪费在上文的传输中,将来会有一个能够记住对话历史的API版本。2024:·多模态能力ーーGPT-4发布时曾演示了强大的多模态能力,但是在GPU得到满足之前,这一功能还无法拓展到所有人。插件“没有PMF”,短期内不会出现在API中许多开发者对通过API访问ChatGPT插件非常感兴趣,但Sam表示这些插件不会很快发布。“除了Browsing外,插件系统还没有找到PMF。”他还指出,很多人想把他们的产品放到ChatGPT里,但实际上他们真正需要的是把ChatGPT放到他们的产品里。除了ChatGPT,OpenAI不会发布更多产品OpenAI的每一次动作,都让开发者们抖三抖。不少开发人员表示,OpenAI可能发布与他们竞争的产品的时候,对使用OpenAIAPI构建应用感到紧张。而Altman表示,OpenAI不会在ChatGPT之外发布更多的产品。在他看来,伟大的公司有一个“杀手级应用”,ChatGPT就是要做这个创纪录的应用。ChatGPT的愿景是成为一个超级智能的工作助理。OpenAI不会触及到更多其他GPT的用例。监管是必要的,但开源也是必要的虽然Altman呼吁对未来模型进行监管,但他并不认为现有的模型是危险的。他认为,监管或禁止现有模型将是一个巨大的错误。采访中,他重申了自己对开源重要性的信念,并表示OpenAI正在考虑将GPT-3开源。而现在,OpenAI还没有开源的部分原因是,他对有多少个人和公司有能力托管,和提供大模型表示怀疑。模型性能“缩放法则”仍有效近来,许多文章声称,巨型人工智能模型的时代已经结束。然而,并没有准确反应Altman原意。OpenAI的内部数据表明,模型性能的缩放法则(scalinglaws)仍然有效,让模型变大将继续产生性能。不过,缩放的速度不能维持,因为OpenAI在短短几年内已经将模型扩大了数百万倍,未来这样做将不可持续。这并不意味着OpenAI不会继续尝试使模型更大,只是意味着它们可能每年只会增加1倍/2倍,而不是增加多个数量级。缩放法则继续有效的事实对AGI开发的时间线有重要的影响。缩放假设是我们可能已经有了构建AGI所需的大部分部件,剩下的大部分工作将是将现有的方法扩展到更大的模型和更大的数据集。如果缩放的时代结束了,那么我们可能应该预期AGI会更远。缩放法则继续有效强烈暗示了实现AGI时间线会变短。网友热评有网友调侃道,OpenAI:必须通过法规来保护我们的护城河。还是OpenAI:Meta在我们的护城河里撒尿,让我们也暗示一下我们的模型要开源吧。还有人称,如果GPT-3真的开源了,像LLMa一样,需要大约5天的时间在M1芯片上就能运行了。社区开发人员能够帮OpenAI解决GPU瓶颈,前提是他们开源模型。没几天,开发者们就能让其运行在CPU和边缘设备。GPU短缺一事,有人认为是OpenAI资金链出了问题,买不起。然而还有人称,明显是缺乏供应。除非芯片制造业发生革命,否则相对于消费GPU来说,可能总是会出现供应不足的情况。还有网友怀疑,英伟达的价值还是被低估?计算需求的阶梯式变化可能持续数年...英伟达刚刚加入万亿美元俱乐部,这样说来,无限的算力需求或许会成就一个世界超越2万亿美元的芯片厂。...PC版:https://www.cnbeta.com.tw/articles/soft/1363187.htm手机版:https://m.cnbeta.com.tw/view/1363187.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人