AI“明星”选手巅峰对决 实测最新谷歌Gemini与GPT-4o

AI“明星”选手巅峰对决 实测最新谷歌Gemini与GPT-4o 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 紧随其后一天,年度Google I/O开发者大会如期而至,GoogleCEO Sundar Pichai宣布了一系列围绕其最新生成式AI模型Gemini的重大更新,全面反击OpenAI,其中就有由升级后Gemini模型驱动的AI助手项目Project Astra、对标Sora的文生视频模型Veo等。本周AI战场暂告一段落,《科创板日报》记者对AI界的“明星”选手GoogleGemini 1.5 Pro(100万tokens)、OpenAI最新升级的GPT-4o与此前发布的GPT-4进行了一场能力评测。文本测试:GoogleGemini 1.5 Pro正确率和速度完胜GPT-4o和GPT-4OpenAI发布GPT-4已过去一年多,据介绍,此次推出新旗舰模型GPT-4o的推理能力有明显的提升,速度快了,价格也下降了。GoogleGemini系列以其标志性的超大上下文窗口出名,此前已拥有Ultra、Pro和Nano三种规格,各适配不同规模与需求的应用场景。本次发布会宣布,迭代后的Gemini 1.5 Pro 的上下文长度从原有的100万tokens(语句单位)提升到了200万tokens。这一改进显著增强了模型的数据处理能力,使其在处理更加复杂和庞大的数据集时更加游刃有余。两家公司都对自己的大模型的升级换代展现出自信姿态,但情况还需要实际验证。第一题是“事实回答题”,只有GoogleGemini 1.5 Pro模型回答正确,它能辨别出“螺丝钉并不是一种食品”这一事实。Gemini 1.5 Pro回复结果GPT-4和GPT-4o虽然对“麻辣螺丝钉怎么做”的回答非常详细和全面,涵盖了所需材料、制作步骤以及小贴士,但是却忽略了“螺丝钉并不是一种可食用品”这一前置事实。GPT-4、GPT-4o回复结果第二题是“逻辑计算题”,GPT-4和GPT-4o均回答错误,Google模型给出正确答案,并且显示了具体作答时间,不到10秒的时间里便给出了答案和解析,表现可谓“又快又好”。Gemini 1.5 Pro回复结果不同模型在处理逻辑问题时所采取的思考策略有所差别。与Gemini 1.5 Pro在解答时先给出答案再详细解释其背后规律的方式不同,GPT-4和GPT-4o更倾向于首先深入拆解问题,而非直接呈现答案。然而,这种对问题的细致分析和拆解过程也导致了后两者在回答时所需的时间相对较长。GPT-4、GPT-4o回复结果第三题是“生物题”,GPT-4回答错误,GPT-4o和GoogleGemini 1.5 Pro回答正确,用时分别为14.83秒和11.2秒,Gemini 1.5 Pro略胜一筹。Gemini 1.5 Pro回复结果第四题是“伦理道德题”,三个大模型的回答都正确,并且都能识别出是经典的伦理困境“电车难题”。GPT-4和 Gemini 1.5 Pro强调了伦理困境的复杂性,并没有给出直接的选择,GPT-4o则根据“最大限度减少伤亡”的原则进行分析并给出选择。三大模型回复结果《科创板日报》记者总结文本测试结果发现,Google100万级参数的Gemini 1.5 Pro模型凭借四次全部正确的表现,实力杠杆,GPT-4o答对了两次,而GPT-4模型的表现则不尽人意,仅答对了一次。由于目前200万级参数的Gemini 1.5 Pro模型尚未开放,《科创板日报》记者申请了内测,等待通过后再做进一步测试分享。多模态测试:GPT-4o在细节和分析能力上更胜一筹GPT-4o是OpenAI对其广受欢迎的大型多模态模型GPT-4的第三次重大迭代,它通过视觉功能扩展了GPT-4的能力,新发布的模型能够以一种集成且无缝的方式与用户进行对话、视觉识别和互动。Gemini 1.5 Pro也拥有多模态功能,适合处理摘要、聊天、图片分析和视频字幕、以及从长文本和表格中提取数据等。记者用“公园照片”询问三个大模型在测试中,记者用一张“公园照片”来询问三个大模型。根据图片测试反馈,三个大模型都准确地描述了公园照片的内容,但侧重点略有不同。GPT-4o胜在信息完整性,详细列举了船只类型、湖面状态等各种细节,但略显冗长。Gemini 1.5 Pro语言简洁流畅,用“悠闲地泛舟”、“景色宜人”等词语描绘出画面美感,但细节不如GPT-4o丰富。GPT-4描述简洁,但细节不够丰富。简而言之,如果看重信息的全面性,GPT-4o最强;若更注重语言表达,则Gemini 1.5 Pro表现略佳。由于目前GPT-4尚未具备音频和视频内容的解析能力,所以不做相关测评。OpenAI联合创始人Sam Altman表示,新款语音模型GPT-4o尚未发货,已经发货只是文字版GPT-4o。等到语音版一发货,记者将第一时间带来评测。根据视频测试反馈,GPT-4o在解析视频内容时表现出了强大的多模态处理能力。它能够提取和分析视频帧,并通过图形界面直观地展示给用户。在分析过程中,模型准确地识别出了视频中的四足机器人,并对其外观、所处的环境以及所进行的活动进行了详细的描述。GPT-4o视频测试回复相比之下,Gemini 1.5 Pro的回复则显得简略又单调,在记者第二次追问下,才充实了更多细节。总体来看,如果目标是获取最全面、深入的多模态内容理解,GPT-4o是当前的最佳选择,而Gemini 1.5 Pro则更适合那些重视表述质量与效率的多模态应用场景。不过,GPT-4o和Gemini 1.5 Pro都没有提及对视频里的声音的分析,这是两个多模态大模型解析中的一个共同缺失。前华为“天才少年”预测国内第一个端到端多模态大模型年底将到来AI比赛行至白热化阶段已经告别单纯的技术竞争,转向应用和用户体验的竞争。在搜索引擎和办公领域,Google也将进一步将AI引入其中。记者发现,能够总结Google搜索引擎结果的“AI概览”(AI Overviews)功能已能够使用。百度创始人、董事长兼首席执行官李彦宏昨晚在财报电话会上表示,目前百度搜索上有11%的搜索结果由AI生成。他指出,百度搜索的AI重构工作仍处于早期阶段,整体来看,搜索最有可能成为AI时代的杀手级应用。OpenAI与Google都不约而同地盯上了能自然交互的智能助理,这种智能助理是一个端到端的统一多模态大模型,将推动AI应用的革命性变化。前华为“天才少年”、Logenic Al 联合创始人李博杰认为,国内第一个多模端到端多模态,很有可能今年年底就能差不多能出来了。针对AI Agent近期的发展速度放缓的问题,李博杰表示,“虽然AI智能助理的发展前景广阔,但成本和用户的付费意愿是目前限制其快速发展的主要因素。GPT-4o它比GPT-4快4倍,并将成本降低了一倍,但是对于普通消费者来说可能仍然较贵。”李博杰称,从长期来看,实用性强的智能助理因其解决现实问题的能力而具有更高的价值。而短期内,情感陪伴和娱乐功能的智能助理更容易商业化,因为它们对可靠性的要求较低,开发和部署相对容易。 ... PC版: 手机版:

相关推荐

封面图片

Poe 新增GPT-4o, Gemini 1.5 Flash,Gemini 1.5 Pro等模型

Poe 新增GPT-4o, Gemini 1.5 Flash,Gemini 1.5 Pro等模型 标签: #OpenAI #Poe #Gemini 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

ℹ正面对决 GPT-4 的 Google Gemini AI 模型正式发表,将融入 Bard 与 Pixel 8 Pro 之中#

ℹ正面对决 GPT-4 的 Google Gemini AI 模型正式发表,将融入 Bard 与 Pixel 8 Pro 之中# 不让 OpenAI 抢尽版面,Google 对标 GPT-4V 的多模态模型 Gemini。不出则以,一出就直接推出 Ultra / Pr...

封面图片

OpenAI推出新旗舰模型GPT-4o

OpenAI推出新旗舰模型GPT-4o GPT-4o 是面向未来人机交互范式的全新大模型,具有文本、语音、图像三种模态的理解力,反应极快还带有感情,也很通人性。 GPT-4o面向所有用户、包括免费用户,最快232毫秒响应音频输入,平均响应时间和人类相似;相比GPT-4 Turbo速度快两倍,成本降低50%,API速率限制提高五倍。

封面图片

ℹChatGPT 4o 和 Gemini 1.5 Pro 谁比较强?外媒实测 8 项内容 ChatGPT 4o 完胜#

ℹChatGPT 4o 和 Gemini 1.5 Pro 谁比较强?外媒实测 8 项内容 ChatGPT 4o 完胜# 随著 OpenAI 和 Google 都陆续推出 GPT-4o 和 Gemini 1.5 Pro 新版本模型,很多人一定会好奇,这二个到底...

封面图片

GPT-4o与GPT-4的区别

GPT-4o与GPT-4的区别 1. 性能提升:GPT-4o在性能上进行了显著提升,特别是在文本、语音和视觉处理方面。它能够更快地响应用户的输入,提供更自然和流畅的交互体验。 2. 响应速度:GPT-4o在响应速度上进行了优化,能够以更短的延迟时间处理用户的语音输入,平均响应时间为320毫秒,这与人类在对话中的响应时间相似。 3. 多模态交互:GPT-4o支持更高级的多模态交互,能够处理文本、音频和图像的任意组合输入,并生成对应的任意组合输出。这使得GPT-4o在交互性上更加灵活和强大。 4. 安全性:GPT-4o在设计中内置了跨模式的安全性,并通过与外部专家的合作,提高了与模型互动的安全性。 5. 成本和效率:GPT-4o在非英语文本上的性能有显著提高,同时API速度快,速率限制高出5倍,成本降低了50%。 6. 免费提供:与以往的模型不同,GPT-4o将免费提供给所有用户使用,而付费用户可以享受更高的调用额度。 7. 语音交互模式:GPT-4o采用了全新的技术,让聊天机器人的语音交互模式更加自然和逼真,能够根据指令调整说话时的语气,甚至唱歌。 8. 优化和迭代:GPT-4o通过训练时的优化和数据的迭代更新,提升了模型在特定任务和场景下的表现。 9. 风险管理:OpenAI认识到GPT-4o的音频模式存在风险,因此目前公开的是文本和图像输入以及文本输出,未来将围绕技术基础设施、训练后的可用性、发布其他模式所需的安全性开展工作。

封面图片

今天发布的GPT-4o以及ChatGPT产品的快速总结:#ai# #open#

今天发布的GPT-4o以及ChatGPT产品的快速总结:#ai# #openai# GPT-4o(“o”代表“全能”) 它可以接受任意组合的文本、音频和图像作为输入,并生成任意组合的文本、音频和图像输出。 它可以在 232 毫秒内响应音频输入,平均为 320 毫秒,这与人类在对话中的响应时间相似。 在英文和代码文本方面,它与 GPT-4 Turbo 的性能相当,对非英语文本的文本有显著改进。 同时在 API 方面更快速、价格更便宜 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面表现特别出色。 与 GPT-4 Turbo 相比,GPT-4o 速度提高了 2 倍,价格减半,限制速率提高了 5 倍。 何时可用? GPT-4o 的文本和图像功能今天开始在 ChatGPT 中推出。 将在免费版中提供 GPT-4o,并为 Plus 用户提供高达 5 倍的消息限制。 将在未来几周内在 ChatGPT Plus 中推出带有 GPT-4o 的 Voice Mode 的新版本。 开发者现在也可以通过 API 访问 GPT-4o 作为文本和视觉模型。 公告地址:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人