OpenAI 很鸡贼,提前一天开发布会,让 Google I/O 的气势弱了很多。再加上 Ilya 的官宣离职又分走了不少流量。

OpenAI很鸡贼,提前一天开发布会,让GoogleI/O的气势弱了很多。再加上Ilya的官宣离职又分走了不少流量。果然今早一早起来,媒体的报道和用户的关注相比昨天要少得多。但实际上,个人觉得GoogleI/O还是有不少看点。最大的感觉是:Google在AI发展的进度上真正追平了OpenAI。无论是音视频实时助手,还是视频生成,基本上都能够和OpenAI同步发布,效果类似(当然Veo比Sora晚了三个月,效果看起来还是要稍逊)。甚至Gemini1.5Pro的2million窗口,LLM与Google原生搜索的结合,以及与智能眼镜等硬件的集成,相比OpenAI来说还要更领先一些。整体上,感觉Google这头巨兽算是彻底醒过来了,开始处于某种进攻的态势。(当然,实际全面发布时间是个问题。TheInformation说Google现在在AI上的风格是先立牌坊,然后慢慢挤牙膏兑现。)Google的这个多模态助手Astra,尽管在语音的表现力上不如昨天的ChatGPT,情绪没有那么丰满和dramatic,但是在延迟响应、实时语义理解上是不输的,尤其是还结合了记忆,感觉上甚至更加实用。相比之下,OpenAI昨天的发布会,以及最近的一系列动作,比如传说中和苹果合作,似乎都有“提升用户体验,进而拼命扩大用户量”的感觉,不知道是不是切身感受到了Google的威胁,在战略上做出的选择。或许OpenAI已经意识到了,单单靠自己很难跨越鸿沟,GPTs的失败就是例子。当然,Google也有自己的问题,当下最大的风险就是如何应对LLM在搜索结果中带来的商业化挑战。发布会上,搜索的第一条结果换成了LLM的结果,体验上看似变好了,但对商业化的影响是巨大的。这种左右互搏,处理不好就会是自掘坟墓,处理好了就会迎来第二曲线。至少从股价来看,感觉华尔街对于这次I/O的故事并不是非常buyin,还在继续观察。

相关推荐

封面图片

周鸿祎:谷歌的时间不多了,建议开源全部 AI

周鸿祎:谷歌的时间不多了,建议开源全部AI5月16日周鸿伟在微博点评GoogleI/O大会:"谷歌发布会刚结束,我简单点评一些我认为值得关注的重点,一共有9个。我的整体感觉是,现在留给谷歌的时间不多了,我建议谷歌把所有的产品都开源,然后通过开源重新变成开源世界的领军企业,领导着大家在多模态上一起合力来对付GPT、对付OpenAI。我觉得才有可能有胜算。​​​"关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

Meta官宣深入AI大战 推出先进大型语言模型

Meta官宣深入AI大战推出先进大型语言模型扎克伯格在社交媒体上称,FacebookAIResearch研发的LLaMA是“目前水平最高的”大型语言模型,目标是帮助研究人员推进他们在人工智能(AI)领域的工作。“大型语言模型”(LLM)可以消化大量的文本数据,并推断文本的单词之间的关系。随着计算能力的进步,以及输入数据集与参数空间的不断扩大,LLM的能力也相应提高。目前,LLM已经被证明能高效地执行多种任务,包括文本生成、问题回答、书面材料总结等。扎克伯格称,LLM在自动证明数学定理、预测蛋白质结构等更复杂的方面也有很大的发展前景。值得一提的是,近期大火的ChatGPT就是采用LLM构建的聊天机器人。ChatGPT由GPT3.5提供支持,而GPT3.5是一款基于OpenAI175B参数基础模型训练的LLM,175B是它从训练数据中所学习、沉淀下来的内容。Meta在官网介绍中称,LLaMA有7B、13B、33B和65B四个基础模型,在大多数基准测试中都优于GPT3.5的前身GPT3-175B,而LLaMA-65B可与业内最佳的Chinchilla-70B和PaLM-540B竞争。Meta还宣布,将针对学术研究者共享其模型,正在接受研究人员的申请。与之截然不同的是,Google旗下的DeepMind和OpenAI并不公开训练代码。根据2021年媒体的一份调查显示,AI专家们通常将DeepMind、OpenAI和FAIR(FacebookAIResearch)视为该领域的“前三甲”。去年年底,Meta发布了另一款名为Galactica的模型,但因经常分享偏见和不准确的信息而遭到下架。...PC版:https://www.cnbeta.com.tw/articles/soft/1346305.htm手机版:https://m.cnbeta.com.tw/view/1346305.htm

封面图片

2024年Google I/O 大会将于5月14日举行

2024年GoogleI/O大会将于5月14日举行注册地址:https://io.google/2024/从2016年开始,Google在其总部旁边的音乐会场地举办I/O,不过2020年没有举办,后一年则完全在线举办。届时将有"少量现场观众",其他人则可以观看直播。Google将在临近I/O2024大会时公布会议议程和会议列表,I/O2024大会将再次为期一天。此前,大会为期三天。在线注册从今天开始,参会是免费的。注册参加GoogleI/O2024大会可以通过电子邮件及时了解大会日程和内容以及相关开发者新闻。作为注册用户还可以创建一个开发者档案,通过保存和查看与您相关的内容,获得最佳的数字体验。期待在Android15上发布一系列人工智能公告和更多内容。I/O是Google详细介绍AndroidXR的绝佳机会。在硬件方面,我们期待Pixel8a的发布。...PC版:https://www.cnbeta.com.tw/articles/soft/1423722.htm手机版:https://m.cnbeta.com.tw/view/1423722.htm

封面图片

Google Bard 人工智能现在支持中文聊天

GoogleBard人工智能现在支持中文聊天Bard是由Google开发的生成式人工智能聊天机器人,基于PaLM2大型语言模型。发布之初只支持英文聊天,在2023年5月10日举行的Google开发者大会"GoogleI/O2023"上,宣布增加了对日语和韩语的支援,今日有用户反映GoogleBard支持中文对话,想体验的用户可以试一试。https://bard.google.com

封面图片

Google CEO:如果OpenAI在AI训练中滥用YouTube将采取行动

GoogleCEO:如果OpenAI在AI训练中滥用YouTube将采取行动对于OpenAI是否违反了Google的条款和条件,Picha表示:“我认为这个问题应该由他们来回答。我没有什么要补充的。我们有明确的服务条款。所以,你知道,我认为在这些事情上,我们通常会与公司接触,确保他们理解我们的服务条款。我们会解决这个问题的。他没有透露此事的任何细节”Pichai的采访是在GoogleI/O开发者大会上发表主题演讲后进行的,Google高管演讲中宣布了新的人工智能模型,包括一个名为Veo的模型,可以合成虚拟视频。要获得早期访问权限的用户需要得到Google的批准。...PC版:https://www.cnbeta.com.tw/articles/soft/1431105.htm手机版:https://m.cnbeta.com.tw/view/1431105.htm

封面图片

传闻OpenAI即将推出多模态人工智能数字助理

传闻OpenAI即将推出多模态人工智能数字助理据报道,与现有的独立转录和文本到语音模型相比,新模型能更快、更准确地解读图像和音频。它可以帮助客服人员"更好地理解来电者声音的语调或他们是否在讽刺",而且"理论上",该模型可以帮助学生学习数学或翻译现实世界中的标志。该媒体的消息来源称,该模型在"回答某些类型的问题"方面可以超越GPT-4Turbo,但仍然容易十分自信地输出错误答案。据开发者AnanayArora称,OpenAI可能还在准备新的内置ChatGPT电话功能,他发布了上述与通话相关的代码截图。阿罗拉还发现有证据表明,OpenAI已经为实时音频和视频通信配置了服务器。公司首席执行官山姆-奥特曼(SamAltman)明确否认即将发布的消息与这款据称比GPT-4"更好"的模型有关,传闻中的GPT-5可能会在今年年底公开发布。奥特曼还表示,公司不会宣布新的人工智能搜索引擎。但如果《TheInformation》所报道的内容属实,那么Google的I/O开发者大会仍有可能因此受到影响。Google一直在测试使用人工智能打电话。传闻中的一个项目是多模态Google助手的替代品"Pixie",它可以通过设备的摄像头观察物体,并提供购买建议或使用说明。OpenAI计划于周一上午10点(太平洋时间)/下午1点(美国东部时间)在其网站上通过现场直播的方式发布新服务。...PC版:https://www.cnbeta.com.tw/articles/soft/1430537.htm手机版:https://m.cnbeta.com.tw/view/1430537.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人