谷歌在 Google I/O 2023 上全面升级AI技术

谷歌在 Google I/O 2023 上全面升级AI技术 PaLM 2 模型发布,相较前代 PaLM 参数更少但能力远超。支持100多种自然语言和20多种编程语言,为超过25种新产品和功能提供支持。有着 Gecko 壁虎 (可移动端本地运行)、Otter 水獭、Bison 野牛、Unicorn 独角兽 四种参数规格。 Bard 现由 PaLM 2 驱动,已取消候补名单在180多个地区上线。升级后的 Bard 支持20多种编程语言,自然语言新增支持日语与韩语,很快将扩大支持40种语言包括中文。Bard 现在结合了 Google Lens 的识图能力与 Adobe Firefly 的图片生成能力,未来将有更多第三方工具接入。还更新了图文并茂回复、来源引用、代码/文本导出、深色模式等功能。 Duet AI 进入谷歌办公套件,包括在 Gmail 起草邮件、 Docs 文档编写、Sheets 表格处理、Slides 幻灯片生成、Meet 会议摘要等等。 Google Brain 和 DeepMind 今年开始合作研发的下一代模型 Gemini 双子座 正在训练中,目前已经展现出了以往模型中从未出现过的多模态能力。据 The Information 消息 Gemini 将具有像 GPT-4 一样的万亿参数。

相关推荐

封面图片

Google I/O 2023开发者大会汇总

Google I/O 2023开发者大会汇总 ▪Gmail、Maps、Photos 等AI升级 ▪语言模型PaLM2亮相,Bard能力跃升 ▪谷歌工作套件迎来“Duet AI”,对标微软Copilot ▪谷歌搜索引入生成式AI ▪可折叠的Pixel手机来源, 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【Hayo AI 支持 Google Palm】很高兴的向大家宣布,Google-PaLM2 语言模型的使用权限现已「免费」向所

【Hayo AI 支持 Google Palm】很高兴的向大家宣布,Google-PaLM2 语言模型的使用权限现已「免费」向所有 Hayo AI 用户开放,您可以在 AI Chat 界面切换到该模型。PaLM2是由Google开发的语言模型,它在高级推理任务方面表现出色,包括代码和数学运算、分类和问答、翻译和多语言能力以及自然语言生成等。此外,PaLM2还衍生出了Bard、PaLM API等模型。 关于该模型的更多介绍,您可以参照: 消息来源: via 匿名 标签: #Hayo 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Google Colab 服务将免费支持 AI 辅助编程

Google Colab 服务将免费支持 AI 辅助编程 Google 宣布其免费 Jupyter Notebook 环境 Colaboratory (Colab)将加入 AI 辅助编程功能,包括代码补全,用自然语言去生成代码,辅助编程的聊天机器人。Colab 将使用基于 PaLM 2 的代码模型家族 Codey,而 Codey 利用了从外部来源获得授权的高质量代码数据集进行微调,为 Python 和 Colab 特定用途进行了定制。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Google最新发布PaLM 2,一种新的语言模型,具有更好的多语言和推理能力,同时比其前身PaLM更节省计算资源。

Google最新发布PaLM 2,一种新的语言模型,具有更好的多语言和推理能力,同时比其前身PaLM更节省计算资源。 PaLM 2综合了多项研究进展,包括计算最优的模型和数据规模、更多样化和多语言的数据集、以及更有效的模型架构和目标函数。 PaLM 2在多种任务和能力上达到了最先进的性能,包括语言水平考试、分类和问答、推理、编程、翻译和自然语言生成等。PaLM 2还展示了强大的多语言能力,能够处理数百种语言,并在不同语言之间进行翻译和解释。PaLM 2还考虑了负责任的使用问题,包括推理时控制毒性、减少记忆化、评估潜在的伤害和偏见等。

封面图片

Google在I/O 2024开发者大会主题演讲上足足喊了120次AI

Google在I/O 2024开发者大会主题演讲上足足喊了120次AI 在一大堆更新和新发布的功能中,也有许多具有记忆点的产品。例如从本周开始,Google搜索引擎将在美国推出“AI概览”(AI Overviews)的功能,搜索引擎会直接归纳总结搜索结果。同时Google搜索也将具备多步骤推理能力,可以一次性处理带有多个限制条件的长问题,并支持“拍视频”搜索解决方案的新搜索形式。另外以上下文窗口“长”闻名的Gemini 1.5 Pro大模型,在今年晚些时候将会把100万Tokens的窗口,进一步扩大至200万Tokens,拓展同步处理多模态信息的边界。而对于一些需要快速响应的场景,Google也推出了Gemini 1.5 Flash模型。今年2月刚刚问世的Gemma开源模型,也将在下个月迎来参数量更大的Gemma 2。在多模态领域,Google也发布了文生图工具Imagen 3、与Youtube&音乐家合作的“AI音乐沙盒”,以及最新的视频生成模型Veo。而多模态Gemini Nano模型也将在今年晚些时候登陆Pixel手机,这是在本地运行的机载模型。值得一提的是,Google的发布会上也有一些与昨日OpenAI发布会“雷同”的地方实时AI助手。从今年夏天开始,Gemini也将支持语音实时交互,同时今年晚些时候还将上线实时视频交互。未来几个月内,Google也将推出类似于GPTs的自定义AI助手功能,叫做Gems,能够与整套“Google全家桶”联动。硬件方面,Google宣布了第六代TPU芯片Trillium,并透露能够在明年初用上英伟达最新的Blackwell架构GPU。另外,液冷、光缆等中国股民可能会感兴趣的题材也在发布会上出现。全场发布会回顾发布会开始,Alphabet&GoogleCEO桑达尔·皮查伊登上舞台。皮查伊表示,现在已经有超过150万开发者正在使用Google的人工智能Gemini,今天将展示一系列有关搜索、图片、工作套件、Android系统等等与人工智能有关的案例。皮查伊宣布,能够总结Google搜索引擎结果的“AI概览”(AI Overviews)功能,将于本周在美国推出。基于Gemini支持,Google图片(Google Photos)将支持用户存储图片的AI搜索,例如“告诉我,我的车牌号码是多少?”这个名为Ask Photos的功能将于今年夏天推出。皮查伊宣布,最新版本的Gemini 1.5 Pro(在多项核心功能方面均较最初发布版本有所提高)现在向全球所有开发者开放。从今天开始,支持100万tokens上下文窗口的Gemini 1.5 Pro将在Gemini Advanced功能下向用户开放,支持35种语言。Google同时面向开发者推出支持200万tokens的Gemini 1.5 Pro模型的预览,并表示最终的目标将是“无限上下文”。GoogleAI业务总负责人、DeepMind的首席执行官杰米斯·哈萨比斯登台,宣布推出Gemini 1.5 Flash大模型。这个模型兼具速度与效率,和多模态推理能力,以及长达100万tokens的上下文窗口。开发者将能够申请体验200万tokens的上下文窗口的Gemini1.5Flash。Google展示“未来的人工智能助手”名为“Astra”的项目。哈萨比斯表示,这样的AI助手需要像人类一样理解这个动态且复杂的世界。需要记得住它看到的东西,这样才能理解对话并付诸于行动。同时它也得能积极主动接受教导,以及自然、无延迟地进行交流。在演示视频中,Google的AI助手能够通过摄像头视频,识别“什么东西能发出声音”、“现在身处何地”等指令。Google宣布了一系列与图像、音乐、视频有关的生成式AI工具。包括文生图工具Imagen 3、与Youtube以及音乐家合作的“AI音乐沙盒”,以及最新的视频生成模型Veo。其中最受关注的视频生成模型Veo,能够根据文字、图片和视频的提示,生成高质量1080p视频。哈萨比斯离场,皮查伊重回舞台,发布第六代TPU芯片Trillium,较上一代芯片的算力表现翻4.7倍,云用户从今年下半年开始可以用上新芯片。同时Google云将在2025年初,用上英伟达的最新Blackwell架构GPU。皮查伊开始介绍自家的AI超级计算机,比起用户自己买相同的硬件和芯片,Google的架构能使得效能翻倍,其中有部分功劳来自于液冷系统。皮查伊表示,Google部署液冷系统的数据中心已经达到1GW,而且还在不断增长中。皮查伊表示,Google投资了200万英里的地面和海底光纤,比第二名的云服务商翻了十倍。液冷、光缆,应该都是股民们会感兴趣的东西。Google搜索业务负责人Liz Reid开始具体介绍AI Overviews功能。Reid表示,在进行搜索时,搜素引擎具备多步骤推理的能力,例如寻找一个瑜伽教室,同时展示新手优惠报价,和距离特定位置的步行时间。这个AI搜索引擎助手,还能介绍食谱、安排行程,以及接受视频形式的提问(例如视频中的相机怎么使用)。在办公套件Workspace方面,Google将逐步推出总结、邮件Q&A,以及智能回复等功能。GoogleGemini总经理Sissie Hsiao介绍了Gemini App的更新。与周一的OpenAI一样,从今年夏天开始,Gemini也将支持语音实时交互,同时今年晚些时候还将上线实时视频交互功能。未来几个月内,Google也将推出类似于GPTs的自定义AI助手功能,叫做Gems。这个AI助手的亮点,将是能与“Google全家桶”进行交互。Hsiao再次强调了Gemini的长上下文窗口能够一次性处理整整1500页的文件,或3万行代码、1小时的视频。不同的载体也能混同一起提交给聊天机器人。她再次强调,今年晚些时候上下文窗口将翻倍至200万Tokens。Android生态系统的负责人Sameer Samat登台,他将讨论今年Android系统实现的“三大突破”,分别是“画圈圈搜索”、Gemini手机AI助手,第三是在手机本地运行的AI。Google表示,今年晚些时候,能够在本地运行的多模态Gemini Nano模型将登陆Pixel手机,意味着手机将能通过文字、图片、视频、音频,理解用户的世界。举例而言,在听到“帮你把钱转到安全账户”这样的诈骗电话时,手机会自动弹出诈骗警告。整个过程都是在本地运行,不会引发隐私泄露。Google披露大模型API的最新定价,其中Gemini 1.5 Pro定价为7美元/100万Tokens,12.8K上下文窗口的版本定价为3.5美元/100万Tokens;而Gemini 1.5的起售价为0.35美元/100万Tokens。对于在今年二月刚刚推出的轻量级开源模型Gemma,Google宣布推出视频语言模型PaliGemma,并将会在6月推出Gemma 2。相较于第一代模型只有20亿和70亿的参数量,第二代开源Gemma的参数量能达到270亿。作为发布会最后的彩蛋,GoogleCEO皮查伊最后用Gemini总结了今天的发布会稿子里总共提了多少次AI120次。当然,这并不包括皮查伊问完这个问题后,又唤了几遍AI。 ... PC版: 手机版:

封面图片

谷歌上个月表示 Gemini Ultra 将于 2024 年初推出,并为其生成式 AI 机器人 Bard 提供支持。

谷歌上个月表示 Gemini Ultra 将于 2024 年初推出,并为其生成式 AI 机器人 Bard 提供支持。 巧合的是,Bard 上周四出现了一次故障,提前泄露了下一个版本的更新菜单,证实谷歌将推出一种“Bard Advanced”高级模式,其定位为提供“复杂、更好的响应”。 ● Bard:快速提供简单易懂的答复,快速满足您的需求。 ● Bard Advanced:深入探索复杂问题,并提供更精准的答复。 现有的 Bard 基于 Gemini Pro 大模型(目前仅在英语环境中可用)。Gemini Pro 是谷歌于 2023 年 12 月推出的大语言模型,拥有 1.56 万亿训练参数。谷歌还表示后续会提供更强的 Gemini Ultra,并声称它可以超越 GPT 4。 via 匿名 标签: #Google #Gemini 频道: @GodlyNews1 投稿: @GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人