谷歌开发者大会将公布AI更新:展示创意写作和编码能力 支持100多种语言

谷歌开发者大会将公布AI更新:展示创意写作和编码能力 支持100多种语言 当地时间周三,谷歌将举行“谷歌I/O”年度开发者大会。据披露,人工智能(AI)将成此次大会的中心议题,谷歌将会对外发布一系列有关生成式AI的产品技术成果,其中包括一个用途更广泛的大型语言模型。 内部文件显示,谷歌将对外发布最新版本、也是技术最先进的大型语言模型“PaLM 2”,这个语言模型支持全球100多种语言,之前已经在谷歌内部进行试验,测试代号是“统一语言模型”。据悉,这一语言模型“智商更高”,已经能够编写软件代码,完成数学考试,也能够完成创意作文和分析方面的测试。 周三,谷歌首席执行官桑达尔·皮查伊将会向开发者进行主旨演讲,同时介绍公司在AI领域取得的新进展。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

Google IO 将公布 PaLM 2 大模型

Google IO 将公布 PaLM 2 大模型 Google 将在年度开发者大会 Google I/O 上宣布它的新版通用大语言模型 PaLM 2。 PaLM 是 Google 在 2022 年 4 月宣布的大模型,有 5400 亿参数,Google AI 和 DeepMind 后在此基础上开发了一个用医学数据集微调的版本 Med-PaLM,它是首个在美国医师资格考试中获得及格分的 AI 模型。 在 5 月 10 日周三举行的开发者大会上 Google 宣布的 PaLM 2 将是该公司最先进的大模型,其内部代号为“Unified Language Model(统一语言模型)”,包含逾百种语言,能执行范围广泛编程和数学测试,以及创意写作测试和分析。

封面图片

Google I/O 2023开发者大会汇总

Google I/O 2023开发者大会汇总 ▪Gmail、Maps、Photos 等AI升级 ▪语言模型PaLM2亮相,Bard能力跃升 ▪谷歌工作套件迎来“Duet AI”,对标微软Copilot ▪谷歌搜索引入生成式AI ▪可折叠的Pixel手机来源, 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【谷歌计划于周三推出一款通用大型语言模型PaLM 2】

【谷歌计划于周三推出一款通用大型语言模型PaLM 2】 5月9日消息,据财联社报道,谷歌将于美东时间周三举行一年一度的年度开发者大会。文件显示,谷歌本次活动的主题是:人工智能如何“帮助人们充分发挥潜力”,并介绍谷歌在人工智能领域的一系列技术更新,包括提供对谷歌自家聊天机器人Bard和Search的“生成体验”。根据谷歌的内部文件,在本次大会上,谷歌将推出其最新、最先进的通用大型语言模型PaLM 2。PaLM 2包含100多种语言,一直在谷歌内部运行,代号为“统一语言模型。它能够执行广泛的编码和数学测试,以及创造性写作测试和分析。谷歌于2022年4月首次宣布了其PaLM语言模型。今年3月,该公司为PaLM推出了一个API,同时推出了一系列人工智能企业工具,据称这些工具将帮助企业“从简单的自然语言提示中生成文本、图像、代码、视频、音频等”。

封面图片

苹果全球开发者大会将于 6 月 5 日开幕

苹果全球开发者大会将于 6 月 5 日开幕 当地时间周三午后,苹果 公司在官网发了一个简单的公告,宣布今年的全球开发者大会(WWDC)将在6月5日至9日期间于加州 Apple Park 线下举行。 由于各路媒体和“知情人士”从去年就开始剧透苹果 MR(混合现实)设备的消息,所以外界对于苹果会在今年6月发布这款设备有着颇高的预期。

封面图片

华为开发者大会2024日程公布 余承东、何刚出席演讲

华为开发者大会2024日程公布 余承东、何刚出席演讲 根据大会议程,余承东将于6月21日14:30率先登台演讲,演讲主题为“鸿蒙生态:创新沃土 厚植未来”,何刚演讲主题则为“HarmonyOS NEXT-共筑鸿蒙新世界”,龚体演讲主题则是“鸿蒙原生应用,全新出发!”。预计余承东、何刚、龚体将带来鸿蒙生态、HarmonyOS NEXT、鸿蒙原生应用的最新进展。据了解,鸿蒙星河版系统底座全线自研,去掉AOSP代码,仅支持鸿蒙内核和鸿蒙系统的应用,因此也被称为“纯血鸿蒙”,将告别早期兼容安卓策略。除了纯血鸿蒙,21日下午,华为还将发布盘古大模型5.0,并由华为诺亚方舟实验室主任姚骏对全新盘古大模型解密。据悉,华为开发者大会2024将成为华为史上规模最大、开发者参与人数最多的开发者大会。 ... PC版: 手机版:

封面图片

谷歌发文解释为什么要在Chrome中内置本地AI模型:为开发者提供设备端应用

谷歌发文解释为什么要在Chrome中内置本地AI模型:为开发者提供设备端应用 谷歌目前已经尝试在 Chrome 浏览器中内置 AI 模型,该模型需要下载到本地后使用,模型版本为 Google Gemini Nano 版。这个模型并不是面向普通用户提供的,主要是给开发者使用,让开发者可以在网站或 PWA 应用里调用本地 AI 模型执行运算,而不需要调用某些云端模型。最重要的是经过谷歌的优化,Gemini Nano 版可以在本地使用硬件加速功能,无论是 GPU、NPU 甚至是 CPU 都可以用来运算。使用本地模型的好处有很多:本地处理敏感数据:设备端 AI 可以改进隐私保护,例如处理敏感数据时可以通过端到端加密为用户提供 AI 功能。流畅的用户体验:在某些情况下无需来回往返服务器即可获得近似实时的回答。对 AI 的访问权限更高:设备端可以承担一些处理负载,以换取对功能的更多访问权限,即如果使用云端 AI 用户可能需要额外付费分摊开发者的 token 费用,如果仅在本地处理那么这些费用就可以省了。离线使用 AI:显然设备端的本地 AI 是可以在离线状态下使用的,这意味着某些 PWA 类应用在离线情况下也可以处理内容。亦或者采用混合架构:对于简单的任务使用本地 AI 处理是可以的,但如果需要进行复杂的任务开发者应当考虑使用服务端实现,也就是继续调用云端 AI。第二种是保持 AI 功能的弹性,当网络连接顺畅的情况下开发者可以调用云端 AI,如果网络不畅或者离线则可以回退到本地 AI 处理。第三种是安全回退:采用内置 AI 的浏览器需要一定的时间,而且某些型号或某些太旧的设备可能无法使用本地 AI,这种情况下开发者可以继续调用云端 AI。Chrome 内置 AI 为所有开发者提供通用模型:现阶段开发者通过浏览器运行 AI 要么直接调用云端 AI 要么需要下载本地模型,而不同的开发者和不同的网站采用的 AI 模型不同,用户可能需要下载一大堆模型。Chrome 内置 AI 模型为所有开发者提供通用模型,这些模型一次下载即可使用,在用户已经下载过模型的情况下,调用模型的 PWA 应用可以做到开箱即用。这种方式应该可以大幅度提高 PWA 应用对 AI 功能的采用率,提高用户体验的同时也可以减少开发者很多繁杂的工作。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人