谷歌Chrome 126将集成Gemini Nano模型,实现本地文本生成功能

谷歌Chrome126将集成GeminiNano模型,实现本地文本生成功能在2024年I/O开发者大会上,谷歌宣布其Chrome126浏览器将引入GeminiNano模型,该模型能够在本地执行文本生成等功能,如生成产品评论、社交媒体帖子和其他简介,并针对Chrome浏览器进行了优化,显著提高了加载速度。此外,谷歌还计划在ChromeDevTools中提供Gemini功能,以便开发人员调试和优化应用程序,Gemini将能够解释错误信息并提供编码问题的解决建议。与此相比,微软的Edge浏览器中的人工智能助手Copilot并不在本地运行。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

相关推荐

封面图片

Google Chrome浏览器将内置本地运行的AI助手Gemini Nano

GoogleChrome浏览器将内置本地运行的AI助手GeminiNanoGeminiNano是Google去年引入Pixel8Pro和Pixel8手机的轻量级大型语言模型。为了将其带入Chrome浏览器,Google对模型进行了优化调整,并确保浏览器能够快速加载该AI模型。得益于这项新功能,用户将能在Chrome浏览器中直接生成产品评论、社交媒体帖子等内容。这与微软在Edge浏览器中集成CopilotAI助手的做法类似,不过不同的是Copilot需要连接云端服务器,而GeminiNano则是在本地运行。此外,Google还透露,GeminiAI将会集成到ChromeDevTools开发工具中,为开发者提供错误信息解释和编码问题修复建议等功能。我们期待在Chrome126版本中亲自体验这项新功能,感受GeminiAI助手的魅力。...PC版:https://www.cnbeta.com.tw/articles/soft/1430926.htm手机版:https://m.cnbeta.com.tw/view/1430926.htm

封面图片

谷歌的 Gemini Nano 模型即将登陆 Android 平台

谷歌的GeminiNano模型即将登陆Android平台谷歌的GeminiNano模型已经在Android上推出,并且目前已对Pixel8Pro开放。未来几个月将适配更多设备。Nano是Gemini目前三个不同参数版本中最小的一个,主要设计用于处理边缘设备的AI需求。中档的Pro则是Gemini当前的主力,主要用于驱动Bard等AI服务。而更强大的Ultra将在2024年推出,它将为新一代的BardAdvanced提供服务。Gemini大模型三个版本,最大的是Gemini-Ultra,然后是Gemini-Pro和Nano,Nano版本公布了参数,18亿和32.5亿投稿:@TNSubmbot频道:@TestFlightCN

封面图片

OnePlus 和 Oppo 智能手机计划今年晚些时候集成谷歌 Gemini Ultra 模型

OnePlus和Oppo智能手机计划今年晚些时候集成谷歌GeminiUltra模型OnePlus和OPPO宣布计划将谷歌的人工智能模型Gemini1.0Ultra集成到他们的智能手机中,并表示计划今年晚些时候在智能手机上发布由GeminiUltra支持的人工智能功能。目前,谷歌Gemini模型共有三个版本:Nano、Pro和Ultra,例如Pixel8系列智能手机就搭载了GeminiNano。三星GalaxyS24系列搭载GeminiPro。Oppo和OnePlus也将加入其中,但与Pixel和三星不同的是,它们将搭载Gemini1.0Ultra,这将是最强大的版本。此外,搭载Gemini后,将计划发布基于GeminiUltra的人工智能功能,例如新闻摘要、录音机摘要和AI工具箱。还暗示了其他生成式人工智能功能,例如社交媒体平台的文本和图像生成工具。然而与可以在设备上运行的GeminiNano不同,Ultra运行在谷歌的服务器上,因此OPPO和OnePlus智能手机可能需要互联网连接才能使用人工智能功能。——

封面图片

Google 似乎正在将 Gemini Nano 的 API 及其本地模型集成进 Android 14

Google似乎正在将GeminiNano的API及其本地模型集成进Android14AndroidAICore是一项全新的系统服务,它允许用户在设备上直接使用AI基础模型。通过AICore,用户的Android应用能够接入GeminiNano,这是Google推出的一种小型但高效的基础模型,专为支持的设备而设计。值得注意的是,这种处理完全是本地进行的。这种本地化的处理方式有助于开发者在不将用户数据上传至云端的情况下处理敏感数据,例如,实现消息传递应用的端到端加密功能。

封面图片

谷歌发文解释为什么要在Chrome中内置本地AI模型:为开发者提供设备端应用

谷歌发文解释为什么要在Chrome中内置本地AI模型:为开发者提供设备端应用谷歌目前已经尝试在Chrome浏览器中内置AI模型,该模型需要下载到本地后使用,模型版本为GoogleGeminiNano版。这个模型并不是面向普通用户提供的,主要是给开发者使用,让开发者可以在网站或PWA应用里调用本地AI模型执行运算,而不需要调用某些云端模型。最重要的是经过谷歌的优化,GeminiNano版可以在本地使用硬件加速功能,无论是GPU、NPU甚至是CPU都可以用来运算。使用本地模型的好处有很多:本地处理敏感数据:设备端AI可以改进隐私保护,例如处理敏感数据时可以通过端到端加密为用户提供AI功能。流畅的用户体验:在某些情况下无需来回往返服务器即可获得近似实时的回答。对AI的访问权限更高:设备端可以承担一些处理负载,以换取对功能的更多访问权限,即如果使用云端AI用户可能需要额外付费分摊开发者的token费用,如果仅在本地处理那么这些费用就可以省了。离线使用AI:显然设备端的本地AI是可以在离线状态下使用的,这意味着某些PWA类应用在离线情况下也可以处理内容。亦或者采用混合架构:对于简单的任务使用本地AI处理是可以的,但如果需要进行复杂的任务开发者应当考虑使用服务端实现,也就是继续调用云端AI。第二种是保持AI功能的弹性,当网络连接顺畅的情况下开发者可以调用云端AI,如果网络不畅或者离线则可以回退到本地AI处理。第三种是安全回退:采用内置AI的浏览器需要一定的时间,而且某些型号或某些太旧的设备可能无法使用本地AI,这种情况下开发者可以继续调用云端AI。Chrome内置AI为所有开发者提供通用模型:现阶段开发者通过浏览器运行AI要么直接调用云端AI要么需要下载本地模型,而不同的开发者和不同的网站采用的AI模型不同,用户可能需要下载一大堆模型。Chrome内置AI模型为所有开发者提供通用模型,这些模型一次下载即可使用,在用户已经下载过模型的情况下,调用模型的PWA应用可以做到开箱即用。这种方式应该可以大幅度提高PWA应用对AI功能的采用率,提高用户体验的同时也可以减少开发者很多繁杂的工作。...PC版:https://www.cnbeta.com.tw/articles/soft/1434218.htm手机版:https://m.cnbeta.com.tw/view/1434218.htm

封面图片

Chrome 浏览器桌面版地址栏即将整合聊天机器人 Gemini

Chrome浏览器桌面版地址栏即将整合聊天机器人Gemini桌面Chrome浏览器地址栏即将添加Gemini快捷方式,用户在Gemini网页上登录账户后,用户只需输入@gemini即可快速与谷歌的人工智能聊天机器人Gemini开始聊天。该功能目前正在Chrome浏览器Canary测试版中进行测试,地址栏下拉菜单底部会出现提醒,“输入@gemini与Gemini聊天”。目前该功能仅适用于Chrome浏览器Canary125版本,需要启用两个标志(Flags)才能开启:chrome://flags/#omnibox-starter-pack-expansionchrome://flags/#omnibox-starter-pack-iph来源,频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人