由 Gemini Nano 模型支持的 Gboard 智能回复功能

由 Gemini Nano 模型支持的 Gboard 智能回复功能 谷歌推出了大型语言模型 Gemini,其中的 Gemini Nano 模型旨在 Android 设备上本地离线运行,该模型目前正通过 AI Core 应用的更新推送到 Pixel 8 Pro 设备。 如果你想在 Pixel 8 Pro 上尝试新的 Gboard 智能回复功能,你需要转到“设置”>“开发者选项”>“AiCore 设置”并切换“启用 Aicore Persistent”。 然后,打开 WhatsApp 对话,在 Gboard 的建议条中查看由 LLM 支持的智能回复建议。谷歌表示,该功能目前在 WhatsApp 中作为美式英语的有限预览版提供,但明年将支持更多应用。

相关推荐

封面图片

谷歌将为Pixel 8带来Gemini Nano 并发布下一个新功能

谷歌将为Pixel 8带来Gemini Nano 并发布下一个新功能 后者允许"更高质量的智能回复",且具有"对话意识",生成速度更快。在 Pixel 8 Pro 上,它可以与 WhatsApp、Line 和 KakaoTalk 一起使用。同时,记录器可以提取录音并生成要点。8 GB 与 12 GB 的内存是两款 Tensor G3 手机的主要硬件差异。Google今天表示,"在不同内存规格的手机上运行大型语言模型会带来不同的用户体验,因此我们已经在 Pixel 8 上进行了测试和验证"。看起来,Google找到了在更少的内存上运行 LLM 而不影响其他用户体验的方法,而更小的 Galaxy S24 也是这样做的。 需要提醒的是,Google只在 12 月份说过 Gemini Nano 会出现在 Pixel 8 Pro 上。与此同时,本月早些时候的评论来自 Pixel 团队之外的一位工程师。Gemini Nano 将在下一次 Pixel 功能发布时登陆 Pixel 8,也就是 6 月份的 Android 14 QPR3(如果之前的时间表不变的话)。除了终端用户将获得这两项Google应用功能外,使用 Pixel 8 的开发者也将可以在自己的应用中使用 AICore。 ... PC版: 手机版:

封面图片

OnePlus 和 Oppo 智能手机计划今年晚些时候集成谷歌 Gemini Ultra 模型

OnePlus 和 Oppo 智能手机计划今年晚些时候集成谷歌 Gemini Ultra 模型 OnePlus 和 OPPO 宣布计划将谷歌的人工智能模型 Gemini 1.0 Ultra 集成到他们的智能手机中,并表示计划今年晚些时候在智能手机上发布由 Gemini Ultra 支持的人工智能功能。目前,谷歌 Gemini 模型共有三个版本:Nano、Pro 和 Ultra,例如 Pixel 8 系列智能手机就搭载了 Gemini Nano。三星 Galaxy S24 系列搭载 Gemini Pro。Oppo 和 OnePlus 也将加入其中,但与 Pixel 和三星不同的是,它们将搭载 Gemini 1.0 Ultra,这将是最强大的版本。此外,搭载 Gemini 后,将计划发布基于 Gemini Ultra 的人工智能功能,例如新闻摘要、录音机摘要和 AI 工具箱。还暗示了其他生成式人工智能功能,例如社交媒体平台的文本和图像生成工具。然而与可以在设备上运行的 Gemini Nano 不同,Ultra 运行在谷歌的服务器上,因此 OPPO 和 OnePlus 智能手机可能需要互联网连接才能使用人工智能功能。

封面图片

Google Chrome浏览器将内置本地运行的AI助手Gemini Nano

Google Chrome浏览器将内置本地运行的AI助手Gemini Nano Gemini Nano是Google去年引入Pixel 8 Pro和Pixel 8手机的轻量级大型语言模型。为了将其带入Chrome浏览器,Google对模型进行了优化调整,并确保浏览器能够快速加载该AI模型。得益于这项新功能,用户将能在Chrome浏览器中直接生成产品评论、社交媒体帖子等内容。这与微软在Edge浏览器中集成Copilot AI助手的做法类似,不过不同的是Copilot需要连接云端服务器,而Gemini Nano则是在本地运行。此外,Google还透露,Gemini AI将会集成到Chrome DevTools开发工具中,为开发者提供错误信息解释和编码问题修复建议等功能。我们期待在Chrome 126版本中亲自体验这项新功能,感受Gemini AI助手的魅力。 ... PC版: 手机版:

封面图片

联发科宣布天玑9300/8300芯片组原生支持谷歌Gemini Nano模型

联发科宣布天玑9300/8300芯片组原生支持谷歌Gemini Nano模型 需要说明的是,这并不意味着采用这些芯片组的设备就可以直接使用 Gemini Nano,联发科作为芯片开发商,只是提供技术层面的支持。实际上用户能否运行 Gemini Nano 取决于开发者们,联发科很快就会面向开发者推出相关的工具套件,到时候开发者们可以利用这些工具套件来开发基于或集成 Gemini Nano 的应用,并面向最终用户推出。此外联发科即将推出基于 Llama 2 模型的设备端生成式 AI,这个生成式 AI 也将由天玑 9300/8300 芯片组驱动。对于联发科的这些动作,其实如果关注手机芯片这类的用户应该可以看出来联发科现在对于新技术的适配兼容非常快,这也是联发科希望赶超高通的措施之一。此前联发科率先在移动芯片里支持 AV1 系列编解码器,现在快速提供人工智能模型的适配,说明自由市场竞争真的可以让技术更快更好的发展。 ... PC版: 手机版:

封面图片

谷歌:手机运行人工智能模型将占用大量内存

谷歌:手机运行人工智能模型将占用大量内存 谷歌设备和服务软件副总裁 Seang Chau 在自家的“Made by Google”播客中解释了这一决定,他表示:“Pixel 8 Pro 拥有 12GB 内存,非常适合用来运行‘Gemini Nano’,让我们可以尽情探索它的潜力。但 Pixel 8 只有 8GB 内存,如果贸然启用该功能,可能会影响用户的使用体验。”

封面图片

谷歌推出最新的大型语言模型 Gemini 1.0

谷歌推出最新的大型语言模型 Gemini 1.0 谷歌发布最新的大型语言模型 Gemini,谷歌 CEO 皮查伊在 6 月份的 I/O 开发者大会上首次透露了该模型,现在正式向公众推出。 谷歌针对不同场景发布了三种不同尺寸的版本。例如 Google 的人工智能聊天机器人 Bard 现在由可扩展的 Gemini Pro 提供支持。 Gemini Nano 是轻量版本,旨在 Android 设备上本地离线运行,Pixel 8 Pro 成为首款搭载此模型的设备。 Gemini Ultra,它是谷歌迄今为止创建的最强大的 LLM,适用于高度复杂的任务。似乎主要是为数据中心和企业应用设计的。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人