Opera已允许用户在本地下载和使用大语言模型

Opera已允许用户在本地下载和使用大语言模型 这些模型包括 Meta 的 Llama、Google 的 Gemma 和 Vicuna。该功能将作为 Opera 人工智能功能发布计划的一部分提供给用户,让用户提前使用部分人工智能功能。该公司表示,它在浏览器中使用 Ollama 开放源码框架在计算机上运行这些模型。目前,所有可用的模型都是 Ollama 库的子集,但该公司希望将来能加入不同来源的模型。该公司提到,每个变体都会占用本地系统超过 2GB 的空间。因此应该谨慎使用可用空间,以免存储空间耗尽。值得注意的是,Opera 在下载模型时不会做任何节省存储空间的工作。"Opera现在首次在浏览器中直接提供了大量第三方本地LLM。"Opera 副总裁 Jan Standal 在一份声明中表示:"随着第三方本地 LLM 越来越专业,预计它们的规模可能会缩小。"如果用户计划在本地测试各种模型,这项功能会很有用,但如果想节省空间,也可以使用Quora's Poe和HuggingChat等大量在线工具来探索不同的模型。自去年以来,Opera 一直在尝试人工智能功能。去年 5 月,该公司在侧边栏推出了一款名为 Aria 的助手,并于8 月将其引入 iOS 版本。今年 1 月,Opera 表示,由于欧盟数字市场法案(DMA)要求苹果放弃对移动浏览器 WebKit 引擎的强制要求,该公司正在为 iOS 构建一款自带引擎的人工智能浏览器。 ... PC版: 手机版:

相关推荐

封面图片

Opera 成为首个内置本地 AI 模型的浏览器

Opera 成为首个内置本地 AI 模型的浏览器 当地时间4月3日,Opera 宣布将在开发者流中为其 Opera One 浏览器中添加对来自大约50个模型系列的150个本地 LLM (大型语言模型) 变体的实验性支持。此举标志着首次可以通过内置功能从浏览器轻松访问和管理本地 LLM。本地 AI 模型是 Opera 在线 Aria AI 服务的免费补充。支持的本地 LLM 包括:Meta 的 Llama、Vicuna、谷歌的 Gemma、Mistral AI 的 Mixtral 等。使用本地大型语言模型意味着用户的数据保存在本地设备上,使他们能够使用生成式人工智能,而无需将信息发送到服务器。

封面图片

昆仑万维宣布Opera浏览器接入端侧AI大模型

昆仑万维宣布Opera浏览器接入端侧AI大模型 昆仑万维表示,即日起,端侧AI大模型将被正式集成进Opera浏览器旗舰产品中,覆盖Windows、MacOS和Linux等全部设备。据介绍,2024年4月,Opera已通过AI Feature Drops计划,在Opera开发者版浏览器中引入了端侧AI访问功能,成为全球第一个引入本地AI模型访问功能的浏览器。此后,Opera在浏览器中陆续集成了超过60个大模型家族系列、超过2000个本地大型语言模型变体,让用户能够通过浏览器内置功能轻松访问和管理本地大模型。值得一提的是,本周起,Opera原生浏览器AI助手Aria将新增AI图像理解与图像问答功能。用户可在侧边栏聊天中上传图片给Aria,并向其询问有关图像的问题,Aria将理解图像内容,并围绕图像及相关背景信息为用户提供答案。相关文章:Opera的Aria人工智能助手现在可以在Android上总结网页内容Opera与Google达成合作 将Gemini人工智能引入其浏览器 ... PC版: 手机版:

封面图片

Opera与Google达成合作 将Gemini人工智能引入其浏览器

Opera与Google达成合作 将Gemini人工智能引入其浏览器 歌剧院合作伙伴关系执行副总裁 Per Wetterdal 说:我们两家公司已经合作了 20 多年。我们非常高兴地宣布,双方将在生成式人工智能领域深化合作,进一步加强我们的浏览器人工智能服务套件。Google云北欧地区总经理伊娃-福斯(Eva Fors)在谈到此次合作时说:我们很高兴能提升与 Opera 的长期合作,为其在浏览器领域的人工智能创新提供动力。我们相信人工智能的未来将是开放的,因此我们提供对Google最好的基础设施、人工智能产品、平台和基础模型的访问权限,使企业能够利用生成式人工智能规划自己的发展方向。Google云支持的主要功能包括图像生成和语音输出。Opera One Developer 最新发布的人工智能功能包括使用顶点人工智能(Vertex AI)上的 Imagen 2 模型,并借助Google的文本到音频(text-to-audio)模型,以类似对话的方式朗读回复。最近,Opera 在其浏览器中增加了许多人工智能功能,甚至允许在电脑上下载和使用本地运行的 LLM,允许访问来自 50 多个系列的 150 多个模型,包括 Meta 的 Llama 和 Google 的 Gemma。自 2023 年 6 月 推出 Opera One 以来,Opera 一直在追求与其他浏览器的关键差异点,Opera One 对原有的 Opera 浏览器进行了大刀阔斧的改造,包括模块化设计、可对打开的标签进行分组的 Tab Islands,以及首次引入前面提到的 Aria AI。 ... PC版: 手机版:

封面图片

Opera 与 Google Cloud 合作,利用 Gemini 模型为其浏览器 AI 提供支持

Opera 与 Google Cloud 合作,利用 Gemini 模型为其浏览器 AI 提供支持 浏览器 Opera 今天宣布与 Google Cloud 合作,将 Gemini 模型集成到其 Aria 浏览器 AI 中。Opera 的 Aria 浏览器 AI 非常独特,因为它不仅仅使用一个提供商或语言模型。Opera 的 Composer AI 引擎可以处理用户意图,并可以决定使用哪个模型来完成哪项任务。谷歌的 Gemini 模型是一种现代、强大且用户友好的语言模型,是该公司迄今为止功能最强大的模型。借助这一集成,Opera 现在能够以高性能为其用户提供最新信息。

封面图片

Opera 的人工智能服务将由可再生能源驱动

Opera 的人工智能服务将由可再生能源驱动 该公司表示,它希望人工智能功能今后能贯穿整个浏览器,而不仅仅局限于聊天机器人功能。因此,它现在就需要做好准备,为用户提供这些人工智能服务。Opera 集团 IT 副总裁 Krystian Zubel 在谈到这一进展时说:"Opera是2023年春季第一个推出内置人工智能服务的浏览器,为个人电脑和移动用户提供生成式人工智能助手Aria。Aria 正在快速发展,我们将继续扩展其功能,使其成为用户的浏览伴侣。冰岛将补充我们在全球的现有基础设施,成为一个绿色、具有成本效益、集中处理计算繁重任务的枢纽,确保Opera拥有抓住机遇的基础设施,使我们的公司能够快速发展和扩展人工智能服务。"新集群是一个英伟达 DGX SuperPOD,使用最新的英伟达H100 Tensor Core GPU 和英伟达 AI 企业软件平台。能源来自水电和地热资源,冷却则由该国的自然气候提供。与许多其他技术公司一样,Opera 也迅速在其浏览器中加入了人工智能功能,其主要的人工智能服务是 Aria,这是一种内置在其浏览器系列中的聊天机器人服务。Opera 的前瞻性做法与其竞争对手 Vivaldi 形成了鲜明对比。Vivaldi几天前宣布,它不会在浏览器中集成大型语言模型(LLM),因为它担心 LLM 会产生幻觉并消耗大量电能。 ... PC版: 手机版:

封面图片

Opera开始允许测试人员提前尝试基于人工智能的新功能

Opera开始允许测试人员提前尝试基于人工智能的新功能 去年夏天,原有的 Opera 桌面浏览器进行了重建,并重新命名为 Opera One。作为其中的一部分,Opera 的开发人员加入了人工智能功能。他们嵌入了 OpenAI 的 ChatGPT,甚至还集成了自己基于 GPT 的 AI 聊天机器人 Aria,该聊天机器人(与 ChatGPT 不同)可以访问实时网络数据。现在,Opera 推出了一项名为 AI Feature Drops 的新举措。正如Opera 执行副总裁 Krystian Kolondra 所解释的那样,它允许测试人员提前尝试基于人工智能的新功能,并可能影响稳定版本的功能集:"我们启动了人工智能功能下降计划,让人们测试我们最新的人工智能探索,这些探索将或不会进入正式版的 Opera One。我们很高兴能让参与度最高的用户来测试,并与我们分享他们的反馈和建议。"作为面向开发人员和早期用户的浏览器Opera Developer 变体的一部分,AI Feature Drops 程序可在早期访问中使用。Opera 背后的公司相信,人工智能将很快帮助用户执行更复杂的浏览器任务,从而提升他们的网络体验。作为其对人工智能承诺的一部分,Opera 本周刚刚宣布,不久将在冰岛部署一个全新的、完全由绿色能源驱动的人工智能集群,为其未来的人工智能服务提供动力。新集群基于NVDIA DGX SuperPOD打造,配备了最新的NVIDIA H100Tensor Core GPU和 AI Enterprise软件平台。该全栈系统将作为一个单一的 AI 集群为 Opera 的 AI 工作负载提供服务。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人