Opera 成为首个内置本地 AI 模型的浏览器
Opera成为首个内置本地AI模型的浏览器当地时间4月3日,Opera宣布将在开发者流中为其OperaOne浏览器中添加对来自大约50个模型系列的150个本地LLM(大型语言模型)变体的实验性支持。此举标志着首次可以通过内置功能从浏览器轻松访问和管理本地LLM。本地AI模型是Opera在线AriaAI服务的免费补充。支持的本地LLM包括:Meta的Llama、Vicuna、谷歌的Gemma、MistralAI的Mixtral等。使用本地大型语言模型意味着用户的数据保存在本地设备上,使他们能够使用生成式人工智能,而无需将信息发送到服务器。——