Opera已允许用户在本地下载和使用大语言模型
Opera已允许用户在本地下载和使用大语言模型这些模型包括Meta的Llama、Google的Gemma和Vicuna。该功能将作为Opera人工智能功能发布计划的一部分提供给用户,让用户提前使用部分人工智能功能。该公司表示,它在浏览器中使用Ollama开放源码框架在计算机上运行这些模型。目前,所有可用的模型都是Ollama库的子集,但该公司希望将来能加入不同来源的模型。该公司提到,每个变体都会占用本地系统超过2GB的空间。因此应该谨慎使用可用空间,以免存储空间耗尽。值得注意的是,Opera在下载模型时不会做任何节省存储空间的工作。"Opera现在首次在浏览器中直接提供了大量第三方本地LLM。"Opera副总裁JanStandal在一份声明中表示:"随着第三方本地LLM越来越专业,预计它们的规模可能会缩小。"如果用户计划在本地测试各种模型,这项功能会很有用,但如果想节省空间,也可以使用Quora'sPoe和HuggingChat等大量在线工具来探索不同的模型。自去年以来,Opera一直在尝试人工智能功能。去年5月,该公司在侧边栏推出了一款名为Aria的助手,并于8月将其引入iOS版本。今年1月,Opera表示,由于欧盟数字市场法案(DMA)要求苹果放弃对移动浏览器WebKit引擎的强制要求,该公司正在为iOS构建一款自带引擎的人工智能浏览器。...PC版:https://www.cnbeta.com.tw/articles/soft/1426089.htm手机版:https://m.cnbeta.com.tw/view/1426089.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人