【小米成为首家落地AI端侧大模型手机商】

【小米成为首家落地AI端侧大模型手机商】 高通骁龙将在 #美国 夏威夷时间10月24日发布最新一代高通骁龙Gen 3 5G AI移动平台。华尔街见闻独家获悉,这就意味着小米将是首家落地AI端侧大模型的终端公司。(作者 周源)

相关推荐

封面图片

中信证券:端侧AI加速落地,存储厂商迎机遇

中信证券:端侧AI加速落地,存储厂商迎机遇 中信证券研报认为,2025国际消费电子展(CES 2025)正于2025年1月710日在拉斯维加斯举行,研报认为CES 2025关键词为“AI加速落地”,在大模型理解及交互能力快速提升+对外API调用成本快速下降的背景下,AI端侧落地有望百花齐放。具体而言,智能眼镜步入从1到10阶段,远期空间广阔,AI眼镜中外挂存储器为第二大成本项,为产业链核心受益…… - 电报频道 - #娟姐新闻: @juanjienews

封面图片

荣耀CEO赵明:功耗是端侧大模型亟待解决的问题

荣耀CEO赵明:功耗是端侧大模型亟待解决的问题 对于未来端侧大模型的趋势,荣耀CEO赵明今天 (27日) 接受媒体采访时认为,大模型在手机上的落地会是恰到好处,不用刻意追求更大的模型,像ChatGPT这种能力未来在手机侧很难复刻,也不是核心应用场景。端侧AI是个人工具,要让个人在AI世界变得更强大,更好地管理和使用网络大模型。“目前,端侧70亿参数大模型还不能长期持久地使用。跑两小时,手机可能就没电了。低功耗的70亿参数大模型才是有价值的。未来随着端侧大模型逐步把能力构建起来,20亿模型就能实现70亿的效果。未来,大模型也会有不同的参数,比如10亿、20亿、30亿,而不是任何时候都用大参数的模型。”

封面图片

阿里云成为首家支持 Meta 开源 AI 模型 Llama 的中国企业

阿里云成为首家支持 Meta 开源 AI 模型 Llama 的中国企业 阿里云近日宣布,该公司已成为首家支持 Meta 开源 AI 模型 Llama 的中国企业,并允许其中国企业用户开发基于该模型的程序。 阿里云官方微信公众号表示,该公司在中国推出了第一个针对 Llama2 的系列的培训和部署解决方案,并欢迎所有开发者在阿里云上创建定制的大模型。 阿里云表示,为方便开发者群体,阿里云机器学习平台 PAI 在国内率先对 Llama2 系列模型进行深度适配,推出了轻量级微调、全参数微调、推理服务等场景的最佳实践方案,助力开发者快速基于 Llama2 进行再训练,搭建自己的专属大模型。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

端侧模型 + 硬件会是 AI 爆发的下一个机会吗?

端侧模型 + 硬件会是 AI 爆发的下一个机会吗? 段小草的回答 我觉得端侧模型 + 硬件会是下一个机会。 首先还是澄清一下概念,端侧模型应该是相对于云端模型而言的,可以在硬件设备本地运行的模型。端侧模型不一定是开源模型,比如苹果在打算在 iPhone 上内置的 AI 模型 Apple Intelligence,就并不开源: 又或者谷歌在 Chrome 浏览器中内置的 Gemini-nano[1]: 当然,很多开源的小模型只要可以自行在消费级设备上部署,也可以看作端侧模型,比如面壁智能的可以在手机上运行的 MiniCPM。 AI 硬件,则是指广泛的消费级的硬件,而非专业的数据中心计算硬件。在我的理解上,AI 硬件大体上又可以分为 AI PC、AI 手机和其他新形态的 AI 硬件(比如一些可穿戴的、或者新交互方式的 AI 硬件)。比如这张图中所展示的[2]: 端侧模型和 AI 硬件结合在一起,我觉得主要有三方面优势: ● 隐私:隐私和数据安全显然是端侧模型最明显最直接的优势,特别是在个人信息、内部资料、数据分析方面,用户会倾向于使用可控的本地模型。 ● 成本:虽然现在很多 AI 应用都是免费的,但 API 并不免费,某种意义上讲,端侧模型激活了边缘算力,其实降低了 AI 调用的成本。 ● 普及:端侧模型 + AI 硬件的方式,有可能会给带来新的破圈的机会,让之前没有接触 AI 的普通人有机会用到 AI 工具和 AI 能力。 我甚至会觉得,第三点才是最重要的原因。我最近一段时间写 AI 话题,遇到最大的困扰就是,即便圈内已经非常火热的话题,在普通人眼中,要么是冷漠不关心,要么是质疑加嘲讽。 这里面当然有一部分人是了解过用过之后觉得空炒概念,但还有相当一部分人实际上没有自己用过,只是看了一些更反智和煽动的话语就给先入为主地觉得 AI 没有用。 对于这部分人来说,他们大概不会去主动注册或者使用 AI 应用,但如果 AI 润物无声地进入 PC、手机,提供更简洁方便的使用体验,相当于喂饭级功能,也许会大大增加 AI 的普及程度。 via 知乎热榜 (author: 段小草)

封面图片

昆仑万维宣布Opera浏览器接入端侧AI大模型

昆仑万维宣布Opera浏览器接入端侧AI大模型 昆仑万维表示,即日起,端侧AI大模型将被正式集成进Opera浏览器旗舰产品中,覆盖Windows、MacOS和Linux等全部设备。据介绍,2024年4月,Opera已通过AI Feature Drops计划,在Opera开发者版浏览器中引入了端侧AI访问功能,成为全球第一个引入本地AI模型访问功能的浏览器。此后,Opera在浏览器中陆续集成了超过60个大模型家族系列、超过2000个本地大型语言模型变体,让用户能够通过浏览器内置功能轻松访问和管理本地大模型。值得一提的是,本周起,Opera原生浏览器AI助手Aria将新增AI图像理解与图像问答功能。用户可在侧边栏聊天中上传图片给Aria,并向其询问有关图像的问题,Aria将理解图像内容,并围绕图像及相关背景信息为用户提供答案。相关文章:Opera的Aria人工智能助手现在可以在Android上总结网页内容Opera与Google达成合作 将Gemini人工智能引入其浏览器 ... PC版: 手机版:

封面图片

【赵明:今年荣耀能实现在12GB手机内存部署7B端侧AI大模型并保证体验流畅】

【赵明:今年荣耀能实现在12GB手机内存部署7B端侧AI大模型并保证体验流畅】 荣耀CEO赵明对华尔街见闻独家透露,2024年荣耀将能于12GB(RAM/运存)智能手机端侧部署参数规模为7B的AI大模型。赵明说,“荣耀平台级AI技术能将LLM大模型在端侧实现超高压缩率。7B模型能在12G设备上快速启动,同时保证用户常用应用体验不受影响。”一般来说,要在智能手机端侧部署7B参数规模的LLM大模型,需要24GB运存。12GB运存智能手机端侧实现7B大模型部署,同时还能保证用户的日常流畅应用,以荣耀平台级AI能力的底层技术特性,可大幅提升和扩展荣耀多价位智能手机的AI体验。(作者 周源)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人