【赵明:今年荣耀能实现在12GB手机内存部署7B端侧AI大模型并保证体验流畅】

【赵明:今年荣耀能实现在12GB手机内存部署7B端侧AI大模型并保证体验流畅】 荣耀CEO赵明对华尔街见闻独家透露,2024年荣耀将能于12GB(RAM/运存)智能手机端侧部署参数规模为7B的AI大模型。赵明说,“荣耀平台级AI技术能将LLM大模型在端侧实现超高压缩率。7B模型能在12G设备上快速启动,同时保证用户常用应用体验不受影响。”一般来说,要在智能手机端侧部署7B参数规模的LLM大模型,需要24GB运存。12GB运存智能手机端侧实现7B大模型部署,同时还能保证用户的日常流畅应用,以荣耀平台级AI能力的底层技术特性,可大幅提升和扩展荣耀多价位智能手机的AI体验。(作者 周源)

相关推荐

封面图片

荣耀CEO赵明:功耗是端侧大模型亟待解决的问题

荣耀CEO赵明:功耗是端侧大模型亟待解决的问题 对于未来端侧大模型的趋势,荣耀CEO赵明今天 (27日) 接受媒体采访时认为,大模型在手机上的落地会是恰到好处,不用刻意追求更大的模型,像ChatGPT这种能力未来在手机侧很难复刻,也不是核心应用场景。端侧AI是个人工具,要让个人在AI世界变得更强大,更好地管理和使用网络大模型。“目前,端侧70亿参数大模型还不能长期持久地使用。跑两小时,手机可能就没电了。低功耗的70亿参数大模型才是有价值的。未来随着端侧大模型逐步把能力构建起来,20亿模型就能实现70亿的效果。未来,大模型也会有不同的参数,比如10亿、20亿、30亿,而不是任何时候都用大参数的模型。”

封面图片

郭明𫓹解密Apple Intelligence:端侧模型对DRAM需求约为2GB或更低

郭明𫓹解密Apple Intelligence:端侧模型对DRAM需求约为2GB或更低 郭明琪表示,M1的AI算力约为11 TOPS,低于A16的17 TOPS。但A16的DRAM为6GB,低于M1的8GB。因此,目前的Apple Intelligence装置端AI LLM对DRAM的需求约为2GB或更低。他进一步指出,Apple Intelligence采用端侧3B LLM(应为FP16,M1的NPU/ANE对FP16有很好的支持),经过压缩后(采用2-bit与4-bit的混合配置),随时需要预留约0.7-1.5GB DRAM来运作Apple Intelligence的端侧LLM。郭明琪的分析认为,对于现有的设备端应用,如果要通过AI进行增强,至少需要部署3B LLM。在此基础上,再根据压缩方式决定DRAM规格。(最有可能升级到7B LLM),届时需要更大DRAM才能运作。苹果是否会以此作为高低端机种的产品区隔策略值得观察。 ... PC版: 手机版:

封面图片

【荣耀赵明:即将推出自研70亿端侧AI大模型和全新云服务】

【荣耀赵明:即将推出自研70亿端侧AI大模型和全新云服务】 荣耀迎来品牌独立三周年。荣耀公司CEO赵明在个人微博表示,这三年最大的收获,就是团队的成长。他还透露,荣耀即将推出自研70亿端侧AI大模型和全新云服务,把智慧体验带给每位用户。

封面图片

专为智能手机设计的高性能大型语言模型推理框架,支持高达47B参数的MoE模型,速度高达每秒11.68个token,比现有框架快2

专为智能手机设计的高性能大型语言模型推理框架,支持高达47B参数的MoE模型,速度高达每秒11.68个token,比现有框架快22倍。即使在7B模型上,通过在手机上放置50%的FFN权重,也能保持领先速度 | #框架

封面图片

阿里云携手联发科为手机芯片适配大模型

阿里云携手联发科为手机芯片适配大模型 3月28日消息,科创板日报记者独家获悉,全球最大的智能手机芯片厂商 MediaTek 联发科,已成功在天玑 9300 等旗舰芯片上部署通义千问大模型,首次实现大模型在手机芯片端深度适配。通义千问在离线情况下运行多轮AI对话。阿里云方面表示,将和联发科深度合作,向全球手机厂商提供端侧大模型解决方案。

封面图片

荣耀将部署在云端的长焦增强大模型,可利用生成式 AI 技术学习图像特征,实现万物皆可增强,拥有 124 亿参数,计算量巨大,让手

荣耀将部署在云端的长焦增强大模型,可利用生成式 AI 技术学习图像特征,实现万物皆可增强,拥有 124 亿参数,计算量巨大,让手机摄影真正进入 “云侧” 全新赛道,远眺风光美景,近赏细节纹理;此外还在图库端设置了入口,用户可选择在拍摄后进行 100 倍增强。在 12 月底,荣耀 Magic7 系列将全网升级大王影像。所谓大王影像,是指荣耀 Magic7 系列刚刚升级的 AI 计算摄影系统。-电报频道- #娟姐新闻:@juanjienews

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人