AI 大事记:Apple 带来开源模型的运行软件框架MLX

AI大事记:Apple带来开源模型的运行软件框架MLX今天由Apple研究团队发布了MLX,一个高效的机器学习框架,专为苹果芯片(即M系列)设计。视频为MLX实现的Llamav17B模型,在M2Ultra上运行。参考要点-AppleAI研究科学家AwniHannum提供了演示视频,MLX有各种示例,包括支持训练Transformer大模型或使用LoRA进行微调;使用Mistral生成文本;利用StableDiffusion生成图像;使用Whisper进行语音识别。-MLX是Apple芯片上用于机器学习的阵列框架,由Apple机器学习研究团队提供。-JimFan评价为,这可能是苹果公司迄今为止在开源人工智能方面的最大举措。该版本在设计深度学习受众熟悉的API方面做得非常出色,并在大多数人关心的开放源码软件模型上展示了极简的示例:Llama、LoRA、StableDiffusion和Whisper。MLXGithub地址:https://github.com/ml-explore/mlx文档齐全、独立的示例库:https://github.com/ml-explore/mlx-examplesInvalidmedia:

相关推荐

封面图片

苹果推出 MLX 深度学习框架

苹果推出MLX深度学习框架苹果今日在其开发者官网发布了专为AppleSilicon芯片优化的MLX深度学习框架「ml-explore」。根据介绍:「ml-explore」可以帮助开发者简化设计和部署模型的过程,并使用熟悉的API来完成开发。作为第一方软件,「ml-explore」能够充分利用AppleSilicon的CPU与GPU,并利用统一内存架构进一步加强性能。

封面图片

谷歌启动 Open Se Cura 开源框架计划,有望为 Pixel 设备带来低功耗本地 AI 功能

谷歌启动OpenSeCura开源框架计划,有望为Pixel设备带来低功耗本地AI功能谷歌日前推出了一项名为OpenSeCura的开源框架计划,目的是要加速开发适用于“小型设备”的低功耗 AI 系统。该框架包含了一套开源工具库,据称可以通过“协同设计和开发”,加速机器学习工作发展。谷歌指出,当代硬件发展的速度,落后于机器学习模型和软件开发速度,因此造成了大型AI模型发展障碍。而当下消费者对小型设备的需求快速增长,但在小型设备上,运行相关模型需要耗费大量电能,因此开发“小型设备”用低功耗 AI 系统相当有必要。谷歌目前启动的OpenSeCura 计划,便号称能够促进硬件设计师和软件开发人员协作,推动“硬件与软件共同设计”的理念,从软硬件底层角度最大限度提升AI系统设备端运行性能,而谷歌凭借这一项目,有望推出适用于Pixel设备的小型 AI模型,并借助自家Tensor芯片,实现设备侧低功耗运行AI助理。来源:https://www.aipeak.net/ainews/14648投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

#软件#开源#图像#AIDiffusion-功能丰富的StableDiffusion安卓客户端▎软件功能:AI绘画▎软件平台:#

#软件#开源#图像#AIDiffusion-功能丰富的StableDiffusion安卓客户端▎软件功能:AI绘画▎软件平台:#Android▎软件介绍:一款功能丰富的Stable-diffusion-webui客户端,适配安卓移动端、平板和折叠屏。已实现文生图、图生图、局部重绘、ControlNet、Lora、历史记录、模型管理、图片反推、超分、SDXL、换脸插件、区域提示词插件等强大功能。▎使用手册:点击查看▎软件下载:点击下载

封面图片

《开源大模型食用指南》基于Linux环境快速部署开源大模型 | #指南

《》基于Linux环境快速部署开源大模型#指南本项目是一个围绕开源大模型、针对国内初学者、基于AutoDL平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。本项目的主要内容包括:基于AutoDL平台(可扩展,例如阿里云)的开源LLM环境配置指南,针对不同模型要求提供不同的详细环境配置步骤;针对国内外主流开源LLM的部署使用教程,包括LLaMA、ChatGLM、InternLM等;开源LLM的部署应用指导,包括命令行调用、在线Demo部署、LangChain框架集成等;开源LLM的全量微调、高效微调方法,包括分布式全量微调、LoRA、ptuning等。

封面图片

苹果发布 OpenELM 大语言模型,基于开源训练和推理框架的语言模型

苹果发布OpenELM大语言模型,基于开源训练和推理框架的语言模型在WWDC24之前,苹果在HuggingFace平台上发布了一个“具有开源训练和推理框架的高效语言模型”,名为OpenELM。苹果这次发布了完整的框架,包括数据准备、训练、微调和评估程序,以及多个预训练的checkpoint和训练日志,以促进开源研究。其源码及预训练的模型权重和训练配方可在苹果Github库中获取。

封面图片

【Nil Foundation与Taceo正在合作开发软件管道,将在以太坊主网上验证ML模型】

【NilFoundation与Taceo正在合作开发软件管道,将在以太坊主网上验证ML模型】2023年09月15日07点30分9月15日消息,ZK技术开发商NilFoundation与研究公司Taceo正在合作开发软件管道,使用ZK技术在以太坊主网上验证机器学习(ML)模型,使机器学习能够在智能合约中进行操作,而无需第三方信任。双方将于2023年第四季度发布zkLLVM在机器学习模型中的初步成果和可用性。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人