苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用

苹果新发布20个CoreML模型和4个数据集全部开源供开发者们使用苹果日前在知名AI模型托管平台HuggingFace上新发布了20个CoreML模型和4个数据集,这些模型全部采用Apache2.0许可证进行开源,所有开发者均可使用。这些采用CoreML框架的新模型在功能上都有所不同,不过侧重点都是在设备端本地运行AI模型执行任务,这样数据不需要上云解决潜在的隐私问题。例如开发者可以构建一款用于图像分类的应用程序,在获得用户授权图库访问权限后,可以调用设备端模型进行处理;或者构建一个可以快速去除图像背景的应用程序,使用设备端模型也可以不上传图片,解决用户的隐私担忧。当然采用设备端模型还有个好处就是响应速度会非常快,借助云端处理开发者需要提供性能更强的服务器才能支撑并发使用,而服务器响应和处理都需要使用,本地处理则不需要使用网络,因此也免去了响应时间问题。目前设备端运行AI模型最大的问题在于芯片性能,例如苹果推出的苹果智能仅支持A17Pro和AppleM系列芯片,对于更旧的芯片还是得第三方开发者们提供支持,虽然这也会存在性能问题。HuggingFace创始人称这是一次重大更新,苹果将许多基于CoreML的新模型上传到了HuggingFace存储库,而CoreML模型严格在设备端运行无需网络连接,这可以让开发者的应用保持“闪电般”的速度,还可以确保用户数据的私密性。有兴趣的开发者们可以访问HuggingFace上的苹果主页获取这些模型,苹果也为部分模型提供了论文描述,开发者可以根据论文说明快速了解这些模型的性能:https://huggingface.co/apple...PC版:https://www.cnbeta.com.tw/articles/soft/1435170.htm手机版:https://m.cnbeta.com.tw/view/1435170.htm

相关推荐

封面图片

Google 推出 Gemma 开源模型

这是一款轻量级、先进的开源模型,供开发者和研究人员用于AI构建。Gemma模型家族包括Gemma2B和Gemma7B两种尺寸,能够在不同的设备类型上运行,包括笔记本电脑、桌面电脑、IoT设备、移动设备和云端。性能和设计Gemma模型在技术和基础设施组件上与Gemini共享,这使得Gemma2B和7B在其大小范围内相比其他开放模型具有最佳性能。Gemma模型不仅可以直接在开发者的笔记本电脑或桌面电脑上运行,而且在关键基准测试中的表现超过了更大的模型,同时遵循严格的安全和负责任输出标准。主要特点:1、轻量级、高性能模型:Gemma模型家族包括Gemma2B和Gemma7B.两种尺寸,提供预训练和指令调优的变体,针对其大小范围内相比其他开放模型具有最佳性能。2、跨框架工具链支持:支持JAX、PyTorch和TensorFlow通过原生Keras3.0.进行推理和监督式微调(SFT),适应多种开发需求和环境。3、易于入门和集成:提供准备就绪的Colab和Kaggle笔记本,以及与HuggingFace、MaxText、NVIDIANeMo.和TensorRT-LLM等流行工具的集成,方便开发者快速上手。4.高效的运算能力:针对多个AI硬件平台上进行优化,确保在NVIDIAGPU和GoogleCloudTPU上的行业领先性能。通过与NVIDIA的合作,无论是在数据中心、云端还是本地RTXAIPC上,都确保了行业领先的性能和与尖端技术的集成。Gemma模型能够在不同的设备类型上运行,这种广泛的兼容性使得模型能够适应各种应用场景和需求。HuggingFace测试链接:https://huggingface.co/models?other=gemmavia匿名标签:#Google#Gemma频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

谷歌发文解释为什么要在Chrome中内置本地AI模型:为开发者提供设备端应用

谷歌发文解释为什么要在Chrome中内置本地AI模型:为开发者提供设备端应用谷歌目前已经尝试在Chrome浏览器中内置AI模型,该模型需要下载到本地后使用,模型版本为GoogleGeminiNano版。这个模型并不是面向普通用户提供的,主要是给开发者使用,让开发者可以在网站或PWA应用里调用本地AI模型执行运算,而不需要调用某些云端模型。最重要的是经过谷歌的优化,GeminiNano版可以在本地使用硬件加速功能,无论是GPU、NPU甚至是CPU都可以用来运算。使用本地模型的好处有很多:本地处理敏感数据:设备端AI可以改进隐私保护,例如处理敏感数据时可以通过端到端加密为用户提供AI功能。流畅的用户体验:在某些情况下无需来回往返服务器即可获得近似实时的回答。对AI的访问权限更高:设备端可以承担一些处理负载,以换取对功能的更多访问权限,即如果使用云端AI用户可能需要额外付费分摊开发者的token费用,如果仅在本地处理那么这些费用就可以省了。离线使用AI:显然设备端的本地AI是可以在离线状态下使用的,这意味着某些PWA类应用在离线情况下也可以处理内容。亦或者采用混合架构:对于简单的任务使用本地AI处理是可以的,但如果需要进行复杂的任务开发者应当考虑使用服务端实现,也就是继续调用云端AI。第二种是保持AI功能的弹性,当网络连接顺畅的情况下开发者可以调用云端AI,如果网络不畅或者离线则可以回退到本地AI处理。第三种是安全回退:采用内置AI的浏览器需要一定的时间,而且某些型号或某些太旧的设备可能无法使用本地AI,这种情况下开发者可以继续调用云端AI。Chrome内置AI为所有开发者提供通用模型:现阶段开发者通过浏览器运行AI要么直接调用云端AI要么需要下载本地模型,而不同的开发者和不同的网站采用的AI模型不同,用户可能需要下载一大堆模型。Chrome内置AI模型为所有开发者提供通用模型,这些模型一次下载即可使用,在用户已经下载过模型的情况下,调用模型的PWA应用可以做到开箱即用。这种方式应该可以大幅度提高PWA应用对AI功能的采用率,提高用户体验的同时也可以减少开发者很多繁杂的工作。...PC版:https://www.cnbeta.com.tw/articles/soft/1434218.htm手机版:https://m.cnbeta.com.tw/view/1434218.htm

封面图片

Hugging Face将投资1000万美元的共享GPU供开发者和研究人员免费使用

HuggingFace将投资1000万美元的共享GPU供开发者和研究人员免费使用访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器GPU集群将对外免费使用(当然也需要申请和批准),该平台希望能够帮助小型开发者、研究人员或人工智能初创公司对抗阻碍人工智能技术发展的中心化问题。与百度不同,HuggingFace和大多数公司一样认为开源和开放的人工智能技术可以促进行业的发展,专有的人工智能技术并不是HuggingFace设想的未来。所以该公司愿意投资共享GPU集群,基于共享使用的原则,所有GPU都不会浪费,也就是最终情况可能是7×24小时满负荷运行,为开发者和初创公司提供支持。对于小型开发者和人工智能初创公司,想要获得共有平台提供的GPU算力并不容易,主要是价格非常昂贵并且可能还需要预付费或按月结算,不像大客户那样甚至可以按年结算。这对开发者来说是个承重的负担,往往训练AI模型所花费的GPU成本就是天文数字,这显然不利于人工智能行业的发展。HuggingFace称对于共享GPU的使用主要取决于实际使用情况,即如果部分GPU的容量没有得到积极利用,则这部分容量可以供其他人使用,因此共享GPU集群具有成本效益和能源效率,非常适合在社区范围内使用。为HuggingFace提供共享GPU集群的是应用托管平台ZeroGPU,该平台将为HuggingFace提供NVIDIAA100人工智能加速卡组成的集群,尽管A100在性能方面只有H100加速卡的50%,不过毕竟都是共享和免费使用,对开发者来说应该也问题不大。...PC版:https://www.cnbeta.com.tw/articles/soft/1431269.htm手机版:https://m.cnbeta.com.tw/view/1431269.htm

封面图片

苹果开发者学院为学生提供人工智能培训

苹果开发者学院为学生提供人工智能培训苹果公司今日宣布将通过利用人工智能的技术和工具为苹果开发者学院学生和导师提供培训。新的核心课程将从今年秋天起面向巴西、印尼、意大利、沙特阿拉伯、韩国和美国的18所开发者学院的数千名学生及校友提供。专门的人工智能课程将作为一项基础技能加入学院课程体系。学生都将学习如何在各类Apple设备上构建、训练、部署机器学习模型。课程包括人工智能技术和框架基础;介绍CoreML及其如何在Apple设备上实现高性能表现;如何从零开始构建和培训人工智能模型等。——

封面图片

苹果开源大模型OpenELM来了,可能用在下一代iPhone上

苹果开源大模型OpenELM来了,可能用在下一代iPhone上苹果最近在AI代码社区HuggingFace上发布了OpenELM大模型。该模型是一系列开源大型语言模型,具有不同的参数大小,可在端侧设备上运行。据了解,该系列模型包含4个不同参数版本,分别为2.7亿、4.5亿、11亿和30亿。由于参数较小,这些模型可以在端侧设备上独立运行,而无需连接云端服务器。总体而言,该系列包括4个预训练模型和4个指令调优模型。这些模型可以在笔记本电脑甚至智能手机上运行。苹果举例称,其中一款模型在MacBookPro上运行,配备了M2Max芯片和64GBRAM,操作系统为macOS14.4.1。来源:格隆汇

封面图片

苹果向开发者提供头显设备Vision Pro, 明年正式发售了要归还苹果

苹果向开发者提供头显设备VisionPro,明年正式发售了要归还苹果苹果公司7月24日向开发者们开放头显设备VisionPro的申请通道,该公司原计划2024年发售标价3499美元的这款“3D”头显设备。苹果这一举动将允许特定的开发者使用真实的硬件设备来打造和定位自家的应用程序(APP)。苹果提供头显设备是一种“贷款”(loan)行为,而不是销售,借给开发商的头显设备仍然是苹果公司的资产,需要在苹果实际上开始发售VisionPro之后归还给苹果公司。除了设备本身之外,苹果提供的VisionPro开发者套件还包括帮助设置设备、代码级别技术支持,以及苹果技术专家还会对应用程序和游戏进行兼容性评估。来源:第一财经投稿人:ArkansasStatePolice投稿:@ZaiHuaBot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人