Hugging Face将投资1000万美元的共享GPU供开发者和研究人员免费使用

HuggingFace将投资1000万美元的共享GPU供开发者和研究人员免费使用访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器GPU集群将对外免费使用(当然也需要申请和批准),该平台希望能够帮助小型开发者、研究人员或人工智能初创公司对抗阻碍人工智能技术发展的中心化问题。与百度不同,HuggingFace和大多数公司一样认为开源和开放的人工智能技术可以促进行业的发展,专有的人工智能技术并不是HuggingFace设想的未来。所以该公司愿意投资共享GPU集群,基于共享使用的原则,所有GPU都不会浪费,也就是最终情况可能是7×24小时满负荷运行,为开发者和初创公司提供支持。对于小型开发者和人工智能初创公司,想要获得共有平台提供的GPU算力并不容易,主要是价格非常昂贵并且可能还需要预付费或按月结算,不像大客户那样甚至可以按年结算。这对开发者来说是个承重的负担,往往训练AI模型所花费的GPU成本就是天文数字,这显然不利于人工智能行业的发展。HuggingFace称对于共享GPU的使用主要取决于实际使用情况,即如果部分GPU的容量没有得到积极利用,则这部分容量可以供其他人使用,因此共享GPU集群具有成本效益和能源效率,非常适合在社区范围内使用。为HuggingFace提供共享GPU集群的是应用托管平台ZeroGPU,该平台将为HuggingFace提供NVIDIAA100人工智能加速卡组成的集群,尽管A100在性能方面只有H100加速卡的50%,不过毕竟都是共享和免费使用,对开发者来说应该也问题不大。...PC版:https://www.cnbeta.com.tw/articles/soft/1431269.htm手机版:https://m.cnbeta.com.tw/view/1431269.htm

相关推荐

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与HuggingFace合作,帮助开发人员训练AI模型谷歌云与AI模型托管平台HuggingFace建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署AI模型。现在,使用HuggingFace平台的外部开发人员将能够“经济高效”地访问谷歌的张量处理单元(TPU)和GPU超级计算机,其中包括数千台Nvidia的热门且出口受限的H100。谷歌表示,HuggingFace用户可以在“2024年上半年”开始使用人工智能应用构建平台VertexAI和Kubernetes引擎,帮助训练和微调模型。一一

封面图片

Google 与 Hugging Face 达成协议,为开源人工智能提供“超级计算机”力量

根据TheVerge报道,开发者现在可以在不需要付费GoogleCloud订阅费的情况下建立、训练和部署人工智能模型。通过HuggingFace平台,外部开发者将获得“经济实惠”的使用权,可以访问Google的张量处理单元(TPU)和GPU超级计算机,其中包括数千台受需求大且受出口限制的NvidiaH100。HuggingFace是较为流行的人工智能模型库之一,存储着开源基础模型如Meta的Llama2和StabilityAI的StableDiffusion,并提供多个模型训练数据库。此合作将使HuggingFace用户能够在2024年上半年开始使用AI应用构建平台VertexAI和帮助训练和微调模型的Kubernetes引擎。Google表示,该合作进一步支持GoogleCloud对开源人工智能生态系统的发展。via匿名标签:#Google#Hugging频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

小扎是真的All in AI了,Meta宣布他们正在开发两个拥有 2.4万 GPU 的超级计算集群。并在24年底使综合计算能力接

小扎是真的AllinAI了,Meta宣布他们正在开发两个拥有2.4万GPU的超级计算集群。并在24年底使综合计算能力接近60万个H100GPU。这些超级计算集群将用于支持多种人工智能任务,包括培训Llama3大型人工智能模型。Meta特别强调,他们致力于开放式计算和开源技术,这些集群基于GrandTeton、OpenRack和PyTorch等平台构建而成。这些集群设计用于支撑大型和复杂的人工智能模型,着重于提升性能、确保可靠性和扩展能力。Meta的策略包括了设计定制化的硬件设备、采用先进的网络解决方案,比如RDMAoverconvergedEthernet(RoCE)和NVIDIAQuantum2InfiniBand网络技术,还有利用FUSEAPI和Tectonic分布式存储等技术的优化存储方案。此外,Meta也在注重通过软件优化和与框架开发者(例如PyTorch)合作,使其人工智能集群在最大化性能的同时,也易于使用。来源:

封面图片

Hugging Face 推出开源版 GPTs 免费定制人工智能助手

HuggingFace推出开源版GPTs免费定制人工智能助手开源社区平台HuggingFace日前推出开源版GPTs,不但允许用户定制人工智能助手,而且费用全免。HuggingFace技术总监兼LLM负责人菲利普·施密德表示,开源版GPTs名为“HuggingChatAssistants”,用户只需点击2下,就能定制个人的人工智能助手,用法与OpenAI的GPTs类似。——

封面图片

开源AI公司"Hugging Face"确认在中国存在"令人遗憾的可访问性问题"

开源AI公司"HuggingFace"确认在中国存在"令人遗憾的可访问性问题"HuggingFace的发言人周五在一封电子邮件中说:"中国的人工智能社区(的潜力)令人难以置信,我们希望他们能更好地访问HF,但目前我们对政府的规定无能为力。"目前尚不清楚价值45亿美元的初创公司HuggingFace是何时开始被审查的。早在今年5月,中国用户就在该公司的论坛上抱怨过连接问题。通讯ChinaTalk周三报道称,至少从9月12日起,HuggingFace在中国已完全无法使用中国政府经常禁止访问含有政府认为不适当内容的网站,但目前尚不清楚是什么原因导致了对HuggingFace的审查决定。罪魁祸首可能是8月份生效的地方法规,这些法规要求公司注册人工智能服务,并确保它们遵守现有的内容限制。HuggingFace最初成立于2016年,已成为近期生成式人工智能技术蓬勃发展的最大受益者之一。开发人员可以利用其平台合作开展机器学习项目或共享数据集。它的工作原理类似于微软旗下的代码库托管网站GitHub。中国此前也曾阻止访问GitHub或至少其部分网页,但该网站仍可定期访问,这很可能是因为它在中国软件工程生态系统中发挥着重要作用。如果不能访问它所承载的开源资源库,许多开发人员将无法履行他们的工作职责。本月早些时候,在中国的知乎问答平台上,用户们在一个已经删除的主题中讨论了封禁"抱抱脸"的潜在影响。"我真的非常难过,这是在扼杀我们自己的竞争力--在人工智能迅速提高生产力的今天,这样关闭自己确实决定了,至少在人工智能领域,我们将不可避免地落后。"其中一条评论写道。...PC版:https://www.cnbeta.com.tw/articles/soft/1391343.htm手机版:https://m.cnbeta.com.tw/view/1391343.htm

封面图片

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用

苹果新发布20个CoreML模型和4个数据集全部开源供开发者们使用苹果日前在知名AI模型托管平台HuggingFace上新发布了20个CoreML模型和4个数据集,这些模型全部采用Apache2.0许可证进行开源,所有开发者均可使用。这些采用CoreML框架的新模型在功能上都有所不同,不过侧重点都是在设备端本地运行AI模型执行任务,这样数据不需要上云解决潜在的隐私问题。例如开发者可以构建一款用于图像分类的应用程序,在获得用户授权图库访问权限后,可以调用设备端模型进行处理;或者构建一个可以快速去除图像背景的应用程序,使用设备端模型也可以不上传图片,解决用户的隐私担忧。当然采用设备端模型还有个好处就是响应速度会非常快,借助云端处理开发者需要提供性能更强的服务器才能支撑并发使用,而服务器响应和处理都需要使用,本地处理则不需要使用网络,因此也免去了响应时间问题。目前设备端运行AI模型最大的问题在于芯片性能,例如苹果推出的苹果智能仅支持A17Pro和AppleM系列芯片,对于更旧的芯片还是得第三方开发者们提供支持,虽然这也会存在性能问题。HuggingFace创始人称这是一次重大更新,苹果将许多基于CoreML的新模型上传到了HuggingFace存储库,而CoreML模型严格在设备端运行无需网络连接,这可以让开发者的应用保持“闪电般”的速度,还可以确保用户数据的私密性。有兴趣的开发者们可以访问HuggingFace上的苹果主页获取这些模型,苹果也为部分模型提供了论文描述,开发者可以根据论文说明快速了解这些模型的性能:https://huggingface.co/apple...PC版:https://www.cnbeta.com.tw/articles/soft/1435170.htm手机版:https://m.cnbeta.com.tw/view/1435170.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人