AI 开源开发平台 Hugging Face 存在托管的恶意代码

AI 开源开发平台 Hugging Face 存在托管的恶意代码 安全公司 JFrog 的研究人员周四在一份报告中表示,上传到人工智能开发平台 Hugging Face 的代码在用户计算机上秘密安装了后门和其他类型的恶意软件。研究人员表示,他们总共发现大约 100 个提交内容在下载并加载到最终用户设备上时执行了隐藏的和不需要的操作。 大多数被标记的机器学习模型(所有这些模型都没有被 Hugging Face 检测到)似乎是研究人员或好奇的用户上传的良性概念证明。研究人员表示,其中大约10个是“真正恶意的”,因为它们在加载时执行的操作实际上损害了用户的安全,例如创建一个可以从互联网远程访问并完全控制用户设备的反向 Shell 。 Hugging Face 已删除了所有 JFrog 标记的模型。这是继 PyPI, NPM 和 GitHub 之后又一个被发现受到水坑攻击(Watering Hole Attack)的开发平台,虽然并不让人太意外。

相关推荐

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型 谷歌云与 AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署 AI 模型。现在,使用 Hugging Face 平台的外部开发人员将能够 “经济高效” 地访问谷歌的张量处理单元 (TPU) 和 GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。谷歌表示,Hugging Face 用户可以在 “2024 年上半年” 开始使用人工智能应用构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。 一一

封面图片

开源 AI 公司 Hugging Face 确认在中国无法访问该平台

开源 AI 公司 Hugging Face 确认在中国无法访问该平台 AI 初创公司 Hugging Face 告诉 Semafor,当中国封锁了该平台的访问权限后,该公司已经知道在中国存在“令人遗憾的可访问性问题”。该平台托管着超过 365,000 个开源人工智能模型。 Hugging Face 的发言人在周五的一封电子邮件中表示:“中国的人工智能社区非常出色,我们希望他们能更好地访问 HF,但我们目前对于政府的规定无能为力。” 目前尚不清楚 Hugging Face 这家价值 45 亿美元的初创公司何时首次受到了中国的审查。早在今年五月起,中国用户就在该公司的论坛上抱怨连接问题。时事通讯 ChinaTalk 周三报道称,至少从 9 月 12 日起,Hugging Face 在中国就完全无法使用。

封面图片

基于Hugging Face Transformers的项目精选集

基于Hugging Face Transformers的项目精选集 此页面列出了构建在 Transformers 之上的很棒的项目。Transformers 不仅仅是一个使用预训练模型的工具包:它是一个围绕它和 Hugging Face Hub 构建的项目社区。 Transformers 希望能帮开发人员、研究人员、学生、教授、工程师和其他任何人构建他们梦想的项目。 此列表展示了推动该领域向前发展的极具影响力和新颖的项目。

封面图片

Hugging Face 和 ServiceNow 发布免费代码生成模型 StarCoder

Hugging Face 和 ServiceNow 发布免费代码生成模型 StarCoder AI 创业公司 Hugging Face 和 ServiceNow 发布了免费的代码生成模型 。类似 DeepMind 的AlphaCode、亚马逊的 CodeWhisperer 和 GitHub 的 Copilot(基于 OpenAI 的 Codex),StarCoder 使用 Apache License 2.0 许可证,允许任何人免费使用,但严格意义上不是开源模型,它禁止用户使用该模型生成或传播恶意代码。StarCoder 使用了开源代码数据集 The Stack 训练,有 150 亿参数。其数据集包括了逾 80 种不同编程语言和来自 github issues 和 commits 的文本。#AI 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Hugging Face称检测到对其人工智能模型托管平台的"未经授权访问"

Hugging Face称检测到对其人工智能模型托管平台的"未经授权访问" Hugging Face 在一篇博文中说,这次入侵与 Spaces 秘密有关,即作为解锁账户、工具和开发环境等受保护资源的密钥的私人信息。作为预防措施,Hugging Face 已撤销了这些机密中的一些令牌(令牌用于验证身份)。令牌被撤销的用户已经收到了电子邮件通知,并建议所有用户"刷新任何密钥或令牌",并考虑改用细粒度访问令牌,Hugging Face 声称这种令牌更安全。目前还不清楚有多少用户或应用程序受到潜在漏洞的影响。"我们正在与外部网络安全取证专家合作,调查这一问题,并审查我们的安全政策和程序。我们还向执法机构和数据保护机构报告了这一事件,"Hugging Face 在帖子中写道。"我们对此次事件可能造成的干扰深表遗憾,并理解它可能给您带来的不便。我们承诺将以此为契机,加强我们整个基础设施的安全性"。Hugging Face 的发言人在一封电子邮件声明中说:"在过去几个月里,我们看到网络攻击的数量明显增加,这可能是因为我们的使用量大幅增长,人工智能正成为主流。技术上很难知道有多少Spaces机密被泄露了。"Hugging Face 是最大的人工智能和数据科学项目合作平台之一,拥有超过一百万个模型、数据集和人工智能驱动的应用程序,在其安全实践方面面临越来越多的审查。今年 4 月,云安全公司 Wiz 的研究人员发现了一个漏洞(已被修复),攻击者可以在 Hugging Face 托管应用程序的构建时间内执行任意代码,从而检查机器上的网络连接。今年早些时候,安全公司JFrog发现有证据表明,上传到Hugging Face的代码在终端用户机器上暗中安装了后门和其他类型的恶意软件。安全初创公司 HiddenLayer 发现,Hugging Face 表面上更安全的序列化格式 Safetensors 有可能被滥用来创建破坏性的人工智能模型。Hugging Face最近表示,它将与 Wiz 合作,使用该公司的漏洞扫描和云环境配置工具,"目标是提高我们平台和整个 AI/ML 生态系统的安全性"。 ... PC版: 手机版:

封面图片

Hugging Face 称检测到其人工智能模型托管平台遭到“未经授权的访问”

Hugging Face 称检测到其人工智能模型托管平台遭到“未经授权的访问” 当地时间5月31日下午,美国人工智能初创公司 Hugging Face 表示,其安全团队本周早些时候检测到对其 Spaces 平台的“未经授权的访问”,因此怀疑部分机密信息可能在未经授权的情况下被访问。作为预防措施,已经撤销了这些机密中存在的一些 HF tokens。撤销的用户已收到电子邮件通知。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人