Hugging Face 称检测到其人工智能模型托管平台遭到“未经授权的访问”

Hugging Face 称检测到其人工智能模型托管平台遭到“未经授权的访问” 当地时间5月31日下午,美国人工智能初创公司 Hugging Face 表示,其安全团队本周早些时候检测到对其 Spaces 平台的“未经授权的访问”,因此怀疑部分机密信息可能在未经授权的情况下被访问。作为预防措施,已经撤销了这些机密中存在的一些 HF tokens。撤销的用户已收到电子邮件通知。

相关推荐

封面图片

Hugging Face称检测到对其人工智能模型托管平台的"未经授权访问"

Hugging Face称检测到对其人工智能模型托管平台的"未经授权访问" Hugging Face 在一篇博文中说,这次入侵与 Spaces 秘密有关,即作为解锁账户、工具和开发环境等受保护资源的密钥的私人信息。作为预防措施,Hugging Face 已撤销了这些机密中的一些令牌(令牌用于验证身份)。令牌被撤销的用户已经收到了电子邮件通知,并建议所有用户"刷新任何密钥或令牌",并考虑改用细粒度访问令牌,Hugging Face 声称这种令牌更安全。目前还不清楚有多少用户或应用程序受到潜在漏洞的影响。"我们正在与外部网络安全取证专家合作,调查这一问题,并审查我们的安全政策和程序。我们还向执法机构和数据保护机构报告了这一事件,"Hugging Face 在帖子中写道。"我们对此次事件可能造成的干扰深表遗憾,并理解它可能给您带来的不便。我们承诺将以此为契机,加强我们整个基础设施的安全性"。Hugging Face 的发言人在一封电子邮件声明中说:"在过去几个月里,我们看到网络攻击的数量明显增加,这可能是因为我们的使用量大幅增长,人工智能正成为主流。技术上很难知道有多少Spaces机密被泄露了。"Hugging Face 是最大的人工智能和数据科学项目合作平台之一,拥有超过一百万个模型、数据集和人工智能驱动的应用程序,在其安全实践方面面临越来越多的审查。今年 4 月,云安全公司 Wiz 的研究人员发现了一个漏洞(已被修复),攻击者可以在 Hugging Face 托管应用程序的构建时间内执行任意代码,从而检查机器上的网络连接。今年早些时候,安全公司JFrog发现有证据表明,上传到Hugging Face的代码在终端用户机器上暗中安装了后门和其他类型的恶意软件。安全初创公司 HiddenLayer 发现,Hugging Face 表面上更安全的序列化格式 Safetensors 有可能被滥用来创建破坏性的人工智能模型。Hugging Face最近表示,它将与 Wiz 合作,使用该公司的漏洞扫描和云环境配置工具,"目标是提高我们平台和整个 AI/ML 生态系统的安全性"。 ... PC版: 手机版:

封面图片

Hugging Face 推出开源版 GPTs 免费定制人工智能助手

Hugging Face 推出开源版 GPTs 免费定制人工智能助手 开源社区平台 Hugging Face 日前推出开源版 GPTs,不但允许用户定制人工智能助手,而且费用全免。Hugging Face 技术总监兼 LLM 负责人菲利普·施密德表示,开源版 GPTs 名为“Hugging Chat Assistants”,用户只需点击2下,就能定制个人的人工智能助手,用法与 OpenAI 的 GPTs 类似。

封面图片

开源 AI 公司 Hugging Face 确认在中国无法访问该平台

开源 AI 公司 Hugging Face 确认在中国无法访问该平台 AI 初创公司 Hugging Face 告诉 Semafor,当中国封锁了该平台的访问权限后,该公司已经知道在中国存在“令人遗憾的可访问性问题”。该平台托管着超过 365,000 个开源人工智能模型。 Hugging Face 的发言人在周五的一封电子邮件中表示:“中国的人工智能社区非常出色,我们希望他们能更好地访问 HF,但我们目前对于政府的规定无能为力。” 目前尚不清楚 Hugging Face 这家价值 45 亿美元的初创公司何时首次受到了中国的审查。早在今年五月起,中国用户就在该公司的论坛上抱怨连接问题。时事通讯 ChinaTalk 周三报道称,至少从 9 月 12 日起,Hugging Face 在中国就完全无法使用。

封面图片

AI 开源开发平台 Hugging Face 存在托管的恶意代码

AI 开源开发平台 Hugging Face 存在托管的恶意代码 安全公司 JFrog 的研究人员周四在一份报告中表示,上传到人工智能开发平台 Hugging Face 的代码在用户计算机上秘密安装了后门和其他类型的恶意软件。研究人员表示,他们总共发现大约 100 个提交内容在下载并加载到最终用户设备上时执行了隐藏的和不需要的操作。 大多数被标记的机器学习模型(所有这些模型都没有被 Hugging Face 检测到)似乎是研究人员或好奇的用户上传的良性概念证明。研究人员表示,其中大约10个是“真正恶意的”,因为它们在加载时执行的操作实际上损害了用户的安全,例如创建一个可以从互联网远程访问并完全控制用户设备的反向 Shell 。 Hugging Face 已删除了所有 JFrog 标记的模型。这是继 PyPI, NPM 和 GitHub 之后又一个被发现受到水坑攻击(Watering Hole Attack)的开发平台,虽然并不让人太意外。

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型 谷歌云与 AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署 AI 模型。现在,使用 Hugging Face 平台的外部开发人员将能够 “经济高效” 地访问谷歌的张量处理单元 (TPU) 和 GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。谷歌表示,Hugging Face 用户可以在 “2024 年上半年” 开始使用人工智能应用构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。 一一

封面图片

索尼音乐警告科技公司不要“未经授权”使用其内容来训练人工智能

索尼音乐警告科技公司不要“未经授权”使用其内容来训练人工智能 索尼音乐集团已向700多家科技公司和音乐流媒体服务发送信函,警告他们未经明确许可不得使用其音乐来训练人工智能。信函写到,索尼音乐“有理由相信”信函的收件人“可能已经未经授权使用”了其内容。索尼音乐表示,虽然他们认识到人工智能的“巨大潜力”,但“在人工智能系统的训练、开发或商业化中未经授权使用 SMG 内容”会剥夺该公司和艺术家对其内容的控制权和“合适的补偿”。索尼音乐正在寻求保护其知识产权,其中包括音频和视听录音、封面插图、元数据、歌词等。这封信要求收件人详细说明使用了索尼音乐的哪些歌曲来训练人工智能系统,歌曲是如何获取的,制作了多少副本,是否还存在副本,以及为什么起初会存在副本。索尼音乐已经给予信函收件人截止日期作出回应,并指出将在各个司法管辖区内“依据适用法律的最大允许范围”执行其版权。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人