美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞

美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞 该中心将领导研究法案中所说的"反人工智能",即学习如何操纵人工智能系统的技术。该中心还将制定预防反人工智能措施的指南。该法案还将要求国家标准与技术研究院(NIST)和网络安全与基础设施安全局建立一个人工智能漏洞数据库,包括"近乎得手的漏洞"。华纳和蒂利斯提出的法案重点关注对抗人工智能的技术,并将其分为数据中毒、规避攻击、基于隐私的攻击和滥用攻击。数据中毒指的是在人工智能模型刮取的数据中插入代码,破坏模型输出的方法。它是防止人工智能图像生成器在互联网上复制艺术作品的一种流行方法。规避攻击会改变人工智能模型所研究的数据,以至于模型变得混乱。人工智能安全是拜登政府人工智能行政命令的关键项目之一,该命令指示美国国家标准与技术研究院(NIST)制定"红队"指导方针,并要求人工智能开发人员提交安全报告。所谓"红队"(red teaming),是指开发人员故意让人工智能模型对不应该出现的提示做出反应。理想情况下,人工智能模型的开发者会对平台进行安全测试,并在向公众发布之前对其进行广泛的红队测试。一些公司如微软已经创建了一些工具,帮助人工智能项目更容易地添加安全防护措施。《人工智能安全法案》在提交给更大范围的参议院审议之前,必须经过一个委员会的审议。 ... PC版: 手机版:

相关推荐

封面图片

硅谷对加州人工智能安全法案不满

硅谷对加州人工智能安全法案不满 美国加利福尼亚州的人工智能重量级企业正在抗议一项州法案,该法案将迫使科技公司遵守严格的安全框架,包括创建一个“切断开关”来关闭其强大的人工智能模型。该法案于上月由加州参议院通过,并将于8月在众议院进行表决。该法案要求加州的人工智能团体向一个新成立的州机构保证,它们不会开发具有“危险能力”的模型,例如制造生物武器或核武器,或协助网络安全攻击。根据拟议中的《前沿人工智能系统安全创新法案》,开发人员必须报告其安全测试,并引入所谓的“切断开关”来关闭他们的模型。 ()

封面图片

【人工智能:从中国AI应用领先世界,到ChatGPT的安全漏洞】

【人工智能:从中国AI应用领先世界,到ChatGPT的安全漏洞】 中国在生成式人工智能的采用方面处于世界领先地位。与此同时ChatGPT制造商OpenAI成为网络攻击的受害者。《纽约时报》称 去年一名黑客曾获得OpenAI内部通讯系统的访问权限,尽管该公司建造和存储其AI模型的系统没有受到影响。

封面图片

美参议院提交《2025 财年国防授权法案》,但未涉及《生物安全法案》

美参议院提交《2025 财年国防授权法案》,但未涉及《生物安全法案》 美东时间 7 月 8 日,美国参议会军事委员会主席杰克・里德和成员罗杰・威克宣布提交 S.4638《2025 财年国防授权法案》(FY25 NDAA)。而在 6 月 11 日,美国众议院已经提交了美国 2025 财年 NADD 法案,不过,众议院版本的《生物安全法案》虽在该法案的清单名列,但并未顺利通过。 据美国参议会提交的 FY25 NDAA,该版本法案主要用于授权 2025 财政年度用于国防部军事活动、军事建设和能源部国防活动的拨款规定该财政年度的军事人员实力,以及用于其他目的。在参议院提交的 FY25 NDAA 版本中,并未提及《生物安全法案》相关内容。(界面新闻)

封面图片

纽约时报:OpenAI 并未透露 2023 年的安全漏洞

纽约时报:OpenAI 并未透露 2023 年的安全漏洞 据《纽约时报》7 月 4 日报道,OpenAI 在 2023 年曾遭遇安全漏洞,但并未向公司外部披露这一事件。据称,OpenAI 高管在 2023 年 4 月的一次会议上内部披露了该事件,但没有公开披露,因为攻击者没有访问有关客户或合作伙伴的信息。此外,高管们并不认为该事件构成国家安全威胁,因为他们认为攻击者是与外国政府没有联系的个人。他们没有向联邦调查局或其他执法机构报告这一事件。 据报道,攻击者访问了 OpenAI 的内部消息系统,并从在线论坛的员工对话中窃取了有关该公司人工智能技术设计的详细信息。他们没有访问 OpenAI “容纳和构建人工智能” 的系统,也没有访问代码。

封面图片

英国安全研究所发布人工智能模型安全性测试工具

英国安全研究所发布人工智能模型安全性测试工具 在周五宣布这一消息的新闻稿中,安全研究所声称,Inspect 标志着"由国家支持的机构主导的人工智能安全测试平台首次被广泛使用"。安全研究所主席伊恩-霍加斯(Ian Hogarth)在一份声明中说:"人工智能安全测试方面的成功合作意味着要有一个共享的、可访问的评估方法,我们希望Inspect能够成为一个基石。我们希望看到全球人工智能社区利用Inspect不仅开展自己的模型安全性测试,而且帮助调整和构建开源平台,以便我们能够全面开展高质量的评估。"众所周知,人工智能基准很难制定其中最重要的原因是,当今最复杂的人工智能模型几乎都是黑盒,其基础设施、训练数据和其他关键细节都被创建这些模型的公司保密。那么,Inspect 如何应对这一挑战呢?主要是通过可扩展的新测试技术。Inspect 由三个基本部分组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器负责评估求解器的工作,并将测试得分汇总为指标。可以通过用 Python 编写的第三方软件包来增强 Inspect 的内置组件。Mozilla 研究员、著名人工智能伦理学家德博拉-拉吉(Deborah Raj)在 X 上发表了一篇文章,称 Inspect "证明了对人工智能问责开源工具的公共投资的力量"。人工智能初创公司Hugging Face的首席执行官克莱门特-德朗格(Clément Delangue)提出了将Inspect与Hugging Face的模型库整合在一起,或利用工具集的评估结果创建一个公共排行榜的想法。Inspect 发布之前,美国政府机构国家标准与技术研究院(NIST)启动了NIST GenAI,该计划旨在评估各种生成式人工智能技术,包括文本和图像生成人工智能。NIST GenAI 计划发布基准,帮助创建内容真实性检测系统,并鼓励开发能识别虚假或误导性人工智能生成信息的软件。今年 4 月,美国和英国宣布建立合作伙伴关系,共同开发先进的人工智能模型测试,这是继去年 11 月英国在布莱切利公园举行的人工智能安全峰会上宣布承诺之后的又一合作。作为合作的一部分,美国打算成立自己的人工智能安全研究所,广泛负责评估人工智能和生成式人工智能的风险。 ... PC版: 手机版:

封面图片

AMD Zen 2 and Zen 3 CPU 被发现存在重大安全漏洞

AMD Zen 2 and Zen 3 CPU 被发现存在重大安全漏洞 柏林技术大学的研究人员发表了一篇名为 "faulTPM: 揭露AMD fTPMs最深层的秘密"的论文,强调AMD基于固件的可信平台模块(TPM)容易受到针对Zen 2和Zen 3处理器的新漏洞的影响。针对AMD fTPM的faulTPM攻击涉及利用AMD安全处理器(SP)的漏洞进行电压故障注入攻击。这使得攻击者能够从目标CPU中访问并且提取特定模块数据,然后用来获取fTPM 模块存储在BIOS闪存芯片上的安全密钥。该攻击包括一个手动参数确定阶段和一个暴力搜索最终延迟参数的阶段。第一步需要大约30分钟的人工干预,但它有可能被自动化。第二阶段由重复的攻击尝试组成,以搜索最后确定的参数并执行攻击的有效载荷。 一旦攻击步骤完成,攻击者可以提取在 fTPM 存储或加密的任何数据,而不考虑认证机制,如平台配置寄存器(PCR)验证或具有防干扰保护的口令。有趣的是,BitLocker使用TPM作为安全措施,而faulTPM损害了系统。研究人员说,Zen 2和Zen 3的CPU是脆弱的,而Zen 4没有被提及。攻击需要几个小时的物理访问,所以远程漏洞不是一个问题。 编注:这个基本等同于所有使用AMD前三代CPU(架构)的用户丢失了TPM内核虚拟化安全程序的安全特性。现在他的TPM只影响它的性能,不会给他带来任何安全性。现在他的设备可以很轻松的被这个漏洞绕过,并且AMD没有修复方案。这个漏洞没办法通过更新所谓的主板固件什么别的方式进行修补。 注意: 此处 TPM 安全模块为 AMD CPU 内置的虚拟安全模块,并非为独立的 TPM 安全模块,但受限于额外的硬件成本和特殊地区政府管制[如中国,伊朗,俄罗斯等国家],常规用户都不会额外购置独立模块,这将会严重影响用户设备的抗第三方攻击能力,特殊攻击者可以轻松绕过防护。 TGzhaolijian

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人