美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞

美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞 该中心将领导研究法案中所说的"反人工智能",即学习如何操纵人工智能系统的技术。该中心还将制定预防反人工智能措施的指南。该法案还将要求国家标准与技术研究院(NIST)和网络安全与基础设施安全局建立一个人工智能漏洞数据库,包括"近乎得手的漏洞"。华纳和蒂利斯提出的法案重点关注对抗人工智能的技术,并将其分为数据中毒、规避攻击、基于隐私的攻击和滥用攻击。数据中毒指的是在人工智能模型刮取的数据中插入代码,破坏模型输出的方法。它是防止人工智能图像生成器在互联网上复制艺术作品的一种流行方法。规避攻击会改变人工智能模型所研究的数据,以至于模型变得混乱。人工智能安全是拜登政府人工智能行政命令的关键项目之一,该命令指示美国国家标准与技术研究院(NIST)制定"红队"指导方针,并要求人工智能开发人员提交安全报告。所谓"红队"(red teaming),是指开发人员故意让人工智能模型对不应该出现的提示做出反应。理想情况下,人工智能模型的开发者会对平台进行安全测试,并在向公众发布之前对其进行广泛的红队测试。一些公司如微软已经创建了一些工具,帮助人工智能项目更容易地添加安全防护措施。《人工智能安全法案》在提交给更大范围的参议院审议之前,必须经过一个委员会的审议。 ... PC版: 手机版:

相关推荐

封面图片

硅谷对加州人工智能安全法案不满

硅谷对加州人工智能安全法案不满 美国加利福尼亚州的人工智能重量级企业正在抗议一项州法案,该法案将迫使科技公司遵守严格的安全框架,包括创建一个“切断开关”来关闭其强大的人工智能模型。该法案于上月由加州参议院通过,并将于8月在众议院进行表决。该法案要求加州的人工智能团体向一个新成立的州机构保证,它们不会开发具有“危险能力”的模型,例如制造生物武器或核武器,或协助网络安全攻击。根据拟议中的《前沿人工智能系统安全创新法案》,开发人员必须报告其安全测试,并引入所谓的“切断开关”来关闭他们的模型。 ()

封面图片

美参议院提交《2025 财年国防授权法案》,但未涉及《生物安全法案》

美参议院提交《2025 财年国防授权法案》,但未涉及《生物安全法案》 美东时间 7 月 8 日,美国参议会军事委员会主席杰克・里德和成员罗杰・威克宣布提交 S.4638《2025 财年国防授权法案》(FY25 NDAA)。而在 6 月 11 日,美国众议院已经提交了美国 2025 财年 NADD 法案,不过,众议院版本的《生物安全法案》虽在该法案的清单名列,但并未顺利通过。 据美国参议会提交的 FY25 NDAA,该版本法案主要用于授权 2025 财政年度用于国防部军事活动、军事建设和能源部国防活动的拨款规定该财政年度的军事人员实力,以及用于其他目的。在参议院提交的 FY25 NDAA 版本中,并未提及《生物安全法案》相关内容。(界面新闻)

封面图片

【人工智能:从中国AI应用领先世界,到ChatGPT的安全漏洞】

【人工智能:从中国AI应用领先世界,到ChatGPT的安全漏洞】 中国在生成式人工智能的采用方面处于世界领先地位。与此同时ChatGPT制造商OpenAI成为网络攻击的受害者。《纽约时报》称 去年一名黑客曾获得OpenAI内部通讯系统的访问权限,尽管该公司建造和存储其AI模型的系统没有受到影响。

封面图片

纽约时报:OpenAI 并未透露 2023 年的安全漏洞

纽约时报:OpenAI 并未透露 2023 年的安全漏洞 据《纽约时报》7 月 4 日报道,OpenAI 在 2023 年曾遭遇安全漏洞,但并未向公司外部披露这一事件。据称,OpenAI 高管在 2023 年 4 月的一次会议上内部披露了该事件,但没有公开披露,因为攻击者没有访问有关客户或合作伙伴的信息。此外,高管们并不认为该事件构成国家安全威胁,因为他们认为攻击者是与外国政府没有联系的个人。他们没有向联邦调查局或其他执法机构报告这一事件。 据报道,攻击者访问了 OpenAI 的内部消息系统,并从在线论坛的员工对话中窃取了有关该公司人工智能技术设计的详细信息。他们没有访问 OpenAI “容纳和构建人工智能” 的系统,也没有访问代码。

封面图片

英国安全研究所发布人工智能模型安全性测试工具

英国安全研究所发布人工智能模型安全性测试工具 在周五宣布这一消息的新闻稿中,安全研究所声称,Inspect 标志着"由国家支持的机构主导的人工智能安全测试平台首次被广泛使用"。安全研究所主席伊恩-霍加斯(Ian Hogarth)在一份声明中说:"人工智能安全测试方面的成功合作意味着要有一个共享的、可访问的评估方法,我们希望Inspect能够成为一个基石。我们希望看到全球人工智能社区利用Inspect不仅开展自己的模型安全性测试,而且帮助调整和构建开源平台,以便我们能够全面开展高质量的评估。"众所周知,人工智能基准很难制定其中最重要的原因是,当今最复杂的人工智能模型几乎都是黑盒,其基础设施、训练数据和其他关键细节都被创建这些模型的公司保密。那么,Inspect 如何应对这一挑战呢?主要是通过可扩展的新测试技术。Inspect 由三个基本部分组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器负责评估求解器的工作,并将测试得分汇总为指标。可以通过用 Python 编写的第三方软件包来增强 Inspect 的内置组件。Mozilla 研究员、著名人工智能伦理学家德博拉-拉吉(Deborah Raj)在 X 上发表了一篇文章,称 Inspect "证明了对人工智能问责开源工具的公共投资的力量"。人工智能初创公司Hugging Face的首席执行官克莱门特-德朗格(Clément Delangue)提出了将Inspect与Hugging Face的模型库整合在一起,或利用工具集的评估结果创建一个公共排行榜的想法。Inspect 发布之前,美国政府机构国家标准与技术研究院(NIST)启动了NIST GenAI,该计划旨在评估各种生成式人工智能技术,包括文本和图像生成人工智能。NIST GenAI 计划发布基准,帮助创建内容真实性检测系统,并鼓励开发能识别虚假或误导性人工智能生成信息的软件。今年 4 月,美国和英国宣布建立合作伙伴关系,共同开发先进的人工智能模型测试,这是继去年 11 月英国在布莱切利公园举行的人工智能安全峰会上宣布承诺之后的又一合作。作为合作的一部分,美国打算成立自己的人工智能安全研究所,广泛负责评估人工智能和生成式人工智能的风险。 ... PC版: 手机版:

封面图片

美国新法案要求人工智能公司披露受版权保护的训练数据

美国新法案要求人工智能公司披露受版权保护的训练数据 美国新法案将迫使科技公司披露用于训练其人工智能模型的任何受版权保护的数据。美国众议员 Adam Schiff (D-CA) 提出的生成人工智能版权披露法案将要求任何为人工智能制作训练数据集的人向版权登记处提交有关其内容的报告。报告应包含数据集中受版权保护的材料的详细摘要以及数据集的 URL (如果可公开获取)。此要求将扩展到对数据集所做的任何更改。公司必须在使用训练数据集的人工智能模型向公众发布之前“不迟于30天”提交报告。该法案不会追溯到现有的人工智能平台,除非其成为法律后对其训练数据集进行更改。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人