美发布政府机构AI新规 要求保障公众权利和安全

美发布政府机构AI新规 要求保障公众权利和安全 美国政府发布新规,要求使用人工智能的联邦机构采取具体保障措施,以保护美国人的权利和安全。 路透社报道,白宫管理和预算办公室星期四(3月28日)向联邦机构发出指令,要求它们检测、评估和测试人工智能(AI)对公众的影响、降低算法歧视的风险,并向公众提供政府如何使用人工智能的透明度。规定还要求,各机构必须进行风险评估,同时制定运营和治理指标。 另据美国广播公司(ABC)报道,美国副总统哈里斯在新规宣布前告诉记者:“如今我们将要求,当政府机构使用人工智能工具时,它们必须证明这些工具不会危及美国人民的权利和安全。” 总统拜登去年10月签署了一项行政命令,援引《国防生产法》,要求对美国国家安全、经济、公众健康或安全构成风险的人工智能系统开发者,在公开发布前与美国政府分享安全测试结果。星期四宣布的新规定,是这项行政命令的一部分。 按照新规,截至12月1日,每个联邦政府机构都必须制定一套具体的保障措施,用以指导一切涉及人工智能工具的工作。 新的保障措施将确保航空旅客可以选择不接受运输安全管理局的面部识别,也不会耽误安检。当人工智能用于联邦医疗保健以支持诊断决策时,人类必须监督“验证工具结果的过程”。 另据哈里斯举例说:“如果退伍军人管理局想在退伍军人医院使用人工智能来帮助医生诊断病人,就必须先证明人工智能不会产生有种族偏见的诊断。” 根据白宫公告,无法按要求实施保障措施的联邦机构“必须停止使用人工智能系统,除非机构领导层能说明为何使用人工智能会增加整体安全或权利的风险,或者对关键机构的运作造成不可接受的阻碍”。 哈里斯还说,根据新规,联邦机构必须聘请一名首席人工智能官,该官员必须具备经验、专业知识和权力,从而监督该机构使用的所有人工智能技术。 白宫计划聘用100名人工智能专业人员,以促进人工智能的安全使用,并要求联邦机构在60天内指定首席人工智能官。 此外,政府机构须公布人工智能使用案例清单,报告人工智能使用指标,并在不构成风险的情况下,发布政府拥有的人工智能代码、模型和数据。 2024年3月28日 9:59 PM

相关推荐

封面图片

白宫要求每个联邦机构都必须聘请一位首席人工智能官并公开AI使用情况

白宫要求每个联邦机构都必须聘请一位首席人工智能官并公开AI使用情况 美国副总统哈里斯在与记者的一次简报会上宣布了新的行政机构人工智能指南,并表示各机构还必须成立人工智能治理委员会,以协调机构内部如何使用人工智能。所有美国联邦机构都必须有一名高管(CAIO)来监督他们使用的所有人工智能系统,因为政府希望确保人工智能在公共服务领域的使用是安全的。各机构还必须向管理和预算办公室(OMB)提交一份年度报告,列出其使用的所有人工智能系统、与之相关的任何风险,以及计划如何降低这些风险。根据新指南,任何政府拥有的人工智能模型、代码和数据都应向公众发布,除非它们对政府运作构成风险。

封面图片

每个美国联邦机构现在都必须聘请一名首席人工智能官

每个美国联邦机构现在都必须聘请一名首席人工智能官 各机构还必须向管理和预算办公室(OMB)提交一份年度报告,列出其使用的所有人工智能系统、与之相关的任何风险,以及计划如何降低这些风险。"我们已经指示所有联邦机构指定一名首席人工智能官,他要有经验、专业知识和权力来监督该机构使用的所有人工智能技术,这是为了确保人工智能得到负责任的使用,我们明白,我们必须在政府中设立高级领导人,专门负责监督人工智能的采用和使用,"哈里斯告诉记者。首席人工智能官不一定是政治任命的,但这取决于联邦机构的结构。 管理委员会必须在夏季成立。拜登政府的人工智能行政令要求联邦办公室制定安全标准,并增加在政府工作的人工智能人才数量。一些机构甚至在今天的公告发布之前就开始招聘首席人工智能官。司法部今年 2 月宣布乔纳森-梅耶(Jonathan Mayer)为其首位首席人工智能官。他将领导一个网络安全专家团队,研究如何在执法中使用人工智能。据 OMB 主席 Shalanda Young 称,美国政府计划在今年夏天之前招聘 100 名人工智能专业人员。各机构的人工智能官员和管理委员会的部分职责是经常监控其人工智能系统。杨说,各机构必须提交一份机构使用的人工智能产品清单。如果任何人工智能系统被认为足够"敏感"而被排除在清单之外,该机构必须公开提供排除的理由。各机构还必须独立评估其使用的每个人工智能平台的安全风险。联邦机构还必须核实他们部署的任何人工智能是否符合"降低算法歧视风险并向公众提供政府如何使用人工智能的透明度"的保障措施。OMB 的概况介绍举了几个例子,包括:在机场时,旅客可以选择不使用 TSA 面部识别系统,而不会耽误时间或失去排队的位置。在联邦医疗保健系统中使用人工智能来支持重要的诊断决策时,会有专人监督这一过程,以核实工具的结果,避免医疗保健服务的不平等。当人工智能被用于检测政府服务中的欺诈行为时,人类会对有影响的决策进行监督,受影响的个人也有机会就人工智能造成的伤害寻求补救。"如果一个机构不能采用这些保障措施,该机构就必须停止使用人工智能系统,除非该机构的领导层能说明为什么这样做会增加整体安全或权利的风险,或者会对机构的关键业务造成不可接受的障碍,"概况介绍中写道。根据新指南,任何政府拥有的人工智能模型、代码和数据都应向公众发布,除非它们对政府运作构成风险。美国仍然没有规范人工智能的法律。人工智能行政令为行政部门下属的政府机构提供了如何处理这项技术的指导方针。虽然已经提交了几项法案对人工智能的某些方面进行监管,但在人工智能技术立法方面还没有太大的进展。 ... PC版: 手机版:

封面图片

#港闻【Now新闻台】私隐专员公署发布 个人资料保障模范框架,确保机构在使用人工智能时保障用家的个人资料。

#港闻 【Now新闻台】私隐专员公署发布 个人资料保障模范框架,确保机构在使用人工智能时保障用家的个人资料。 框架涵盖四大范畴,包括建议机构制定人工智能策略及管治架构、为员工提供培训,并在引入系统前作全面风险评估及人为监督,亦建议机构制定事故应变计划,并适时与持份者沟通及交流。 个人资料私隐专员钟丽玲表示,人工智能带来私隐风险,如收集过量个人资料等,相信框架将有助中小企合法应用人工智能。

封面图片

英国机构发布测试人工智能模型安全性的工具

英国机构发布测试人工智能模型安全性的工具 英国人工智能安全机构英国安全研究所发布了一套工具集,旨在通过让行业、研究机构和学术界更容易开发人工智能评估来“加强人工智能安全”。该工具集名为 Inspect,可在开源许可证 (特别是 MIT 许可证) 下使用,旨在评估人工智能模型的某些功能,包括模型的核心知识和推理能力,并根据结果生成分数。英国安全研究所声表示,Inspect 标志着“首次由国家支持的机构牵头的人工智能安全测试平台发布以供更广泛使用”。Inspect 由三个基本组件组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器评估求解器的工作,并将测试中的分数汇总为指标。Inspect 的内置组件可以通过用 Python 编写的第三方包进行增强。   、、

封面图片

私隐公署发布有关人工智能个人资料保障模范框架

私隐公署发布有关人工智能个人资料保障模范框架 个人资料私隐专员公署发布有关人工智能的个人资料保障模范框架。个人资料私隐专员钟丽玲表示,越来越多机构使用人工智能,当中带来个人资料的风险,期望相关指引,可协助机构在采购、实施及使用人工智能时,遵从《私隐条例》的相关规定。 2024-06-11 12:31:46

封面图片

YouTube开始要求发布视频时标注是否为AI创建

YouTube开始要求发布视频时标注是否为AI创建 2023 年 11 月 YouTube 就宣布要在创作者中心添加人工智能标签,现在这个标签已经广泛推出,并对一些内容进行了修改。添加这个标签的本质目的是防止 AI 创作的逼真内容可能导致的虚假信息传播,而不是说所有由 AI 创建的内容都必须贴上 AI 标签。 谷歌并不反对创作者使用人工智能技术,例如使用人工智能修改背景、调整颜色、修改一些滤镜效果等,这些都是完全可以的。 同时 YouTube 还开发了一种机制,如果视频可能有迷惑或误导人们,那么 YouTube 可以自行决定在视频上贴上 AI 标签用来澄清。此外 YouTube 还开发了一种针对观看次数的流程,如果视频使用逼真的人工智能制作内容,则会向 YouTube 发送匿名警报,提醒 YouTube 处理此类内容。来源 , 频道:@kejiqu 群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人