美英澳等18个国家联合制定"安全设计"人工智能指南

美英澳等18个国家联合制定"安全设计"人工智能指南指导方针主要包括一般性建议,如严格控制人工智能模型的基础设施,在模型发布前后对其进行监控,以及对员工进行网络安全风险培训。但人工智能领域的某些争议问题却未被提及,包括对图像生成模型的使用、深度伪造或数据收集方法以及在训练模型中的使用应采取哪些可能的控制措施--在这个问题上,多家人工智能公司曾因版权侵权而遭到起诉。美国国土安全部部长亚历杭德罗-马约卡斯(AlejandroMayorkas)在一份声明中说:"我们正处于人工智能发展的拐点,人工智能很可能是我们这个时代最具影响力的技术。"网络安全是建立安全、可靠和值得信赖的人工智能系统的关键"。在这些指导方针出台之前,政府间还采取了其他举措对人工智能进行了权衡,包括政府和人工智能公司本月初在伦敦举行的人工智能安全峰会,以协调人工智能发展协议。与此同时,欧盟正在制定其人工智能法案的细节,该法案将对该领域进行监督,美国总统乔-拜登(JoeBiden)也于10月发布了一项行政命令,制定了人工智能安全和安保标准--尽管这两项行政命令都遭到了人工智能行业的反对,声称它们可能会扼杀创新。新的"设计安全"指导方针的其他共同签署国包括加拿大、法国、德国、以色列、意大利、日本、新西兰、尼日利亚、挪威、韩国和新加坡。包括OpenAI、微软、Google、Anthropic和ScaleAI在内的人工智能公司也为制定该指导方针做出了贡献。...PC版:https://www.cnbeta.com.tw/articles/soft/1400045.htm手机版:https://m.cnbeta.com.tw/view/1400045.htm

相关推荐

封面图片

美国白宫发布人工智能行政命令 指示各机构制定安全指南

美国白宫发布人工智能行政命令指示各机构制定安全指南一些政府机构的任务是制定标准,防止利用人工智能设计生物材料,建立内容认证的最佳实践,并建立先进的网络安全计划。国家标准与安全研究所(NIST)将负责制定标准,以便在公开发布之前对人工智能模型进行"红队"测试,而能源部和国土安全部则负责应对人工智能对基础设施的潜在威胁,以及化学、生物、辐射、核和网络安全风险。OpenAI的GPT和Meta的Llama2等大型人工智能模型的开发者必须分享安全测试结果。拜登政府的一位高级官员在一次简报会上告诉记者,安全准则主要适用于未来的人工智能模型。这位官员说:"我们不会召回公开的现有模型。现有模型仍需遵守已有的反歧视规则"。为了保护用户隐私,白宫呼吁国会通过数据隐私法规。该命令还寻求联邦政府支持开发"隐私保护"技术和科技。该命令的部分内容计划防止利用人工智能进行歧视,包括解决算法歧视问题,并确保在利用该技术进行判刑、假释和监控时的公平性。它还命令政府机构为房东、联邦福利计划和合同提供指导方针,说明如何防止人工智能加剧歧视。白宫还指示各机构解决失业问题,并就人工智能对劳动力市场的影响编写一份报告。白宫还希望鼓励更多工人在人工智能生态系统中工作,并下令启动国家人工智能研究资源,为学生和人工智能研究人员提供关键信息,并为小企业提供技术援助。它还指示政府迅速聘用人工智能专业人员。拜登政府首先发布了《人工智能权利法案》,概述了人工智能模型开发者应遵循的一系列原则。后来,这些原则被转化为白宫与Meta、Google、OpenAI、NVIDIA和Adobe等多家人工智能公司之间的一系列协议。需要注意的是,行政命令并不是永久性法律,一般只能在拜登执政期间有效。立法者仍在讨论如何监管人工智能,不过一些政治家表示,他们希望在今年年底前通过有关人工智能的法律。行业观察家说,行政命令至少在提供有关生成式人工智能的标准方面向前迈出了一步。CredoAI创始人、国家人工智能咨询委员会成员纳夫里娜-辛格(NavrinaSingh)说,行政命令是一个强烈的信号,表明美国对生成式人工智能是重视的。辛格说:"这是目前最正确的举措,因为在立法还在讨论的时候,我们不能指望政策一开始就完美无缺。我相信,这确实表明人工智能是政府的重中之重。"...PC版:https://www.cnbeta.com.tw/articles/soft/1393197.htm手机版:https://m.cnbeta.com.tw/view/1393197.htm

封面图片

美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞

美国参议院推动人工智能安全法案旨在防止AI模型出现安全漏洞该中心将领导研究法案中所说的"反人工智能",即学习如何操纵人工智能系统的技术。该中心还将制定预防反人工智能措施的指南。该法案还将要求国家标准与技术研究院(NIST)和网络安全与基础设施安全局建立一个人工智能漏洞数据库,包括"近乎得手的漏洞"。华纳和蒂利斯提出的法案重点关注对抗人工智能的技术,并将其分为数据中毒、规避攻击、基于隐私的攻击和滥用攻击。数据中毒指的是在人工智能模型刮取的数据中插入代码,破坏模型输出的方法。它是防止人工智能图像生成器在互联网上复制艺术作品的一种流行方法。规避攻击会改变人工智能模型所研究的数据,以至于模型变得混乱。人工智能安全是拜登政府人工智能行政命令的关键项目之一,该命令指示美国国家标准与技术研究院(NIST)制定"红队"指导方针,并要求人工智能开发人员提交安全报告。所谓"红队"(redteaming),是指开发人员故意让人工智能模型对不应该出现的提示做出反应。理想情况下,人工智能模型的开发者会对平台进行安全测试,并在向公众发布之前对其进行广泛的红队测试。一些公司如微软已经创建了一些工具,帮助人工智能项目更容易地添加安全防护措施。《人工智能安全法案》在提交给更大范围的参议院审议之前,必须经过一个委员会的审议。...PC版:https://www.cnbeta.com.tw/articles/soft/1429345.htm手机版:https://m.cnbeta.com.tw/view/1429345.htm

封面图片

OpenAI 称董事会可以否决 CEO 关于新人工智能产品安全性的意见

OpenAI称董事会可以否决CEO关于新人工智能产品安全性的意见OpenAI表示,即使公司领导层认为人工智能模型是安全的,其董事会也可以选择推迟发布,这是这家人工智能初创公司授权其董事加强人工智能开发保障措施的另一个迹象。周一发布的一套指导方针详细说明了这一安排,解释了该公司计划如何应对其最强大的人工智能系统可能带来的极端风险。该指导方针的发布是在OpenAI首席执行官萨姆・奥特曼(SamAltman)被董事会短暂罢免后,该公司经历了一段动荡时期,这使得董事和公司高管之间的权力平衡成为人们关注的焦点。

封面图片

苹果公司加入美国商务部人工智能安全研究所联盟

苹果公司加入美国商务部人工智能安全研究所联盟雷蒙多在一份声明中说:"美国政府在制定标准和开发工具方面可以发挥重要作用,我们需要这些标准和工具来降低人工智能的风险,利用人工智能的巨大潜力。该小组将与该部门的国家标准与技术研究所合作,开展拜登总统人工智能行政命令中列出的优先行动,包括组建红队、能力评估、风险管理、安全保障和合成内容水印的指导方针"。其他科技公司以及民间团体、学术界、州和地方政府官员也将参与其中,以制定有关人工智能监管的安全标准。由于生成式人工智能具有增强创造力、提高效率和推动技术进步的潜力,因此引起了人们的兴奋。然而,围绕着生成式人工智能的担忧包括深度伪造等道德问题、对就业的潜在影响、信息可靠性问题以及确保隐私和有效监管方面的挑战。据说,由于训练大型语言模型需要大量硬件,苹果公司每天要花费数百万美元用于人工智能研究。据一份报告称,到2024年,苹果公司在人工智能服务器上的花费将超过40亿美元。据说苹果公司正在开发自己的生成式人工智能模型"Ajax"。Ajax的设计目标是与OpenAI的GPT-3和GPT-4相媲美,它可以在2000亿个参数上运行,这表明它在语言理解和生成方面具有很高的复杂性和能力。Ajax在内部被称为"AppleGPT",旨在统一整个苹果公司的机器学习开发,表明了苹果公司将人工智能更深入地融入其生态系统的更广泛战略。该模型的某些方面可能会被整合到iOS18中,例如具有类似ChatGPT的生成式人工智能功能的增强版Siri。TheInformation和分析师杰夫-普(JeffPu)都声称,苹果将于今年晚些时候在iPhone和iPad上推出某种生成式人工智能功能。...PC版:https://www.cnbeta.com.tw/articles/soft/1417041.htm手机版:https://m.cnbeta.com.tw/view/1417041.htm

封面图片

美英等国发布人工智能系统开发联合指南,要求使AI“通过设计变得安全”

美英等国发布人工智能系统开发联合指南,要求使AI“通过设计变得安全”路透华盛顿11月27日-美国、英国和其他十几个国家周日公布了美国高级官员所说的第一份关于如何保护人工智能免受流氓行为者侵害的详细国际协议,敦促企业创建“设计安全”的人工智能系统。在周日公布的一份长达20页的文件中,18个国家一致认为,设计和使用人工智能的公司需要以确保客户和广大公众免受滥用的方式开发和部署人工智能。该协议不具有约束力,主要包含一般性建议,例如监控人工智能系统是否被滥用、保护数据免遭篡改以及审查软件供应商。除美国和英国外,签署新指南的18个国家还包括德国、意大利、捷克共和国、爱沙尼亚、波兰、澳大利亚、智利、以色列、尼日利亚和新加坡。——

封面图片

日本政府将制定AI指导方针:仅供“参考” 不具法律约束力

日本政府将制定AI指导方针:仅供“参考”不具法律约束力相比之下,欧盟计划为这项技术制定详细规则,严格界定从开发者到用户的法律责任。在美国,包括谷歌、OpenAI在内的七家顶级人工智能公司做出承诺,将负责任地开发人工智能技术,且白宫正在积极制定一项“管理人工智能使用”的行政命令。而日本政府仅仅打算提供指导方针,供企业在开发和使用人工智能时参考。为了鼓励采用这些指导方针,日本政府将建立一种认证,证明这些企业正在遵循规范行事。政策制定者还设想要求企业在竞标政府合同时遵守这些指导方针。总之,在对待人工智能的态度上,日本与欧美之间存在着较为明显的差别。据分析称,日本积极拥抱人工智能与少子老龄化问题有着紧密的关系,日本政府期待通过人工智能技术解决日本面对的劳动力不足、医疗保健挑战等问题。此前,日本政府重申,不会对人工智能训练中使用的数据实施版权保护,可见日本的立场很明确。该政策允许人工智能使用任何数据,“无论是出于非营利或商业目的,是否是复制以外的行为,也无论是从非法网站或其他方式获得的内容。”接下来,日本经济产业省等部门将与约100名专家合作,制定具体的指导方针,供各部门和企业参考。据悉,指导方针草案分为两部分,第一部分包括所有企业通用的人工智能规则。这个章节包括指导操作人员意识到生成式人工智能程序的错误信息或偏见风险的基本原则。企业将开发遵守法律并考虑人权的服务,并敦促管理人员建立内部风险管理结构。草案的第二部分概述了针对五类企业的具体规则。五类企业分别是:为生成式人工智能开发基础模型的企业、使用数据训练人工智能的企业、系统开发商、服务提供商和使用人工智能服务的企业。负责人工智能开发和机器学习的运营商应保持一定程度的透明度,披露其人工智能项目所涉及的功能、目的和风险。另外,企业还应该披露用于训练生成式人工智能程序的数据类型。生成式人工智能模型的训练需要大量的数据和计算资源,训练这些模型的初始数据要避免包括有危害或有偏见的内容是至关重要的。了解初始数据的性质也将有助于人工智能服务提供商更好地决定是否采用某个程序。这些披露还将有助于调查与人工智能程序有关的任何问题。日本政府将探索使用外部审计,以确保企业保持透明度。...PC版:https://www.cnbeta.com.tw/articles/soft/1376459.htm手机版:https://m.cnbeta.com.tw/view/1376459.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人