拜登政府任命新一任人工智能安全研究所所长

拜登政府任命新一任人工智能安全研究所所长 白宫国家经济委员会主任莱尔-布雷纳德(Lael Brainard)在公告中说,凯利"制定了总统的科技和金融监管议程,并努力建立广泛的利益相关者联盟"。新成立的研究所将在促进技术发展方面发挥关键作用。到 7 月,它将为主要的人工智能开发商创建"红队"测试标准,以确保系统对消费者和企业的安全。政府认为,安全测试是释放快速发展的技术所带来的益处的必要条件,它将为更广泛地采用人工智能创造一定程度的信任。联邦政府最近开始要求人工智能公司对其系统进行测试。但到目前为止,这些测试还缺乏一套通用标准,而该研究所计划在今年夏天最终确定这套标准。凯利毕业于耶鲁大学法学院,根据她的 LinkedIn 页面显示,她还曾在奥巴马白宫和金融公司 Capital One 工作过。 ... PC版: 手机版:

相关推荐

封面图片

英国安全研究所发布人工智能模型安全性测试工具

英国安全研究所发布人工智能模型安全性测试工具 在周五宣布这一消息的新闻稿中,安全研究所声称,Inspect 标志着"由国家支持的机构主导的人工智能安全测试平台首次被广泛使用"。安全研究所主席伊恩-霍加斯(Ian Hogarth)在一份声明中说:"人工智能安全测试方面的成功合作意味着要有一个共享的、可访问的评估方法,我们希望Inspect能够成为一个基石。我们希望看到全球人工智能社区利用Inspect不仅开展自己的模型安全性测试,而且帮助调整和构建开源平台,以便我们能够全面开展高质量的评估。"众所周知,人工智能基准很难制定其中最重要的原因是,当今最复杂的人工智能模型几乎都是黑盒,其基础设施、训练数据和其他关键细节都被创建这些模型的公司保密。那么,Inspect 如何应对这一挑战呢?主要是通过可扩展的新测试技术。Inspect 由三个基本部分组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器负责评估求解器的工作,并将测试得分汇总为指标。可以通过用 Python 编写的第三方软件包来增强 Inspect 的内置组件。Mozilla 研究员、著名人工智能伦理学家德博拉-拉吉(Deborah Raj)在 X 上发表了一篇文章,称 Inspect "证明了对人工智能问责开源工具的公共投资的力量"。人工智能初创公司Hugging Face的首席执行官克莱门特-德朗格(Clément Delangue)提出了将Inspect与Hugging Face的模型库整合在一起,或利用工具集的评估结果创建一个公共排行榜的想法。Inspect 发布之前,美国政府机构国家标准与技术研究院(NIST)启动了NIST GenAI,该计划旨在评估各种生成式人工智能技术,包括文本和图像生成人工智能。NIST GenAI 计划发布基准,帮助创建内容真实性检测系统,并鼓励开发能识别虚假或误导性人工智能生成信息的软件。今年 4 月,美国和英国宣布建立合作伙伴关系,共同开发先进的人工智能模型测试,这是继去年 11 月英国在布莱切利公园举行的人工智能安全峰会上宣布承诺之后的又一合作。作为合作的一部分,美国打算成立自己的人工智能安全研究所,广泛负责评估人工智能和生成式人工智能的风险。 ... PC版: 手机版:

封面图片

美国和英国将合作测试人工智能安全威胁模型

美国和英国将合作测试人工智能安全威胁模型 两国人工智能安全研究所之间的协议立即生效。美国商务部长吉娜-雷蒙多(Gina Raimondo)表示,美国政府"致力于与其他国家发展类似的伙伴关系,在全球范围内促进人工智能安全"。雷蒙多在一份声明中说:"这种合作关系将加速我们两家机构在各种风险方面的工作,无论是对我们的国家安全还是对我们更广泛的社会面。"通过该协议,两国承诺在技术研究、人员交流和信息共享方面开展合作。美国和英国的一个潜在合作伙伴是欧盟,欧盟通过了自己的人工智能系统使用全面法规。欧盟的人工智能法要求运行强大的人工智能模型的公司遵守安全标准。英国的人工智能安全研究所是在 11 月的全球人工智能峰会前夕成立的,包括美国副总统卡马拉-哈里斯在内的多位世界领导人在峰会上讨论了如何利用并在可能的情况下对该技术进行跨境监管。英国已经开始对一些模型进行安全测试,但目前还不清楚它是否能获得最近发布的版本。一些人工智能公司敦促英国人工智能安全研究所进一步明确时间表,以及在发现模型存在风险时的下一步措施。 ... PC版: 手机版:

封面图片

苹果公司加入美国商务部人工智能安全研究所联盟

苹果公司加入美国商务部人工智能安全研究所联盟 雷蒙多在一份声明中说:"美国政府在制定标准和开发工具方面可以发挥重要作用,我们需要这些标准和工具来降低人工智能的风险,利用人工智能的巨大潜力。该小组将与该部门的国家标准与技术研究所合作,开展拜登总统人工智能行政命令中列出的优先行动,包括组建红队、能力评估、风险管理、安全保障和合成内容水印的指导方针"。其他科技公司以及民间团体、学术界、州和地方政府官员也将参与其中,以制定有关人工智能监管的安全标准。由于生成式人工智能具有增强创造力、提高效率和推动技术进步的潜力,因此引起了人们的兴奋。然而,围绕着生成式人工智能的担忧包括深度伪造等道德问题、对就业的潜在影响、信息可靠性问题以及确保隐私和有效监管方面的挑战。据说,由于训练大型语言模型需要大量硬件,苹果公司每天要花费数百万美元用于人工智能研究。据一份报告称,到 2024 年,苹果公司在人工智能服务器上的花费将超过 40 亿美元。据说苹果公司正在开发自己的生成式人工智能模型"Ajax"。Ajax的设计目标是与OpenAI的GPT-3和GPT-4相媲美,它可以在2000亿个参数上运行,这表明它在语言理解和生成方面具有很高的复杂性和能力。Ajax 在内部被称为"Apple GPT",旨在统一整个苹果公司的机器学习开发,表明了苹果公司将人工智能更深入地融入其生态系统的更广泛战略。该模型的某些方面可能会被整合到 iOS 18 中,例如具有类似 ChatGPT 的生成式人工智能功能的增强版 Siri。The Information和分析师杰夫-普(Jeff Pu)都声称,苹果将于今年晚些时候在 iPhone 和 iPad 上推出某种生成式人工智能功能。 ... PC版: 手机版:

封面图片

英国机构发布测试人工智能模型安全性的工具

英国机构发布测试人工智能模型安全性的工具 英国人工智能安全机构英国安全研究所发布了一套工具集,旨在通过让行业、研究机构和学术界更容易开发人工智能评估来“加强人工智能安全”。该工具集名为 Inspect,可在开源许可证 (特别是 MIT 许可证) 下使用,旨在评估人工智能模型的某些功能,包括模型的核心知识和推理能力,并根据结果生成分数。英国安全研究所声表示,Inspect 标志着“首次由国家支持的机构牵头的人工智能安全测试平台发布以供更广泛使用”。Inspect 由三个基本组件组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器评估求解器的工作,并将测试中的分数汇总为指标。Inspect 的内置组件可以通过用 Python 编写的第三方包进行增强。   、、

封面图片

美国总统拜登的大型人工智能科学项目获得微软、NVIDIA等公司的支持

美国总统拜登的大型人工智能科学项目获得微软、NVIDIA等公司的支持 国家自然科学基金会在一份声明中说,国家人工智能研究资源(NAIRR)为美国的人工智能研究人员提供访问人工智能模型、计算能力、数据集、软件和培训的机会。 研究人员可以通过其网站申请访问NAIRR试点项目,NAIRR计划在今年春季启动第二次研究提案征集活动。 如果获得访问权,研究人员就可以使用微软Azure或亚马逊Bedrock等昂贵、处理能力强的服务,而这些服务通常需要用研究经费来支付。除国家自然科学基金外,参与 NAIRR 项目的其他政府机构包括美国国防部高级研究计划局、美国国家航空航天局(NASA)、美国国立卫生研究院、美国国家标准与技术研究院、美国国家海洋与大气管理局、美国农业部、美国国防部、美国能源部、美国退伍军人事务部以及美国专利商标局。政府正在与 15 家私营部门合作伙伴合作,包括亚马逊网络服务公司、Anthropic、AMD、EleutherAI、Google、Hugging Face、IBM、英特尔、Meta、微软、NVIDIA、OpenAI 和 Palantir。NVIDIA和微软分别介绍了各自对NAIRR的贡献。微软表示,它捐赠了2000万美元的Azure消费额度、Azure OpenAI服务中模型的访问权限,以及人工智能公平性、准确性和隐私方面的工作资源,NVIDIA承诺提供其DGX云和AI企业软件的访问权限。国家自然科学基金委员会主任塞图拉曼-潘查纳坦(Sethuraman Panchanathan)在声明中说:"为了继续在人工智能研发领域保持领先地位,我们必须在全国范围内创造机会,推进人工智能创新,加强教育机会,使国家有能力塑造国际标准,点燃经济增长的火花。"拜登的人工智能行政命令指示政府机构建立NAIRR,以确保美国继续成为世界领先的人工智能创新中心。由于Google和OpenAI等公司总部设在美国,美国在生成式人工智能的投资和研究方面继续处于领先地位,与此同时,其他地区也在加强对该技术的关注。根据《哈佛商业评论》的报道,中国、英国、日本和德国是投入人工智能开发资源最多的五个国家。在缺乏明确法规的情况下,大型科技公司一直与政府在人工智能方面保持合作。在人工智能行政命令发布之前,拜登白宫已从 Meta、Google和 OpenAI 等公司处获得了自愿性、非约束性协议,以安全开发人工智能系统。然而,政府与主要科技公司之间的这种紧密合作引发了监管“灯下黑”问题,而这种问题很可能不会随着 NAIRR 的推出而消失。NAIRR 试点项目最初将重点关注四个领域:促进对各种人工智能资源的访问;促进需要安全和隐私保护的人工智能研究;促进和发展人工智能平台之间的互操作性;教育和培训社区使用人工智能工具。国家自然科学基金会在声明中说,NAIRR 的首批项目主要集中在将人工智能应用于医疗保健和环境可持续性方面。 ... PC版: 手机版:

封面图片

美英签署人工智能安全测试里程碑协议

美英签署人工智能安全测试里程碑协议 美国和英国签署了一项具有里程碑意义的人工智能协议,这两个盟国成为首批就如何测试和评估新兴人工智能模型风险进行正式合作的国家。英国科学大臣米歇尔•唐兰和美国商务部长吉娜•雷蒙多周一在华盛顿特区签署了这份协议,列出了两国政府将如何在人工智能安全方面汇集技术知识、信息和人才。该协议是全球首个关于人工智能安全的双边协议。该协议将特别使英国于去年11月成立的新人工智能安全研究所 (AISI) 和尚未开始工作的美国同类机构能够通过借调两国研究人员来交流专业知识。两家机构还将共同研究如何独立评估 OpenAI 和谷歌等公司建立的私人人工智能模型。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人