OpenAI成立新的安全顾问委员会 成员全是自己人

OpenAI成立新的安全顾问委员会 成员全是自己人 根据OpenAI公司博客上的一篇文章,安全顾问委员会将在接下来90天内负责评估OpenAI得安全流程和保障措施。然后,该委员会将向OpenAI董事会汇报其发现和建议,OpenAI表示,届时将以符合安全和安保的方式公布任何已采纳的建议的更新。OpenAI周二表示,已开始训练新一代旗舰人工智能模型,以期超越目前的GPT-4大模型。“OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将使我们在通往通用人工智能的道路上迈上一个新台阶,”OpenAI写道。“虽然我们很自豪地构建和发布在能力和安全方面都领先的模型,但我们欢迎在这个重要时刻进行深入讨论。”除了Altman,安全顾问委员会的其他成员包括OpenAI董事会成员Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科学家Jakub Pachocki、OpenAI早期筹备团队的Aleksander Madry、安全系统负责人Lilian Weng、安保负责人Matt Knight和“人工智能对齐”(AI Alignment)负责人John Schulman。安全不再优先 多名高层离职过去几个月,OpenAI的技术团队中有多名安全方面的高层人员离职,这些前员工中有些人对OpenAI在AI安全方面的优先级下降表示担忧。曾在OpenAI担任团队治理工作的Daniel Kokotajlo在4月辞职,因为他对OpenAI在发布越来越强大的AI时“负责任的行为”失去了信心,他在个人博客上写道。此外,OpenAI的联合创始人兼前首席科学家Ilya Sutskever在与Altman及其盟友的长期斗争后,于5月离职,据报道部分原因是Altman急于推出AI驱动的产品而牺牲了安全性能。最近,前DeepMind研究员Jan Leike此前在OpenAI负责开发ChatGPT及其前身InstructGPT的过程中,也辞去了安全研究员职务,他在一系列X平台的帖子中表示,他认为OpenAI“未走在解决AI安全和安保问题的正确轨道上”。同时,AI政策研究员Gretchen Krueger上周离开OpenAI,她也同意Leike的观点,呼吁公司提高问责制和透明度,并“更加谨慎地使用自己的技术”。媒体报道,除了Sutskever、Kokotajlo、Leike和Krueger,自去年年底以来,至少有五名OpenAI最重视安全的员工要么辞职,要么被迫离开,包括前OpenAI董事会成员Helen Toner和Tasha McCauley。两人日前在媒体撰文称,在Altman的领导下,他们相信OpenAI无法实现对自身追究责任。“根据我们的经验,OpenAI的自我治理无法承受利润激励带来的诱惑。”倡导监管?塑造监管此前有媒体报道,负责开发“超级智能”AI系统治理方法的OpenAI超级对齐(Superalignment team)团队被承诺获得公司20%的计算资源,但实际上却很少这部分资源。超级对齐团队自那以后被解散,其工作大部分被转交给“人工智能对齐”(AI Alignment)负责人John Schulman和OpenAI在12月成立的安全咨询小组。虽然OpenAI一直在倡导AI监管,但也在努力影响塑造这些监管,该公司聘请了一名内部游说者和越来越多的外部律师事务所游说者,仅在美国游说方面该公司2023年第四季度就花费了数十万美元。最近,美国国土安全部宣布Altman将成为其新成立的人工智能安全和安保委员会(Artificial Intelligence Safety and Security Board)的成员,该委员会将为“安全和可靠的AI开发和部署”提供建议,以覆盖美国的关键基础设施。而为了避免由于安全和安保委员会全部为内部高管而被认为是橡皮图章,OpenAI承诺聘请第三方“安全、安保和技术”专家来支持委员会的工作,包括网络安全专家Rob Joyce和前美国司法部官员John Carlin。然而,除了Joyce和Carlin,OpenAI尚未详细说明该外部专家组的规模和组成,也没有透露该组对委员会的影响力和权力的限制。有专家指出,OpenAI成立此类的企业监督委员会,类似于Google的高级技术外部咨询委员会,其实在实际监督方面几乎没有什么作为。 ... PC版: 手机版:

相关推荐

封面图片

美成立AI安全顾问委员会 黄仁勋入列

美成立AI安全顾问委员会 黄仁勋入列 美国国土安全部周五宣布就研发人工智能的“安全与保障”成立顾问委员会,成员包括OpenAI、微软、Alphabet等企业高层,以及辉达执行长黄仁勋和超微执行长苏姿丰。

封面图片

在解散安全团队后,OpenAI 成立了山姆·奥尔特曼参与的监督委员会

在解散安全团队后,OpenAI 成立了山姆·奥尔特曼参与的监督委员会 美国人工智能公司 OpenAI 成立了一个董事会委员会来评估其人工智能模型的安全性和保障措施,这是在其负责该领域的高管辞职以及公司解散其内部安全团队数周后做出的治理变革。新委员会将用90天时间评估 OpenAI 技术中的安全措施,然后提交报告。该公司28日在一篇博客文章中表示:“在全体董事会审查后,OpenAI 将以符合安全和保障的方式公开分享已采纳建议的更新情况。”OpenAI 还表示,最近已开始训练其最新的人工智能模型。

封面图片

OpenAI成立安全委员会 将开始训练新模型

OpenAI成立安全委员会 将开始训练新模型 OpenAI首席执行官山姆·奥特曼OpenAI在公司博客上表示,董事布雷特·泰勒(Bret Taylor)、亚当·德安吉洛(Adam D'Angelo)和妮可·塞利格曼(Nicole Seligman)也将加入该委员会。值得一提的是,OpenAI致力于防止人工智能失控的“超级对齐”团队刚经历了解散。5月14日,OpenAI联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)宣布离职,几小时后,超级对齐团队负责人杨·莱克(Jan Leike)也宣布离职。(作者/周文浩)更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。 ... PC版: 手机版:

封面图片

美国国土安全部任命人工智能安全顾问委员会

美国国土安全部任命人工智能安全顾问委员会 美国国土安全部 (DHS) 周五宣布成立一个顾问委员会,他们将就人工智能在16种关键基础设施中的作用向政府提供建议,包括能源、公用事业、交通、国防、信息技术、食品和农业以及金融服务等重要服务。该委员会将为交通运输部门、管道和电网运营商、互联网服务提供商和其他部门制定建议,以“预防和准备应对与人工智能相关的对影响国家或经济安全、公共健康或安全的关键服务的中断”。 该委员会由22名成员组成,其中的科技领袖包括 OpenAI 首席执行官 Sam Altman、Anthropic 首席执行官 Dario Amodei、英伟达首席执行官黄仁勋、IBM 首席执行官 Arvind Krishna、Adobe 首席执行官 Shantanu Narayen、微软首席执行官 Satya Nadella、Alphabet 首席执行官 Sundar Pichai 、思科首席执行官 Chuck Robbins、AWS 首席执行官 Adam Selipsky 、 ​​AMD 首席执行官苏姿丰以及斯坦福大学教授李飞飞。 但意外的是活跃在人工智能领域的 Meta 公司首席执行官马克·扎克伯格和一向公开倡导人工智能安全性的埃隆·马斯克都没有出现在委员会成员名单中。

封面图片

美国设立AI安全委员会 包括黄仁勋、奥特曼、纳德拉等主要成员

美国设立AI安全委员会 包括黄仁勋、奥特曼、纳德拉等主要成员 这些行业领军人物的参与,无疑为委员会注入了强大的专业力量,将共同为AI技术在关键基础设施中的安全使用出谋划策。AI安全委员会不仅将携手美国的其它部门,还将为电网运营商、运输服务提供商以及制造工厂等行业提供宝贵的指导建议。这些建议旨在确保在广泛应用AI技术的同时,能够有效保护其系统免受潜在的安全威胁和破坏,从而保障国家经济、公共卫生和重要行业的安全稳定。美国官员强调,AI安全保障委员会是美国政府推动保护经济、公共卫生和重要行业免受AI威胁危害的重要一环。该委员会的成立,标志着美国政府在人工智能安全领域的积极态度和坚定决心。值得一提的是,AI安全委员会的成员构成十分多元化,除了科技界的高管外,还包括政府官员、知名学者、民权领袖以及关键基础设施行业的重要管理者。这种多元化的组成结构将确保委员会在决策时能够充分考虑到各方利益和需求,从而制定出更加全面、科学的AI安全使用策略。 ... PC版: 手机版:

封面图片

Twitch 解雇了其安全咨询委员会的所有成员

Twitch 解雇了其安全咨询委员会的所有成员 亚马逊旗下直播平台 Twitch 周五终止了其安全咨询委员会所有成员的合同,该委员会由行业专家、主播和版主组成,负责就信任和安全问题提供咨询。根据公司网页,该委员会就“起草新政策和政策更新”、“开发产品和功能以提高安全性和适度性”以及“保护边缘群体的利益”向 Twitch 提供建议。5月6日,委员会成员收到一封电子邮件,称所有现有合同将于2024年5月31日结束,并且他们不会收到2024年下半年的付款,随后委员会成员被召集开会。电子邮件中写道:“展望未来,安全咨询委员会将主要由担任 Twitch 大使的个人组成。”

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人