OpenAI成立由SamAltman领导的监督委员会,以评估其AI模型的安全性

None

相关推荐

封面图片

【OpenAI 成立由 Sam Altman 领导的监督委员会】

【OpenAI成立由SamAltman领导的监督委员会】2024年05月28日06点25分5月28日消息,OpenAI成立了一个 SamAltman领导的委员会来评估其人工智能模型的安全性和保障措施。这一治理变革发生在负责该领域的高管辞职以及公司解散其内部团队几周之后。新的委员会将花费90天来评估OpenAI技术的保障措施,然后提交一份报告。在全体董事会审查之后,OpenAI将以符合安全和保障标准的方式公开分享已采纳的建议更新。

封面图片

OpenAI 成立由 Sam Altman 领导的监督委员会

OpenAI成立由SamAltman领导的监督委员会5月28日消息,OpenAI成立了一个 SamAltman领导的委员会来评估其人工智能模型的安全性和保障措施。这一治理变革发生在负责该领域的高管辞职以及公司解散其内部团队几周之后。新的委员会将花费90天来评估OpenAI技术的保障措施,然后提交一份报告。在全体董事会审查之后,OpenAI将以符合安全和保障标准的方式公开分享已采纳的建议更新。

封面图片

OpenAI成立安全委员会 将开始训练新模型

OpenAI成立安全委员会将开始训练新模型OpenAI首席执行官山姆·奥特曼OpenAI在公司博客上表示,董事布雷特·泰勒(BretTaylor)、亚当·德安吉洛(AdamD'Angelo)和妮可·塞利格曼(NicoleSeligman)也将加入该委员会。值得一提的是,OpenAI致力于防止人工智能失控的“超级对齐”团队刚经历了解散。5月14日,OpenAI联合创始人、首席科学家伊尔亚·苏茨克维(IlyaSutskever)宣布离职,几小时后,超级对齐团队负责人杨·莱克(JanLeike)也宣布离职。(作者/周文浩)更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。...PC版:https://www.cnbeta.com.tw/articles/soft/1432644.htm手机版:https://m.cnbeta.com.tw/view/1432644.htm

封面图片

在解散安全团队后,OpenAI 成立了山姆·奥尔特曼参与的监督委员会

在解散安全团队后,OpenAI成立了山姆·奥尔特曼参与的监督委员会美国人工智能公司OpenAI成立了一个董事会委员会来评估其人工智能模型的安全性和保障措施,这是在其负责该领域的高管辞职以及公司解散其内部安全团队数周后做出的治理变革。新委员会将用90天时间评估OpenAI技术中的安全措施,然后提交报告。该公司28日在一篇博客文章中表示:“在全体董事会审查后,OpenAI将以符合安全和保障的方式公开分享已采纳建议的更新情况。”OpenAI还表示,最近已开始训练其最新的人工智能模型。——

封面图片

OpenAI董事会成立安全委员会,开始训练下一代AI模型

OpenAI董事会成立安全委员会,开始训练下一代AI模型OpenAI当地时间5月28日发布声明,宣布公司董事会成立安全与安保委员会。这个新委员会由董事会主席布雷特·泰勒、董事AdamD'Angelo、NicoleSeligman和首席执行官山姆·奥特曼领导,将负责就OpenAI项目和运营的关键安全与安保决策向董事会全体成员提出建议。根据声明,该委员会的首要任务是在未来90天内评估并进一步发展OpenAI的流程和保障措施。90天后,委员会将与全体董事会分享建议。在全体董事会审查之后,OpenAI将以符合安全和保障的方式公开分享已采纳建议的最新进展。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

OpenAI成立新的安全顾问委员会 成员全是自己人

OpenAI成立新的安全顾问委员会成员全是自己人根据OpenAI公司博客上的一篇文章,安全顾问委员会将在接下来90天内负责评估OpenAI得安全流程和保障措施。然后,该委员会将向OpenAI董事会汇报其发现和建议,OpenAI表示,届时将以符合安全和安保的方式公布任何已采纳的建议的更新。OpenAI周二表示,已开始训练新一代旗舰人工智能模型,以期超越目前的GPT-4大模型。“OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将使我们在通往通用人工智能的道路上迈上一个新台阶,”OpenAI写道。“虽然我们很自豪地构建和发布在能力和安全方面都领先的模型,但我们欢迎在这个重要时刻进行深入讨论。”除了Altman,安全顾问委员会的其他成员包括OpenAI董事会成员BretTaylor、AdamD’Angelo和NicoleSeligman,以及首席科学家JakubPachocki、OpenAI早期筹备团队的AleksanderMadry、安全系统负责人LilianWeng、安保负责人MattKnight和“人工智能对齐”(AIAlignment)负责人JohnSchulman。安全不再优先多名高层离职过去几个月,OpenAI的技术团队中有多名安全方面的高层人员离职,这些前员工中有些人对OpenAI在AI安全方面的优先级下降表示担忧。曾在OpenAI担任团队治理工作的DanielKokotajlo在4月辞职,因为他对OpenAI在发布越来越强大的AI时“负责任的行为”失去了信心,他在个人博客上写道。此外,OpenAI的联合创始人兼前首席科学家IlyaSutskever在与Altman及其盟友的长期斗争后,于5月离职,据报道部分原因是Altman急于推出AI驱动的产品而牺牲了安全性能。最近,前DeepMind研究员JanLeike此前在OpenAI负责开发ChatGPT及其前身InstructGPT的过程中,也辞去了安全研究员职务,他在一系列X平台的帖子中表示,他认为OpenAI“未走在解决AI安全和安保问题的正确轨道上”。同时,AI政策研究员GretchenKrueger上周离开OpenAI,她也同意Leike的观点,呼吁公司提高问责制和透明度,并“更加谨慎地使用自己的技术”。媒体报道,除了Sutskever、Kokotajlo、Leike和Krueger,自去年年底以来,至少有五名OpenAI最重视安全的员工要么辞职,要么被迫离开,包括前OpenAI董事会成员HelenToner和TashaMcCauley。两人日前在媒体撰文称,在Altman的领导下,他们相信OpenAI无法实现对自身追究责任。“根据我们的经验,OpenAI的自我治理无法承受利润激励带来的诱惑。”倡导监管?塑造监管此前有媒体报道,负责开发“超级智能”AI系统治理方法的OpenAI超级对齐(Superalignmentteam)团队被承诺获得公司20%的计算资源,但实际上却很少这部分资源。超级对齐团队自那以后被解散,其工作大部分被转交给“人工智能对齐”(AIAlignment)负责人JohnSchulman和OpenAI在12月成立的安全咨询小组。虽然OpenAI一直在倡导AI监管,但也在努力影响塑造这些监管,该公司聘请了一名内部游说者和越来越多的外部律师事务所游说者,仅在美国游说方面该公司2023年第四季度就花费了数十万美元。最近,美国国土安全部宣布Altman将成为其新成立的人工智能安全和安保委员会(ArtificialIntelligenceSafetyandSecurityBoard)的成员,该委员会将为“安全和可靠的AI开发和部署”提供建议,以覆盖美国的关键基础设施。而为了避免由于安全和安保委员会全部为内部高管而被认为是橡皮图章,OpenAI承诺聘请第三方“安全、安保和技术”专家来支持委员会的工作,包括网络安全专家RobJoyce和前美国司法部官员JohnCarlin。然而,除了Joyce和Carlin,OpenAI尚未详细说明该外部专家组的规模和组成,也没有透露该组对委员会的影响力和权力的限制。有专家指出,OpenAI成立此类的企业监督委员会,类似于Google的高级技术外部咨询委员会,其实在实际监督方面几乎没有什么作为。...PC版:https://www.cnbeta.com.tw/articles/soft/1432684.htm手机版:https://m.cnbeta.com.tw/view/1432684.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人