OpenAI紧急召开员工大会 员工质问解雇“是否政变”
OpenAI紧急召开员工大会员工质问解雇“是否政变”不是“政变”,而是“安全”问题根据会议记录,至少有两名员工询问负责OpenAI最大研究突破的IlyaSutskever,此次解雇是否构成“政变”或“敌意收购”。对于一些员工来说,这个问题暗示苏茨克弗可能认为Altman在将该软件商业化方面动作太快——该软件已经成为一项价值数十亿美元的业务——而牺牲了潜在的安全问题。“你可以这样称呼它,”IlyaSutskever在谈到‘政变指控’时说道。“我可以理解你为什么选择这个词,但我不同意这一点。这是董事会履行非营利组织使命的职责,即确保OpenAI构建造福全人类的AGI。” AGI代表通用人工智能,这个术语指的是能够像人类一样进行推理的软件。(另一人表示,Sutskever可能误解了与其他方可能对OpenAI进行恶意收购有关的问题。)当被问到“这些通过后台清除的方法是否是管理世界上最重要的公司的好方法?” 他回答说:“公平地说,我同意其中100%存在不理想的因素。”Altman本人并没有参与将他踢出董事会的那场投票,此前华尔街见闻已经报道,当“罢免”消息公布后,GregBrockman在社交平台上梳理自己与SamAltman被董事会罢免的细节,并梳理了时间线。但开除Altman的六人董事会并没有解释此举的原因,只是说Altman“向董事会的沟通不够坦诚”,但在公司为开除后的内部危机管理中,安全一直是最大的主题。例如,在周五致员工的备忘录中,暂时担任CEO的MiraMurati提到了“我们的使命和共同开发安全有益的通用人工智能的能力”。她说公司有三大支柱:“最大程度地推进我们的研究计划,我们的安全和价值观调整工作——特别是科学预测能力和风险的能力,以有利于所有人的方式与世界分享我们的技术。”根本分歧已经持续很久关于AI安全的顾虑使这家创业公司的领导人产生了分歧。2020年底,一部分员工由于在公司的商业战略和技术发布速度上的分歧,从OpenAI分裂出去创立了自己的创业公司Anthropic。而为了确保OpenAI的技术开发不会受到财务激励的影响,Anthropic组建了一个独立的五人小组,可以雇佣和解雇公司的董事会。多年来,AI从业者一直担心更强大的模型可能被滥用,比如开发生物武器、生成有说服力的深度伪造或入侵关键基础设施。一些人还认为这些系统最终可能会变得自主并以人类的代价失控。随着OpenAI开发出可以自动化写作、编程和从零生成逼真图像的突破性人工智能,公司的一些员工讨论了这样的AI潜在危害——特别是如果它学会自我改进。今年夏天公司成立了一个团队,由Sutskever和‘alignment’研究员JanLeike共同领导(AIalignment研究就是通过各种技术手段,使AI系统的目标与人类利益一致,防止AI系统做出危害人类的行为),致力于寻找技术解决方案,防止其AI系统失控。在一篇博文中,OpenAI说它将专注五分之一的计算资源来解决“超级智能”的威胁,苏茨克韦尔和Leike写道这“可能导致人类失去权力甚至灭绝”。与Altman的野心与激进形成对比的是,Sutskever一直以来都非常关注安全,在7月的一次采访中,苏茨克韦尔说,他最担心强大的通用AI在未来几年的危险性,但希望未来AI技术可以帮助人类对自己进行监管,可能解雇Altman本身就是这个“alignment”的例子。他在公司内有许多追随者。前员工将他描述为一位备受尊敬和亲力亲为的领导者,他对指导这家创业公司的前沿技术至关重要。...PC版:https://www.cnbeta.com.tw/articles/soft/1397949.htm手机版:https://m.cnbeta.com.tw/view/1397949.htm