OpenAI新老董事激辩:奥特曼是不是爱撒谎 是不是忽视安全?
OpenAI新老董事激辩:奥特曼是不是爱撒谎是不是忽视安全?此前几天,《经济学人》刊登了OpenAI前董事会成员海伦·托纳(HelenToner)和塔莎·麦考利(TashaMcCauley)撰写的文章《OpenAI前董事:AI公司不应自我监管》(AIfirmsmustn’tgovernthemselves,sayex-membersofOpenAI’sboard),她们在文章中批评了首席执行官萨姆·奥特曼(SamAltman)及OpenAI的安全实践,并呼吁对人工智能行业实施更严格的监管。泰勒和萨默斯对前董事的指控进行了反驳,他们在《经济学人》上发表的回应中为奥特曼辩护,并阐述了OpenAI在安全方面的立场。他们提到,OpenAI已经成立了新的安全委员会,并向白宫提交了一系列自愿承诺,以加强安全性和保障。他们进一步透露,作为新成立董事会的一部分,他们之前曾主持一个特别委员会,并委托WilmerHale律师事务所对导致奥特曼被解职的事件进行外部调查。这一过程包括审查30,000份文件,并对OpenAI之前的董事会成员、高管以及其他相关证人进行了数十次访谈。泰勒和萨默斯重申,WilmerHale的调查结论指出,奥特曼的解职“并非因产品安全或安全性问题,也不是因为发展速度问题”。同时,他们也对托纳和麦考利的文章中描述奥特曼创造了“一种有毒的欺骗文化”和从事“心理虐待行为”的说法表示异议。这两位现任董事会成员表示,在过去六个月,他们发现奥特曼在所有相关问题上“非常坦率,并与管理团队保持了一贯的友好合作关系”。在其专栏文章发布当天接受的采访中,托纳解释了前董事会之前决定解雇奥特曼的原因,称他“多次”对董事会撒谎并隐瞒信息。她还透露,原OpenAI董事会是从推特上得知ChatGPT发布的消息。对此,泰勒和萨默斯在回应中澄清道:“虽然现在可能难以记起,但OpenAI在2022年11月发布了ChatGPT,当时是作为一个研究项目,以了解我们的模型在对话环境中的应用潜力。它是基于GPT-3.5模型构建的,而该模型在发布时已经上线超过八个月。”两位现任董事会成员还补充说,OpenAI坚决支持“有效监管人工通用智能”。值得注意的是,奥特曼在被暂时解职后几天内就恢复了职务,他曾“强烈呼吁”立法者对AI进行监管。自2015年以来,奥特曼一直在积极倡导对人工智能实施某种形式的监管。最近,他表示支持成立一个国际监管机构,但他也表示对“监管过度”感到“非常担忧”。在今年2月的世界政府峰会上,奥特曼提出了一个“监管沙盒”的概念,提议人们可以在其中安全地试验技术,并根据“真正出错的地方”和“真正成功的地方”制定规章制度。最近几周,OpenAI经历了一系列离职,包括机器学习研究员简·雷克(JanLeike)、首席科学家伊利亚·苏茨凯弗(IlyaSutskever)以及政策研究员格雷琴·克鲁格(GretchenKrueger)。雷克和克鲁格在离职后都表达了对人工智能安全性的担忧。值得一提的是,雷克和苏茨凯弗(也是OpenAI的联合创始人之一)曾共同领导公司的超级对齐团队。该团队的任务是研究人工智能的长期风险,包括它可能“失控”的风险。OpenAI在解散超级对齐安全团队后不久,宣布成立了新的安全委员会。...PC版:https://www.cnbeta.com.tw/articles/soft/1433058.htm手机版:https://m.cnbeta.com.tw/view/1433058.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人