奥尔特曼公开回应AI语音争议 但回避关于OpenAI治理的问题
奥尔特曼公开回应AI语音争议但回避关于OpenAI治理的问题OpenAICEO萨姆·奥尔特曼(SamAltman)在日内瓦当地时间周四的国际电信联盟(ITU)AIforGood全球峰会上,回应了相关敏感话题。“那不是约翰逊的声音,不应该是这样的。对于声音的相似程度,人们会有不同的看法,但我们不认为那是她的声音。”奥尔特曼在与大西洋月刊CEO尼古拉斯·汤普森的现场对话中表示。根据斯嘉丽·约翰逊此前的说法,奥尔特曼在去年9月找到她,希望她为ChatGPT配音,她拒绝了,但近期她发现OpenAISky系统声音跟她很像。受质疑后,OpenAI同意删除相关语音。奥尔特曼对于公司治理的相关话题则有所回避。本月,OpenAI与安全相关的“超级智能对齐”团队两名负责人相继出走,其中一名负责人詹·莱克(JanLeike)在社交媒体上表示,他与OpenAI高层在核心优先事项上存在分歧,到了不可弥合的临界点,在过去的几年间,公司安全文化和流程已被“闪亮的产品”取代。尼古拉斯·汤普森现场询问了关于OpenAI治理情况和成立新安全委员会的想法,奥尔特曼回应称“我们继续讨论如何实施治理,我现在可能不应该说太多”。但奥尔特曼也表示,成立新的安全委员会是为了帮助OpenAI为下一个模型做好准备。近日还有OpenAI前董事会成员质疑奥尔特曼不够诚实。在一档播客节目中,去年投票支持解雇奥尔特曼的OpenAI前董事会成员海伦·托纳(HelenToner)表示,奥尔特曼多年来一直在隐瞒信息,ChatGPT于2022年11月推出时董事会未得到提前通知,而是在社交媒体上知晓此事。她还表示,奥尔特曼多次提供了关于公司少数安全流程的不准确信息,董事会基本不可能知道这些安全流程效果如何。关于上述说法,奥尔特曼现场表示,他不同意海伦·托纳对事件的回忆,并表示海伦·托纳关心AGI(通用人工智能)的结果,他很欣赏她,祝她一切顺利,而自己不想在此逐句反驳。OpenAI近日宣布公司开始训练下一个前沿模型,并预计该模型有望将人工智能技术能力提升到一个新层级。奥尔特曼现场还分享了关于AI运行机制的想法,他认为AI系统运行与人类大脑有相似性。“我们没有解决可解释性(解释AI系统如何作出决策)的问题。”奥尔特曼表示,但即使没有完全的认知,这些AI系统通常也被认为是安全和强健的,“我们不知道你的大脑在一个个神经元之间发生了什么,但我们知道你可以遵守一些规则,而且可以解释为什么会想一些事情。”...PC版:https://www.cnbeta.com.tw/articles/soft/1433080.htm手机版:https://m.cnbeta.com.tw/view/1433080.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人