据路透社报道:Sam Altman,是因为一封由OpenAI内部的研究人员发送给董事会的信件而被解雇。
据路透社报道:SamAltman,是因为一封由OpenAI内部的研究人员发送给董事会的信件而被解雇。这封信警告称他们发现了一种可能对人类构成威胁的重大人工智能技术。被称为Q*(发音为Q-Star)。Q*被一些OpenAI的人认为可能是通向超级智能或人工通用智能(AGI)的重大突破。研究人员认为它可能对人类构成威胁。这封信和该Q*是导致Altman被解雇的关键因素。这位匿名者说,新模型能够解决某些数学问题,尽管只有小学生水平,但进行此类测试的结果使研究人员对Q*未来的成功非常乐观。研究人员认为数学是生成式人工智能发展的前沿。目前,生成式人工智能擅长通过统计预测下一个单词来进行写作和语言翻译,对同一个问题的回答可能差异很大。但是,掌握数学能力——在这里只有一个正确答案——意味着人工智能将具有类似于人类智能的更大推理能力。例如,这可以应用于新颖的科学研究。与只能解决有限数量操作的计算器不同,AGI可以泛化、学习和理解。在给董事会的信中,研究人员提到了人工智能的能力和潜在危险,但没有具体说明信中提到的确切安全问题。除了在本月的演示中宣布了一系列新工具外,Altman上周在旧金山举行的世界领导人聚会上暗示,他相信AGI已经在望。他在亚太经合组织峰会上说:“在OpenAI的历史上,现在已经是第四次,最近一次是在过去几周内,我有幸在房间里,当我们推开无知的面纱,将发现的边界向前推进,能够做到这一点是我一生职业上的荣誉。”董事会在第二天解雇了Altman。