一文解析OpenAI宫斗背后真正的“无形之手”
一文解析OpenAI宫斗背后真正的“无形之手”有效利他主义是如何影响AI领域的?有效利他主义(EffectiveAltruism)于21世纪初萌芽,这套哲学理念希望用证据和推理来选择最有效的方式以造福他人,即最大或更好地行善。对有效利他主义者而言,一个很重要的目标就是改善这个世界,而且做到愈有效率愈好。这意味着:他们会透过理性分析、衡量状况,确保手中的资源能够发挥最大的作用,以最终达到改善世界的目的!这个理念被那些致力于动物权利和气候变化的人所接受,他们从哲学家、数学家和未来预测家那里汲取思想,影响着硅谷和其他地方的人工智能研究界。按照这一理念推演,在互联网科技领域,“开源”“免费”“去中心化”等均有利于最大程度地行善,而以营利为基本目标的公司组织形态则与之背道而驰。而在AI领域,有效利他主义者相信,精心打造的人工智能系统在注入正确的人类价值观后,将带来一个黄金时间,但如果做不到这一点,可能会带来世界末日般的后果。OpenAI于一年前发布了ChatGPT,它的问世其实就部分基于有效利他主义的原则。奥特曼和马斯克于2015年开始组建OpenAI,两人当时的愿景便旨在实现通用人工智能(AGI),这是一种推理能力达到或超过人类水平的系统。他们当时表示,希望以一种造福人类的方式实现这一目标,而不仅仅是为企业牟利。而在某种程度上,OpenAI过去一周的动荡,本身也是一场由此产生的理念之争:一方是相信市场规律的群体,而另一方是相信赋予道德、理性、数学和精确调整的机器,才能更为安全地指引人类未来的有效利他主义者。四位董事中有三位有效利他主义者?有效利他主义者认为,一味追求人工智能可能会毁灭人类。对于人工智能的发展,他们更倾向于安全而非速度。而不少这场运动的参与者,本身便是过往一年帮助形成人工智能热潮的引领者。据熟悉OpenAI内部争议的人士表示,上周五被OpenAI董事会解雇的奥特曼,与公司首席科学家兼董事会成员IlyaSutskever在人工智能安全问题上,就曾发生过激烈冲突。而Sutskever过往的一系列立场,其实就反映了有效利他主义者对当前AI高速发展的担忧。如同许多人在这场OpenAI“宫斗大戏”后了解到的那样,IlyaSutskever是“深度学习之父”GeoffreyHinton的学生。GeoffreyHinton今年早些时候从谷歌辞职,就是为了能更好地对人工智能安全提出警告,而作为Hinton的学生,Sutskever对AI的担心很早就存在。在今年7月,OpenAI正式宣布成立一个新的研究团队“超级对齐”(Superalignment)团队,这恰恰便是由Sutskever领导的一项工作——计划未来4年投入20%算力,用AI监督AI的方式,解决超智能“AI对齐”问题。“AI对齐”的意思是,要求AI系统的目标要和人类的价值观与利益相一致。而与Sutskever存有类似观点的,还有最初投票驱逐奥特曼的另两位董事——TashaMcCauley和HelenToner。TashaMcCauley是一位技术高管,也是有效利他主义慈善机构——有效风险投资公司(EffectiveVentures)的董事会成员,而HelenToner则是乔治城大学安全与新兴技术中心的高管,该中心得到了一个致力于有效利他主义事业的慈善机构的支持。熟悉内情的人士说,他们在董事会中占到了推翻奥特曼所需四票中的三票。OpenAI周三宣布,奥特曼将重新担任该公司首席执行官,而上述三人——IlyaSutskever、TashaMcCauley和HelenToner,则均已不在最新的董事会成员名单之上。可以说,有效利他主义阵营虽然在这场“宫斗大戏”的前半段,闪电般地驱逐了奥特曼,但最终仍在这场博弈中“一败涂地”。然而,眼下发生在OpenAI身上的一切,就真的已经是这场故事的最终大结局了吗?显然,未必!理念之争料将伴随AI发展事实上,从2014年左右开始,有效利他主义者就已经开始意识到先进人工智能系统存在导致人类灭绝的风险——这被他们视作一种与气候危机程度相当的危险。这一启示恰逢瑞典哲学家尼克·博斯特罗姆出版了《超级智能》一书,该书将“回形针”作为人工智能危险的象征。这个设想的概念很简单,但却又很可怕——如果一台机器的唯一目标就是最大化的量产回形针,那它有可能会发明些匪夷所思的技术,只为了把宇宙中能用的资源都转化成回形针,最终毁灭人类。去年秋天的一天,数千个OpenAI徽标形状的回形针,被寄到了该公司位于旧金山的办公室。似乎没有人知道他们来自哪里,但每个人都知道他们的含义……这个恶作剧据说是由OpenAI同城竞争对手Anthropic的一名员工干的,该公司本身就是由一群OpenAI出走的前员工创建,单飞的原因据说也是基于人工智能安全问题的分歧。而很有意思的是,在IlyaSutskever等人上周末最初逼走奥特曼后,第一时间爆出的消息——居然便是想要让OpenAI和Anthropic合并。在许多并非有效利他主义的信奉者眼中,他们的思想似乎很难被认同。风险投资家、OpenAI投资人VinodKhosla在《TheInformation》的一篇评论文章中就写道:“OpenAI董事会成员对‘有效利他主义’的信仰及其错误应用,可能会阻碍世界通往人工智能的巨大利益之路。”奥特曼今年春天在全球巡回演讲时,虽然警告人工智能可能造成严重危害,但他同样认为有效利他主义是一种“漏洞百出的运动”,表现出“非常奇怪的突发行为”。风险投资公司AndreessenHorowitz的联合创始人MarcAndreessen和初创企业孵化器YCombinator的首席执行官GarryTan也对这一运动提出了批评。Tan称这是一种没有实质意义的“美德信号哲学”,应予以摒弃,以解决真正的问题,创造人类的富足。普林斯顿大学一个研究该运动的团队研究员ShazedaAhmed则指出,有效利他主义者对人工智能将毁灭人类的迫切恐惧,“遮蔽了他们接受对该文化外部批评的能力。这对任何试图解决任何棘手问题的群体来说都不是好事。”不过,人们如今显然将无法忽视有效利他主义在硅谷乃至AI领域的影响力。这场运动的支持者包括Facebook的联合创始人DustinMoskovitz和Skype联合创始人JannTallinn,他们已承诺为有效利他主义研究提供数十亿美元。在去年FTX爆雷之前,FTX创始人SamBankman-Fried也曾认捐了数十亿美元。最后,还有一个举足轻重的名字显然更为不容人们忽视——特斯拉CEO马斯克。马斯克曾表示,有效利他主义运动的创始人、英国哲学教授威廉·麦克阿斯基尔(WilliamMacAskill)“与我的哲学非常吻合”。而在过去一年,马斯克已多次表达了对AI可能毁灭人类的担忧。...PC版:https://www.cnbeta.com.tw/articles/soft/1399325.htm手机版:https://m.cnbeta.com.tw/view/1399325.htm