诺兰专访:AI不是原子弹,但将其捧上神坛最危险
诺兰专访:AI不是原子弹,但将其捧上神坛最危险这部讲述“原子弹之父”罗伯特·奥本海默生平的影片,聚焦于一个富有魅力和智慧的男人,如何率领“地球上最聪明的大脑”,攻克物理学难题的同时,发明了世界上最危险的武器的故事。诺兰及其同辈人成长中对于“核威胁”的恐惧,在当下有了新的回响。只不过,这次原子弹有了新的名字,叫AI。ChatGPT技术让人工智能再次大火,而对于新技术的恐惧和兴奋呈同样态势。数百位AI专家一同发布联名信,声明人工智能可能带来的“灭绝人类”的威胁。连线Wired近期刊载了克里斯托弗·诺兰导演的专访长文,导演在其中阐述了对于当下热议的“AI威胁”的看法,以及人工智能和70年前核威胁的比较。曾经在《星际穿越》中用爱拯救人类的诺兰却认为,AI最大的威胁,是人类有一种本能的欲望,希望将其造物捧上神坛,进而摆脱自己需要承担的一切责任。导演一针见血地指出,相对于奥本海默一辈科学家在科学与当权者之间的挣扎和反抗,当下AI从业者的“求监管”,是“虚伪”的。同时,作为执着于胶片的老派电影人,诺兰对于生成式AI在影视创作领域的发展抱有期待,但自己想做的,还是“要给演员一个真实的氛围和环境”。“人类最大的危险,是放弃责任。”诺兰在采访中说道。以下为采访对话原文,编者进行了不改变原意的修整:毁灭世界,原子弹第一问:感觉你和艾玛(诺兰的妻子,他一直以来的制片人)的工作,从某种程度上,一直在为《奥本海默》做准备。诺兰:这就是我对这部电影的感觉。我对所做的每个项目都有这种感觉。因为我试图在以前所学的基础上继续前进。每当你完成一部电影,都会有一些问题悬而未决。因此,在下一部电影中,你会把留下来的问题捡起来。在《奥本海默》中,非常有字面意义,《信条》(Tenet,诺兰的前一部电影)中就提到了奥本海默。问:所以他在你的脑海中已经存在了一段时间。诺兰:奥本海默的故事已经伴随我多年。这是一个令人难以置信的想法——有人试图通过计算,来寻找理论和现实世界之间的关系,然后有一个非常小的可能性,他们将摧毁整个世界。然而,他们还是按下了按钮。问:非常戏剧性。诺兰:我是说,这简直是最戏剧性的时刻,在整个人类历史上来看。问:很多人可能不知道,当我们在1945年投下炸弹时,这不仅是一个可怕的时刻,也正是这个时刻,让人们了解到人类现在拥有了可以消灭整个人类的能力。诺兰:我对奥本海默的感觉是,很多人知道这个名字,知道他与原子弹有关,在美国历史的关系中还发生了一些复杂的事情,此外就没了。坦率地说,对我来说,这就是我的电影的理想观众。那些什么都不知道的人将会得到最疯狂的体验。因为这是个疯狂的故事。问:你是指他的个人故事?诺兰:观众应该了解,因为他是有史以来最重要的人之一。诺兰御用演员希里安·墨菲在片中扮演奥本海默豆瓣电影问:电影里有一句台词,有人对奥本海默说,你可以让任何人做任何事。类似这样的话。他是一个出色的管理者,对一切了如指掌,在那个房间里,有些科学家在做X,而在另一个房间里,那些科学家在做Y,他是一个能把这一切记在脑子里的人。诺兰:他知道如何通过他的角色的戏剧性来激励人们,投射他自己的光辉。他给所有的科学家、官员,每个人一个聚焦的目标。问:他拥有真正的魅力。诺兰:魅力,这是个完美的词。它让一切得以成形,这部电影经常涉及到这一点,正是他的魅力,让这些学者、这些理论家能够走到一起,用他们自己的双手建立起如此巨大、如此重要的东西。这是个奇迹。问:谈到建立一个巨大的东西,我最近在温哥华的TED会议上,最有趣的会议之一是一系列关于生成式人工智能的谈话。很多发言者都提到了原子弹、核武器。最后一位发言者是一位技术专家——他谈到了人工智能不可避免的武器化。演讲结束时他说,维持世界秩序的唯一途径是拥有更好的人工智能武器。那是一种威慑。这听起来很像人们对原子弹的看法。感觉你的电影找到了最合适的发行时机。诺兰:我认为这种关系是一个有趣的问题。这是不一样的。但这是最好的比喻——这就是为什么我在《信条》中使用它——不假思索地向世界释放一项新技术的危险性。这是一个警告性的故事。我们可以从中吸取教训。话虽如此,我确实相信,就改变和危及世界的技术而言,原子弹是独一无二的。问:而且这些技术的起源是不一样的?诺兰:有根本的区别。研究原子分裂的科学家们一直试图向政府解释:(核能)是自然界的一个事实,来源于上帝、或任何创世者。这只是关于自然的知识,它不可避免地将会发生。没有人可以隐藏它,我们没有创造,也不拥有它。他们是这么看的。问:换句话说,他们觉得自己只是揭示了已经存在的东西。诺兰:而我认为你很难对人工智能提出这样的论点。当然,肯定有人会这样做。问:你一定是在炸弹的阴影下长大的。诺兰:我是在20世纪80年代的英国长大的,我们有一系列核裁军之类的运动,人们非常、非常清楚核武器的威胁。当我13岁时,我和朋友们相信,我们最终会在核灾难中死去。问:但你们没有,世界在继续前进。诺兰:有一天,我和史蒂文·斯皮尔伯格谈起这个问题,他是在60年代古巴导弹危机的威胁下长大的。一样一样的。在人类历史上,有些时候,核战争的危险对我们来说是如此的触手可及、触目惊心,以至于我们对它非常了解。当然,我们也只能担心这么久,然后继续前进,开始担心其他事情。问题是,危险实际上并没有消失。问:对。我的意思是,我觉得一个月前,我们都在担心某些国家可能真的会使用核武器。诺兰:我记得80年代的情况是,对核战争的恐惧已经退去,转而对环境破坏的恐惧。这几乎就像人类无法对单一一种威胁保持长时间的恐惧,我们与恐惧有一种复杂的关系。是的,某些国家一直在利用这种末日威胁和这种恐惧来摇旗呐喊。这让人非常不安。导演诺兰工作照环球影业将AI捧上神坛,才最危险问:和人工智能末日的威胁一样让人不安?诺兰:好吧,人工智能在武器系统方面的增长,以及它将产生的问题在很多年前就已经非常明显,很少有记者费心去写它。现在有一个聊天机器人可以为当地报纸写一篇文章,突然就成了一个危机。问:我们这些做媒体的人,多年来一直在这样做。盲目追求。我们中的一些人正在写关于人工智能的文章,因为它可以使我们失去工作。诺兰:这就是问题的一部分。对我来说,人工智能是一个非常简单的问题,这就像算法这个词。我们看到公司使用算法,现在是人工智能,作为逃避其行为责任的一种手段。问:请多解释两句。诺兰:如果我们认可人工智能是全能的观点,我们就是认可它可以减轻人们对其行为的责任——在军事上、社会经济上等等。人工智能最大的危险在于,我们将这些神一样的特性归于它,从而让我们自己摆脱了困境。我不知道这其中的神话基础是什么,但纵观历史,人类有这种倾向,即创造虚假的偶像,以我们自己的形象塑造一些东西,然后说我们有神一样的力量,因为我们做出了这些东西。问:这感觉非常,非常正确。就像我们正处于那个临界点。诺兰:正是如此。问:有了这些大型的语言模型,机器甚至下一步可能开始自学。诺兰:洛杉矶时报上有一篇关于ChatGPT和...PC版:https://www.cnbeta.com.tw/articles/soft/1366795.htm手机版:https://m.cnbeta.com.tw/view/1366795.htm