Open AI首席科学家:ChatGPT可能已经有了意识 AI将万世不朽

OpenAI首席科学家:ChatGPT可能已经有了意识AI将万世不朽更多时候,是为(通用人工智能)AGI站台,正如他的X签名:“打造众多喜欢人类的AGI们”(towardsapluralityofhumanitylovingAGIs)。在现实生活里同样如此,他不热衷社交,很少在媒体前抛头露面。唯一能让他感到兴奋的东西,就是人工智能。近期,IlyaSutskever接受了《麻省理工科技评论》记者WillDouglasHeaven专访,他在采访中谈到了OpenAI早年的创业史、实现AGI的可能性,还介绍了OpenAI未来在管控“超级智能”方面的计划,他希望让未来的超级智能,可以像父母看待孩子那样看待人类。以下为正文:伊尔亚·苏茨克维(IlyaSutskever)低头沉思。他双臂张开,手指放在桌面上,就像音乐会上即将弹奏第一个音符的钢琴家。我们静静地坐着。我是来和OpenAI的联合创始人兼首席科学家Sutskever会面的,他的公司位于旧金山传教区一条不起眼的街道上,办公楼没有任何标志,我想听听他一手打造的这项颠覆世界的技术的下一步计划。我还想知道他的下一步计划,尤其是,为什么建立他公司的下一代旗舰生成模型不再是他的工作重点。Sutskever告诉我,他的新工作重点不是制造下一代GPT或图像制造机DALL·E,而是研究如何阻止人工超级智能(他认为这是一种假想的未来技术,具有先见之明)的失控。Sutskever还告诉了我很多其他事情。他认为ChatGPT可能有意识(如果你眯着眼睛看的话)。他认为,世界需要清醒地认识到他的公司和其他公司正在努力创造的技术的真正威力。他还认为,总有一天人类会选择与机器融合。Sutskever说的很多话都很疯狂。但不像一两年前听起来那么疯狂。正如他自己告诉我的那样,ChatGPT已经改写了很多人对未来的预期,把"永远不会发生"变成了"会比你想象的更快发生"。他说:“重要的是要讨论这一切的方向。”他在预测AGI(通用人工智能,像人类一样聪明的AI)的未来时,仿佛它就像另一部iPhone一样信心满满:“总有一天,AGI会实现。也许来自OpenA。也许来自别的公司。”自去年11月发布红极一时的新产品ChatGPT以来,围绕OpenAI的讨论一直令人印象深刻,即使在这个以炒作著称的行业也是如此。没有人不会对这家市值800亿美元的初创公司感到好奇。世界各国领导人寻求(且得到)和CEOSamAltman私人会面。ChatGPT这个笨拙的产品名称在闲聊中不时出现。今年夏天,OpenAI的首席执行官SamAltman花了大半个夏天的时间,进行了长达数周的外联之旅,与政客们亲切交谈,并在世界各地座无虚席的会场发表演讲。但Sutskever并不像他那样是个公众人物,他也不经常接受采访。他说话时深思熟虑,有条不紊。他会停顿很长时间,思考自己想说什么、怎么说,把问题像解谜一样反复推敲。他似乎对谈论自己不感兴趣。他说:“我的生活很简单。我去上班,然后回家。我不做其他事情。一个人可以有很多社交,可以参加很多活动,但我不会。”但当我们谈到人工智能,谈到他所看到的划时代的风险和回报时,他的眼睛亮了起来:“AI将万世不朽、震撼整个世界。它的诞生如同开天辟地。”越来越好,越来越好在一个没有OpenAI的世界里,Sutskever仍将载入人工智能史册。作为一名以色列裔加拿大人,他出生在前苏联,但从五岁起就在耶路撒冷长大(他至今仍能说俄语、希伯来语和英语)。之后,他移居加拿大,在多伦多大学师从人工智能先驱杰弗里·辛顿(GeoffreyHinton)。(Sutskever不想对辛顿的言论发表评论,但他对超级智能灾难的关注表明他们是同道中人)。辛顿后来与杨立昆(YannLeCun)和约书亚·本吉奥(YoshuaBengio)分享了图灵奖,以表彰他们在神经网络方面的研究成果。但当Sutskever在2000年代初加入他的团队时,大多数人工智能研究人员都认为神经网络是一条死胡同。辛顿是个例外。Sutskever说:“这就是生成式人工智能的开端。真的很酷,只是还不够好。”Sutskever对大脑非常着迷:它们是如何学习的?以及如何在机器中重新创建或至少模仿这一过程?和辛顿一样,他看到了神经网络的潜力,以及辛顿用来训练神经网络的试错技术,即深度学习。Sutskever说:“它变得越来越好,越来越棒。”2012年,Sutskever、Hinton和Hinton的另一名研究生AlexKrizhevsky建立了一个名为AlexNet的神经网络,经过训练,他们识别照片中物体的能力远远超过了当时的其他软件。这是深度学习的大爆炸时刻。在经历了多年的失败之后,他们终于证明了神经网络在模式识别方面的惊人功效。你只需要足够多的数据(他们使用的,是普林斯顿大学研究员李飞飞自2006年以来一直在维护的ImageNet数据集中的一百万张图片)和强到爆炸的算力。算力的提升来自于英伟达公司生产的一种名为图形处理器(GPU)的新型芯片。GPU的设计目的是以闪电般的速度将快速移动的视频游戏视觉效果投射到屏幕上。但GPU擅长的计算——大量数字网格的乘法——却与训练神经网络所需的计算十分相似。英伟达现在已经是一家市值上万亿美元的公司。当时,它正急于为其市场狭窄的新硬件寻找应用领域。“当你发明一项新技术时,你必须接受疯狂的想法,”英伟达首席执行官黄仁勋说。“我的思想状态总是在寻找一些古怪的东西,而神经网络将改变计算机科学的想法,就是一个非常古怪的想法。”黄仁勋说,在多伦多团队开发AlexNet时,英伟达给他们寄了几块GPU让他们试用。但他们想要的是最新版本,一种名为GTX580的芯片,这种芯片在门店里很快就卖光了。根据黄仁勋的说法,Sutskever从多伦多开车到纽约买到了GPU。“人们在街角排起了长队,”黄仁勋说。“我不知道他是怎么做到的——我很确定每个人只能买一个;我们有非常严格的政策,每个玩家只能买一个GPU,但他显然把它们装满了一个后备箱。满满一后备箱的GTX580改变了世界。”这是一个伟大的故事,只是可能不是真的。Sutskever坚称他的第一批GPU是在网上买的。但在这个热闹的行业里,这样的神话是司空见惯的。Sutskever本人则更为谦虚,他说:“我想,如果我能取得哪怕一丁点真正的进展,我都会认为这是一种成功。现实世界的影响感觉太遥远了,因为那时的计算机太弱小了。”AlexNet取得成功后,谷歌来敲门了。谷歌收购了辛顿的公司DNNresearch,并聘请了Sutskever。在谷歌,Sutskever展示了深度学习的模式识别能力可以应用于数据序列,如单词和句子,以及图像。Sutskever的前同事、现任谷歌首席科学家的杰夫·迪恩(JeffDean)说:“Ilya一直对语言很感兴趣,这些年来,我们进行了很好的讨论。Ilya对事物的发展方向有很强的直觉。”但Sutskever并没有在谷歌工作太久。2014年,他受聘成为OpenAI的联合创始人。这家新公司拥有10亿美元的资金支持(来自CEOAltman、马斯克、彼得·蒂尔、微软、YCombinator和其他公司),他们有那种硅谷式的雄心,从一开始就把目光投向了开发AGI,这一前景在当时很少有人认真对待。Sutskever是公司的幕后推手,他的雄心是可以理解的。在此之前,他已经在神经网络方面取得了越来越多的成果。YCombinator投资董事总经理DaltonCaldwell说,Sutskever当时已经声名在外,他是OpenAI吸引力的关键来源。Caldwell说:“我记得山姆(SamAltman)说伊利亚是世界上最受尊敬的研究人员之一。他认为Ilya能够吸引很多顶尖的人工智能人才。他甚至提到,世界顶级人工智能专家YoshuaBengio认为,不可能找到比Ilya更合适的人选来担任OpenAI的首席科学家。”然而,OpenAI一开始却举步维艰。Sutskever说:“在我们启...PC版:https://www.cnbeta.com.tw/articles/soft/1393629.htm手机版:https://m.cnbeta.com.tw/view/1393629.htm

相关推荐

封面图片

OpenAI 首席科学家称今天的 AI 模型可能有些许意识

OpenAI首席科学家称今天的AI模型可能有些许意识IlyaSutskever在接受麻省理工科技评论采访时表示,今天的神经网络可能具有一定意识,神经网络基于生物大脑的机制设计,两者都接收数据,聚合来自该数据的信号,然后基于一些简单的过程(神经网络中的数学、大脑中的化学物质和生物电)来传播或不传播它们。这是一个巨大的简化,但原则是成立的。如果你有一个非常大的人工神经网络,它应该做很多事情。特别是,如果人脑可以做某事,那么大型人工神经网络也可以做类似的事情。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

OpenAI 首席科学家 Ilya Sutskever 将离职

OpenAI首席科学家IlyaSutskever将离职OpenAI首席科学家IlyaSutskever将离开这家人工智能巨头,该职位将由研究主管JakubPachocki接任。Sutskever是该公司创始团队的一员,在去年11月OpenAI首席执行官SamAltman短暂但戏剧性的罢免中发挥了关键作用。Sutskever写道“十年后我做出了离开OpenAI的决定”,并称,“公司的发展轨迹堪称奇迹。”(环球市场播报)

封面图片

OpenAI首席科学家大胆设想:人类未来将难免与AI融合

OpenAI首席科学家大胆设想:人类未来将难免与AI融合他指出,未来人工智能的兴起将鼓励人类与AI融合,在一个拥有更智能AI的世界中,人类的生存空间被不断压缩。虽然现在听起来很疯狂,但许多人会选择将自己部分AI化。他补充道,一开始只有最勇敢且具有冒险精神的人才会尝试,之后其他人会效仿。但他自己对这一可能性充满不确定,他也无法确定自己是否也会进行融合。如何控制AISutskever称,人工智能可能在未来十年内超过人类的智能,且AI未必是善意的,因此人类需要研究控制和限制它的方法。但Sutskever承认目前仍未出现解决方案。现在的技术主要是根据人类的反馈让AI进行强化学习,这依赖于人类监督AI的能力。但实际上,人类无法可靠有效地监督一个智能高于人类的AI系统。他还强调超级人工智能的概念,认为其将更深入地看待事物,并看到人类看不到的东西。为此,OpenAI成立了一个超级对齐团队(SuperAlignment),由Sutskever和超级对齐联合领导人JanLeike共同领导,目标在四年内解决控制超级智能AI的核心技术。不过,Sutskever的想法显然更加消极一些,一言以蔽之:打不过AI,那就加入AI。但这又和马斯克的想法十分接近。马斯克就指出他名下的Neuralink公司最终目标就是实现人类与人工智能的共生,还提出将人类大脑上传到云端的超前概念。然而,无论是OpenAI还是Neuralink都还有很长的路要走。OpenAI的ChatGPT目前还未解决幻觉问题,Neuralink则在大脑植入的活体实验中饱受攻讦。...PC版:https://www.cnbeta.com.tw/articles/soft/1393443.htm手机版:https://m.cnbeta.com.tw/view/1393443.htm

封面图片

OpenAI 的前首席科学家Ilya Sutskever正在创办一家新的人工智能公司

OpenAI的联合创始人和前首席科学家IlyaSutskever正在创办一家新的人工智能公司,专注于安全问题。Sutskever在周三的一篇文章中透露了SafeSuperintelligenceInc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。这份公告称SSI是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其AI系统,同时仍然优先考虑安全性。公告还指出,像OpenAI、谷歌和微软这样的公司中的AI团队常常面临外部压力,而SSI公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。“我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了Sutskever,SSI的联合创始人还有前Apple人工智能负责人DanielGross和之前在OpenAI工作过的DanielLevy。去年,Sutskever带头推动将OpenAI的CEOSamAltman赶下台。,并暗示将启动一个新项目。Sutskever离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI的政策研究员GretchenKrueger也在宣布离职时提到了安全问题。随着OpenAI与苹果和微软的合作不断推进,我们可能不会很快看到SSI也这样做。在接受彭博社采访时,Sutskever表示,SSI的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。标签:#OpenAI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

ChatGPT 发明人OpenAI 首席科学家Ilya Sutskever精彩访谈

ChatGPT发明人OpenAI首席科学家IlyaSutskever精彩访谈大型语言模型(LLMs)的未来,下一代的语言模型是怎样的?ChatGPT背后公司OpenAI的联合创始人和首席科学家IlyaSutskever谈人工智能的最新发展以及像GPT-3这样的大型语言模型(LLMs)的未来,全程干货!时长约1小时,知识和信息量很大!#视频()来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI首席科学家有个计划 寻找方法控制超级人工智能

OpenAI首席科学家有个计划寻找方法控制超级人工智能OpenAI的研究人员利奥波德·阿森布伦纳(LeopoldAschenbrenner)指出:“通用人工智能(AGI)正在迅速接近,我们将看到具有巨大能力但也可能非常危险的超智能模型,而我们还没有找到控制它们的方法。”他参与了今年7月成立的“超级对齐”(Superalignment)研究团队。OpenAI表示,将把其可用算力的五分之一用于“超级对齐”项目,以探索如何确保超级人工智能的安全性和可控性。OpenAI最近发布了一篇研究论文,介绍了一项实验结果。该实验旨在测试一种方法,让一个较差的人工智能模型在不降低智能的情况下指导一个更聪明的人工智能模型。尽管所涉及的技术还没有超过人类的灵活性,但该实验是为了应对未来人类必须与比自己更聪明的人工智能系统合作的时代而设计的。在实验中,OpenAI的研究人员检查了一种被称为监督的过程,它被用来调整像GPT-4这样的系统,使其更有帮助、更少伤害。GPT是ChatGPT背后的大语言模型。目前,这涉及到人类向人工智能系统反馈哪些答案是好的,哪些是坏的。随着人工智能的进步,研究人员正在探索如何将这一过程自动化以节省时间。此外,这也是因为他们认为,随着人工智能变得越来越强大,人类可能无法提供有用的反馈。在对照实验中,研究人员使用OpenAI于2019年首次发布的GPT-2文本生成器来教授GPT-4,并测试了两种解决方法。其中一种方法是逐步训练更大的模型,以减少每一步的性能损失;另一种方法是对GPT-4进行了算法调整,允许较强的模型遵循较弱模型的指导,而不会削弱其性能。第二种方法被证明更有效,尽管研究人员承认这些方法并不能保证更强的模型会完美运行,但可以将其作为进一步研究的起点。人工智能安全中心主任丹·亨德里克斯(DanHendryks)表示:“很高兴看到OpenAI主动解决控制超级人工智能的问题,我们需要多年的努力来应对这一挑战。”人工智能安全中心是旧金山一家致力于管理人工智能风险的非营利组织。阿森布伦纳与“超级对齐”团队的其他两名成员科林·伯恩斯(CollinBurns)和帕维尔·伊兹梅洛夫(PavelIzmailov)在接受采访时均表示,他们为迈出重要的第一步感到鼓舞,认为这有助于驯服潜在的超级人工智能。伊兹梅洛夫打了个比方:“就像一个六年级的学生,尽管他们比大学数学专业的学生所掌握的数学知识要少,但他们仍然能够向大学生传达他们想要达到的目标,而这正是我们所追求的效果。”“超级对齐”团队由OpenAI的首席科学家和联合创始人伊利亚·苏茨凯弗(IlyaSutskever)共同领导。苏茨凯弗也是上个月投票解雇首席执行官萨姆·奥特曼(SamAltman)的原董事会成员之一。不过后来他撤回了这一决定,并威胁说如果不让奥特曼复职,他就辞职。苏茨凯弗是这篇最新论文的合著者,但OpenAI拒绝让他讨论这个项目。上个月,奥特曼与OpenAI达成了协议,董事会的大部分成员都已经辞职,苏茨凯弗在OpenAI的未来也充满了不确定性。尽管如此,阿森布伦纳表示:“我们非常感谢苏茨凯弗,他是这个项目的推动者。”在人工智能领域,OpenAI的研究人员并不是第一个尝试使用现有技术来测试有助于驯服未来人工智能系统的团队。然而,与之前的企业和学术实验室的研究一样,我们无法确定在精心设计的实验中有效的想法在未来是否实用。研究人员将让一个较弱的人工智能模型训练一个更强的人工智能模型,他们称这种能力为“解决更广泛的‘超级对齐’问题的关键组成部分”。这种人工智能对齐实验也引发了一个关键问题:控制系统的可信度有多高?OpenAI新技术的核心在于,更强大的人工智能系统能够自己决定可以忽略较弱系统的哪些指导,这种选择可能会使其忽略可能阻止其未来以不安全方式行事的重要信息。为了使这样的系统有效,需要在提供一致性方面取得进展。伯恩斯强调:“你最终需要高度的信任。”加州大学伯克利分校研究人工智能安全的教授斯图尔特·拉塞尔(StuartRussell)表示,使用不那么强大的人工智能模型来控制更强大人工智能模型的想法已经存在了一段时间。但他也指出,到目前为止,我们还不清楚用于教授人工智能行为的方法是否可行,因为它们尚未能使当前的模型可靠地运行。尽管OpenAI正在迈出控制更先进人工智能的第一步,但该公司也渴望获得外界的帮助。OpenAI宣布将与谷歌前首席执行官埃里克·施密特(EricSchmidt)合作,向外部研究人员提供1000万美元的资助,以鼓励他们在从弱到强的监管、高级模型的可解释性以及针对旨在打破限制的提示下加强模型等领域取得进展。参与撰写这篇新论文的研究人员表示,OpenAI明年还将举行一次关于“超级对齐”的会议。作为OpenAI的联合创始人,也是“超级对齐”团队的联合负责人,他领导了该公司许多最重要的技术工作。同时,他也是越来越担心如何控制人工智能的知名专家之一,因为人工智能变得越来越强大。今年以来,如何控制未来人工智能技术的问题获得了新的关注,这在很大程度上归功于ChatGPT的影响。苏茨凯弗曾在深度神经网络先驱杰弗里·辛顿(GeoffreyHinton)的指导下攻读博士学位。后者于今年5月离开谷歌,以警告人们人工智能在某些任务中似乎正在接近人类的水平。(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1404653.htm手机版:https://m.cnbeta.com.tw/view/1404653.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人