“AI教父”杨立昆:辛顿错了,AI不是核弹

“AI教父”杨立昆:辛顿错了,AI不是核弹 北京时间5月23日凌晨,钛媒体App编辑在巴黎见到了杨立昆,针对相关问题,杨立昆对钛媒体App直接回应称,辛顿错了,AI 并不是“核弹”。“它(AI)不是炸弹,它不是用来杀人的,AI 是为了让他们(人类)更聪明。所以,我根本不明白这个类比。而且,AI 也没那么危险。我认为这些系统比实际情况要聪明得多。现在 AI 的问题是,未来的力量是否足够,你认为它是否也会破坏一些东西?我们可以触及到人类智能的系统,我们可以考虑如何让它更加安全。”杨立昆对钛媒体App表示。当钛媒体App问他当AI未来力量达到足够强大能影响人类时,还会坚持开源吗,杨立昆也非常坚定的回答是的。杨立昆强调,开源(AI 技术)很重要,是非常有意义的。5月23日上午,杨立昆在推文中再次强调,大型语言模型(LLMs)无法达到人类智能。如果你是一名对构建下一代 AI 系统感兴趣的学生,请不要攻读大模型相关专业。“我自己正在研究下一代 AI 系统,而不是LLM。 所以从技术上讲,我告诉你‘与我竞争’,或者更确切地说,‘与我做同样的事情,因为这是正确的做法,而且理论上更快乐’。”杨立昆称。公开信息显示,杨立昆出生于1960年,是一名法国计算机科学家,2018年图灵奖得主。他曾在巴黎电子工程师高等学校获得了工程师学位,1987年在巴黎第六大学获得计算机科学博士学位。博士就读期间,他提出了神经网络的反向传播算法学习算法的原型。随后到多伦多大学在杰弗里·辛顿的指导下完成了博士后工作。杨立昆在机器学习、计算机视觉、移动机器人和计算神经科学等领域都有很多贡献。他最著名的工作是在光学字符识别和计算机视觉上使用卷积神经网络,他也被称为卷积网络之父。他共同创建了DjVu图像压缩技术,以及联合开发Lush语言。2019年,他同约书亚·本希奥、杰弗里·辛顿共同获得计算机学界最高奖项图灵奖。随着生成式 AI 的迅猛发展,杨立昆所在的Meta公司已经投入数十亿美元来开发Llama等多模态模型,旨在迎头赶上微软、OpenAI、Google等其他竞争对手。目前,杨立昆在Meta的基础人工智能研究(Fair)实验室管理着一个约500人的团队。致力于创造下一代 AI 技术,这种 AI 可以发展常识,并以与人类类似的方式学习世界是如何运作的,这种方法被称为“世界建模”(World Models)。一直以来,杨立昆与另一位“深度学习”教父 辛顿对于 AI 未来的看法恰恰相反。辛顿近日对外表示,尽管ChatGPT将使 AI 研究变得更加高效,影响 AI 研究过程,但长期来看,AI 发展太快了,容易超越人类,人类需要把控好 AI 技术带来的风险。而且他认为,模型实际上必须执行一定程度的推理,而不是像很多人所说的大模型并不具备推理能力。随着模型规模的增加,这种推理能力也将变得越来越强。这是一个值得全力以赴的方向。杨立昆却始终否定辛顿的这种看法。杨立昆认为,大模型不是 AI 技术真正的发展方向。ChatGPT等生成式 AI 产品永远无法实现像人类一样的推理和计划能力,而是认为在机器中创造“超级智能”,才是真正的通用人工智能(AGI)。但他也坦言,这一技术愿景可能需要十年的时间才能实现。杨立昆指出,他反对依靠提升大模型来制造人类水平的智能,因为这些模型只有在获得正确的训练数据后才能准确回答提示,因此“本质上是不安全的”。“不要学习大模型,这些技术掌握在大公司的手中,你没有什么可以做的。你应该研究下一代 AI 系统,以突破大模型的局限性。”杨立昆在对话中表示。杨立昆表示,大模型的这种进化是肤浅和有限的,只有当人类工程师介入并根据这些信息进行训练时,模型才会学习,而不是像人类那样自然地得出结论。杨立昆曾于2022年首次发表一篇关于他的“世界建模”愿景论文,此后,Meta基于该方法发布了两个研究模型。他称,实验室正在测试不同的想法,以实现人类级别的智能,因为“这其中有很多不确定性和探索,(所以)我们无法判断哪一个会成功或最终被采纳”。“我们正处于下一代 AI 系统的风口浪尖。”杨立昆指出。杨立昆认为,从长远来看,“世界建模”技术将为用户通过可穿戴技术、肌电“手环”等与之互动的AI Agent(代理)应用场景提供动力。“要想让 AI 真正有用,就需要具备类似人类水平的智能。”杨立昆表示。 ... PC版: 手机版:

相关推荐

封面图片

“AI教父”辛顿:AI将操控人类

“AI教父”辛顿:AI将操控人类 人工智能(AI)正在以惊人的速度持续进步。当AI在所有领域都超越人类智慧的时代到来之时,世界将会发生怎样的变化呢?被誉为“AI教父”的多伦多大学名誉教授杰弗里·辛顿(Geoffrey Hinton)在加拿大的家中接受了日本经济新闻(中文版:日经中文网)的采访,讲述了AI和人类的未来。 记者:您的学生、美国OpenAI公司联合创始人伊尔亚·苏茨克维(Ilya Sutskever)在2023年11月曾试图解雇该公司首席执行官(CEO) 山姆·奥特曼(Sam Altman),但以失败告终。据报道,其动机仍然是认为AI对人类构成威胁这一危机感。 辛顿:伊尔亚非常担心AI的危险性。OpenAI是重视AI安全性的非盈利组织,但采用了管理盈利企业的结构。从这次的事件看出,甚至是这样的组织,比安全性,会更优先AI创造的利益。以前我们都认为数字的智能不会像人类那么优秀,理解语言和复杂的东西或将是很久之后的事情。伊尔亚率先改变了看法,但我并没有马上同意。现在我觉得他是对的。 频道:@kejiqu 群组:@kejiquchat

封面图片

Meta首席科学家杨立昆:没有偏见的AI“绝对不可能”

Meta首席科学家杨立昆:没有偏见的AI“绝对不可能” 杨立昆认为,不可能创建一个没有偏见的人工智能系统,因为偏见是主观的,并且因人而异。 他建议解决方案是拥有多样化的人工智能系统。杨立昆说:“是否有可能产生一个没有偏见的人工智能系统? 答案是,绝对不可能。 这并不是因为技术挑战,尽管它们确实是技术挑战,但这是因为偏见是因人而异的。”他接着说,“不同的人可能对很多事情的偏见有不同的看法,有些事实是不争的,但有很多观点或事情可以用不同的方式表达。所以你不可能有一个公正的系统,这是不可能的。”杨立昆强调了开源AI系统的重要性,指出未来人类与数字世界的互动将由AI来调解。他警告说,不能让美国西海岸的几家公司在未来控制所有AI系统,并强调AI开发需要多样性。 ... PC版: 手机版:

封面图片

Meta首席科学家杨立昆:目前人工智能还不如狗聪明

Meta首席科学家杨立昆:目前人工智能还不如狗聪明 Meta首席人工智能(AI)科学家杨立昆(Yann LeCunn)在巴黎举行的Viva Tech会议上表示:“那些AI系统仍然非常有限,它们对现实世界的基本现状没有任何理解,只是纯粹基于大量的文本进行训练。但大部分人类知识与语言无关,所以这部分人类经验不会被人工智能捕捉到。我们(目前的技术发展)正在错过一些非常重要的东西。AI不仅应该达到人类水平的智能,甚至还要先达到狗的智能水平才行。” 他认为,当前的人工智能系统对现实世界的理解非常有限,缺乏对非语言知识的捕捉能力。杨立昆还提到了Meta正在努力通过视频内容训练人工智能,他认为这比语言训练更为艰难。 关于未来的展望,杨立昆认为将会出现比人类更聪明的机器,并将其视为非常有益的事情。他预测每个人都将拥有一个像随从一样的AI助手,这个AI助手将比人类更聪明,并在日常生活中为人们提供帮助。他表示这些AI助手需要被设计为可控且基本上服从于人类,同时驳斥了机器人接管世界的观点。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Meta人工智能主管杨立昆:大型语言模型不会达到人类智能水平

Meta人工智能主管杨立昆:大型语言模型不会达到人类智能水平 Meta 的人工智能主管表示,为 ChatGPT 等生成式人工智能产品提供动力的大型语言模型永远无法实现像人类一样的推理和计划能力,他专注于一种激进的替代方法,即在机器中创造“超级智能”。该公司首席人工智能科学家杨立昆表示,LLM“对逻辑的理解非常有限……不理解物理世界,没有持久的记忆,不能按照任何合理的定义进行推理,也不能进行层次化的规划”。杨立昆说,LLMs的这种进化是肤浅和有限的,只有当人类工程师介入并根据这些信息进行训练时,模型才会学习,而不是像人类那样自然地得出结论。“在大多数人看来,这当然是推理,但主要是利用从大量训练数据中积累的知识。(LLM)尽管有局限性,但非常有用。” ( )

封面图片

“AI教父”辛顿最新预言:AI将操控人类

“AI教父”辛顿最新预言:AI将操控人类 辛顿相信,机器人武器可能会像核武器一样被限制,但要实现这一点,可能需要等到人们意识到其在战场上使用会带来多么悲惨的后果。此外,辛顿还提到了防止AI失控的观点,尽管许多人认为只需关闭电源开关即可,但他指出,超越人类智慧的AI可能会用语言操纵我们,试图说服我们不要关闭它。辛顿曾在英国剑桥大学攻读实验心理学,并于1978年在英国爱丁堡大学获得AI博士学位。在过去的半个世纪里,他一直引领着全球AI研究,他的许多学生参与了最尖端的生成式AI的开发。他还在2013年至2023年间在美国谷歌工作。 ... PC版: 手机版:

封面图片

欧盟AI法案即将生效 杨立昆等AI科学家表示反对

欧盟AI法案即将生效 杨立昆等AI科学家表示反对 AGI何时实现, 业内分歧较大杨立昆表示,欧盟人工智能法案和其他各个地方都有规范研究和开发的条款,但他认为这不是一个好主意,理由是他并不认为人工智能会很快超越人类智能。“坦率地说,我不相信AI有任何与人接近的地方。”杨立昆表示,“我认为它目前没有那么危险。”不过他承认,未来人工智能系统可能会变得更加智能,届时需要对它们的设计采取适当的保障措施。百度CEO李彦宏也在VivaTech期间表示,AGI的实现还需要超过十年的时间。他表示:“我们希望人工智能像人类一样聪明,但当今最强大的模型远未达到这一程度。”李彦宏呼吁加快人工智能的发展步伐。“我担心的是人工智能技术进步得不够快。每个人都对过去几年技术发展的速度感到震惊。但对我来说还是不够快。”他表示。以特斯拉CEO马斯克为代表的科技人士强调人工智能的风险,马斯克在X Space的访谈中预测,到明年或2026年,人工智能的智慧可能会超过世界上最聪明的人类,也就是通用人工智能(AGI)的实现。ChatGPT的开发商OpenAI的CEO奥尔特曼(Sam Altman)在今年早些时候预测,AGI可能会在“相当近的未来”开发出来。对于人工智能安全性风险的分歧在OpenAI的“内斗”中已经暴露出来。OpenAI在宣布向公众免费提供迄今为止最强大的人工智能模型GPT-4o后,该公司前首席科学家苏茨克维尔(Ilya Sutskever)宣布辞职,“超级对齐”团队解散。这也引发了谁来为AI负责的讨论。现任清华大学国强教授、智能产业研究院首席研究员聂再清对第一财经记者表示:“Ilya对大模型技术的理解非常深刻,他的离职和对齐团队的解散短期内对OpenAI大模型技术的发展和安全可控可能会有一些影响。OpenAI应该还会继续大力投入到安全和对齐相关的工作上,确保大模型长期安全可控,在各种边界情况下都表现良好。”他认为,作为大的科技企业,可以通过团队的协同,在“对齐”这个方向上做更好的长期规划和资源共享及调配。创新与监管如何平衡欧盟一直走在人工智能监管的最前沿。上周,欧盟委员会批准了《人工智能法案》,这项法案是全球首创,将为人工智能监管制定全球标准。该立法遵循“基于风险”的方法,旨在促进私人和公共参与者在欧盟市场上开发和采用安全、值得信赖的人工智能系统。法案规定,提供公共服务的实体部署高风险人工智能系统之前,需要评估其基本权利影响。这也意味着AI对社会造成伤害的风险越高,监管的规则就越严格。该法案也涉及通用人工智能大模型(GPAI)的使用。根据法案,不构成系统性风险的GPAI模型将受到一些有限的要求,例如透明度方面的要求,但那些存在系统性风险的模型将必须遵守更严格的规则。一些企业和行业组织已经明确对欧盟的AI法案提出反对,认为这不利于欧洲打造人工智能高地。欧洲科技行业组织Digital Europe此前在一份声明中称:“这意味着我们需要投入更多来研究对抗人工智能使用风险的方法,而不是投入技术本身,新的监管规则将要求公司投入大量资源来遵守,把资源花在律师身上,而不是雇佣人工智能工程师。”Meta欧盟事务主管Marco Pancini也表示:“最重要的是,我们不应该忽视人工智能在促进欧洲创新和促进竞争方面的巨大潜力,而开放是关键。”亚马逊首席技术官沃纳·沃格尔斯(Werner Vogels)也在VivaTech期间表达了对人工智能监管可能会扼杀某些领域创新的担忧。他表示,在考虑风险时,监管机构应该考虑将新技术应用于医疗保健和金融服务。“我认为AI在很多领域应用的风险很小,我们应该让创新在这些领域发挥作用。在其他领域,AI犯的错误可能对人们的生活产生更大的影响,应该针对这些特定领域进行特别的风险管理。”沃格尔斯表示。他还强调,亚马逊欢迎监管,并与监管机构的总体目标保持一致,但警告欧盟不要过度监管人工智能。对此,欧盟委员会表示,该法案的推出目标是“刺激欧洲人工智能的投资和创新”。“这项具有里程碑意义的法案是世界上第一部AI法案,它解决了全球技术挑战,也为我们的社会和经济创造了机会。通过人工智能法案,欧洲强调在处理新技术时信任、透明度和问责制的重要性,同时确保这种快速变化的技术能够蓬勃发展并促进欧洲创新。”欧盟在一份声明中称。欧盟表示,该立法法案经欧洲议会通过后,将在未来几天内在欧盟官方公报上发布,并在发布后二十天生效,新法案将在生效两年后对企业正式产生影响。不遵守规则的公司将面临3500万欧元或等同于全球收入7%的罚款(二选一)。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人