Meta首席AI研究员杨立昆:现在的AI很蠢,根本不用监管 #抽屉IT

None

相关推荐

封面图片

Meta首席科学家杨立昆:没有偏见的AI“绝对不可能”

Meta首席科学家杨立昆:没有偏见的AI“绝对不可能” 杨立昆认为,不可能创建一个没有偏见的人工智能系统,因为偏见是主观的,并且因人而异。 他建议解决方案是拥有多样化的人工智能系统。杨立昆说:“是否有可能产生一个没有偏见的人工智能系统? 答案是,绝对不可能。 这并不是因为技术挑战,尽管它们确实是技术挑战,但这是因为偏见是因人而异的。”他接着说,“不同的人可能对很多事情的偏见有不同的看法,有些事实是不争的,但有很多观点或事情可以用不同的方式表达。所以你不可能有一个公正的系统,这是不可能的。”杨立昆强调了开源AI系统的重要性,指出未来人类与数字世界的互动将由AI来调解。他警告说,不能让美国西海岸的几家公司在未来控制所有AI系统,并强调AI开发需要多样性。 ... PC版: 手机版:

封面图片

Meta首席科学家杨立昆:目前人工智能还不如狗聪明

Meta首席科学家杨立昆:目前人工智能还不如狗聪明 Meta首席人工智能(AI)科学家杨立昆(Yann LeCunn)在巴黎举行的Viva Tech会议上表示:“那些AI系统仍然非常有限,它们对现实世界的基本现状没有任何理解,只是纯粹基于大量的文本进行训练。但大部分人类知识与语言无关,所以这部分人类经验不会被人工智能捕捉到。我们(目前的技术发展)正在错过一些非常重要的东西。AI不仅应该达到人类水平的智能,甚至还要先达到狗的智能水平才行。” 他认为,当前的人工智能系统对现实世界的理解非常有限,缺乏对非语言知识的捕捉能力。杨立昆还提到了Meta正在努力通过视频内容训练人工智能,他认为这比语言训练更为艰难。 关于未来的展望,杨立昆认为将会出现比人类更聪明的机器,并将其视为非常有益的事情。他预测每个人都将拥有一个像随从一样的AI助手,这个AI助手将比人类更聪明,并在日常生活中为人们提供帮助。他表示这些AI助手需要被设计为可控且基本上服从于人类,同时驳斥了机器人接管世界的观点。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【杨立昆希望用开源战胜OpenAI?】Meta首席科学家杨立昆(Yann LeCun)表示,开源 LLaMa2 的决定源自扎克伯

封面图片

“AI教父”杨立昆:辛顿错了,AI不是核弹

“AI教父”杨立昆:辛顿错了,AI不是核弹 北京时间5月23日凌晨,钛媒体App编辑在巴黎见到了杨立昆,针对相关问题,杨立昆对钛媒体App直接回应称,辛顿错了,AI 并不是“核弹”。“它(AI)不是炸弹,它不是用来杀人的,AI 是为了让他们(人类)更聪明。所以,我根本不明白这个类比。而且,AI 也没那么危险。我认为这些系统比实际情况要聪明得多。现在 AI 的问题是,未来的力量是否足够,你认为它是否也会破坏一些东西?我们可以触及到人类智能的系统,我们可以考虑如何让它更加安全。”杨立昆对钛媒体App表示。当钛媒体App问他当AI未来力量达到足够强大能影响人类时,还会坚持开源吗,杨立昆也非常坚定的回答是的。杨立昆强调,开源(AI 技术)很重要,是非常有意义的。5月23日上午,杨立昆在推文中再次强调,大型语言模型(LLMs)无法达到人类智能。如果你是一名对构建下一代 AI 系统感兴趣的学生,请不要攻读大模型相关专业。“我自己正在研究下一代 AI 系统,而不是LLM。 所以从技术上讲,我告诉你‘与我竞争’,或者更确切地说,‘与我做同样的事情,因为这是正确的做法,而且理论上更快乐’。”杨立昆称。公开信息显示,杨立昆出生于1960年,是一名法国计算机科学家,2018年图灵奖得主。他曾在巴黎电子工程师高等学校获得了工程师学位,1987年在巴黎第六大学获得计算机科学博士学位。博士就读期间,他提出了神经网络的反向传播算法学习算法的原型。随后到多伦多大学在杰弗里·辛顿的指导下完成了博士后工作。杨立昆在机器学习、计算机视觉、移动机器人和计算神经科学等领域都有很多贡献。他最著名的工作是在光学字符识别和计算机视觉上使用卷积神经网络,他也被称为卷积网络之父。他共同创建了DjVu图像压缩技术,以及联合开发Lush语言。2019年,他同约书亚·本希奥、杰弗里·辛顿共同获得计算机学界最高奖项图灵奖。随着生成式 AI 的迅猛发展,杨立昆所在的Meta公司已经投入数十亿美元来开发Llama等多模态模型,旨在迎头赶上微软、OpenAI、Google等其他竞争对手。目前,杨立昆在Meta的基础人工智能研究(Fair)实验室管理着一个约500人的团队。致力于创造下一代 AI 技术,这种 AI 可以发展常识,并以与人类类似的方式学习世界是如何运作的,这种方法被称为“世界建模”(World Models)。一直以来,杨立昆与另一位“深度学习”教父 辛顿对于 AI 未来的看法恰恰相反。辛顿近日对外表示,尽管ChatGPT将使 AI 研究变得更加高效,影响 AI 研究过程,但长期来看,AI 发展太快了,容易超越人类,人类需要把控好 AI 技术带来的风险。而且他认为,模型实际上必须执行一定程度的推理,而不是像很多人所说的大模型并不具备推理能力。随着模型规模的增加,这种推理能力也将变得越来越强。这是一个值得全力以赴的方向。杨立昆却始终否定辛顿的这种看法。杨立昆认为,大模型不是 AI 技术真正的发展方向。ChatGPT等生成式 AI 产品永远无法实现像人类一样的推理和计划能力,而是认为在机器中创造“超级智能”,才是真正的通用人工智能(AGI)。但他也坦言,这一技术愿景可能需要十年的时间才能实现。杨立昆指出,他反对依靠提升大模型来制造人类水平的智能,因为这些模型只有在获得正确的训练数据后才能准确回答提示,因此“本质上是不安全的”。“不要学习大模型,这些技术掌握在大公司的手中,你没有什么可以做的。你应该研究下一代 AI 系统,以突破大模型的局限性。”杨立昆在对话中表示。杨立昆表示,大模型的这种进化是肤浅和有限的,只有当人类工程师介入并根据这些信息进行训练时,模型才会学习,而不是像人类那样自然地得出结论。杨立昆曾于2022年首次发表一篇关于他的“世界建模”愿景论文,此后,Meta基于该方法发布了两个研究模型。他称,实验室正在测试不同的想法,以实现人类级别的智能,因为“这其中有很多不确定性和探索,(所以)我们无法判断哪一个会成功或最终被采纳”。“我们正处于下一代 AI 系统的风口浪尖。”杨立昆指出。杨立昆认为,从长远来看,“世界建模”技术将为用户通过可穿戴技术、肌电“手环”等与之互动的AI Agent(代理)应用场景提供动力。“要想让 AI 真正有用,就需要具备类似人类水平的智能。”杨立昆表示。 ... PC版: 手机版:

封面图片

上班根本不用带饭

封面图片

id根本不用打码

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人