Meta AI负责人LeCun表示生成型人工智能仍不如狗聪明

MetaAI负责人LeCun表示生成型人工智能仍不如狗聪明LeCun昨天在巴黎举行的VivaTech会议上说,我们今天使用的生成性人工智能的问题在于它非常有限,而且纯粹是在文本上进行训练。他说,相比之下,人类的很多知识都与语言无关。因此,人类经验的一部分没有被人工智能捕捉到。他还说,虽然生成性人工智能可以通过美国的律师考试--成为律师所需的考试,但它的先天缺陷决定了它不能装载洗碗机,而这是一个孩子可以在5分钟内就可以学会的。"它告诉你[是]我们缺少一些真正的大东西......不仅要达到人类水平的智能,甚至是狗的智能。"在另一个人类发展的直觉的例子中,还没有被复制到人工智能中;YannLeCun说,一个五个月大的婴儿会看到一个物体漂浮着,并不会太在意,但仅仅四个月后,婴儿会意识到这个东西不应该漂浮,并会表示惊讶。他承认,研究人员仍然不知道如何在人工智能中复制这种类型的东西,在研究人员捉摸不透的同时,在动物和人类智能方面也不会取得重大进展。自从去年生成性人工智能以ChatGPT的形式迸发以来,有两种担心已经凸显出来,它是否会取代人类工作者,是否会对人类构成危险?LeCun认为不会。他想象在未来,每个人都会有自己的人工智能助手,比他们更聪明,会协助你的日常生活。他说,人工智能将被设计成可以控制并服从于人类,而且聪明和想要接管世界之间没有任何关联。...PC版:https://www.cnbeta.com.tw/articles/soft/1365531.htm手机版:https://m.cnbeta.com.tw/view/1365531.htm

相关推荐

封面图片

Meta首席科学家杨立昆:目前人工智能还不如狗聪明

Meta首席科学家杨立昆:目前人工智能还不如狗聪明Meta首席人工智能(AI)科学家杨立昆(YannLeCunn)在巴黎举行的VivaTech会议上表示:“那些AI系统仍然非常有限,它们对现实世界的基本现状没有任何理解,只是纯粹基于大量的文本进行训练。但大部分人类知识与语言无关,所以这部分人类经验不会被人工智能捕捉到。我们(目前的技术发展)正在错过一些非常重要的东西。AI不仅应该达到人类水平的智能,甚至还要先达到狗的智能水平才行。”他认为,当前的人工智能系统对现实世界的理解非常有限,缺乏对非语言知识的捕捉能力。杨立昆还提到了Meta正在努力通过视频内容训练人工智能,他认为这比语言训练更为艰难。关于未来的展望,杨立昆认为将会出现比人类更聪明的机器,并将其视为非常有益的事情。他预测每个人都将拥有一个像随从一样的AI助手,这个AI助手将比人类更聪明,并在日常生活中为人们提供帮助。他表示这些AI助手需要被设计为可控且基本上服从于人类,同时驳斥了机器人接管世界的观点。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Meta人工智能主管:AI对世界的了解不如你的猫

Meta人工智能主管:AI对世界的了解不如你的猫LeCun认为,ChatGPT是一个很好的产品,但从科学发展的角度而言,这根本不是革命性的技术。LeCun称AI聊天机器人仍然“非常肤浅”,因为它的知识结构只存在于“大量的文本库中”,而缺乏对现实物理世界的理解。“从某种程度上来说,这类AI系统对现实世界的了解比你家的猫少得多。”他说道。ChatGPT对于普通人而言可能是一种具有轰动效应的技术,然而在LeCun这样的计算机科学家看来,这是技术迭代过程中自然而然的阶段。在LeCun的领导下,Meta上个月发布了一种新的类GPT语言模型LLaMA,但规模更小,公司称将通过非商业性质的授权,提供给政府、民间社会和学术界的研究人员和其他实体。“从性质上来讲,这次技术的涌现并没有和其他时期发生的技术变迁有什么不同,包括它对社会的影响。”LeCun表示,“唯一有所不同的是,这次技术的进展速度更快。”在谈到人工智能对人类社会产生的影响时,LeCun表示:“一种技术从问世到对社会产生影响,基本上需要10-20年的时间,通常都会在20年后才能体现出效应。”他还称,技术的发展一定会让一些工作消失,但同时也会诞生一些新的工作,这在任何时代都会发生,因此不必夸大ChatGPT对人类就业的影响。“关于机器是否会取代人类,这种辩论从一开始就存在。”LeCun表示,“但我相信创造性的工作不会消失。”LeCun特别指出,近期ChatGPT在欧洲面临各国政府的监管压力,这些监管都是针对个人隐私和数据保护的,而非针对人工智能本身。在ChatGPT面临各国的数据监管审查后,意大利数据保护局(Garante)4月12日提出了一系列关于如何恢复ChatGPT在该国使用的要求。在Grante发表的一份声明中,该机构表示,将继续调查OpenAI可能违法数据保护规则的行为,并要求OpenAI在今年9月底之前推出一个年龄验证系统,从而限制13岁以下的用户的访问权限。上个月,以马斯克为代表的科技行业顶尖专家签署了一份联名信,要求将GPT的训练暂停6个月。LeCun重申了自己的反对态度。“AI比GPT4更强大,要求GPT停下来是一种新的蒙昧主义。”他表示,“我根本看不到任何试图限制进步的良好动机,应该告诉人们,停止此类研究是完全不现实的,没有人会这样做。”他认为,没有理由以“AI威胁论”要求大模型研发的暂停,因为机器是能够在人类的控制之下的。“如果问我机器能够超过人类吗?我的答案是肯定的,但今天还远未到这一步。如果问我AI危险吗?我的答案是有可能,但是人类需要为此害怕吗?我认为完全不需要,机器是受人类控制的。”LeCun表示,“应该加速科技的发展,而不应该限制它对人类的好处。我们最终是要在收益和风险中找到平衡。”LeCun强调,AI伦理问题非常重要,有必要进行监管。“我们确实需要知道网络上哪些信息是AI生成的。”他说道,“当然这些问题也不是新的,虚假信息一直存在。”他对此持乐观态度。LeCun认为,AI不是问题本身,而是解决方案,现在的互联网平台已经能够通过AI将一些虚假信息识别并进行过滤。当被问及未来10到15年可预见的最重要的技术创新时,LeCun提到了两类产品,一是增强现实眼镜,二是AI虚拟助理。他认为,未来人类将与智能虚拟助手互动,这些虚拟助手在某些时候会具有与人类智能相似的智能,甚至会在某些领域更胜一筹,并且可以在日常生活中全天候地帮助人类。...PC版:https://www.cnbeta.com.tw/articles/soft/1354533.htm手机版:https://m.cnbeta.com.tw/view/1354533.htm

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃——这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

戴尔和NVIDIA推出Project Helix 为企业提供生成性人工智能

戴尔和NVIDIA推出ProjectHelix为企业提供生成性人工智能然而,当这些公司不完全确定他们如何开始利用生成性人工智能时,就会出现一个重大问题。对该技术如何运作以及如何实施有深入了解的专家是稀缺的,更不用说是非常昂贵的。认识到这种脱节,戴尔科技公司和英伟达公司共同推出了名为ProjectHelix的产品,专门用于简化生成式人工智能的入门过程。ProjectHelix专注于创建全栈式的、企业内部的生成性人工智能解决方案,使企业能够使用自己的数据建立新的或定制现有的生成性人工智能基础模型。企业开始使用生成性人工智能服务时出现的一个问题是内部知识产权泄漏的风险。事实上,包括三星和苹果在内的几家公司已经实施了政策,阻止他们的员工为工作目的使用ChatGPT等工具,因为担心与这个问题有关。这种担忧的部分原因是,几乎所有早期的生成性人工智能迭代只能在大规模的云端数据中心运行,其中许多收集了输入其提示输入的数据。然而,在支撑生成式人工智能应用的基础模型令人难以置信的快速发展中,这些担忧有很多已经得到解决。值得注意的是,现在有各种各样的开源模型可从市场上获得,如HuggingFace。许多这些开源模型可以在更合理的计算要求下非常有效地运行,例如在一个适当装备的内部数据中心。此外,一些大的科技公司已经开始改变关于他们的模型可以在哪里运行的规则,并且正在创建他们的模型的较小版本,为现场使用进行优化。此外,我们已经看到一些公司,包括NVIDIA开始提供专门为企业应用设计的模型。NVIDIA的发展在多个层面上都很有趣。该公司与生成性人工智能密切相关,主要是因为其硬件。NVIDIA的GPU芯片为目前云计算中的大部分生成性人工智能应用和服务提供动力。在该公司3月份的最后一次GTC会议上,他们公布了一整套生成性人工智能相关的软件,包括特定行业的软件基础模型和以企业为中心的开发工具,特别是其NeMo大型语言模型(LLM)框架和用于过滤不需要的主题的NeMoGuardrails,令许多人感到惊讶。这些模型被优化为在NVIDIA硬件上运行。Helix项目代表了戴尔和NVIDIA的合作努力,组装了一系列戴尔PowerEdge服务器系统。这些系统包括NVIDIAH100GPU和NVIDIA的BluefieldDPU(数据处理单元,用于AI工作负载所需的服务器之间的高速互连)系列,并与NVIDIA的企业AI软件捆绑。此外,戴尔从其PowerScale和ECS企业对象存储产品线中提供了几种不同的存储选项,为人工智能工作负载进行了优化。其结果是一个全面的解决方案,使企业能够开始建立或定制生成性人工智能模型。潜在客户可以使用NVIDIA的一个基础模型选项,或者如果他们愿意,可以从HuggingFace(或其他技术供应商的解决方案)中选择一个开源模型并开始这个过程。捆绑的NVIDIA软件允许导入一个组织的现有数据语料库--从文件、客户服务聊天记录、社交媒体帖子等等--然后用它来训练一个新模型或定制一个现有模型。训练过程完成后还包括配套的运行推理和利用新训练的模型创建新的应用程序所需的工具。戴尔的捆绑服务还提供了一个蓝图,帮助企业在创建/定制这些模型和建立这些工具的过程中进行导航,同时还提供了一系列技术支持服务。最重要的是,由于这项工作是在企业实体内部完成的,ProjectHelix可以帮助减轻许多公司--甚至那些已经开始使用生成性人工智能工具的公司--所担心的知识产权泄漏问题。ProjectHelix的另一个显著好处是,它允许公司以更独特和个性化的方式利用生成性人工智能。虽然目前可用的通用工具无疑可以帮助处理某些类型的应用和环境,但大多数公司认识到,生成性人工智能的真正竞争优势在于定制。人们对将公司自己的数据纳入这些工具有相当大的兴趣,但对于究竟如何做到这一点,也有很多困惑。将生成性人工智能的"简易工具包"放在一起,并不意味着许多组织在利用其数据和技术来创建他们所需的解决方案时不会面临挑战。关键是要记住,生成性人工智能背后的概念仍然非常新,它是一项极其复杂的技术。然而,通过捆绑必要的硬件和软件,这些硬件和软件已经过预先测试,可以一起工作,同时还有关于如何引导这个过程的信息,ProjectHelix似乎是一个有吸引力的选择,对那些渴望--或觉得有竞争性--潜入这个令人兴奋的新领域的组织来说。...PC版:https://www.cnbeta.com.tw/articles/soft/1361299.htm手机版:https://m.cnbeta.com.tw/view/1361299.htm

封面图片

欧盟就监管生成性人工智能工具达成初步协议

欧盟就监管生成性人工智能工具达成初步协议欧盟艰苦达成了一项有望成为西方世界对人工智能最全面的监管协议。欧盟内部市场负责人ThierryBreton周五在社交媒体网站X上发帖表示,来自欧盟委员会、欧洲议会和27个成员国的代表同意对OpenAIInc.的ChatGPT和谷歌的Bard等能够按指令生产内容的生成性人工智能工具进行一系列管控。该立法草案仍需得到欧盟成员国和议会的正式批准。但这项协议标志着在美国国会没有任何显著动作的情况下,欧盟朝着具有里程碑意义的人工智能政策迈出了关键一步。这为针对该快速发展的技术的监管定下基调。欧盟的目标是在亚洲以外地区针对人工智能首次实施严格的监管措施。

封面图片

Open AI 前全球商业化负责人 Zack Kass:AGI(通用人工智能)时代要来了

OpenAI前全球商业化负责人ZackKass:AGI(通用人工智能)时代要来了3月23日举行的2024年全球开发者先锋大会(GDC)上,OpenAI前全球商业化负责人ZackKass(扎克・卡斯)以《LeverageforAIGood》(《AI向善》)为主题进行了演讲。他说,AGI(通用人工智能)的时代要来了,2030年人类将会进入通用人工智能时代。在这个智能赋能的世界,人们将拥有比现在更美好的生活。同时,人们与世界的交互方式也将发生改变。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人