欧盟 AI 法案即将生效,杨立昆等 AI 科学家反对欧盟 AI 法案

欧盟AI法案即将生效,杨立昆等AI科学家反对欧盟AI法案在欧盟放行了全球首部人工智能法案后,有科技界领袖对此表达担忧,认为人工智能的风险夸大了。在上周举行的巴黎VivaTech大会期间,科技巨头Meta人工智能负责人杨立昆(YannLeCun)公开表示,欧盟新法案面临的一个“大问题”是“人工智能的研究和开发是否应该受到监管”。杨立昆表示,欧盟人工智能法案和其他各个地方都有规范研究和开发的条款,但他认为这不是一个好主意,理由是他并不认为人工智能会很快超越人类智能。“坦率地说,我不相信AI有任何与人接近的地方。”杨立昆表示,“我认为它目前没有那么危险。”不过他承认,未来人工智能系统可能会变得更加智能,届时需要对它们的设计采取适当的保障措施。百度CEO李彦宏也在VivaTech期间表示,AGI的实现还需要超过十年的时间。他表示:“我们希望人工智能像人类一样聪明,但当今最强大的模型远未达到这一程度。”(第一财经)

相关推荐

封面图片

欧盟AI法案即将生效 杨立昆等AI科学家表示反对

欧盟AI法案即将生效杨立昆等AI科学家表示反对AGI何时实现,业内分歧较大杨立昆表示,欧盟人工智能法案和其他各个地方都有规范研究和开发的条款,但他认为这不是一个好主意,理由是他并不认为人工智能会很快超越人类智能。“坦率地说,我不相信AI有任何与人接近的地方。”杨立昆表示,“我认为它目前没有那么危险。”不过他承认,未来人工智能系统可能会变得更加智能,届时需要对它们的设计采取适当的保障措施。百度CEO李彦宏也在VivaTech期间表示,AGI的实现还需要超过十年的时间。他表示:“我们希望人工智能像人类一样聪明,但当今最强大的模型远未达到这一程度。”李彦宏呼吁加快人工智能的发展步伐。“我担心的是人工智能技术进步得不够快。每个人都对过去几年技术发展的速度感到震惊。但对我来说还是不够快。”他表示。以特斯拉CEO马斯克为代表的科技人士强调人工智能的风险,马斯克在XSpace的访谈中预测,到明年或2026年,人工智能的智慧可能会超过世界上最聪明的人类,也就是通用人工智能(AGI)的实现。ChatGPT的开发商OpenAI的CEO奥尔特曼(SamAltman)在今年早些时候预测,AGI可能会在“相当近的未来”开发出来。对于人工智能安全性风险的分歧在OpenAI的“内斗”中已经暴露出来。OpenAI在宣布向公众免费提供迄今为止最强大的人工智能模型GPT-4o后,该公司前首席科学家苏茨克维尔(IlyaSutskever)宣布辞职,“超级对齐”团队解散。这也引发了谁来为AI负责的讨论。现任清华大学国强教授、智能产业研究院首席研究员聂再清对第一财经记者表示:“Ilya对大模型技术的理解非常深刻,他的离职和对齐团队的解散短期内对OpenAI大模型技术的发展和安全可控可能会有一些影响。OpenAI应该还会继续大力投入到安全和对齐相关的工作上,确保大模型长期安全可控,在各种边界情况下都表现良好。”他认为,作为大的科技企业,可以通过团队的协同,在“对齐”这个方向上做更好的长期规划和资源共享及调配。创新与监管如何平衡欧盟一直走在人工智能监管的最前沿。上周,欧盟委员会批准了《人工智能法案》,这项法案是全球首创,将为人工智能监管制定全球标准。该立法遵循“基于风险”的方法,旨在促进私人和公共参与者在欧盟市场上开发和采用安全、值得信赖的人工智能系统。法案规定,提供公共服务的实体部署高风险人工智能系统之前,需要评估其基本权利影响。这也意味着AI对社会造成伤害的风险越高,监管的规则就越严格。该法案也涉及通用人工智能大模型(GPAI)的使用。根据法案,不构成系统性风险的GPAI模型将受到一些有限的要求,例如透明度方面的要求,但那些存在系统性风险的模型将必须遵守更严格的规则。一些企业和行业组织已经明确对欧盟的AI法案提出反对,认为这不利于欧洲打造人工智能高地。欧洲科技行业组织DigitalEurope此前在一份声明中称:“这意味着我们需要投入更多来研究对抗人工智能使用风险的方法,而不是投入技术本身,新的监管规则将要求公司投入大量资源来遵守,把资源花在律师身上,而不是雇佣人工智能工程师。”Meta欧盟事务主管MarcoPancini也表示:“最重要的是,我们不应该忽视人工智能在促进欧洲创新和促进竞争方面的巨大潜力,而开放是关键。”亚马逊首席技术官沃纳·沃格尔斯(WernerVogels)也在VivaTech期间表达了对人工智能监管可能会扼杀某些领域创新的担忧。他表示,在考虑风险时,监管机构应该考虑将新技术应用于医疗保健和金融服务。“我认为AI在很多领域应用的风险很小,我们应该让创新在这些领域发挥作用。在其他领域,AI犯的错误可能对人们的生活产生更大的影响,应该针对这些特定领域进行特别的风险管理。”沃格尔斯表示。他还强调,亚马逊欢迎监管,并与监管机构的总体目标保持一致,但警告欧盟不要过度监管人工智能。对此,欧盟委员会表示,该法案的推出目标是“刺激欧洲人工智能的投资和创新”。“这项具有里程碑意义的法案是世界上第一部AI法案,它解决了全球技术挑战,也为我们的社会和经济创造了机会。通过人工智能法案,欧洲强调在处理新技术时信任、透明度和问责制的重要性,同时确保这种快速变化的技术能够蓬勃发展并促进欧洲创新。”欧盟在一份声明中称。欧盟表示,该立法法案经欧洲议会通过后,将在未来几天内在欧盟官方公报上发布,并在发布后二十天生效,新法案将在生效两年后对企业正式产生影响。不遵守规则的公司将面临3500万欧元或等同于全球收入7%的罚款(二选一)。...PC版:https://www.cnbeta.com.tw/articles/soft/1432513.htm手机版:https://m.cnbeta.com.tw/view/1432513.htm

封面图片

Meta首席科学家杨立昆:目前人工智能还不如狗聪明

Meta首席科学家杨立昆:目前人工智能还不如狗聪明Meta首席人工智能(AI)科学家杨立昆(YannLeCunn)在巴黎举行的VivaTech会议上表示:“那些AI系统仍然非常有限,它们对现实世界的基本现状没有任何理解,只是纯粹基于大量的文本进行训练。但大部分人类知识与语言无关,所以这部分人类经验不会被人工智能捕捉到。我们(目前的技术发展)正在错过一些非常重要的东西。AI不仅应该达到人类水平的智能,甚至还要先达到狗的智能水平才行。”他认为,当前的人工智能系统对现实世界的理解非常有限,缺乏对非语言知识的捕捉能力。杨立昆还提到了Meta正在努力通过视频内容训练人工智能,他认为这比语言训练更为艰难。关于未来的展望,杨立昆认为将会出现比人类更聪明的机器,并将其视为非常有益的事情。他预测每个人都将拥有一个像随从一样的AI助手,这个AI助手将比人类更聪明,并在日常生活中为人们提供帮助。他表示这些AI助手需要被设计为可控且基本上服从于人类,同时驳斥了机器人接管世界的观点。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Meta首席科学家杨立昆:没有偏见的AI“绝对不可能”

Meta首席科学家杨立昆:没有偏见的AI“绝对不可能”杨立昆认为,不可能创建一个没有偏见的人工智能系统,因为偏见是主观的,并且因人而异。他建议解决方案是拥有多样化的人工智能系统。杨立昆说:“是否有可能产生一个没有偏见的人工智能系统?答案是,绝对不可能。这并不是因为技术挑战,尽管它们确实是技术挑战,但这是因为偏见是因人而异的。”他接着说,“不同的人可能对很多事情的偏见有不同的看法,有些事实是不争的,但有很多观点或事情可以用不同的方式表达。所以你不可能有一个公正的系统,这是不可能的。”杨立昆强调了开源AI系统的重要性,指出未来人类与数字世界的互动将由AI来调解。他警告说,不能让美国西海岸的几家公司在未来控制所有AI系统,并强调AI开发需要多样性。...PC版:https://www.cnbeta.com.tw/articles/soft/1423501.htm手机版:https://m.cnbeta.com.tw/view/1423501.htm

封面图片

Meta首席AI研究员杨立昆:现在的AI很蠢 根本不用监管

Meta首席AI研究员杨立昆:现在的AI很蠢根本不用监管杨立昆是2018年图灵奖得主,也是计算机视觉和神经网络领域的领军人物。他的工作经常被其他人工智能研究员引用,用来解释为什么人工智能领域目前取得了巨大成功。杨立昆将目前对人工智能进行监管与早期互联网受到政府干预的情况进行了比较。他表示,现在限制人工智能就像在喷气式飞机发明之前对其进行管制。杨立昆认为,目前的监管都是围绕着系统的“潜在风险”展开的,但实际上“我们目前连学习能力能和猫相提并论的系统都没有”。他称这种做法“适得其反”,同时表示人工智能怀疑论者“希望在人工智能安全的幌子下形成监管俘获”。杨立昆的观点与“人工智能教父”杰弗里·欣顿(GeoffreyHinton)等人的意见相左。最近欣顿支持对人工智能进行监管,他暗示基于目前的大语言模型,人工智能将变得非常先进,以至于可能会对人类造成伤害。杨立昆对此完全不以为然。他说,大多数人太受《终结者》等电影的影响,幻想有一天会比普通人更聪明的机器会思考。杨立昆认为,人工智能模型“根本不理解世界是如何运作的,它们没有计划能力,也没有真正的推理能力。”杨立昆所指的是通用人工智能。像OpenAI这样的公司声称,真正的机器智能转变近在咫尺,但杨立昆称这种看法“过于乐观”,因为人工智能需要许多“概念上的突破”才能达到这一阶段。简而言之,杨立昆的意思是科学家们目前还不知道如何让人工智能从ChatGPT发展到电影《终结者》中的天网。然而,杨立昆在采访中没有提到人工智能图像生成器、语言模型甚至自动驾驶汽车所表现出的可怕偏见。他也没有提到人工智能如何带来新一波网络垃圾和虚假信息。杨立昆负责Meta的大语言模型GalacticaAI。GalacticaAI原本旨在帮助研究人员提高工作效率,但科学家们发现它引用文本错误甚至编造期刊,因此Meta于去年11月将其下线。杨立昆对撤下GalacticaAI表示不满,他说:“通过滥用机器人来获得乐趣是不可能的。这样做开心吗?”杨立昆也承认,人工智能最终会变得更聪明,甚至比人类更聪明。但他坚称,他认为人工智能根本不会造成伤害,而是会帮助我们解决更大的社会问题,比如治疗癌症或解决气候变化。杨立昆说:“智力与控制欲无关。如果最聪明的人类真的想要统治他人,那么阿尔伯特·爱因斯坦(AlbertEinstein)和其他科学家就会既有钱又有权,但他们并没有。”此前,杨立昆曾声称,社会有能力“阻止邪恶拥有无限的权力”。...PC版:https://www.cnbeta.com.tw/articles/soft/1391123.htm手机版:https://m.cnbeta.com.tw/view/1391123.htm

封面图片

叫板黄仁勋?Meta首席AI科学家:超级人工智能不会很快到来

叫板黄仁勋?Meta首席AI科学家:超级人工智能不会很快到来他的观点与英伟达CEO黄仁勋上周的观点截然不同。黄仁勋上周曾表示,人工智能将在不到五年的时间里成长到“相当有竞争力”的水平,在许多脑力密集型任务上胜过人类。未来更有可能出现“猫级”人工智能杨立昆表示,在“人类级”水平的人工智能出现前,社会更有可能出现“猫级”或者“狗级”的人工智能。科技行业目前对语言模型和文本数据的关注,不足以创造出研究人员在过去几十年来一直梦想的那种先进的类人人工智能系统。杨立昆认为,限制当前人工智能发展速度的原因之一,在于训练数据的来源主要局限于文本。“文本是一个非常糟糕的信息来源,”杨立昆解释说,目前要训练出一个现代语言模型,所需要的的文本量巨大,需要人类用2万年才能阅读完。然而,“即便你用相当于两万年的阅读材料来训练一个系统,它们仍然不明白:如果A和B相同,那么B就和A相同……世界上有很多非常基本的东西,他们没法通过这种训练来了解。”因此,杨立昆和MetaAI的其他高管一直在大力研究如何定制用于创建ChatGPT等应用程序的所谓转换器模型,以处理各种数据(包括音频、图像和视频信息)。他们认为,只有这些人工智能系统能发现这些不同类型的数据之间可能存在的数十亿个隐藏的相关性,它们才更有可能达到更高的水平。Meta高管们展示了他们的研究成果之一:一个戴着AR眼镜打网球的人能够看到AI视觉提示,教他们如何正确地握住网球拍,并以完美的方式摆动手臂。为这类数字网球助手提供动力所需的AI模型,除了文本和音频之外,还需要混合三维视觉数据。英伟达仍将继续受益这些所谓的多模型人工智能系统代表了下一个前沿领域,但这一发展所需要投入的成本会更大。杨立昆预计,随着Meta和Google母公司Alphabet等越来越多的公司研究更先进的人工智能模型,英伟达可能会获得更大的优势,尤其是在没有其他竞争对手出现的情况下。一直以来,英伟达都是生成式人工智能的最大受益者之一,其价格昂贵的GPU已成为用于训练大规模语言模型的标准工具。“我认识Jensen(黄仁勋),”杨立昆表示,英伟达可以从当前的人工智能热潮中获益良多,“这是一场人工智能战争,他在提供武器。”″(如果)你认为人工智能很流行,你就得买更多的GPU,”杨立昆谈到,只要OpenAI等公司的研究人员继续追求AGI(通用人工智能),他们就需要更多英伟达的计算机芯片。那么,随着Meta和其他研究人员继续开发这类复杂的人工智能模型,科技行业是否需要更多的硬件供应商呢?杨立昆对此的回答是:“目前不需要,但如果有,将会更好。”他还补充说,GPU技术仍然是人工智能的黄金标准。不过,未来的计算机芯片可能不会被称为GPU。量子计算机的意义和可行性存疑除了人工智能,杨立昆也对量子计算机持怀疑态度。目前,微软、IBM和Google等科技巨头都在量子计算领域投入了大量资源。许多研究人员认为,量子计算机器可以在数据密集型领域(如药物发现)取得巨大进步,因为它们能够使用所谓的量子比特(而不是现代计算中使用的传统二进制比特)执行多次计算。但杨立昆对此表示怀疑:“你用量子计算所可以解决的问题,用经典计算机也可以更快解决。”“量子计算是一个迷人的科学话题,”杨立昆说,但目前还不太清楚“量子计算机的实际意义和制造真正有用的量子计算机的可能性”。Meta高级研究员、前技术主管迈克·施罗普夫(MikeSchroepfer)对此表示赞同。他每隔几年就会对量子技术进行评估,并认为有用的量子机器“可能会在某个时候出现,但它的时间跨度太长,与我们目前正在做的事情无关。”...PC版:https://www.cnbeta.com.tw/articles/soft/1401719.htm手机版:https://m.cnbeta.com.tw/view/1401719.htm

封面图片

图灵奖得主杨立昆:让AI平台安全良善实用的唯一方法是开源

图灵奖得主杨立昆:让AI平台安全良善实用的唯一方法是开源7月6日,图灵奖得主杨立昆和地平线创始人兼CEO余凯在2023世界人工智能大会上远程对谈。人类花了很长时间才建立起当下的伦理和治理机制。如果允许人工智能形成像人类一样的意识和智慧,人类该如何满足伦理和治理的要求?人类对人工智能的干预机制是什么?7月6日,2023世界人工智能大会在上海开幕。2018年图灵奖得主、MetaAI基础人工智能研究院团队首席人工智能科学家杨立昆(YannLeCun)在开幕式上表示,他完全不同意“因为任何人可用人工智能做任何事,情况可能会非常危险,所以需要严格监管人工智能”的说法。从长远来看,使人工智能平台安全、良善、实用的唯一方法就是开源。杨立昆谈到了人工智能变得智能、可控的方法。“如果你认为达到人类水平的人工智能的方法是做更大的自回归LLM(大语言模型),然后利用多模型数据测试,那么你可能会认为,这些人工智能系统不安全。但事实上我不认为这个系统可以非常智能,我认为它们变得智能的方法也是让它们变得可控的方法,即目标驱动人工智能的理念。本质上来说,就是给它们必须满足的目标。”杨立昆表示,这些目标有些是由任务定义的目标,比如系统回答问题了吗?系统开动你的车了吗?系统清理餐桌了吗?其他目标则充当安全护栏,比如不要伤害任何人。杨立昆认为这些人工智能系统不会通过一点一滴的渗透来欺骗或支配人类。人类可以设定迫使人工智能诚实的目标,例如迫使人工智能屈从于人类的目标,要小心那些想让它们好奇的目标,小心让它们接触到它们不应该拥有的资源。“所以我认为这些系统将是完全可控可操纵的。系统可以被设计得安全,但这并不容易。设计这些目标,让系统安全,将会是一个艰巨的工程挑战。”但杨立昆表示,人类不必一开始就把它设计得很好,而是可以先从建立像老鼠一样聪明的系统开始,人类的目标是让它成为一只好老鼠。“我们会把它们放进沙盒或仿真环境中测试,我们要确保它们是安全的,这是很重要的问题,因为有一些人因为害怕人工智能的结果,整体上就希望人工智能受到严格监管。因为他们说,如果任何人都能掌握人工智能,如果他们可以用人工智能做任何想做的事,那么情况可能会非常危险,所以需要严格监管人工智能。我完全不同意这种说法。”相反,杨立昆认为,从长远来看,使人工智能平台安全、良善、实用的唯一方法就是开源。未来每个人都通过人工智能助手与数字世界互动,人类所有信息都要都通过这个人工智能助手,如果技术被少数公司控制,这不是一件好事。“未来人工智能系统将成为人类所有知识的宝库,训练它们的方式需要基于众多来源。因此我们将在未来看到更多的开源LLM和更多的开源人工智能系统。”...PC版:https://www.cnbeta.com.tw/articles/soft/1369383.htm手机版:https://m.cnbeta.com.tw/view/1369383.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人