6月14日消息,图灵奖得主、Meta首席AI科学家杨立昆(YannLeCun)联合Abacus.AI、纽约大学等机构推出全新的大

6月14日消息,图灵奖得主、Meta首席AI科学家杨立昆(YannLeCun)联合Abacus.AI、纽约大学等机构推出全新的大模型测评基准LiveBenchAI,并公布首个测评榜单。阿里云通义千问刚刚开源的大模型Qwen2-72B成为排名最高的开源大模型,是前十榜单中唯一的开源大模型、唯一的中国大模型,成绩超过Meta的Llama3-70B模型。目前,Qwen系列开源模型目前下载量已经突破1600万。(全天候科技)

相关推荐

封面图片

阿里通义Qwen2拿下美国最新测评榜单开源大模型全球第一

阿里通义Qwen2拿下美国最新测评榜单开源大模型全球第一图灵奖得主、Meta首席AI科学家杨立昆(YannLeCun)联合Abacus.AI、纽约大学等机构推出全新的大模型测评基准LiveBenchAI,并公布首个测评榜单。阿里云通义千问刚刚开源的大模型Qwen2-72B成为排名最高的开源大模型,是前十榜单中唯一的开源大模型、唯一的中国大模型,成绩超过Meta的Llama3-70B模型。目前,Qwen系列开源模型目前下载量已经突破1600万。来源:格隆汇

封面图片

Meta首席科学家杨立昆:没有偏见的AI“绝对不可能”

Meta首席科学家杨立昆:没有偏见的AI“绝对不可能”杨立昆认为,不可能创建一个没有偏见的人工智能系统,因为偏见是主观的,并且因人而异。他建议解决方案是拥有多样化的人工智能系统。杨立昆说:“是否有可能产生一个没有偏见的人工智能系统?答案是,绝对不可能。这并不是因为技术挑战,尽管它们确实是技术挑战,但这是因为偏见是因人而异的。”他接着说,“不同的人可能对很多事情的偏见有不同的看法,有些事实是不争的,但有很多观点或事情可以用不同的方式表达。所以你不可能有一个公正的系统,这是不可能的。”杨立昆强调了开源AI系统的重要性,指出未来人类与数字世界的互动将由AI来调解。他警告说,不能让美国西海岸的几家公司在未来控制所有AI系统,并强调AI开发需要多样性。...PC版:https://www.cnbeta.com.tw/articles/soft/1423501.htm手机版:https://m.cnbeta.com.tw/view/1423501.htm

封面图片

图灵奖得主杨立昆:让AI平台安全良善实用的唯一方法是开源

图灵奖得主杨立昆:让AI平台安全良善实用的唯一方法是开源7月6日,图灵奖得主杨立昆和地平线创始人兼CEO余凯在2023世界人工智能大会上远程对谈。人类花了很长时间才建立起当下的伦理和治理机制。如果允许人工智能形成像人类一样的意识和智慧,人类该如何满足伦理和治理的要求?人类对人工智能的干预机制是什么?7月6日,2023世界人工智能大会在上海开幕。2018年图灵奖得主、MetaAI基础人工智能研究院团队首席人工智能科学家杨立昆(YannLeCun)在开幕式上表示,他完全不同意“因为任何人可用人工智能做任何事,情况可能会非常危险,所以需要严格监管人工智能”的说法。从长远来看,使人工智能平台安全、良善、实用的唯一方法就是开源。杨立昆谈到了人工智能变得智能、可控的方法。“如果你认为达到人类水平的人工智能的方法是做更大的自回归LLM(大语言模型),然后利用多模型数据测试,那么你可能会认为,这些人工智能系统不安全。但事实上我不认为这个系统可以非常智能,我认为它们变得智能的方法也是让它们变得可控的方法,即目标驱动人工智能的理念。本质上来说,就是给它们必须满足的目标。”杨立昆表示,这些目标有些是由任务定义的目标,比如系统回答问题了吗?系统开动你的车了吗?系统清理餐桌了吗?其他目标则充当安全护栏,比如不要伤害任何人。杨立昆认为这些人工智能系统不会通过一点一滴的渗透来欺骗或支配人类。人类可以设定迫使人工智能诚实的目标,例如迫使人工智能屈从于人类的目标,要小心那些想让它们好奇的目标,小心让它们接触到它们不应该拥有的资源。“所以我认为这些系统将是完全可控可操纵的。系统可以被设计得安全,但这并不容易。设计这些目标,让系统安全,将会是一个艰巨的工程挑战。”但杨立昆表示,人类不必一开始就把它设计得很好,而是可以先从建立像老鼠一样聪明的系统开始,人类的目标是让它成为一只好老鼠。“我们会把它们放进沙盒或仿真环境中测试,我们要确保它们是安全的,这是很重要的问题,因为有一些人因为害怕人工智能的结果,整体上就希望人工智能受到严格监管。因为他们说,如果任何人都能掌握人工智能,如果他们可以用人工智能做任何想做的事,那么情况可能会非常危险,所以需要严格监管人工智能。我完全不同意这种说法。”相反,杨立昆认为,从长远来看,使人工智能平台安全、良善、实用的唯一方法就是开源。未来每个人都通过人工智能助手与数字世界互动,人类所有信息都要都通过这个人工智能助手,如果技术被少数公司控制,这不是一件好事。“未来人工智能系统将成为人类所有知识的宝库,训练它们的方式需要基于众多来源。因此我们将在未来看到更多的开源LLM和更多的开源人工智能系统。”...PC版:https://www.cnbeta.com.tw/articles/soft/1369383.htm手机版:https://m.cnbeta.com.tw/view/1369383.htm

封面图片

Meta首席AI科学家认为要实现与人类水平相当的AI还需要很长时间

Meta首席AI科学家YannLeCun在接受采访时强调,要达到与人类水平相当的AI还有很长的路要走。他表示,对于担心AI智能超越人类并对其进行监管的担忧,就好比在1925年因飞行速度接近音速而要求对跨大西洋飞行进行监管。他认为,要达到人类水平的AI,我们还需要实现目前尚未知晓的科学突破。因此,他认为担心AI超出人类控制并对其进行监管还为时过早。LeCun解释说,在其训练的特定领域中,生成式AI系统表现出智能,它们可以流利地使用语言,这让我们误认为它们具备智能,但实际上它们并不聪明。我们无法通过增加训练数据或投入更多计算能力来扩展它们的能力,以达到人类水平的智能。这种情况在短时间内不太可能发生,我们需要首先发现新的技术和架构。LeCun相信,即使不需要几十年,至少也需要数年的时间。via匿名标签:#Meta#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

阿里云:通义千问 720 亿参数模型开源 适配企业级、科研级高性能应用

阿里云:通义千问720亿参数模型开源适配企业级、科研级高性能应用阿里云今天举办通义千问发布会,开源通义千问720亿参数模型Qwen-72B。Qwen-72B在10个权威基准测评创下开源模型最优成绩,成为业界最强开源大模型,性能超越开源标杆Llama2-70B和大部分商用闭源模型。未来,企业级、科研级的高性能应用,也有了开源大模型这一选项。通义千问还开源了18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。至此,通义千问共开源18亿、70亿、140亿、720亿参数的4款大语言模型,以及视觉理解、音频理解两款多模态大模型,实现“全尺寸、全模态”开源。

封面图片

欧盟AI法案即将生效 杨立昆等AI科学家表示反对

欧盟AI法案即将生效杨立昆等AI科学家表示反对AGI何时实现,业内分歧较大杨立昆表示,欧盟人工智能法案和其他各个地方都有规范研究和开发的条款,但他认为这不是一个好主意,理由是他并不认为人工智能会很快超越人类智能。“坦率地说,我不相信AI有任何与人接近的地方。”杨立昆表示,“我认为它目前没有那么危险。”不过他承认,未来人工智能系统可能会变得更加智能,届时需要对它们的设计采取适当的保障措施。百度CEO李彦宏也在VivaTech期间表示,AGI的实现还需要超过十年的时间。他表示:“我们希望人工智能像人类一样聪明,但当今最强大的模型远未达到这一程度。”李彦宏呼吁加快人工智能的发展步伐。“我担心的是人工智能技术进步得不够快。每个人都对过去几年技术发展的速度感到震惊。但对我来说还是不够快。”他表示。以特斯拉CEO马斯克为代表的科技人士强调人工智能的风险,马斯克在XSpace的访谈中预测,到明年或2026年,人工智能的智慧可能会超过世界上最聪明的人类,也就是通用人工智能(AGI)的实现。ChatGPT的开发商OpenAI的CEO奥尔特曼(SamAltman)在今年早些时候预测,AGI可能会在“相当近的未来”开发出来。对于人工智能安全性风险的分歧在OpenAI的“内斗”中已经暴露出来。OpenAI在宣布向公众免费提供迄今为止最强大的人工智能模型GPT-4o后,该公司前首席科学家苏茨克维尔(IlyaSutskever)宣布辞职,“超级对齐”团队解散。这也引发了谁来为AI负责的讨论。现任清华大学国强教授、智能产业研究院首席研究员聂再清对第一财经记者表示:“Ilya对大模型技术的理解非常深刻,他的离职和对齐团队的解散短期内对OpenAI大模型技术的发展和安全可控可能会有一些影响。OpenAI应该还会继续大力投入到安全和对齐相关的工作上,确保大模型长期安全可控,在各种边界情况下都表现良好。”他认为,作为大的科技企业,可以通过团队的协同,在“对齐”这个方向上做更好的长期规划和资源共享及调配。创新与监管如何平衡欧盟一直走在人工智能监管的最前沿。上周,欧盟委员会批准了《人工智能法案》,这项法案是全球首创,将为人工智能监管制定全球标准。该立法遵循“基于风险”的方法,旨在促进私人和公共参与者在欧盟市场上开发和采用安全、值得信赖的人工智能系统。法案规定,提供公共服务的实体部署高风险人工智能系统之前,需要评估其基本权利影响。这也意味着AI对社会造成伤害的风险越高,监管的规则就越严格。该法案也涉及通用人工智能大模型(GPAI)的使用。根据法案,不构成系统性风险的GPAI模型将受到一些有限的要求,例如透明度方面的要求,但那些存在系统性风险的模型将必须遵守更严格的规则。一些企业和行业组织已经明确对欧盟的AI法案提出反对,认为这不利于欧洲打造人工智能高地。欧洲科技行业组织DigitalEurope此前在一份声明中称:“这意味着我们需要投入更多来研究对抗人工智能使用风险的方法,而不是投入技术本身,新的监管规则将要求公司投入大量资源来遵守,把资源花在律师身上,而不是雇佣人工智能工程师。”Meta欧盟事务主管MarcoPancini也表示:“最重要的是,我们不应该忽视人工智能在促进欧洲创新和促进竞争方面的巨大潜力,而开放是关键。”亚马逊首席技术官沃纳·沃格尔斯(WernerVogels)也在VivaTech期间表达了对人工智能监管可能会扼杀某些领域创新的担忧。他表示,在考虑风险时,监管机构应该考虑将新技术应用于医疗保健和金融服务。“我认为AI在很多领域应用的风险很小,我们应该让创新在这些领域发挥作用。在其他领域,AI犯的错误可能对人们的生活产生更大的影响,应该针对这些特定领域进行特别的风险管理。”沃格尔斯表示。他还强调,亚马逊欢迎监管,并与监管机构的总体目标保持一致,但警告欧盟不要过度监管人工智能。对此,欧盟委员会表示,该法案的推出目标是“刺激欧洲人工智能的投资和创新”。“这项具有里程碑意义的法案是世界上第一部AI法案,它解决了全球技术挑战,也为我们的社会和经济创造了机会。通过人工智能法案,欧洲强调在处理新技术时信任、透明度和问责制的重要性,同时确保这种快速变化的技术能够蓬勃发展并促进欧洲创新。”欧盟在一份声明中称。欧盟表示,该立法法案经欧洲议会通过后,将在未来几天内在欧盟官方公报上发布,并在发布后二十天生效,新法案将在生效两年后对企业正式产生影响。不遵守规则的公司将面临3500万欧元或等同于全球收入7%的罚款(二选一)。...PC版:https://www.cnbeta.com.tw/articles/soft/1432513.htm手机版:https://m.cnbeta.com.tw/view/1432513.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人