人工智能监管路在何方?Meta高管警告不要制造道德恐慌

人工智能监管路在何方?Meta高管警告不要制造道德恐慌他强调,诋毁者们意图把人工智能安全问题拔高到所有人都无法接受的程度,然后自己再干涉监管来获得主动权。他还提到无线电、自行车、互联网都曾引发过道德恐慌,十年前无人驾驶概念出来时,人们还被恐吓将不存在卡车司机,因为所有汽车都将完全自动化。但现实是,美国现在面临着卡车司机短缺的情况。监管的关键人工智能领域关于AI风险性的争论已进入白热化阶段,各路大佬纷纷下场,一时间将人工智能安全隐忧带上新的风口浪尖,但大佬们背后却仍惺惺相惜,只称学术之争不伤友谊。Clegg之外,计算机科学家、GoogleBrain联合创始人吴恩达、Meta首席人工智能科学家LeCun都表达了对AI风险人为夸大的风险,并指出这是大型科技公司用以垄断人工智能的手段之一。LeCun表示,科技业中一些领导者确实存在一种毫无根据的优越感,导致他们相信,他们可以做AI但民众不能做,以及超级人工智能出现指日可待,并具备法学硕士毕业生的所有特征,即知法懂法且还能守法。被称为人工智能教父的GeoffreyHinton则回应称,他的忧虑并非站在大公司角度出发,他从谷歌离开就是最好的证明。但Hinton承认自己确实更愿意看到少数公司掌握人工智能技术,以方便实施监管。他将人工智能类比成核武器,称核武器公开分享的话未必能让世界更安全,让少数大机构持有这种技术永远比让坏人持有来得好,人工智能也是如此。细究两派的观点不难发现,关于人工智能监管规则的制定,或许是否开放开源才是解开这道题目的关键。不过,专家们对于AI风险的激辩并不能改变英国峰会的主基调。周三,来自中美等28个国家的代表同意共同努力,以遏制人工智能飞速发展带来的灾难性风险。相关文章:首届全球AI安全峰会聚焦风险管控中国代表团备受关注...PC版:https://www.cnbeta.com.tw/articles/soft/1393825.htm手机版:https://m.cnbeta.com.tw/view/1393825.htm

相关推荐

封面图片

G7同意立法监管人工智能

G7同意立法监管人工智能七国集团(G7)的数字和技术部长星期天(4月30日)在日本结束为期两天的会议后,同意“基于风险”推出一项针对人工智能的监管法案。路透社报道,根据联合声明,G7虽同意出台相应的监管政策,但重申监管也应该为人工智能(ArtificialIntelligence,简称AI)技术“保持一个开放有利的环境”,并以民主价值观为基础。虽然各国或基于不同的目标和愿景出台各自的监管机制,但此次达成的协议也为各国基于隐私问题和安全风险管理人工智能树立了一个里程碑。欧盟委员会执行副主席维斯塔格(MargretheVestager)协议达成之前曾透露:”这次七国集团会议的结论表明,我们在这方面绝对不是孤立的。”据了解,各国政府尤其关注“生成式人工智能”(generativeAI)的普及,例如由微软公司注资的OpenAI开发的人工智能聊天机器人ChatGPT。自11月推出以来,ChatGPT已成为历史上增长最快的消费者应用程序,短短几星期就达到1亿个月活跃用户。[Media]声明还指出:”我们(G7)计划在未来召开关于生成式人工智能的讨论,其中可能包括治理、如何保障包括版权在内的知识产权、促进透明度、解决虚假信息,并包括外国势力的信息操纵等主题。”4月28日,欧盟提出新的立法草案,要求ChatGPT等人工智能工具的开发商,透露他们在构建AI系统时使用的版权材料。这可能为制定全球首个全面监管AI技术的法规铺平道路。这一规则将赋能出版商和内容创作者,使他们在作品被ChatGPT等AI工具用作生成内容的原始材料时,可寻求利润分成。欧盟科技监管负责人维斯塔格说,G7“将在今年就人工智能立法达成政治协议”,例如对人工智能生成的图像或音乐的标签义务,以解决版权和教育风险。

封面图片

Meta人工智能主管:AI对世界的了解不如你的猫

Meta人工智能主管:AI对世界的了解不如你的猫LeCun认为,ChatGPT是一个很好的产品,但从科学发展的角度而言,这根本不是革命性的技术。LeCun称AI聊天机器人仍然“非常肤浅”,因为它的知识结构只存在于“大量的文本库中”,而缺乏对现实物理世界的理解。“从某种程度上来说,这类AI系统对现实世界的了解比你家的猫少得多。”他说道。ChatGPT对于普通人而言可能是一种具有轰动效应的技术,然而在LeCun这样的计算机科学家看来,这是技术迭代过程中自然而然的阶段。在LeCun的领导下,Meta上个月发布了一种新的类GPT语言模型LLaMA,但规模更小,公司称将通过非商业性质的授权,提供给政府、民间社会和学术界的研究人员和其他实体。“从性质上来讲,这次技术的涌现并没有和其他时期发生的技术变迁有什么不同,包括它对社会的影响。”LeCun表示,“唯一有所不同的是,这次技术的进展速度更快。”在谈到人工智能对人类社会产生的影响时,LeCun表示:“一种技术从问世到对社会产生影响,基本上需要10-20年的时间,通常都会在20年后才能体现出效应。”他还称,技术的发展一定会让一些工作消失,但同时也会诞生一些新的工作,这在任何时代都会发生,因此不必夸大ChatGPT对人类就业的影响。“关于机器是否会取代人类,这种辩论从一开始就存在。”LeCun表示,“但我相信创造性的工作不会消失。”LeCun特别指出,近期ChatGPT在欧洲面临各国政府的监管压力,这些监管都是针对个人隐私和数据保护的,而非针对人工智能本身。在ChatGPT面临各国的数据监管审查后,意大利数据保护局(Garante)4月12日提出了一系列关于如何恢复ChatGPT在该国使用的要求。在Grante发表的一份声明中,该机构表示,将继续调查OpenAI可能违法数据保护规则的行为,并要求OpenAI在今年9月底之前推出一个年龄验证系统,从而限制13岁以下的用户的访问权限。上个月,以马斯克为代表的科技行业顶尖专家签署了一份联名信,要求将GPT的训练暂停6个月。LeCun重申了自己的反对态度。“AI比GPT4更强大,要求GPT停下来是一种新的蒙昧主义。”他表示,“我根本看不到任何试图限制进步的良好动机,应该告诉人们,停止此类研究是完全不现实的,没有人会这样做。”他认为,没有理由以“AI威胁论”要求大模型研发的暂停,因为机器是能够在人类的控制之下的。“如果问我机器能够超过人类吗?我的答案是肯定的,但今天还远未到这一步。如果问我AI危险吗?我的答案是有可能,但是人类需要为此害怕吗?我认为完全不需要,机器是受人类控制的。”LeCun表示,“应该加速科技的发展,而不应该限制它对人类的好处。我们最终是要在收益和风险中找到平衡。”LeCun强调,AI伦理问题非常重要,有必要进行监管。“我们确实需要知道网络上哪些信息是AI生成的。”他说道,“当然这些问题也不是新的,虚假信息一直存在。”他对此持乐观态度。LeCun认为,AI不是问题本身,而是解决方案,现在的互联网平台已经能够通过AI将一些虚假信息识别并进行过滤。当被问及未来10到15年可预见的最重要的技术创新时,LeCun提到了两类产品,一是增强现实眼镜,二是AI虚拟助理。他认为,未来人类将与智能虚拟助手互动,这些虚拟助手在某些时候会具有与人类智能相似的智能,甚至会在某些领域更胜一筹,并且可以在日常生活中全天候地帮助人类。...PC版:https://www.cnbeta.com.tw/articles/soft/1354533.htm手机版:https://m.cnbeta.com.tw/view/1354533.htm

封面图片

谷歌 CEO 警告:不要在没有监管的情况下仓促部署人工智能

谷歌CEO警告:不要在没有监管的情况下仓促部署人工智能4月17日消息,Alphabet和谷歌首席执行官SundarPichai在周日的一次采访中表示,必须对推动采用人工智能技术的进程进行严格监管,以避免潜在的有害影响。当被问及是什么让他在人工智能方面夜不能寐时,Pichai称,是有关以一种有益的方式使它工作和部署它的紧迫性,以及对如果部署不当,它可能会非常有害的担忧。Pichai称,他们还没有找到(如何用好AI技术的)所有的答案,但技术发展很快。尽管该行业存在紧迫感,但不要让公司被竞争动态所席卷。他以deepfake视频为例,称类似的可能造假说明了监管的必要性。他表示,人们会意识到,人工智能领域是一种如此不同、如此深刻的东西,我们需要社会法规来思考如何适应。()频道:@TestFlightCN

封面图片

Meta AI负责人LeCun表示生成型人工智能仍不如狗聪明

MetaAI负责人LeCun表示生成型人工智能仍不如狗聪明LeCun昨天在巴黎举行的VivaTech会议上说,我们今天使用的生成性人工智能的问题在于它非常有限,而且纯粹是在文本上进行训练。他说,相比之下,人类的很多知识都与语言无关。因此,人类经验的一部分没有被人工智能捕捉到。他还说,虽然生成性人工智能可以通过美国的律师考试--成为律师所需的考试,但它的先天缺陷决定了它不能装载洗碗机,而这是一个孩子可以在5分钟内就可以学会的。"它告诉你[是]我们缺少一些真正的大东西......不仅要达到人类水平的智能,甚至是狗的智能。"在另一个人类发展的直觉的例子中,还没有被复制到人工智能中;YannLeCun说,一个五个月大的婴儿会看到一个物体漂浮着,并不会太在意,但仅仅四个月后,婴儿会意识到这个东西不应该漂浮,并会表示惊讶。他承认,研究人员仍然不知道如何在人工智能中复制这种类型的东西,在研究人员捉摸不透的同时,在动物和人类智能方面也不会取得重大进展。自从去年生成性人工智能以ChatGPT的形式迸发以来,有两种担心已经凸显出来,它是否会取代人类工作者,是否会对人类构成危险?LeCun认为不会。他想象在未来,每个人都会有自己的人工智能助手,比他们更聪明,会协助你的日常生活。他说,人工智能将被设计成可以控制并服从于人类,而且聪明和想要接管世界之间没有任何关联。...PC版:https://www.cnbeta.com.tw/articles/soft/1365531.htm手机版:https://m.cnbeta.com.tw/view/1365531.htm

封面图片

“AI教父”警告:人工智能可能取代人类

“AI教父”警告:人工智能可能取代人类在上周日的一次电视采访中,辛顿继续强调了人工智能进步可能带来的负面影响。辛顿说:“也许我们回顾过去,把这看作是一种转折点,人类必须做出决定,是否进一步发展这些东西,如果他们这样做了,该如何保护自己。”辛顿说,人工智能可能有好有坏,接下来会发生什么还不得而知。“我们需要认真思考接下来会发生什么。我们只是不知道。”辛顿在这次采访中警告称,人工智能有可能取代人类。他说:“如果我们能阻止他们这么做,那就太好了,但目前还不清楚我们能否阻止他们这么做。”辛顿的担忧包括人工智能带来的就业流失,以及假新闻的兴起,有偏见的人工智能程序提供的信息被当作事实。辛顿警告说,人工智能系统可能编写自己的计算机代码来修改自己,“这是我们需要认真担心的事情。”尽管对人工智能相关的风险感到担忧,但辛顿说,他对帮助开发系统和推动人工智能的兴起并不后悔。他在谈到人工智能可能带来的好处是说:“因此,医疗保健显然是一个巨大的好处。在理解医学图像的情况方面,人工智能已经可以与放射科医生相提并论。它将非常擅长设计药物。”辛顿说,可能无法找到一条可以确保人类未来安全的人工智能发展道路,“我们正在进入一个非常不确定的时期,我们正在处理以前从未处理过的事情。”他警告称,我们负担不起出错。...PC版:https://www.cnbeta.com.tw/articles/soft/1388979.htm手机版:https://m.cnbeta.com.tw/view/1388979.htm

封面图片

马斯克评人工智能:威胁程度超过核技术 需要加强安全监管

马斯克评人工智能:威胁程度超过核技术需要加强安全监管埃隆·马斯克在阿联酋迪拜的2023年世界政府峰会上表示,ChatGPT证实了人工智能(AI)已经获得了令人难以置信的发展,但这已成为人类应该担心的一件事。马斯克在视频发言中强调,人工智能是未来人类文明最大的风险之一。他补充称,“它有积极的一面,也有消极的一面,有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”马斯克说,汽车、飞机和医学必须遵守监管安全标准,而人工智能还没有任何规则或条例来控制其发展。“坦率地说,我认为我们需要监管人工智能的安全,”马斯克说,“我认为,它对社会的风险实际上比汽车、飞机或医学更大。”他补充说,监管“可能会使人工智能的发展速度放慢一些,但我认为这可能也是一件好事”。这位亿万富翁早就警告过不受约束的人工智能发展的危险,他曾说人工智能“远比核弹头更危险”。(综合财联社,IT之家)投稿:@ZaiHuabot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人