谷歌突失Hinton!深度学习之父警告AI风险 对毕生工作表示遗憾

谷歌突失Hinton!深度学习之父警告AI风险对毕生工作表示遗憾有网友直接懵住:到底发生了什么?还是我漏掉了什么?你不是曾说过GPT-4为人类的蝴蝶吗?不少人还认为Hinton此举有待商榷,应该将关注人工智能安全工作常态化而不是离职。甚至还有人劝他理解AI,而不是通过延迟研究来限制。现在潘多拉魔盒已经打开。但Hinton的态度似乎十分坚定,在访谈中直言:对自己毕生的工作感到后悔。而另一位巨头LeCun这边也表示,对Hinton的离职并不惊讶。不少网友在底下已经开始就AI的各种问题寻求Hinton的见解:你对开源AI有什么看法?你觉得需要注意和避免的最大危险是什么?“对自己毕生的工作感到后悔”据《纽约时报》消息,Hinton的离职是在4月提出的。辞职的理由一言以蔽之,是对人工智能风险的担忧。这种忧虑甚至让这位深度学习之父表示:我对自己毕生的工作,感到非常后悔。我用一个借口来安慰自己,如果我没有这么做,还会有其他人。梳理来看,引发Hinton担忧情绪的因素,有近期和远期两个方面。先说近期影响,就是ChatGPT趋势下的新一轮AI竞争。在微软将ChatGPT引入Bing后,挑战了Google的核心业务搜索引擎,然后Google马上推出了Bard作为应对。这让Hinton觉得,Google似乎不再扮演AI“好管家”的角色了。而且科技巨头们正在掀起一场无法停止的角逐。由此带来的影响,将是生成式AI生产出非常多真假难辨的内容。而从长远来看,Hinton认为,AI将会对就业市场造成巨大影响。如助理、翻译等各行各业都可能被扰乱。再进一步,AI或许也会对人类构成威胁。因为个人和企业不仅允许AI生成代码,实际上AI也有能力运行这些代码。因此Hinton认为有朝一日那种具有自主能力的杀手机器人,会成为现实。他表示,AI实际上可以比人类拥有更聪明的想法——一些人相信这一点。但是他没有预料到人工智能的发展速度会像过去7个月那样快。我曾以为这需要30-50年之久,但是现在我不这么想了。这种想法,和之前十余位美国人工智能协会专家联名发出的警告,有些相似之处。不过在那时,Hinton并没有参与这项活动。据《纽约时报》消息,离职前,GoogleCEO桑达尔·皮查伊和他通过电话,但具体内容Hinton不愿透露。这场离职风暴中,Google研究首席科学家、Google高级副总裁JeffDean发表了一份声明,表示:我们仍会坚持对AI采取负责任的态度。我们在不断学习理解新出现的风险时,也在大胆创新。对于Hinton的离职,另一位深度学习三巨头之一LeCun表示,Hinton并没有和他透露要离开Google的打算,不过他对比并不感到十分惊讶。OpenAI首席科学家是他学生此番离职,或许对于Hinton来说,也是时候了。ChatGPT、大模型让全球对于通用人工智能的想象更加具象,其背后的安全与风险等问题也被搬上日程。一直以来,Hinton对于通用人工智能抱有赞叹和期待。早在GPT-3刚出炉、其他两位图灵奖得主LeCun和Bengio都持不看好态度时,Hinton却表示,从GPT-3出色的性能可以推断,生命、宇宙和万物的答案“不过是4.398万亿个参数而已”。直至ChatGPT出现时,他还将GPT-4比作人类的蝴蝶:毛毛虫提取营养物质,然后转化为蝴蝶。人们已经提取了数十亿的理解金块,而GPT-4是人类的蝴蝶。他惊叹其效果的同时也透露出不少隐忧。RLHF机制是在培养一个超常的早熟儿。而现在,随着ChatGPT风暴席卷越来越多的行业,Hinton想要站出来承担人工智能危机“敲钟人”的角色,就已经到了关键时刻。值得一提的是,在通用人工智能探索的最前沿,Hinton的学生们仍扮演着重要角色。比如,现在OpenAI的首席科学家IlyaSutskever。左:IlyaSutskever右:Hinton图源:多伦多大学当年,Hinton与他的两位学生IlyaSutskever和AlexKrizhevsky共同发明了卷积神经网络AlexNet,拿下当年最权威的人工智能大赛ImageNet第一名,而且精确度是第二名的两倍。后来,他们还一起成立了公司DNNResearch,后被Google4400美元收购。IlyaSutskever担任GoogleBrain的研究科学家,并成为后来AlphaGO众多合著者之一。直至2015年底他离开Google,加入OpenAI担任联合创始人以及首席科学家。...PC版:https://www.cnbeta.com.tw/articles/soft/1357711.htm手机版:https://m.cnbeta.com.tw/view/1357711.htm

相关推荐

封面图片

谷歌也担心泄密风险 警告员工谨慎使用AI办公

谷歌也担心泄密风险警告员工谨慎使用AI办公人们在使用这些聊天机器人的时候,会与其进行对话。一方面,人类评审员可能会阅读这些聊天记录;另一方面,研究人员发现,人工智能可以吸收并复制相关对话数据给其他人,从而产生信息泄漏风险。而谷歌对此回应称,其聊天机器人Bard可以生成一些不受欢迎的代码建议,但它仍然对IT工程师们会有所帮助。谷歌还表示,其目标是对人工智能技术保持足够的透明度。这些担忧表明,谷歌希望避免人工智能对公司的商业化运作造成损害,这种谨慎的态度也体现出企业对人工智能的使用限制,正越发成为某种具有共性的企业安全标准。在此之前,包括三星、亚马逊、德意志银行等大型企业都对员工使用人工智能设置了一定的“护栏”,以确保不会对公司运营造成风险。根据社交网站Fishbowl对12000名受访者的调查,截至今年1月,约43%的专业人士在工作中使用了ChatGPT或其他人工智能工具,而且通常都没有告诉他们的老板。谷歌告诉媒体,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。谷歌在6月1日更新的隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记,并限制其向外部流动。谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的历史对话记录,用户也可以选择删除。微软消费者业务首席营销官YusufMehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。Cloudflare首席执行官MatthewPrince指出,在聊天机器人中输入机密信息,就像“让一群博士生随意查看你所有的私人记录”。...PC版:https://www.cnbeta.com.tw/articles/soft/1365541.htm手机版:https://m.cnbeta.com.tw/view/1365541.htm

封面图片

人工智能教父后悔研发AI 忧对社会和人类构成风险

人工智能教父后悔研发AI忧对社会和人类构成风险有人工智能(AI)教父之称的科学家辛顿认为,人工智能领域的进步对社会和人类构成深远风险,坦言对研发人工智能技术感到后悔。75岁的辛顿早前辞去在Google的职务。他说,离开除了因为年龄,亦是为了毋须在考虑对Google的影响下,谈论人工智能的危险,他担心人工智能会创造出令人信服的虚假图像和文本,从而创造一个人类无法再知道甚么是真的世界,亦担心会有坏人利用它来做坏事。辛顿又说,曾经认为人工智能起码要30至50年才能够进化到较人类更聪明,但他现在认为这个情况不再遥远。Google首席科学家迪恩回应表示,公司仍然致力对人工智能采取负责任态度,在不断学习了解新风险的同时,亦大胆创新。2023-05-0217:23:58

封面图片

谷歌调整搜索领导团队以加速转向 AI 战略

谷歌调整搜索领导团队以加速转向AI战略Google核心部门搜索产品的领导团队近期发生多项调整。当前负责领导Google的人工智能搜索工作,包括搜索生成体验(SGE)和GoogleLens,的LizReid将晋升领导整个Google搜索团队。长期负责排名和搜索质量的高管PanduNayak现在将改任搜索团队的首席科学家,他的职位将由致力于搜索人工智能产品研究的CheenuVenkatachary接替。与此同时,负责GoogleNews和GoogleDiscover的CathyEdwards将转向Google的远期项目团队。本次调整体现出,Google搜索团队正加速转向AI战略。——

封面图片

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险称:OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”GeoffreyHinton、因开创性AI研究而获得图灵奖的YoshuaBengio,以及AI安全领域的顶尖专家StuartRussell。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

公司内部疑生动荡 OpenAI 人工智能风险团队解散

公司内部疑生动荡OpenAI人工智能风险团队解散据美国杂志《WIRED》证实,专注于研究人工智能生存危险的OpenAI团队已经全部辞职或被其他小组吸收。OpenAI去年7月宣布成立一个新的研究团队,为能够智胜其创造者的超级AI的出现做准备,公司创始人之一IlyaSutskever被任命为团队共同负责人。团队解散是公司内部最近出现动荡的又一证据。据TheInformation上月报道,团队两名研究人员因泄露公司机密而被解雇,另一名成员也在2月离开。OpenAI章程规定,必须安全地开发人工通用智能,即可以与人类匹敌或超越人类的技术。公司最近发布了GPT-4o新模型,没有迹象表明最近的离职与公司在AI方面的努力有关,但最新进展确实引发了有关隐私、情感操纵和网络安全风险的问题。

封面图片

人工智能教父 Geoffrey Hinton 离职谷歌

人工智能教父GeoffreyHinton离职谷歌GeoffreyHinton是人工智能领域最具影响力的先驱之一,离职谷歌使他可以自由地谈论人工智能风险,现在正式加入了批评者阵营。GeoffreyHinton:"我现在对自己的毕生工作感到非常后悔。我常用借口安慰自己,如果我不做,还有其他人会做。我以为这种东西超越人类智能还有30到50年甚至更长的时间,显然我不再这么认为了。很难看出如何才能防止坏人利用它来做坏事。"他最关心的是,互联网上将充斥着虚假的照片、视频和文字,普通人再也无法知道什么是真实的。他还担心人工智能技术会及时颠覆就业市场,它虽然带走了苦差事,但也可能带走更多东西。如今个人和公司允许人工智能系统不仅生成自己的计算机代码,还能自主运行这些代码。他担心有一天,该技术的未来版本会对人类构成威胁,真正的自主武器,那些杀手机器人将成为现实。频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人