人工智能教父 Geoffrey Hinton 离职谷歌

人工智能教父GeoffreyHinton离职谷歌GeoffreyHinton是人工智能领域最具影响力的先驱之一,离职谷歌使他可以自由地谈论人工智能风险,现在正式加入了批评者阵营。GeoffreyHinton:"我现在对自己的毕生工作感到非常后悔。我常用借口安慰自己,如果我不做,还有其他人会做。我以为这种东西超越人类智能还有30到50年甚至更长的时间,显然我不再这么认为了。很难看出如何才能防止坏人利用它来做坏事。"他最关心的是,互联网上将充斥着虚假的照片、视频和文字,普通人再也无法知道什么是真实的。他还担心人工智能技术会及时颠覆就业市场,它虽然带走了苦差事,但也可能带走更多东西。如今个人和公司允许人工智能系统不仅生成自己的计算机代码,还能自主运行这些代码。他担心有一天,该技术的未来版本会对人类构成威胁,真正的自主武器,那些杀手机器人将成为现实。频道:@TestFlightCN

相关推荐

封面图片

AI教父Geoffrey Hinton表示人工智能“有 50-50 的机会”战胜人类

AI教父GeoffreyHinton表示人工智能“有50-50的机会”战胜人类AI教父GeoffreyHinton近日呼吁科技行业应该拨出大量资金来应对生存威胁——如果人工智能变得比人类更聪明,会发生什么?GeoffreyHinton认为未来20年人工智能有50-50的机会变得比人类更聪明,而因为人类从来没处理过比自己还聪明的东西,所以现在起应该花费20%-30%的计算资源来研究人工智能是如何最终如何逃脱人类的控制。“一旦人工智能有了自身利益,进化就会开始,”Hinton说道。Hinton将这种风险与人工智能带来的潜在收益并列起来,认为这是导致OpenAI联合创始人IlyaSutskever最近离开公司的关键矛盾之一。“对安全感兴趣的人,如IlyaSutskever,希望在安全上投入大量资源。对利润感兴趣的人,如SamAltman,不想在这方面花费太多资源。他补充说到。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

AI教父:人工智能可能会重写自己的代码来“逃脱控制”

AI教父:人工智能可能会重写自己的代码来“逃脱控制”辛顿指出,人工智能系统可能逃脱控制的方法之一是自己编写“自己的计算机代码”,这是我们需要认真担心的事情。辛顿的工作被认为对当代人工智能系统的发展至关重要。1986年,他与人合著了一篇开创性的论文《通过反向传播误差来学习表征》,这是人工智能技术基础神经网络发展的一个里程碑。2018年,他被授予图灵奖,以表彰他的研究突破。今年4月,在谷歌工作了10年之后,辛顿辞去了副总裁兼工程研究员的职位,这样他就可以自由地谈论人工智能带来的风险。在离职后,辛顿声称对自己在开发人工智能这项技术中的角色感到遗憾。他特别强调,人类,包括像他这样构建人工智能系统的顶尖科学家,仍然没有完全理解这项技术是如何工作和发展的。许多人工智能研究人员也坦率地承认对此缺乏理解。今年4月份,谷歌首席执行官桑达尔·皮查伊将其称为人工智能的“黑匣子”问题。正如辛顿所描述的那样,科学家为人工智能系统设计算法,从“数据集”中提取信息,比如互联网。他说:“当这种学习算法与数据产生交互时,它会产生擅长做某些事情的复杂神经网络。但说实话,我们并不真正了解它们是如何做到这些的。”皮查伊和其他人工智能专家似乎并不像辛顿那样担心机器失控的问题。另一位图灵奖得主YannLeCun称,任何有关人工智能可能取代人类的警告都是“荒谬可笑的”,因为人类总是可以阻止任何变得过于危险的技术。但辛顿认为,最坏的情况并不确定,医疗保健等行业已经从人工智能中受益匪浅。此外,人工智能制造的错误信息、假照片和视频在网上广泛传播。他呼吁进行更多的研究来了解人工智能,政府应该出台法规来控制这项技术,并在全球范围内禁止人工智能军用机器人。在上个月,美国科技大佬齐聚国会山,参加了由参议院多数党领袖舒默举办的人工智能峰会,商讨未来人工智能的监管方式。尽管科技巨头呼吁美国国会通过立法加强对人工智能的监管,但在如何进行监管上,各科技公司仍然存在分歧。辛顿指出,无论人工智能护栏是由科技公司,还是在美国联邦政府的强制要求下实施的,都需要尽快出台相关的监管措施。他认为,人类可能正处于“某种转折点”,接下来会发生什么存在巨大的不确定性。并补充说,科技圈和政府领导人必须决定“是否进一步发展这些东西,以及如果他们这样做该如何保护自己。”...PC版:https://www.cnbeta.com.tw/articles/soft/1389365.htm手机版:https://m.cnbeta.com.tw/view/1389365.htm

封面图片

“AI教父”警告:人工智能可能取代人类

“AI教父”警告:人工智能可能取代人类在上周日的一次电视采访中,辛顿继续强调了人工智能进步可能带来的负面影响。辛顿说:“也许我们回顾过去,把这看作是一种转折点,人类必须做出决定,是否进一步发展这些东西,如果他们这样做了,该如何保护自己。”辛顿说,人工智能可能有好有坏,接下来会发生什么还不得而知。“我们需要认真思考接下来会发生什么。我们只是不知道。”辛顿在这次采访中警告称,人工智能有可能取代人类。他说:“如果我们能阻止他们这么做,那就太好了,但目前还不清楚我们能否阻止他们这么做。”辛顿的担忧包括人工智能带来的就业流失,以及假新闻的兴起,有偏见的人工智能程序提供的信息被当作事实。辛顿警告说,人工智能系统可能编写自己的计算机代码来修改自己,“这是我们需要认真担心的事情。”尽管对人工智能相关的风险感到担忧,但辛顿说,他对帮助开发系统和推动人工智能的兴起并不后悔。他在谈到人工智能可能带来的好处是说:“因此,医疗保健显然是一个巨大的好处。在理解医学图像的情况方面,人工智能已经可以与放射科医生相提并论。它将非常擅长设计药物。”辛顿说,可能无法找到一条可以确保人类未来安全的人工智能发展道路,“我们正在进入一个非常不确定的时期,我们正在处理以前从未处理过的事情。”他警告称,我们负担不起出错。...PC版:https://www.cnbeta.com.tw/articles/soft/1388979.htm手机版:https://m.cnbeta.com.tw/view/1388979.htm

封面图片

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险

数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能风险称:OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”GeoffreyHinton、因开创性AI研究而获得图灵奖的YoshuaBengio,以及AI安全领域的顶尖专家StuartRussell。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

AI教父:人工智能对世界的威胁比气候变化“更紧迫”

AI教父:人工智能对世界的威胁比气候变化“更紧迫”辛顿此前也证实,他之所以离开谷歌,就是为了完全自由地说出人工智能所带来的危险,甚至还说他对自己在人工智能领域所付出的贡献感到懊悔。辛顿的工作被认为对当代人工智能系统的发展至关重要。1986年,他与人合著了一篇开创性的论文《通过反向传播误差来学习表征》,这是人工智能技术基础神经网络发展的一个里程碑。2018年,他被授予图灵奖,以表彰他的研究突破。但现在,越来越多的科技前沿人物公开表示,如果机器获得比人类更强的智能并控制地球,人工智能将对人类生存构成威胁,辛顿就是其中之一。在周五的采访中,辛顿表示,我不想贬低应对气候变化的价值,我不想说,你不应该担心气候变化,因为这也是一个巨大的风险,但人工智能的风险确实更加紧迫。他补充道,人类应对气候变化,相对而言,更容易提出一些有效的应对策略,比如说减少碳的排放,如果你这样做,最终一切都会好起来的。但对于人工智能的风险,你根本不知道如何下手。去年11月,微软支持的OpenAI公司向公众推出了人工智能聊天机器人ChatGPT,开始了一场技术竞赛。ChatGPT很快成为了历史上增长最快的应用程序,在两个月内月活用户就达到了1亿。今年4月份,包括马斯克在内的许多科技产业人士联署了一封公开信,呼吁所有相关实验室立即暂停训练人工智能系统至少6个月。虽然辛顿也担心这种威胁,但他不同意暂停研究。辛顿指出,这完全不现实,我认为人工智能技术存在巨大的风险,而且已经非常接近了,我们现在应该非常努力地工作,投入大量资源,找出我们能做些什么。此前一天,美国总统拜登会见了领先的人工智能公司谷歌、微软、OpenAI和Anthropic的首席执行官。拜登政府警告人工智能技术对公共安全、隐私和民主构成的危险,同时表示对其监管的权力有限。副总统卡马拉·哈里斯称,这项技术“有可能极大地增加对安全和安保的威胁,侵犯公民权利和隐私,并侵蚀公众对民主的信任和信心”。她补充说,企业有责任遵守现有的法律,以及“伦理、道德和法律责任,以确保其产品的安全和保障”。辛顿表示:“科技行业的领导人最了解人工智能的风险,政府也必须参与进来。它影响到我们所有人,所以我们都必须考虑如何应对它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1358379.htm手机版:https://m.cnbeta.com.tw/view/1358379.htm

封面图片

AI教父发出警告:新版人工智能会让杀人机器人变为现实

AI教父发出警告:新版人工智能会让杀人机器人变为现实对毕生工作感到有些后悔欣顿周一正式加入到人工智能批评者的行列。批评者们认为,那些积极开发基于人工智能的产品的企业是在加速走向危险。欣顿说,他已辞去谷歌的工作,并对自己一生致力于人工智能开发感到有些后悔,欣顿已为谷歌效力长达十年。欣顿从人工智能奠基人到末日预言者的转变,标志着科技产业的一个关键时刻,该行业正处于几十年来最重要的转折点。业界领袖认为,人工智能系统的重要性可与上世纪90年代初引入网络浏览器媲美,并可能给从制药到教育等一系列领域带来突破。但许多业内人士担心,这有可能是一项危险的技术。人工智能已经成为生成错误信息的工具。很快,它就会带来就业风险。对人工智能感到最不放心的业界人士甚至认为,人工智能可能对人类构成威胁。欣顿说:“很难找到防止坏人用它做坏事的方法。”在旧金山初创企业开放人工智能研究中心(OpenAI)今年3月发布新版ChatGPT之后,1000多名技术领袖和研究人员签署公开信,呼吁在6个月内暂停开发人工智能新系统。几天后,有40年历史的人工智能促进会的19名现任和前任领导人发表公开信,警告人工智能存在风险。人工智能“变得越来越危险”1972年,作为英国爱丁堡大学的一名研究生,欣顿接受了所谓人工神经网的概念,即通过分析数据学习技能的系统,并以研发该系统作为主要工作。20世纪80年代,欣顿在卡内基-梅隆大学计算机系担任教授,但后来离开该大学前往加拿大,因为他不想接受五角大楼的经费资助。当时,美国的大部分人工智能研究都是由国防部资助的。但欣顿强烈反对在战场上使用人工智能,即他所说的“机器士兵”。2012年,欣顿博士和他在多伦多的两名学生伊利亚·苏茨克韦尔和亚历克斯·克里舍夫斯基共同创建了一个人工神经网,它可以通过分析数千张照片建立自己识别物体的能力,比如认识花、狗和汽车。谷歌斥资4400万美元收购了由欣顿博十及其两名学生创办的公司。他们创建的系统催生了越来越强大的技术包括聊天机器人ChatGPT和谷歌的巴德(Bard)。苏茨克韦尔后来成为OpenAI的首席科学家。大约同一时间,谷歌、OpenAI和其他公司开始建立通过大量数字化文本学习的人工神经网。去年,谷歌公司和OpenAI公司开始利用更庞大的数据建立人工智能系统。欣顿博士认为,这些系统在某些方面仍然不如人脑,但在其他方面已经超过了人类智力。他认为,随着企业逐渐升级人工智能系统,它们将变得越来越危险。杀人机器人或会变为现实现在,微软用聊天机器人加强了必应搜索引擎,谷歌也想采用同样的技术。欣顿说,科技巨头们已经陷入一场可能无法停止的竞争。他眼下最担心的是,互联网上将充斥着各种虚假照片、虚假视频和文字普通人“再也无法知道什么是真的了。”他还担心人工智能会颠覆就业市场。目前,ChatGPT这样的聊天机器人还是人类的助手,但它们已经可以胜任一些死记硬背的工作。欣顿说:“这不仅会夺走工作机会,它会夺走更多。”欣顿担心,新版本的人工智能会对人类构成威胁,因为它们往往会通过分析海量数据学会令人意想不到的本领。他说这会带来问题因为技术人员和公司不仅允许人工智能系统自己生成代码,而且还允许它们自行运行代码。他担心,有朝一日这会使杀人机器人变为现实。他说:“过去,有人认为这种东西会变得比人更聪明,我认为这样想为时过早,成为现实至少还需要30到50年甚至更长时间。显然我现在不这么认为了。”欣顿博士认为,谷歌和微软等公司之间的竞争将升级为一场全球竞赛,除非有某种形式的全球监管,否则竞赛不会停止。但他说,监管不太可能,因为与核武器不同,目前无法知道企业或国家是否在秘密研发这项技术。最大的希望是世界顶尖科学家联手找到控制这项技术的方法。欣顿说:“我认为,不应再升级该技术,直到人们确定是否能控制住人工智能。”...PC版:https://www.cnbeta.com.tw/articles/soft/1358583.htm手机版:https://m.cnbeta.com.tw/view/1358583.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人