以太坊联合创始人:AI或将彻底灭绝人类 逃到火星都没用

以太坊联合创始人:AI或将彻底灭绝人类逃到火星都没用然而,一旦超级人工智能选择与人类作对,结果可能是人类的彻底灭绝。他写道:“但是一个超级智能的人工智能,如果它决定背叛我们,很可能不会留下幸存者,并永远终结人类,”在这种情况下,甚至火星都不可能成为人类的避难所。布特林主张一个保留“人类”特征和能动性的未来,他说:“如果我们想要一个超级智能和‘人类’共存的未来——一个人类不仅仅是宠物,而是在世界上真正保留有意义的能动性的未来——那么感觉像这样的东西是最自然的选择。”在最近的一次活动上,布特林谈到了对以太坊未来发展的担忧,他透露,他最大的两个担忧是加密货币发展的停滞和与人工智能相关的潜在危险。当被问及什么经常占据他的思想时,布特林提到了“与人工智能相关的问题”,特别是由此带来的生存风险。...PC版:https://www.cnbeta.com.tw/articles/soft/1400281.htm手机版:https://m.cnbeta.com.tw/view/1400281.htm

相关推荐

封面图片

《人类简史》作者:人工智能可能灭绝人类 我们可能还有几年时间

《人类简史》作者:人工智能可能灭绝人类我们可能还有几年时间赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”“这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”“如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。“这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。“如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”人类的下一个“巨大而可怕的实验”?赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”“时间至关重要”尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。“我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1383519.htm手机版:https://m.cnbeta.com.tw/view/1383519.htm

封面图片

苹果联合创始人:人工智能永远取代不了人类

苹果联合创始人:人工智能永远取代不了人类沃兹尼亚克一生都在研究大脑和计算机技术,他说人工智能永远无法与人脑匹敌。他认为,尽管人工智能可以比人类更快地执行任务和做出决定,但它仍然缺乏使我们独一无二的情感和人类品质。沃兹尼亚克说:“这让人印象深刻,但问题是,虽然它对我们有好处,但它也会因为不了解人性而犯可怕的错误。”“我的意思是,就像你在开车,你知道其他汽车现在可能会做什么,因为你了解人类。”谷歌母公司Alphabet最近发布的新人工智能技术Bard在演示时发生了一个错误,引发投资者担忧,导致该公司股价大跌。沃兹尼亚克没有提到该公司的名字,只是把这件事当作一个例子,说明人工智能技术的局限性和人类监督的重要性。这位苹果联合创始人还谈到了计算机智能的发展,并将其比作国际象棋的进步。当计算机第一次在国际象棋中击败人类时,人们对它们的智慧感到惊讶,但沃兹尼亚克指出,计算机只是遵循了与人脑不同的方法。尽管沃兹尼亚克持怀疑态度,但他仍然认为人工智能对人类有用。他认为,人工智能将继续发展和改进,特别是因为它可以每秒扫描10亿次事物,这超出了人脑的能力。然而,他认为,如果人工智能不了解人性,它也会犯错误,可能会产生严重的后果。...PC版:https://www.cnbeta.com.tw/articles/soft/1344197.htm手机版:https://m.cnbeta.com.tw/view/1344197.htm

封面图片

顶级AI研究人员和CEO在22字声明中对"灭绝人类的风险"提出警告

顶级AI研究人员和CEO在22字声明中对"灭绝人类的风险"提出警告这份声明由位于旧金山的非营利组织人工智能安全中心发布,包括GoogleDeepMind首席执行官DemisHassabis和OpenAI首席执行官SamAltman以及GeoffreyHinton和YoushuaBengio在内的人物共同签署了这份声明--他们是因其在人工智能方面的工作而获得2018年图灵奖(有时被称为"计算界的诺贝尔奖")的三位人工智能研究人员中的两位。在撰写本报告时,今年的第三位获奖者、现任Facebook母公司Meta的首席人工智能科学家YannLeCun还没有签字。该声明是对人工智能安全的复杂和有争议的辩论的最新高调干预。今年早些时候,一封由许多支持22字警告的人签署的公开信,呼吁人工智能发展"暂停"6个月。这封信在多个层面受到了批评。一些专家认为它夸大了人工智能带来的风险,而另一些人同意风险,但不同意信中建议的补救措施。人工智能安全中心(CenterforAISafety)的执行董事丹-亨德利克斯(DanHendrycks)告诉《纽约时报》,今天声明的简洁性--没有提出任何潜在的方法来减轻人工智能带来的威胁--是为了避免这种分歧的产生。"我们不想推动一个非常大的30种潜在干预措施的菜单,"亨德利克斯说。"当这种情况发生时,它稀释了信息。"Hendrycks将这一信息描述为担心人工智能风险的行业人士的"出柜"。"有一个非常普遍的误解,甚至在人工智能界,认为只有少数的末日主义者,"亨德利克斯告诉《纽约时报》。"但是,事实上,许多人私下里会对这些事情表示担忧。"这场辩论的大体轮廓是熟悉的,但细节往往是无休止的,是基于人工智能系统迅速提高能力,并不再在安全可控运行下的假设情景。许多专家指出,像大型语言模型这样的系统的迅速改进,证明了未来智能的预期收益。他们说,一旦人工智能系统达到一定的复杂程度,可能会变得无法控制其行动。其他人则怀疑这些预测。他们指出,人工智能系统甚至无法处理相对平凡的任务,比如说,驾驶汽车。尽管在这一研究领域付出了多年的努力和数十亿的投资,但完全自动驾驶的汽车仍远未成为现实。怀疑论者说,如果人工智能连这一个挑战都处理不了,那么在未来几年,这项技术还有什么机会与人类的其他成就相媲美呢?同时,人工智能风险倡导者和怀疑论者都认为,即使不改进其能力,人工智能系统在今天也会带来一些威胁--从它们的使用导致大规模监视,到为错误的"预测性警务"算法提供动力,以及为制造错误信息和虚假信息提供便利。...PC版:https://www.cnbeta.com.tw/articles/soft/1362501.htm手机版:https://m.cnbeta.com.tw/view/1362501.htm

封面图片

Midjourney创始人:AI应该成为人类思想的延伸

Midjourney创始人:AI应该成为人类思想的延伸Midjourney创始人大卫•霍尔兹通过视频对话的方式,向现场的中国观众“问好”。澎湃新闻记者范佳来图在演讲中,霍尔兹提到了自己对中国古典文学的浓厚兴趣:庄周梦蝶、子非鱼……对于中国道家故事,他侃侃而谈,他也透露,“Midjourney”这个名字正来源于“庄周梦蝶”中所推崇的“中道”理念。公开资料显示,Midjourney是由Midjourney研究实验室开发的人工智能程序,可根据文本生成图像,于2022年7月12日进入公开测试阶段,用户只需要通过输入关键字,就能透过AI算法生成相对应的图片,Midjourney里有众多画家的艺术风格,例如达芬奇、达利和毕加索等,还能识别特定镜头或摄影术语。一经推出后,就火遍全球,成为舆论关注的焦点。在Midjourney官网上,对于霍尔茨的介绍只有简短几句话:LeapMotion创始人;NASA和MaxPlanck研究员。实际上,作为一个数学专业的博士生,霍尔兹曾在大学期间研究激光雷达、大气科学和火星任务,被认为是一个涉猎极广,且充满好奇心的“怪才”。霍尔兹认为,Midjourney试图利用引擎创造一种新的“交通工具”,它不是一种实体工具,而是思想和想象力的载体,“你需要创造一种新交通工具,可以不通过车和腿移动,让我们来增强不仅仅是个体的力量,而是整个人类的想象力。”此外,霍尔兹还提出了他对于“人性化”人工智能的理解:“人工智能不应该像是一个工具,他应该是你身体与思想的延伸。Midjourney要做到的不是成为一个帮助用户绘画的‘艺术家’,而是帮助使用者将他们的想象呈现于屏幕之上。”在技术更新方面,霍尔兹在大会上介绍,Midjourney将迎来被称为第六版的5.3版本,这一版本将加入多项新功能,其算法速率也将得到大大提升,相较于5.2版本,它的运算速度将为其4-5倍。但这一版本同样是一场冒险,用户在告诉人工智能自我需求的同时,也要明确自己所能承受的风险,用户需要在风险与美之间找寻到自我的平衡,“风险所带来的呈现是不寻常的、混乱的、怪异的,但有时那种美又真的很棒。”霍尔兹透露,在目前二维图像的基础之上,Midjourney将拓展三维图像、运动图像等全新业务领域。他关注的不仅是人工智能身为工具能做什么,还有人工智能如何在不同的事物之间创造“流动与羁绊”。他希望,未来Midjourney中画作的像素将与声音相结合,所有东西都会根据绘画内容重新流动、改变,并与人们的思想交互,视觉效果将从人类技术与时间中跳脱出来。“可能在未来,人们会拥有一个巨大的人工智能处理器,可以梦想很多不同的世界,并在梦中达到自己所要的一切,这非常酷。”霍尔兹表示,“我希望未来的AI就是这样的,应该成为人类大脑的延伸。”...PC版:https://www.cnbeta.com.tw/articles/soft/1369439.htm手机版:https://m.cnbeta.com.tw/view/1369439.htm

封面图片

OpenAI首席科学家大胆设想:人类未来将难免与AI融合

OpenAI首席科学家大胆设想:人类未来将难免与AI融合他指出,未来人工智能的兴起将鼓励人类与AI融合,在一个拥有更智能AI的世界中,人类的生存空间被不断压缩。虽然现在听起来很疯狂,但许多人会选择将自己部分AI化。他补充道,一开始只有最勇敢且具有冒险精神的人才会尝试,之后其他人会效仿。但他自己对这一可能性充满不确定,他也无法确定自己是否也会进行融合。如何控制AISutskever称,人工智能可能在未来十年内超过人类的智能,且AI未必是善意的,因此人类需要研究控制和限制它的方法。但Sutskever承认目前仍未出现解决方案。现在的技术主要是根据人类的反馈让AI进行强化学习,这依赖于人类监督AI的能力。但实际上,人类无法可靠有效地监督一个智能高于人类的AI系统。他还强调超级人工智能的概念,认为其将更深入地看待事物,并看到人类看不到的东西。为此,OpenAI成立了一个超级对齐团队(SuperAlignment),由Sutskever和超级对齐联合领导人JanLeike共同领导,目标在四年内解决控制超级智能AI的核心技术。不过,Sutskever的想法显然更加消极一些,一言以蔽之:打不过AI,那就加入AI。但这又和马斯克的想法十分接近。马斯克就指出他名下的Neuralink公司最终目标就是实现人类与人工智能的共生,还提出将人类大脑上传到云端的超前概念。然而,无论是OpenAI还是Neuralink都还有很长的路要走。OpenAI的ChatGPT目前还未解决幻觉问题,Neuralink则在大脑植入的活体实验中饱受攻讦。...PC版:https://www.cnbeta.com.tw/articles/soft/1393443.htm手机版:https://m.cnbeta.com.tw/view/1393443.htm

封面图片

人工智能有“灭绝(人类)的危险”

人工智能有“灭绝(人类)的危险”非营利组织“人工智能安全中心CenterforAISafety”预计将发布一份只有一句话的声明:“减轻人工智能带来的灭绝风险应与其他社会规模的风险,如大流行病和核战争一样,成为全球优先事项。”这封公开信由350多名从事人工智能工作的高管、研究人员和工程师签署,签署者包括三家领先的人工智能公司OpenAI、谷歌DeepMind和Anthropic的CEO,也包括除了YannLeCun之外的人工智能领域另外两位图灵奖得主。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人