论如何灭绝人类via

None

相关推荐

封面图片

《人类简史》作者:人工智能可能灭绝人类 我们可能还有几年时间

《人类简史》作者:人工智能可能灭绝人类我们可能还有几年时间赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”“这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”“如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。“这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。“如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”人类的下一个“巨大而可怕的实验”?赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”“时间至关重要”尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。“我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1383519.htm手机版:https://m.cnbeta.com.tw/view/1383519.htm

封面图片

350名AI企业专家示警:AI有「灭绝人类风险」#新唐人电视台

封面图片

ChatGPT之父发出警告:“AI可能灭绝人类” 三巨头AI公司CEO力挺

ChatGPT之父发出警告:“AI可能灭绝人类”三巨头AI公司CEO力挺签署这封公开信的,既包括三大AI巨头的CEO,即ChatGPT老板、OpenAI的SamAltman,DeepMind的DemisHassabis和Anthropic的DarioAmodei;也包括不少国内外高校的教授,除了YoshuaBengio和GeoffreyHinton以外,清华AIR院长张亚勤和斯坦福教授、图灵奖得主MartinHellman等人也名列其中。这段时间来,关于AI风险的各种大小讨论也是接连不断,OpenAICEOSamAltman前段时间还倡议称,人们应当像对待核设施一样监管AI。所以,究竟是谁发起的这封公开信倡议,又是否有AI大牛反对这件事?为何签署这封信?发布这封公开信的机构名叫CenterforAISafety(CAIS),是一家关于AI安全的非营利组织。在这封公开信的开头,CAIS反复强调:包括AI专家、记者、政策制定者和公众在内,越来越多的人开始讨论AI带来的一系列重要和紧迫的风险。即便如此,要想表达对先进AI的严重风险,可能还是有一定难度。这封公开信旨在克服这一障碍,并展开对相关议题的讨论,让更多专家和公众人物认识到这一点。事实上,已经有不少签署了这封信的AI大牛,最近发了关于AI风险的博客文章、或是在访谈中谈到了自己的观点。例如前段时间,YoshuaBengio就写了一封长信,警告称“人类大脑是生物机器,一定会有超级智能AI超越它”。除此之外,包括StabilityAI的创始人EmadMostaque、以及剑桥大学助理教授DavidKrueger等人,也都在最近的访谈中提到了关于AI带来的潜在危害。例如,EmadMostaque认为,10年后包括StabilityAI、OpenAI和DeepMind在内,这些AI公司的规模甚至会超过谷歌和Facebook。也正是因此,AI风险是一个必须要考虑的事情:我们可能正处于全面变革的风口浪尖,这些变革对于任何一家公司或是国家来说都太过庞大,以至于难以管理。没签的AI大牛怎么说?当然,这波闹得沸沸扬扬的“请求AI监管”浪潮下,也有不少反对的声音。目前为止,包括另一位图灵奖得主YannLeCun、前特斯拉AI总监AndrejKarpathy还有吴恩达等AI大牛在内,都还没签署这封联名信。吴恩达发推回应称:当我想到大部分人类生存面临的风险时:流行病、气候变化导致大规模人口减少、(撞击地球的)小行星……AI将是我们寻找解决方案的关键部分。所以,如果你想让人类在接下来的1000年里生存和繁荣,那就让AI发展得更快,而不是更慢。LeCun转发表示同意:“超人级”AI之所以不在风险列表榜首,很大程度上是因为它还不存在。至少我们在设计出达到狗智商(更不用说人类了)的AI之前,讨论它的安全性还为时过早。对此,纽约大学教授GaryMarcus补充道:不要把框架缩小到只关注人类灭绝的风险。AI其实还存在许多其他的严重风险,包括可能帮助开发生物武器等。不过,GaryMarcus同样没有签署这份350人公开信。显然包括不少AI大牛在内,反对者主要有两种意见。一种意见认为,AI技术确实存在风险,但这封公开信涉及到的内容太泛泛。如果有更精确的声明如“减轻AI技术的潜在风险应该是科技行业、政府和该领域学术研究人员的首要任务”,那么这封信还是可以签署的。这封公开信中的内容根本就是夸大其词了,而且AI在气候变化等领域甚至可以起到降低风险的作用。另一类意见则认为,这封信只不过是当前掌握最领先AI技术的人,试图控制AI接下来的走向而已。以OpenAI的CEOSamAltman为例:SamAltman要是真的担心,大可以现在直接关掉ChatGPT服务器。所以,你认为按照现在的进度来看,AI有可能灭绝人类吗?参考链接:[1]https://www.safe.ai/statement-on-ai-risk[2]https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html?smtyp=cur&smid=tw-nytimes[3]https://twitter.com/AndrewYNg/status/1663584330751561735[4]https://www.reddit.com/r/MachineLearning/comments/13vls63/n_hinton_bengio_and_other_ai_experts_sign/...PC版:https://www.cnbeta.com.tw/articles/soft/1362681.htm手机版:https://m.cnbeta.com.tw/view/1362681.htm

封面图片

以太坊联合创始人:AI或将彻底灭绝人类 逃到火星都没用

以太坊联合创始人:AI或将彻底灭绝人类逃到火星都没用然而,一旦超级人工智能选择与人类作对,结果可能是人类的彻底灭绝。他写道:“但是一个超级智能的人工智能,如果它决定背叛我们,很可能不会留下幸存者,并永远终结人类,”在这种情况下,甚至火星都不可能成为人类的避难所。布特林主张一个保留“人类”特征和能动性的未来,他说:“如果我们想要一个超级智能和‘人类’共存的未来——一个人类不仅仅是宠物,而是在世界上真正保留有意义的能动性的未来——那么感觉像这样的东西是最自然的选择。”在最近的一次活动上,布特林谈到了对以太坊未来发展的担忧,他透露,他最大的两个担忧是加密货币发展的停滞和与人工智能相关的潜在危险。当被问及什么经常占据他的思想时,布特林提到了“与人工智能相关的问题”,特别是由此带来的生存风险。...PC版:https://www.cnbeta.com.tw/articles/soft/1400281.htm手机版:https://m.cnbeta.com.tw/view/1400281.htm

封面图片

灭绝人性从小做起

封面图片

防止AI失控灭绝人类?OpenAI:还没有任何解方https://www.bannedbook.org/bnews/cnnews

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人