刘慈欣:算力不足导致 AI 难以自我迭代暴力推翻人类,但我们反而可能会醉生梦死

刘慈欣:算力不足导致 AI 难以自我迭代暴力推翻人类,但我们反而可能会醉生梦死 刘慈欣最近在联合国中文日上进行了《科幻文学中的可持续未来》的演讲,阐述了对于“以 ChatGPT 为代表的人工智能会给人们带来的影响”话题的看法,并回答了人工智能是否会消灭人类的问题。 刘慈欣在演讲中的要点如下: 人工智能会首先取代高大上的职业; 人类的算力限制了人工智能自我迭代的能力; 人工智能或许会让人类陷入舒适的陷阱之中。 刘慈欣表示,人工智能可以代替相当多的工作,但首先取代的是一般社会普遍认定的“高大上”的行业,与业界分析预测正好相反。 刘慈欣认为,这主要是因为简单劳动的行业,强调成本与精准性,当下人工智能实际无法满足资本市场的稳定要求。 因此“教师、作家、开发者、股票经纪人”这类被一般社会普遍认为“高大上”但是实际上“沉没成本相对更低、人力部署成本高昂”的工作反而会被首先代替。 而在面对“人工智能是否会追踪会消灭人类”这一问题时,刘慈欣从暴力与非暴力的层面进行了解答,即“由于人类算力不足,人工智能难以进行自我迭代,并最终物理上使用暴力统治世界”,但“人类可能在未来过度沉浸于人工智能提供的服务中,最终醉生梦死”。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

给炒作泼盆冷水:人工智能正在遭遇一道难以逾越的天花板

给炒作泼盆冷水:人工智能正在遭遇一道难以逾越的天花板 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN 过去几个月,对人工智能的炒作已经到了疯狂的地步。什么特斯拉在一两年内就要实现全自动驾驶了,人工智能明年将会变得比人类更聪明了,到 2040 年会有十亿台人工智能机器人取代人类工人了,这些还只是埃隆·马斯克今年迄今为止对人工智能许下的海口之一。整个人工智能圈都充斥着这样的预测和承诺,给人感觉人工智能的发展已走上不可阻挡的指数轨迹曲线上,已经到了我们人类根本无法阻止的地步。但是事实并非如此。要我说,人工智能正开始触碰到收益递减的发展天花板,从而令这些夸张的承诺变成一张废纸。下面我会解释的。要想理解这个问题,我们得先了解一点人工智能的基本工作原理。现代人工智能运用的是深度学习算法与人工神经网络,借此来发现数据当中的趋势。然后,人工智能就可以根据这些数据推断或沿着同一趋势线生成新的数据。这首先需要“训练”人工智能,将大量数据喂给它进行分析,让它去发现这些趋势。之后,你就可以抛问题给人工智能来获得输出。这个基本概念为计算机视觉、自动驾驶汽车、聊天机器人以及生成式人工智能提供了动力。这个解释有点简化了,但现在我们只需要了解这些就够了。过去几年,人工智能的能力有了显著增强。这部分要归功于有了更好的编程和算法。但 90% 要归功于用了更大的数据集对人工智能进行训练。从而使得人工智能可以更准确地了解数据趋势,从而更准确地生成结果。但有个问题:我们正目睹相对于所需的数据和算力,训练人工智能带来的回报正在急剧递减。我们先从数据讲起。假设我们开发了一个简单的计算机视觉人工智能,它可以识别出狗和猫,我们已经用 100 只狗和猫的图像和视频对其进行了训练,它可以在 60% 的时间内正确识别这些动物。如果我们将训练的图像和视频数量增加一倍,达到 200 个,其识别率就会提高,但只能略微提高到 65% 左右。如果我们再次将训练图像和视频增加一倍,达到 400 个,那么其改进将更加微乎其微,只能达到 67.5% 左右。这其中的部分原因在于,如果你手头的数据集比较小时,相对于较大的数据集,往里面添加一张新的训练图像,所提供的新数据会更多。不过,这也是因为人工智能处理小的数据集可以迅速建立新的连接与趋势,因为它只需找到适用于几个示例的趋势即可。但随着数据集的增长,找到对整个数据集都适用的新趋势和连接变得越来越难。这些来自较更大数据集的新趋势和连接让人工智能变得更好、能力更强。因此,随着训练人工智能的收益递减,我们看到将人工智能改进到一定程度所需要的训练数据量急剧增加。但这里面还有一个问题。训练人工智能对算力的需求非常大。人工智能必须将每个单独的数据点与数据集所有其他数据点进行比较,这样才能找到它们的关联和趋势。这意味着,每往人工智能训练数据库添加一位数据,用这个数据库训练人工智能所需的计算工作量都会呈指数级增长。因此,就算你有能力获取到训练这些不断改进的人工智能所需的大量数据,它所需的物理计算能力和能源最终也会增长到难以为继的地步。可悲的是,有证据表明,我们现在正处在这样一个阶段:一方面训练数据集扩大带来的回报在递减,一方面用所述数据集所需的算力又呈指数级增长,这些都会给人工智能的发展制造刚性的上限。就拿 OpenAI 的旗舰人工智能产品 ChatGPT4 来说吧,但它相对于 ChatGPT3 的改进要小于 ChatGPT3 相对于 ChatGPT2 的改进,尽管它的准确率提高了,但仍然存在跟 ChatGPT3 一样的幻觉与缺乏理解的问题。虽说OpenAI 对自己的人工智能开发方式守口如瓶,但专家调查发现,ChatGPT3 使用的训练数据集比 ChatGPT2 大了 78 倍,而ChatGPT4 所用的数据集比 ChatGPT3 要大 571 倍!可是,尽管训练数据集的大小有了显著提升, 但ChatGPT4 仍然存在重大缺陷,大大限制了它的使用场景。比方说,还是不能信任它能写出任何以事实为基础的东西,因为它仍然在编造事实。有人估计 ChatGPT4 的原始训练数据集有 45 TB 的纯文本。这意味着,下一次迭代要想取得 ChatGPT4 相对于 ChatGPT3 那样的巨大进步,训练数据集需要达数万 TB 之巨 。即便采用OpenAI 存疑的方法,获取和准备如此大量的纯文本数据也很不切实际。然而,就算真用这个数据集来训练人工智能也可能要消耗大量能源,大到这种成本令人工智能变得完全不可行的地步,那怕你是一家非营利组织也不可行。这么说并不夸张。 OpenAI 首席执行官山姆·阿尔特曼 (Sam Altman) 九层公开表示,先进的人工智能要想变得可行,需要能源技术取得突破,比如核聚变。可悲的是,就算我们确实实现了核聚变,在本世纪乃至下世纪这种技术也不太可能比我们目前的能源便宜。事实上,任何形式的能源都不会比我们目前所拥有的能源便宜得多。因此,针对人工智能能源问题提出的解决方案具有很大的误导性。这个观点得到了一些非常严肃的研究的支持。马萨诸塞大学阿默斯特分校曾做过一项研究,他们分析了将图像识别人工智能性能提高到准确率达 95% 以上所需的计算和能源成本。研究发现,训练这样一个模型将需要花费 1000 亿美元,其所产生的碳排放量相当于纽约市一个月的碳排放量。请记住,这是针对仍有 5% 的时间会出现灾难性错误的人工智能而言的。该研究还强调,将准确率提高到 99% 需要的成本和碳排放还会成倍增加。这就是为什么特斯拉永远不会用当前的方式开发全自动驾驶汽车的原因所在。他们的Autopilot和FSD只能通过这种人工智能计算机视觉来感知周围的世界,而FSD要想实现全自动驾驶,其图像识别精度需要接近100%的准确度。正如那项研究所表明那样,要想让特斯拉的人工智能变得那么好,其所需要的资金也许远非特斯拉能负担得起。换句话说,除非人工智能行业能够找到一种更高效的方法来提高训练人工智能以及计算负载的效率,否则就无法突破这个限制,然后人工智能的发展就将完全停滞。目前可能的解决方案即将出现,比方说结合了模拟与量子技术的更高效的人工智能硬件,以及需要训练数据集个更小的新的人工智能架构。不过,这些概念仍处在起步阶段,距离应用到现实世界可能还需要几十年的时间。简而言之,大家得有个心理准备,未来几年人工智能的发展肯能会大幅低于预期。 ... PC版: 手机版:

封面图片

谷歌等科技巨头承认:AI可能会损害它们的业务

谷歌等科技巨头承认:AI可能会损害它们的业务 这些大型科技公司一直在公开宣布他们加入人工智能竞赛的计划,但最近,他们也开始正视并低调应对该技术可能对各自业务造成的不利影响。在2023年年度财报中,谷歌母公司Alphabet表示,其人工智能产品和服务“引发了道德、技术、法律、监管和其他方面的挑战,可能会对我们的品牌形象和市场需求产生负面影响”。同样,Meta、微软和甲骨文也在提交给美国证券交易委员会(SEC)的文件中,在“风险因素”部分阐述了他们对人工智能的担忧。微软表示,其生成式人工智能功能“可能容易受到来自老练对手的意外安全威胁”。Meta在2023年年度财报中称:“在开发和部署人工智能功能的过程中,我们面临着重大风险。这些风险包括但不限于人工智能的应用未必能增强我们的产品或服务,或对我们的业务产生正面影响,如提升效率或盈利能力。”Meta接着列举了一些具体因素,强调生成式人工智能可能带来的负面影响,如错误信息的广泛传播(尤其在大选等敏感时期)、有害内容的滋生、侵犯知识产权以及数据隐私泄露等,这些都可能对用户造成不利影响,并使公司面临法律诉讼的风险。与此同时,公众对于人工智能技术的担忧也日益加剧,主要聚焦于其可能导致的工作岗位流失、基于个人数据的大语言模型训练引发的隐私顾虑,以及错误信息快速传播对社会的潜在危害。6月4日,多位来自OpenAI的在职和离职员工签署了一封致科技公司的信,要求它们采取更多措施来减轻人工智能的风险,并保护对其安全性提出质疑的员工。信中写道,这些威胁包括“加剧现有的不平等、操纵和扩散错误信息,以及失去对可能导致人类灭绝的自主人工智能系统的控制”。截至本文发布,Meta、谷歌和微软都还没有回应置评请求。 ... PC版: 手机版:

封面图片

AI正让管理者紧张:它管理比我强,我可能会降薪

AI正让管理者紧张:它管理比我强,我可能会降薪 这种担忧并非无的放矢,部分源于人们对人工智能能力的高度认可。高达64%的受访者认为,人工智能的产出和生产率与人类管理者所能产出的工作质量“相当”,甚至“可能更好”。事实上,人工智能技术已经越来越强大和多样化。例如,ChatGPT自2022年11月推出以来,已经能够生成视频、创建营销材料以及编写课程计划等。3月初,初创公司Cognition推出了Devin,并称其为“第一位人工智能软件工程师”,它能够修复漏洞并训练其他人工智能模型。此外,高管们似乎也对这些工具可能导致员工薪资降低感到不安。Beautiful.ai的调查显示,62%的受访高管表示,他们的员工认为人工智能最终会导致他们失业。同时,45%的高管认为,这项技术将促使整个员工队伍薪酬降低。调查还指出:“毫无疑问,人工智能工具的引入已经让员工开始质疑它们对公司的价值。”越来越多的研究揭示了一个共同的观点:员工普遍认为人工智能技术将对其收入产生影响。去年5月,市场研究软件平台Pollfish发布的一项调查结果显示,近79%的美国员工对人工智能技术的采用表示担忧,包括这会导致他们的薪资水平下降。不仅如此,这项技术似乎已经开始对某些工作岗位构成威胁。根据失业追踪机构Layoffs.fyi的数据,截至4月28日,科技行业在2024年已经有超过7万名员工被解雇。分析人士指出,这一现象可能与人工智能投资的增加密切相关。例如,一位电子商务公司的首席执行官透露,他利用人工智能聊天机器人取代了90%的支持人员。一位自由撰稿人抱怨称,她的客户开始被ChatGPT等人工智能抢走。然而,人工智能技术并非全然带来负面影响,它同样有可能成为提高薪酬的助力。科技咨询公司AccessPartnership去年12月进行的一项研究发现,雇主愿意为那些具备人工智能技能的员工提供至少30%的加薪。为了吸引这些人才,大公司甚至开出了远超六位数的薪水。此外,生成式人工智能还催生了全新的职业,如ChatGPT课程指导和内容编辑等。尽管人工智能将如何彻底改变工作领域仍充满未知,但Beautiful.ai的数据显示,64%的管理人员表示,自2024年初以来,他们已经开始在日常或每周的员工管理中运用人工智能技术。该调查指出:“企业可以期待在未来从人工智能中看到更多可能。现在的问题不再是是否应该在工作场所采用这项技术,而是何时以及如何有效地将其融入日常运营中。” ... PC版: 手机版:

封面图片

周鸿祎:ChatGPT或两三年内产生自我意识

周鸿祎:ChatGPT或两三年内产生自我意识 360的创始人周鸿祎星期四(2月23日)受访时说,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。 周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”,“能够自己‘编’故事,这才是它的真正智能所在。” 他说:“ChatGPT可能在2-3年内就会产生自我意识威胁人类。” 作为网络安全问题专家,在周鸿祎看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。 “目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎说,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的边界点。 至于外界关注的ChatGPT是否可能造成普通人失业,在周鸿祎看来短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”前文: 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

联合国警告称,在大脑中植入不受监管的人工智能芯片可能会威胁到你的心理隐私

联合国警告称,在大脑中植入不受监管的人工智能芯片可能会威胁到你的心理隐私 据法新社报道,联合国对神经技术的“潜在有害”进步发出了警告,认为大脑植入和扫描可能会让人工智能侵犯人类的私人思想。  联合国教育、科学及文化组织经济学家玛丽亚格拉齐亚·斯奎恰里尼 (Mariagrazia Squicciarini) 告诉法新社:“这就像给神经技术注射了类固醇。” 随着人工智能增强神经技术领域,它需要监管。联合国教科文组织负责社会和人文科学的助理总干事加布里埃拉·拉莫斯告诉法新社,这项技术具有“影响深远且可能有害”的能力。 “神经技术可以帮助解决许多健康问题,但它也可以进入和操纵人们的大脑,并产生有关我们的身份和情感的信息。它可能威胁我们的人类尊严、思想自由和隐私权,”联合国教科文组织总干事奥黛丽·阿祖莱在六月提出“国际层面的共同道德框架”时 表示。

封面图片

“ChatGPT之父”关于人工智能有哪些新观点?

“ChatGPT之父”关于人工智能有哪些新观点? 人工智能会降低我们对彼此的关注吗?1997年,当IBM公司研制的人工智能系统“深蓝”击败国际象棋世界冠军加里·卡斯帕罗夫时,有评论员预测“这将是国际象棋的终结”,此后没有人会再费心看棋或下棋。但时至今日,“我们仍对人类所做的事情非常感兴趣,几乎没人观看两个人工智能对弈,”奥尔特曼说,他在读完自己喜欢的书后,第一件事就是了解作者的生活,“我想感受到与那个引起我共鸣的人之间的联系”。奥尔特曼说,人类始终在获得更好的工具,但有一点不会改变,那就是“今天我们仍然非常关注彼此”。需要担心人工智能取代人类工作吗?奥尔特曼认为,人工智能将对人类工作产生巨大影响。如今,人工智能已经成为“令人难以置信的生产力工具”,但尚未以经济学家担心的规模取代工作岗位。人类还能从事哪些工作?奥尔特曼以自己为例说,“我并不是人工智能研究人员,我的角色是弄清楚我们将做些什么,然后与其他人合作并实现目标。”他认为,未来,人类将在更高的抽象层次工作,也将获得更多能力。人工智能监管是好事情吗?奥尔特曼表示对人工智能技术实施监管表示欢迎。他认为各方在发展人工智能技术过程中“遵守高标准是件好事”,科技行业有责任将社会意见纳入诸如价值观和安全阈值等决策中,以保证收益大于风险。奥尔特曼强调,“应让社会和技术共同发展,构建这些(人工智能)系统时,应通过非常严格的反馈循环和路线修正使其逐步发展,在符合安全要求的同时提供巨大价值”。比技术更难的问题奥尔特曼指出,对人工智能进行“迭代部署”意味着社会可以逐渐习惯这项技术,并让“我们的机构有时间展开讨论,以弄清楚如何监管”。奥尔特曼认为, GPT-3和GPT-4在对价值观保持一致方面取得了“巨大进展”。但他认为,比技术更难的问题是:谁来决定这些价值观、默认价值观是什么、界限是什么?它在不同国家如何运作?用它可以做什么以及不可以做什么?“这是一个重大社会问题。”他说。AGI是不是“严重危害”?通用人工智能(AGI)是人工智能的重要研究方向。去年2月,奥尔特曼曾警告通用人工智能(AGI)的“严重危害”。在世界经济论坛上,奥尔特曼的态度有所软化。与微软首席执行官萨蒂亚·纳德拉对话时,奥尔特曼表示,AGI将是一个“令人惊讶的持续性事物”,“每年我们都会推出一个新模型,而且会比前一年好得多”。在另一场对话中,奥尔特曼认为,AGI可能会在“相当近的未来”得到开发,但“对世界的改变将比我们想象得要小得多,对工作的改变也比我们想象得要小得多” 。相关文章:OpenAI奥特曼:无论谁赢得白宫 美国和人工智能都将“很好”OpenAI CEO山姆·奥特曼希望建立全球芯片制造工厂网络 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人