人类离实现强人工智能还有多远?

人类离实现强人工智能还有多远?很多年前研究过这个问题,那时候觉得难度非常大,因为人和机器之间需要交流的语言是一个巨大的障碍,那时候我的观点是,即便实现带意识的机器,可能也无法与人很好交流协作。现在大模型出来后、尤其是看了Gemini之后突然发现这个障碍已经不存在了,剩下的一个难点是实现机器意识。这个还有多远的路程?分析了一下需要实现下面几个步骤:1.实现实时学习的算法。数据训练好之后,不能固化下来,必须实现实时自学习才行。这就需要实现长期记忆、短期记忆、工作记忆分层,才能达到这个效果,还有一段距离,但应该不难。2.实现自我感知。算法不但能感知人类输入的信号,还要能感知自身的信号,比如机器的输出、机器的思考(计算)过程。3.实现自驱动。目前的所有算法都是被动式计算,就是你给输入数据,机器计算然后给出结果,这是不行的。需要的是实现机器自身的计算保持自驱动,即随时保持巡航状态。这需要提升算法性能,实际上人脑的计算非常聪明,效率极高,首先计算是分布式并行的不需要动用整个大脑的计算能力去计算一个局部问题,而且注意力机制保证了粗算与精算结合大大提高效率。在效率方面目前的算法离人类算法还差的很远,要实现更优的算法大模型的结构设计还得优化,目前来说大模型的结构基本还是flat状态,非常初级。克服上面三个问题,大模型基本就已经实现强智能了,具有与人类等同的意识。我预计这个过程可能会在20年内完成。以前我很悲观,觉得人类50年内不可能实现,现在看来好像都不是无法跨越的障碍了。好兴奋,想想50年后满大街都是机器人的样子,而且是真正的机器“人”哦,不是一个某方面像人的机器,那真是一个很魔幻的世界。

相关推荐

封面图片

Meta人工智能主管杨立昆:大型语言模型不会达到人类智能水平

Meta人工智能主管杨立昆:大型语言模型不会达到人类智能水平Meta的人工智能主管表示,为ChatGPT等生成式人工智能产品提供动力的大型语言模型永远无法实现像人类一样的推理和计划能力,他专注于一种激进的替代方法,即在机器中创造“超级智能”。该公司首席人工智能科学家杨立昆表示,LLM“对逻辑的理解非常有限……不理解物理世界,没有持久的记忆,不能按照任何合理的定义进行推理,也不能进行层次化的规划”。杨立昆说,LLMs的这种进化是肤浅和有限的,只有当人类工程师介入并根据这些信息进行训练时,模型才会学习,而不是像人类那样自然地得出结论。“在大多数人看来,这当然是推理,但主要是利用从大量训练数据中积累的知识。(LLM)尽管有局限性,但非常有用。”——()

封面图片

计算的未来包括生物学 由人类脑细胞驱动的人工智能计算机

计算的未来包括生物学由人类脑细胞驱动的人工智能计算机在2月27日发表在《科学前沿》杂志上的一篇文章中,该团队概述了生物计算机如何在某些应用中超越今天的电子计算机,同时使用今天的计算机和服务器群所需电力的一小部分。类器官智能(OI)是一个新兴的科学领域,旨在创建生物计算机,其中实验室培养的大脑类器官作为"生物硬件"。在发表于《科学前沿》的文章中,Smirnova等人概述了追求这一愿景所需的多学科战略:从下一代器官和脑机接口技术,到新的机器学习算法和大数据基础设施。他们从制造由干细胞培育的5万个脑细胞组成的小集群开始,这些细胞被称为有机体。这大约是一个果蝇大脑的三分之一大小。他们的目标是1000万个神经元,这将是一个乌龟大脑中的神经元数量。相比之下,人类大脑平均有超过800亿个神经元。这篇文章强调了人脑如何在特定任务中继续大规模地超越机器。例如,人类只需使用几个样本就能学会区分两种类型的物体(如狗和猫),而人工智能算法则需要成千上万个。而且,虽然人工智能在2016年击败了围棋世界冠军,但它是在16万场比赛的数据基础上训练出来的--相当于每天下5个小时,超过175年。大脑有机体资料来源:约翰霍普金斯大学大脑也更加节能。我们的大脑被认为能够储存相当于普通家用电脑100多万倍的容量(2.5PB),而使用的电力只相当于几瓦。相比之下,美国的数据农场每年使用超过15000兆瓦的电力,其中大部分是由几十个燃煤发电站产生的。在这篇论文中,作者概述了他们的"类器官智能"计划,或称OI,用细胞培养的大脑类器官。虽然脑器官不是"迷你大脑",但它们在大脑功能和结构的关键方面是相同的。器官体将需要从目前的大约5万个细胞大幅扩展。"高级作者、巴尔的摩约翰-霍普金斯大学的托马斯-哈同教授说:"对于OI,我们需要将这个数字增加到1000万。布雷特-卡根博士资料来源:Cortical实验室布雷特和他在Cortical实验室的同事已经证明,基于人类脑细胞的生物计算机是可能的。最近发表在《神经元》上的一篇论文显示,脑细胞的平面培养可以学习玩视频游戏Pong。"我们已经证明,我们可以与活的生物神经元互动,迫使它们修改它们的活动,导致类似于智能的东西,"卡根谈到相对简单Ponf游戏的DishBrain时说。"与哈同教授及其同事为这个有机体智能合作而组建的惊人团队合作,皮质实验室现在正试图用大脑有机体复制这项工作。""我想说,用有机体复制[皮质实验室]的实验已经满足了OI的基本定义,"托马斯说。从这里开始,它开始一个建立社区、工具和技术的问题,以实现OI的全部潜力。布雷特说:"这个新的生物计算领域有望在计算速度、处理能力、数据效率和存储能力方面取得前所未有的进步--所有这些都需要较低的能源。这项合作特别令人激动的方面是其形成的开放和协作精神。将这些不同的专家聚集在一起,不仅对优化成功至关重要,而且为行业合作提供了一个关键的接触点"。而这项技术还可以使科学家们更好地研究从患有神经疾病(如阿尔茨海默病)的病人的皮肤或小血样中开发出来的个性化大脑器官,并进行测试,研究遗传因素、药物和毒素如何影响这些情况。...PC版:https://www.cnbeta.com.tw/articles/soft/1348871.htm手机版:https://m.cnbeta.com.tw/view/1348871.htm

封面图片

DeepMind人工智能可以在各种游戏中击败人类

DeepMind人工智能可以在各种游戏中击败人类曾在DeepMind从事人工智能研究的MartinSchmid现在就职于一家名为均衡技术的初创公司。他表示,SoG模型可以追溯到两个项目。其中一个是DeepStack,这是由加拿大阿尔伯塔大学的Schmid等团队开发的人工智能,是第一个在扑克比赛中击败人类职业选手的人工智能。另一个是DeepMind的AlphaZero,它在国际象棋和围棋等游戏中击败了最优秀的人类棋手。这两种模型的不同之处在于,一种专注于不完美的知识游戏——玩家不知道其他玩家的状态,比如扑克游戏中的手牌;另一种专注于完美的知识游戏,比如国际象棋,双方玩家在任何时候都能看到所有棋子的位置。这两者需要根本不同的方法。DeepMind雇佣了整个DeepStack团队,目的是建立一个可以推广两种类型游戏的模型,从而诞生了SoG。Schmid表示,SoG最初是一份如何学习游戏的“蓝图”,然后通过实践来改进游戏。然后,这个初学者模型可以在不同的游戏中自由发挥,并教会自己如何与另一个版本的自己对抗,学习新的策略,逐渐变得更有能力。尽管DeepMind之前的AlphaZero可以适应完美的知识游戏,但SoG可以适应完美和不完美知识游戏,使其更具通用性。研究人员在国际象棋、围棋、扑克和一款名为“苏格兰场”的棋盘游戏上测试了SoG,还在Leduc扑克和一款定制版的“苏格兰场”上测试了SoG,结果发现它可以击败几个现有的人工智能模型和人类玩家。Schmid说,它应该也能学会玩其他游戏。“有很多游戏你可以直接扔给它,它真的非常非常擅长。”与DeepMind更专业的算法相比,这种广泛的能力在性能上略有下降,但SoG在学习的大多数游戏中都可以轻松击败最优秀的人类玩家。Schmid说,SoG学会了与自己对抗,以便在游戏中提高水平,但也要从游戏的当前状态探索可能出现的情况,即使它在玩一个不完美的知识游戏。“当你在玩像扑克这样的游戏时,你很难弄清楚,如果不知道对手持有什么牌,该如何找到最佳的下一步策略。”Schmid说,“所以有一些来自AlphaZero的想法,还有一些来自DeepStack的想法,形成了这个庞大的想法组合,这就是游戏学生。”未参与这项研究的英国爱丁堡大学的MichaelRovatsos表示,尽管这一研究成果令人印象深刻,但要想将人工智能视为普遍智能,还有很长的路要走,因为游戏是一种所有规则和行为都被明确定义的环境,而不是现实世界。“这里要强调的重要一点是,这是一个受控的、独立的人工环境,在这个环境中,每件事的意义和每一个动作的结果都是非常清楚的。”Rovatsos说,“这个问题是一个玩具问题,因为尽管它可能非常复杂,但它不是真实的。”相关论文信息:https://doi.org/10.1126/sciadv.adg3256...PC版:https://www.cnbeta.com.tw/articles/soft/1399535.htm手机版:https://m.cnbeta.com.tw/view/1399535.htm

封面图片

亚马逊将提供人类基准测试团队来测试人工智能模型

亚马逊希望用户能更好地评估人工智能模型,并鼓励更多的人参与到这一过程中。在AWSre:Invent大会上,AWS数据库、分析和机器学习副总裁SwamiSivasubramanian宣布了在其AmazonBedrock仓库中找到的模型的ModelEvaluationonBedrock功能,现已提供预览版。如果没有一种透明的测试模型的方法,开发者可能会最终使用那些对于问答项目来说不够准确,或者对于他们的用例来说太大的模型。“模型选择和评估不仅仅在开始时进行,而是需要定期重复的事情,”Sivasubramanian说。“我们认为让人类参与循环是重要的,因此我们提供了一种管理人类评估工作流程和模型性能指标的简便方法。”标签:#Amazon#AI频道:@GodlyNews1投稿:@Godlynewsbot

封面图片

《人类简史》作者:人工智能可能灭绝人类 我们可能还有几年时间

《人类简史》作者:人工智能可能灭绝人类我们可能还有几年时间赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”“这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”“如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。“这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。“如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”人类的下一个“巨大而可怕的实验”?赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”“时间至关重要”尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。“我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1383519.htm手机版:https://m.cnbeta.com.tw/view/1383519.htm

封面图片

MIT研发人工智能副驾驶 提高人类精确度 打造更安全的天空

MIT研发人工智能副驾驶提高人类精确度打造更安全的天空有了Air-Guardian,计算机程序就能跟踪人类飞行员的视线(使用眼动跟踪技术),从而更好地了解飞行员在关注什么。这有助于计算机根据飞行员正在做或打算做的事情做出更好的决策。图片来源:AlexShipps/MITCSAILviaMidjourney这就是麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员开发的"空中卫士"系统。现代飞行员需要应对来自多个监视器的大量信息,尤其是在关键时刻,Air-Guardian可以充当主动的副驾驶;这是人类与机器之间的合作关系,其根本在于理解注意力。但它究竟是如何确定注意力的呢?对人类来说,它使用眼动跟踪,而对神经系统来说,它依赖于一种叫做"突出图"的概念,它能精确定位注意力的方向。这些地图可以作为视觉指南,突出显示图像中的关键区域,帮助掌握和解读复杂算法的行为。Air-Guardian通过这些注意力标记识别潜在风险的早期迹象,而不是像传统的自动驾驶系统那样,只在出现安全漏洞时才进行干预。该系统的广泛影响超出了航空领域。有朝一日,类似的合作控制机制可能会用于汽车、无人机和更广泛的机器人领域。麻省理工学院CSAIL博士后LianhaoYin是有关Air-Guardian的新论文的第一作者,他说:"我们的方法有一个令人兴奋的特点,那就是它的可区分性。我们的合作层和整个端到端过程都可以训练。我们特别选择了因果连续深度神经网络模型,因为它在映射注意力方面具有动态特性。另一个独特之处在于适应性。Air-Guardian系统并不死板,它可以根据实际情况进行调整,确保人机之间的平衡合作。"实地测试和结果在实地测试中,飞行员和系统在导航到目标航点时都根据相同的原始图像做出了决定。Air-Guardian的成功是根据飞行过程中获得的累积奖励和到达航点的较短路径来衡量的。监护人降低了飞行的风险水平,提高了导航到目标点的成功率。麻省理工学院CSAIL研究机构成员、液态神经网络发明人拉明-哈桑尼(RaminHasani)补充说:"该系统代表了以人为本的人工智能航空创新方法。我们使用液态神经网络提供了一种动态、自适应的方法,确保人工智能不会仅仅取代人类的判断,而是对人类判断的补充,从而提高天空中的安全性和协作性。"技术基础与未来展望Air-Guardian的真正优势在于其基础技术。它采用基于优化的合作层,利用人类和机器的视觉注意力,以及以擅长破译因果关系而闻名的液态闭式连续时间神经网络(CfC),分析传入的图像以获取重要信息。作为补充,VisualBackProp算法可识别系统在图像中的焦点,确保清晰了解其注意力图谱。要想在未来得到广泛应用,还需要完善人机界面。反馈信息表明,一个指示器(如条形图)可能会更直观地显示监护系统何时开始控制。空中卫士预示着一个更加安全的天空新时代的到来,它为人类注意力动摇的时刻提供了一个可靠的安全网。麻省理工学院安德鲁(1956)和埃尔纳-维特比(ErnaViterbi)电气工程与计算机科学教授、CSAIL主任、论文资深作者丹妮拉-鲁斯(DanielaRus)说:"空中卫士系统突出了人类专长与机器学习之间的协同作用,进一步实现了在具有挑战性的场景中利用机器学习增强飞行员能力并减少操作失误的目标。哈佛大学计算机科学助理教授斯蒂芬妮-吉尔(StephanieGil)说:"在这项工作中使用视觉注意力指标的最有趣的成果之一,就是有可能让人类飞行员更早地进行干预,并提高可解释性。这展示了一个很好的例子,说明如何利用人工智能与人类合作,通过利用人类与人工智能系统之间的自然交流机制,降低实现信任的门槛。"...PC版:https://www.cnbeta.com.tw/articles/soft/1388203.htm手机版:https://m.cnbeta.com.tw/view/1388203.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人