【Edward Snowden:人工智能模型可能很快就会超越人类的能力】

【EdwardSnowden:人工智能模型可能很快就会超越人类的能力】2023年04月30日06点23分4月30日消息,新闻自由基金会主席EdwardSnowden在“2023共识”大会上表示,人工智能(AI)模型可能很快就会超越人类的能力,但前提是我们停止教它们像我们一样思考,并允许它们“比我们更好”。Snowden认为,人工智能模型可能会阻碍政府的监控,而不是助长侵入性的情报项目。但他也警告说,ChatGPT和其他日益复杂的人工智能模型的推出,可能会助长大型科技公司和政府推动的侵犯用户隐私的举措。他表示,为了防止坏人利用人工智能技术,人们必须争取开放的人工智能模型保持开放。他的批评专门针对越来越不开放的新兴AI模型,特别是OpenAI。(CoinDesk)

相关推荐

封面图片

OpenAI 和 Meta 准备推出具有“推理”能力的新人工智能模型

OpenAI和Meta准备推出具有“推理”能力的新人工智能模型OpenAI和Meta即将发布新的人工智能模型,他们表示这些模型将具备推理和规划的能力,这是在机器中实现超人认知的关键步骤。本周,OpenAI和Meta的高管表示,他们正准备推出其大型语言模型的下一个版本。Meta表示将在未来几周内开始推出Llama3,而微软支持的OpenAI表示,其下一个模型GPT-5将“很快”推出。Meta人工智能研究副总裁乔尔•皮诺表示:“我们正在努力研究如何让这些模型不仅能说话,还能真正推理、规划……拥有记忆”。OpenAI首席运营官布拉德•莱特卡普在接受记者采访时表示,下一代GPT将在解决推理等“难题”方面取得进展。他说:“我们将开始看到人工智能能够以更复杂的方式完成更复杂的任务。”“我认为,我们才刚刚开始触及这些模型推理能力的表面。”——()

封面图片

“AI教父”警告:人工智能可能取代人类

“AI教父”警告:人工智能可能取代人类在上周日的一次电视采访中,辛顿继续强调了人工智能进步可能带来的负面影响。辛顿说:“也许我们回顾过去,把这看作是一种转折点,人类必须做出决定,是否进一步发展这些东西,如果他们这样做了,该如何保护自己。”辛顿说,人工智能可能有好有坏,接下来会发生什么还不得而知。“我们需要认真思考接下来会发生什么。我们只是不知道。”辛顿在这次采访中警告称,人工智能有可能取代人类。他说:“如果我们能阻止他们这么做,那就太好了,但目前还不清楚我们能否阻止他们这么做。”辛顿的担忧包括人工智能带来的就业流失,以及假新闻的兴起,有偏见的人工智能程序提供的信息被当作事实。辛顿警告说,人工智能系统可能编写自己的计算机代码来修改自己,“这是我们需要认真担心的事情。”尽管对人工智能相关的风险感到担忧,但辛顿说,他对帮助开发系统和推动人工智能的兴起并不后悔。他在谈到人工智能可能带来的好处是说:“因此,医疗保健显然是一个巨大的好处。在理解医学图像的情况方面,人工智能已经可以与放射科医生相提并论。它将非常擅长设计药物。”辛顿说,可能无法找到一条可以确保人类未来安全的人工智能发展道路,“我们正在进入一个非常不确定的时期,我们正在处理以前从未处理过的事情。”他警告称,我们负担不起出错。...PC版:https://www.cnbeta.com.tw/articles/soft/1388979.htm手机版:https://m.cnbeta.com.tw/view/1388979.htm

封面图片

《人类简史》作者:人工智能可能灭绝人类 我们可能还有几年时间

《人类简史》作者:人工智能可能灭绝人类我们可能还有几年时间赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”“这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”“如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。“这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。“如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”人类的下一个“巨大而可怕的实验”?赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”“时间至关重要”尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。“我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1383519.htm手机版:https://m.cnbeta.com.tw/view/1383519.htm

封面图片

拜登政府可能准备遏制中国获取最先进的人工智能大模型,像是ChatGPT等人工智能系统的核心软件

拜登政府可能准备遏制中国获取最先进的人工智能大模型,像是ChatGPT等人工智能系统的核心软件三位知情人士表示,美国商务部正在考虑一项新的监管举措,以限制专有或闭源人工智能模型的出口,这些大模型软件及其训练的数据都是保密。美国政府和私营部门的研究人员担心,美国的对手可能会使用这些大模型挖掘大量文本和图像来总结信息并生成内容,以进行激进的网络攻击,甚至制造强大的生物武器。据悉,为制定人工智能模型的出口管制,基于训练模型所需计算能力的阈值或成为敲定哪些模型将受限出口的基础。不过相关机构还远未能提出最终提案。关注频道@ZaiHuaNews频道投稿@ZaiHuabot

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃——这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

亚马逊将提供人类基准测试团队来测试人工智能模型

亚马逊希望用户能更好地评估人工智能模型,并鼓励更多的人参与到这一过程中。在AWSre:Invent大会上,AWS数据库、分析和机器学习副总裁SwamiSivasubramanian宣布了在其AmazonBedrock仓库中找到的模型的ModelEvaluationonBedrock功能,现已提供预览版。如果没有一种透明的测试模型的方法,开发者可能会最终使用那些对于问答项目来说不够准确,或者对于他们的用例来说太大的模型。“模型选择和评估不仅仅在开始时进行,而是需要定期重复的事情,”Sivasubramanian说。“我们认为让人类参与循环是重要的,因此我们提供了一种管理人类评估工作流程和模型性能指标的简便方法。”标签:#Amazon#AI频道:@GodlyNews1投稿:@Godlynewsbot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人