埃隆·马斯克(ElonMusk)在X上表示,明年人工智能可能会比任何人类都聪明。到2029年,人工智能可能比所以人类加起来还要聪

None

相关推荐

封面图片

黄仁勋:通用人工智能预计最快五年内问世,可通过任何人类测试

黄仁勋:通用人工智能预计最快五年内问世,可通过任何人类测试英伟达CEO黄仁勋在参加2024年斯坦福经济政策研究所峰会时表示,“按照某些定义,通用人工智能(AGI)可能在短短五年内到来。”黄仁勋在活动中被问到“创造出能像人类一样思考的计算机需要多久”这一问题,他回答说,答案很大程度取决于“如何定义”。若对于上述计算机的定义是“能够通过人类测试”,那么通用人工智能将很快到来。“如果,我让一个人工智能进行任何你能想象的测试,你可以列举一个测试清单,将其提供给计算机科学行业,我猜想五年之内,每个测试(它)都能很好地完成。”()线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

英伟达 CEO 黄仁勋:通用人工智能预计最快五年内问世,可通过任何人类测试

黄仁勋表示,虽然目前市场上对更多芯片有所需求,但随着时间的推移,芯片性能也会提高,这将限制市场所需芯片数量。“我们将需要更多的晶圆厂。但是请记住,随着时间的推移,我们也在极大地改进(AI)的算法和处理方式。”via匿名标签:#AGI#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

《人类简史》作者:人工智能可能灭绝人类 我们可能还有几年时间

《人类简史》作者:人工智能可能灭绝人类我们可能还有几年时间赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”“这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”“如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。“这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。“如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”人类的下一个“巨大而可怕的实验”?赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”“时间至关重要”尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。“我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”...PC版:https://www.cnbeta.com.tw/articles/soft/1383519.htm手机版:https://m.cnbeta.com.tw/view/1383519.htm

封面图片

“AI教父”警告:人工智能可能取代人类

“AI教父”警告:人工智能可能取代人类在上周日的一次电视采访中,辛顿继续强调了人工智能进步可能带来的负面影响。辛顿说:“也许我们回顾过去,把这看作是一种转折点,人类必须做出决定,是否进一步发展这些东西,如果他们这样做了,该如何保护自己。”辛顿说,人工智能可能有好有坏,接下来会发生什么还不得而知。“我们需要认真思考接下来会发生什么。我们只是不知道。”辛顿在这次采访中警告称,人工智能有可能取代人类。他说:“如果我们能阻止他们这么做,那就太好了,但目前还不清楚我们能否阻止他们这么做。”辛顿的担忧包括人工智能带来的就业流失,以及假新闻的兴起,有偏见的人工智能程序提供的信息被当作事实。辛顿警告说,人工智能系统可能编写自己的计算机代码来修改自己,“这是我们需要认真担心的事情。”尽管对人工智能相关的风险感到担忧,但辛顿说,他对帮助开发系统和推动人工智能的兴起并不后悔。他在谈到人工智能可能带来的好处是说:“因此,医疗保健显然是一个巨大的好处。在理解医学图像的情况方面,人工智能已经可以与放射科医生相提并论。它将非常擅长设计药物。”辛顿说,可能无法找到一条可以确保人类未来安全的人工智能发展道路,“我们正在进入一个非常不确定的时期,我们正在处理以前从未处理过的事情。”他警告称,我们负担不起出错。...PC版:https://www.cnbeta.com.tw/articles/soft/1388979.htm手机版:https://m.cnbeta.com.tw/view/1388979.htm

封面图片

【Edward Snowden:人工智能模型可能很快就会超越人类的能力】

【EdwardSnowden:人工智能模型可能很快就会超越人类的能力】2023年04月30日06点23分4月30日消息,新闻自由基金会主席EdwardSnowden在“2023共识”大会上表示,人工智能(AI)模型可能很快就会超越人类的能力,但前提是我们停止教它们像我们一样思考,并允许它们“比我们更好”。Snowden认为,人工智能模型可能会阻碍政府的监控,而不是助长侵入性的情报项目。但他也警告说,ChatGPT和其他日益复杂的人工智能模型的推出,可能会助长大型科技公司和政府推动的侵犯用户隐私的举措。他表示,为了防止坏人利用人工智能技术,人们必须争取开放的人工智能模型保持开放。他的批评专门针对越来越不开放的新兴AI模型,特别是OpenAI。(CoinDesk)

封面图片

摩根大通CEO:人工智能不是炒作 可能帮助人类攻克癌症

摩根大通CEO:人工智能不是炒作可能帮助人类攻克癌症戴蒙说:“这不是炒作。这是真的。当我们第一次出现互联网泡沫时,那是炒作。这不是炒作。这是真的。人们正在以不同的速度部署它,但它将处理大量的事情。”摩根大通已经在内部开展了使用这项新技术的工作,戴蒙说,人工智能最终将“几乎用于所有工作”。摩根大通去年设立了一个新职位——首席数据和分析官,部分原因是为了处理人工智能。戴蒙周一表示,摩根大通有200人在研究科技公司最近推出的大型语言模型。尽管戴蒙承认人工智能可能被坏人利用,但他称自己对这项新兴技术“非常乐观”,并提到网络安全和制药研究是人工智能可以发挥作用的领域。戴蒙说:“它可能会发明治疗癌症的方法,因为它可以做人类大脑根本无法做到的事情。”...PC版:https://www.cnbeta.com.tw/articles/soft/1421027.htm手机版:https://m.cnbeta.com.tw/view/1421027.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人