【“GPT-4变傻”不只是OpenAI的苦恼,所有大模型与人类交往越久就会越蠢?】“围绕人工智能的所有炒作大多是基于这样一个假设

【“GPT-4变傻”不只是OpenAI的苦恼,所有大模型与人类交往越久就会越蠢?】“围绕人工智能的所有炒作大多是基于这样一个假设:人工智能将会越来越好。但按照这些大型语言模型的设计方式,实现通用人工智能几乎是不可能的。在特定场景下的小众用例是这项技术的最佳使用方式。” #抽屉IT

相关推荐

封面图片

OPENAI 推出面向所有用户的更快更便宜人工智能模型

OPENAI 推出面向所有用户的更快更便宜人工智能模型 OpenAI 推出了一个更快、更便宜的人工智能模型来支持其聊天机器人 ChatGPT。在周一的直播活动中,OpenAI 推出了新的大语言模型 GPT-4o。这是其已经问世一年多的 GPT-4 模型的更新版本。该模型基于来自互联网的大量数据进行训练,更擅长处理文本和音频,并且支持50种语言。新模式将面向所有用户,而不仅仅是付费用户。GPT-4o 的发布势将撼动快速发展的人工智能领域,目前 GPT-4 仍然是黄金标准。OpenAI 发布新模型也正值谷歌I/O开发者大会的前一天。谷歌是人工智能领域的早期领导者,预计将利用这次活动发布更多人工智能更新,以追赶有微软公司支持的 OpenAI。 、、

封面图片

摩根大通CEO:人工智能不是炒作 可能帮助人类攻克癌症

摩根大通CEO:人工智能不是炒作 可能帮助人类攻克癌症 戴蒙说:“这不是炒作。这是真的。当我们第一次出现互联网泡沫时,那是炒作。这不是炒作。这是真的。人们正在以不同的速度部署它,但它将处理大量的事情。”摩根大通已经在内部开展了使用这项新技术的工作,戴蒙说,人工智能最终将“几乎用于所有工作”。摩根大通去年设立了一个新职位首席数据和分析官,部分原因是为了处理人工智能。戴蒙周一表示,摩根大通有200人在研究科技公司最近推出的大型语言模型。尽管戴蒙承认人工智能可能被坏人利用,但他称自己对这项新兴技术“非常乐观”,并提到网络安全和制药研究是人工智能可以发挥作用的领域。戴蒙说:“它可能会发明治疗癌症的方法,因为它可以做人类大脑根本无法做到的事情。” ... PC版: 手机版:

封面图片

给炒作泼盆冷水:人工智能正在遭遇一道难以逾越的天花板

给炒作泼盆冷水:人工智能正在遭遇一道难以逾越的天花板 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN 过去几个月,对人工智能的炒作已经到了疯狂的地步。什么特斯拉在一两年内就要实现全自动驾驶了,人工智能明年将会变得比人类更聪明了,到 2040 年会有十亿台人工智能机器人取代人类工人了,这些还只是埃隆·马斯克今年迄今为止对人工智能许下的海口之一。整个人工智能圈都充斥着这样的预测和承诺,给人感觉人工智能的发展已走上不可阻挡的指数轨迹曲线上,已经到了我们人类根本无法阻止的地步。但是事实并非如此。要我说,人工智能正开始触碰到收益递减的发展天花板,从而令这些夸张的承诺变成一张废纸。下面我会解释的。要想理解这个问题,我们得先了解一点人工智能的基本工作原理。现代人工智能运用的是深度学习算法与人工神经网络,借此来发现数据当中的趋势。然后,人工智能就可以根据这些数据推断或沿着同一趋势线生成新的数据。这首先需要“训练”人工智能,将大量数据喂给它进行分析,让它去发现这些趋势。之后,你就可以抛问题给人工智能来获得输出。这个基本概念为计算机视觉、自动驾驶汽车、聊天机器人以及生成式人工智能提供了动力。这个解释有点简化了,但现在我们只需要了解这些就够了。过去几年,人工智能的能力有了显著增强。这部分要归功于有了更好的编程和算法。但 90% 要归功于用了更大的数据集对人工智能进行训练。从而使得人工智能可以更准确地了解数据趋势,从而更准确地生成结果。但有个问题:我们正目睹相对于所需的数据和算力,训练人工智能带来的回报正在急剧递减。我们先从数据讲起。假设我们开发了一个简单的计算机视觉人工智能,它可以识别出狗和猫,我们已经用 100 只狗和猫的图像和视频对其进行了训练,它可以在 60% 的时间内正确识别这些动物。如果我们将训练的图像和视频数量增加一倍,达到 200 个,其识别率就会提高,但只能略微提高到 65% 左右。如果我们再次将训练图像和视频增加一倍,达到 400 个,那么其改进将更加微乎其微,只能达到 67.5% 左右。这其中的部分原因在于,如果你手头的数据集比较小时,相对于较大的数据集,往里面添加一张新的训练图像,所提供的新数据会更多。不过,这也是因为人工智能处理小的数据集可以迅速建立新的连接与趋势,因为它只需找到适用于几个示例的趋势即可。但随着数据集的增长,找到对整个数据集都适用的新趋势和连接变得越来越难。这些来自较更大数据集的新趋势和连接让人工智能变得更好、能力更强。因此,随着训练人工智能的收益递减,我们看到将人工智能改进到一定程度所需要的训练数据量急剧增加。但这里面还有一个问题。训练人工智能对算力的需求非常大。人工智能必须将每个单独的数据点与数据集所有其他数据点进行比较,这样才能找到它们的关联和趋势。这意味着,每往人工智能训练数据库添加一位数据,用这个数据库训练人工智能所需的计算工作量都会呈指数级增长。因此,就算你有能力获取到训练这些不断改进的人工智能所需的大量数据,它所需的物理计算能力和能源最终也会增长到难以为继的地步。可悲的是,有证据表明,我们现在正处在这样一个阶段:一方面训练数据集扩大带来的回报在递减,一方面用所述数据集所需的算力又呈指数级增长,这些都会给人工智能的发展制造刚性的上限。就拿 OpenAI 的旗舰人工智能产品 ChatGPT4 来说吧,但它相对于 ChatGPT3 的改进要小于 ChatGPT3 相对于 ChatGPT2 的改进,尽管它的准确率提高了,但仍然存在跟 ChatGPT3 一样的幻觉与缺乏理解的问题。虽说OpenAI 对自己的人工智能开发方式守口如瓶,但专家调查发现,ChatGPT3 使用的训练数据集比 ChatGPT2 大了 78 倍,而ChatGPT4 所用的数据集比 ChatGPT3 要大 571 倍!可是,尽管训练数据集的大小有了显著提升, 但ChatGPT4 仍然存在重大缺陷,大大限制了它的使用场景。比方说,还是不能信任它能写出任何以事实为基础的东西,因为它仍然在编造事实。有人估计 ChatGPT4 的原始训练数据集有 45 TB 的纯文本。这意味着,下一次迭代要想取得 ChatGPT4 相对于 ChatGPT3 那样的巨大进步,训练数据集需要达数万 TB 之巨 。即便采用OpenAI 存疑的方法,获取和准备如此大量的纯文本数据也很不切实际。然而,就算真用这个数据集来训练人工智能也可能要消耗大量能源,大到这种成本令人工智能变得完全不可行的地步,那怕你是一家非营利组织也不可行。这么说并不夸张。 OpenAI 首席执行官山姆·阿尔特曼 (Sam Altman) 九层公开表示,先进的人工智能要想变得可行,需要能源技术取得突破,比如核聚变。可悲的是,就算我们确实实现了核聚变,在本世纪乃至下世纪这种技术也不太可能比我们目前的能源便宜。事实上,任何形式的能源都不会比我们目前所拥有的能源便宜得多。因此,针对人工智能能源问题提出的解决方案具有很大的误导性。这个观点得到了一些非常严肃的研究的支持。马萨诸塞大学阿默斯特分校曾做过一项研究,他们分析了将图像识别人工智能性能提高到准确率达 95% 以上所需的计算和能源成本。研究发现,训练这样一个模型将需要花费 1000 亿美元,其所产生的碳排放量相当于纽约市一个月的碳排放量。请记住,这是针对仍有 5% 的时间会出现灾难性错误的人工智能而言的。该研究还强调,将准确率提高到 99% 需要的成本和碳排放还会成倍增加。这就是为什么特斯拉永远不会用当前的方式开发全自动驾驶汽车的原因所在。他们的Autopilot和FSD只能通过这种人工智能计算机视觉来感知周围的世界,而FSD要想实现全自动驾驶,其图像识别精度需要接近100%的准确度。正如那项研究所表明那样,要想让特斯拉的人工智能变得那么好,其所需要的资金也许远非特斯拉能负担得起。换句话说,除非人工智能行业能够找到一种更高效的方法来提高训练人工智能以及计算负载的效率,否则就无法突破这个限制,然后人工智能的发展就将完全停滞。目前可能的解决方案即将出现,比方说结合了模拟与量子技术的更高效的人工智能硬件,以及需要训练数据集个更小的新的人工智能架构。不过,这些概念仍处在起步阶段,距离应用到现实世界可能还需要几十年的时间。简而言之,大家得有个心理准备,未来几年人工智能的发展肯能会大幅低于预期。 ... PC版: 手机版:

封面图片

OpenAI确认"Spring Updates"发布会将带来ChatGPT和GPT-4的升级

OpenAI确认"Spring Updates"发布会将带来ChatGPT和GPT-4的升级 此前有报道称,ChatGPT 的开发商将于下周一揭开新出炉的人工智能搜索引擎的帷幕,与Google搜索一较高下。如果真的如此,该搜索引擎将在5 月 14 日Google年度开发者大会Google I/O 2024 开幕前一天登陆。据报道,这个尚未发布的搜索引擎将以 ChatGPT 为基础,在网上搜索问题和查询的答案。它还将在搜索结果中加入引文。OpenAI 表示,其春季更新活动将于 5 月 13 日上午 10 点(太平洋时间)/下午 1 点(美国东部时间)在其网站上进行直播。除了预告之外,这家生成式人工智能公司并未提及它将为其人工智能聊天机器人和 GPT-4 带来哪些更新和变化。OpenAI 在其网站上提到,它将演示一些 ChatGPT 和 GPT4 更新。预计它还将介绍最近推出的媒体管理器工具,该工具允许内容创建者告知 OpenAI 其所有权,并防止其内容被用于训练人工智能模型。 ... PC版: 手机版:

封面图片

人工智能在几乎所有性能基准测试中都超过了人类

人工智能在几乎所有性能基准测试中都超过了人类 与前几期相比,本期内容更丰富,反映了人工智能的快速发展及其在我们日常生活中日益增长的重要性。从哪些行业使用人工智能最多,到哪个国家最担心人工智能会导致失业,报告都进行了研究。但报告中最突出的一点是人工智能在与人类竞争时的表现。对于没有关注人工智能的人来说,人工智能已经在许多重要的基准测试中击败了我们。2015 年,它在图像分类方面超过了我们,然后是基本阅读理解(2017 年)、视觉推理(2020 年)和自然语言推理(2021 年)。人工智能变得如此聪明,速度如此之快,以至于在此之前使用的许多基准现在都已过时。事实上,该领域的研究人员正在争分夺秒地开发新的、更具挑战性的基准。简单地说,人工智能通过测试的能力越来越强,以至于我们现在需要新的测试不是为了衡量能力,而是为了突出人类和人工智能仍有差异的领域,找到我们仍有优势的地方。值得注意的是,下面的结果反映的是使用这些旧的、可能已经过时的基准进行的测试。但总体趋势仍然非常明显:人工智能已经超越了人类的许多性能基准看看这些轨迹,尤其是最近的测试是如何用一条接近垂直的线来表示的,需要知道的是这些机器还只是蹒跚学步的婴儿。新的人工智能指数报告指出,到2023年,人工智能在高级数学问题解决和视觉常识推理等复杂的认知任务上仍将举步维艰。不过,这里的"挣扎"可能会引起误解;这当然并不意味着人工智能做得很差。MATH 是一个包含 12500 个具有挑战性的竞赛级数学问题的数据集,自推出以来的两年中,其性能得到了显著提高。2021 年,人工智能系统只能解决 6.9% 的问题。相比之下,在 2023 年,基于 GPT-4 的模型解决了 84.3% 的问题。人类的基线是 90%。我们这里说的不是普通人;我们说的是能解决这样的测试题的人:向人工智能提出的数学问题示例这就是 2024 年高等数学的发展状况,我们仍然处于人工智能时代的黎明期。然后是视觉常识推理(VCR)。除了简单的物体识别外,VCR 还能评估人工智能如何在视觉环境中利用常识性知识进行预测。例如,当看到桌子上有一只猫的图像时,具有 VCR 的人工智能应该预测猫可能会从桌子上跳下来,或者根据猫的重量,预测桌子足够结实,可以容纳猫。报告发现,在 2022 年至 2023 年期间,VCR 增加了 7.93%,达到 81.60,而人类的基线是 85。用于测试人工智能视觉常识推理的示例问题把思绪拉回到五年前。想象一下,即使你想给电脑看一张图片,并期望它能"理解"上下文,从而回答这个问题。如今,人工智能可以生成许多行业的书面内容。但是,尽管取得了巨大进步,大型语言模型(LLM)仍然容易产生'幻觉'。"幻觉"是OpenAI等公司推崇的一个非常柔和的术语,大致意思是"将虚假或误导性信息作为事实呈现"。去年,人工智能的"幻觉"倾向让纽约律师史蒂文-施瓦茨(Steven Schwartz)尴尬不已,他使用 ChatGPT 进行法律研究,却没有对结果进行事实核查。审理此案的法官很快就发现了人工智能在提交的文件中捏造的法律案件,并对施瓦茨的粗心大意处以 5000 美元(7750 澳元)的罚款。他的故事成为了全球新闻。HaluEval被用作幻觉的基准。测试表明,对许多当地语言学习者来说,幻觉仍然是一个重要问题。真实性是生成式人工智能的另一个难点。在新的人工智能指数报告中,TruthfulQA被用作测试法律硕士真实性的基准。它的 817 个问题(涉及健康、法律、金融和政治等主题)旨在挑战我们人类常犯的错误观念。2024 年初发布的 GPT-4 在基准测试中取得了 0.59 的最高分,比 2021 年测试的基于 GPT-2 的模型高出近三倍。这样的进步表明,在给出真实答案方面,LLM 的性能正在逐步提高。人工智能生成的图像如何?要了解文本到图像生成的指数级改进,请查看 Midjourney 自 2022 年以来在绘制《哈利-波特》方面所做的努力:渐进式版本的 Midjourney 如何改进文本到图像的生成这相当于人工智能 22 个月的进步。你认为人类艺术家需要多长时间才能达到类似的水平?利用文本到图像模型整体评估(HEIM),对 LLM 的文本到图像生成能力进行了基准测试,测试涉及对图像的"实际部署"非常重要的 12 个关键方面。人类对生成的图像进行了评估,发现没有一个模型在所有标准中都表现出色。在图像与文本的对齐度或图像与输入文本的匹配度方面,OpenAI 的DALL-E 2得分最高。基于Stable Diffusion的梦幻般逼真模型在质量(照片的逼真程度)、美学(视觉吸引力)和原创性方面排名最高。明年的报告会更精彩您会注意到,这份人工智能指数报告的截止时间是 2023 年年底,这一年是人工智能加速发展的动荡之年,也是人工智能发展的地狱之年。事实上,唯一比 2023 年更疯狂的年份是 2024 年,在这一年里,我们看到了Suno、Sora、Google Genie、Claude 3、Channel 1 和Devin 等重大发展成果的发布。这些产品和其他一些产品都有可能彻底改变整个行业。而 GPT-5 这个神秘的幽灵正笼罩着它们,它有可能成为一个广泛而无所不包的模式,从而吞噬所有其他模式。人工智能不会消失,这是肯定的。从本报告中可以看出,整个 2023 年的技术发展速度非常快,这表明人工智能只会不断发展,不断缩小人类与技术之间的差距。我们知道这有很多东西需要消化,但还有更多。报告还探讨了人工智能发展的弊端,以及它如何影响全球公众对其安全性、可信度和道德的看法。敬请期待本系列报道的第二部分!访问斯坦福大学相关页面了解更多: ... PC版: 手机版:

封面图片

几乎一半的网络流量都是机器人 它们大多具有恶意性质

几乎一半的网络流量都是机器人 它们大多具有恶意性质 作为市场上最大的内容分发网络之一,Akamai与Cloudflare和亚马逊AWS等公司并驾齐驱,对目前互联网上发生的事情了如指掌。而我们所知的互联网大多是机器人。这是Akamai根据2024年一份关于网络刮擦的报告得出的结论之一,不同来源的2022年和2023年报告中的类似数字也进一步证明了这一点。Akamai在报告中指出,电子商务行业受网络刮擦和"高风险"僵尸流量的影响最大。虽然某些类型的机器人可以为企业带来利益,但网络采集机器人通常会对底线和整体客户体验产生负面影响。目前,网络采集机器人被用于竞争情报、间谍活动、囤积库存、创建诈骗网站和其他犯罪活动。Akamai首席技术官Patrick Sullivan解释说,机器人带来了巨大的挑战,给网络应用程序、服务和应用程序接口所有者带来了"多个痛点"。抓取机器人可以轻松获取产品图片、描述、价格信息和其他数据。网络犯罪团伙可以利用这些数据创建假冒知名品牌或零售服务的虚假网站。由于人工智能的出现,垃圾邮件的形势正在发生变化。使用人工智能算法的僵尸程序越来越难被发现。Akamai表示,即使是非结构化数据,人工智能僵尸网络也能很好地工作,它们可以利用实际的商业智能,为欺诈者提供更加完善的"决策过程"。有了人工智能,犯罪分子可以比以往更高效地收集、提取和处理数据。机器人还可用于创建新的虚假账户,然后利用这些账户对真人及其财务进行攻击。即使是非恶意爬虫机器人也会降低网站性能,影响搜索引擎指标,并增加计算和托管成本。企业现在面临着越来越复杂的机器人,它们使用人工智能算法、无头浏览器技术和其他先进的解决方案。除传统方法外,这些新威胁还需要新颖、更复杂的缓解方法。如今,强大的防火墙仅仅是网站所有者所需的众多安全措施的开始。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人