虽然这句话本身是个段子,但同时也可以是开发者的思考范式。

虽然这句话本身是个段子,但同时也可以是开发者的思考范式。 AI的记忆有限,能做什么?langchian AI会产生幻觉,能做什么?new bing AI没有实时数据,能做什么?用插件喂数据 AI不会思考中间步骤,能做什么?prompt 加上一步步 AI现在只有快思考,能做什么?做一个慢思考层 : 不要问AI能为你做些什么, 而要问你能为AI做些什么。

相关推荐

封面图片

微软Build开发者大会前瞻: AI PC、ARM版Windows和云AI

微软Build开发者大会前瞻: AI PC、ARM版Windows和云AI 今年1月,微软CEO萨蒂亚·纳德拉(Satya Nadella)宣布,2024年将是人工智能成为“每台个人电脑不可或缺部分”的一年。微软已在其必应搜索引擎中集成了Copilot聊天机器人助手,并在Office软件中提供此功能的付费服务。在即将举行的Build大会上,PC用户将了解到更多关于人工智能如何被整合进Windows以及他们在新的AI PC上能做些什么。Build大会紧随谷歌I/O大会之后不久举行,在后者的活动中,谷歌推出了迄今为止最强大的AI模型,并展示了其Gemini AI如何在计算机和手机上运行。在谷歌活动之前,OpenAI公布了其新的GPT-4o模型。作为OpenAI的主要投资者,微软的Copilot技术基于OpenAI的模型。对于微软而言,挑战是双重的:不仅要在AI领域保持领先地位,还要推动个人电脑销量的增长,尤其是在疫情期间升级周期后的销售低迷。摩根士丹利分析师埃里克·伍德林(Erik Woodring)在近期给投资者的一份报告中表示,他对个人电脑市场的复苏持乐观态度,这主要基于客户的积极反馈以及对笔记本电脑原始设计制造商(ODM)构建的“预期上调”。科技行业研究机构Gartner估计,经历多年低迷后,本季度PC出货量同比增长了0.9%。微软首席财务官阿米·胡德(Amy Hood)在上月的季度财报电话会议中表示,个人电脑的需求“略好于预期”。微软发布的新AI工具可能为企业和消费者客户提供升级其旧电脑的另一个理由,无论这些电脑是惠普、戴尔还是联想生产的。投行伯恩斯坦分析师在4月26日微软发布财报后给投资者的一份报告中写道:“尽管Windows的Copilot不直接推动收入增长,但我们相信,它应该会提升Windows的使用频率和用户黏性,吸引消费者购买更高价更强大的PC(从而为微软每台设备带来更多收入),并可能增加搜索收入。”微软不仅提供处理互联网AI任务的软件,其计算机还将使用AMD、英特尔以及高通的芯片来处理离线AI任务。例如,用户可以使用语音命令让Copilot在无网络连接的情况下总结录音。什么是AI PC?AI PC的关键硬件是所谓的神经处理单元(NPU)。NPU超越了传统的中央处理单元(CPU)的功能,专为处理人工智能任务而设计。例如,苹果公司就使用NPU来改进照片和视频的质量或进行语音识别。微软尚未说明在无网络连接的情况下AI PC能做什么。但谷歌的Pixel 8 Pro手机,尽管没有完整的计算机处理器,已能利用其Gemini Nano AI进行录音的摘要和转录,推荐短信回复等。预计搭载英特尔最新Lunar Lake芯片和专用NPU的计算机将于2024年底上市。配备NPU的高通骁龙X Elite芯片将于今年中发布,AMD的最新Ryzen Pro预计在本季度某时推出。英特尔表示,其芯片能够实现“实时语言翻译、自动推理和增强游戏环境”等功能。苹果公司多年来一直使用NPU,并在最近推出的iPad Pro的新M4芯片中突出显示了这些功能。预计M4芯片将在今年晚些时候出现在新一代Mac电脑中。基于ARM的Windows与英特尔和AMD的芯片不同,高通提供的芯片基于ARM架构。微软Build开发者大会一个会议主题将是“下一代基于ARM的Windows”,这可能涉及Windows如何在高通芯片上运行,以及这如何不同于在英特尔和AMD芯片上运行的Windows版本。根据市场研究公司Canalys的最新数据,特尔仍然控制着78%的PC芯片市场份额,AMD紧随其后,占据13%的份额。高通在推广搭载骁龙芯片的计算机时,一直强调其更长的电池寿命、更薄的设计以及蜂窝连接等优势。然而,高通早期的芯片为消费者提供的功能有限,例如2018年发布的骁龙835芯片就无法运行大多数Windows应用程序。此后,微软优化了Windows系统,以支持在ARM芯片上运行传统应用程序,但仍存在问题。微软甚至专门为运行在ARM硬件上的计算机设立了一个常见问题解答页面。无处不在的人工智能微软还将在Build开发者大会上举办“AI Everywhere”等分会议,探讨如何在云端运行设备上“加速生成人工智能模型”。“Azure AI Studio”会议将探讨开发者如何创建他们自己的Copilot聊天机器人,这可能与谷歌和OpenAI在Gemini和ChatGPT上所做的类似。例如,想象一家公司创建一个聊天机器人,帮助员工选择医疗福利。 ... PC版: 手机版:

封面图片

GoogleCEO CEO最新访谈:AI将无处不在 会改变我们所做的一切

GoogleCEO CEO最新访谈:AI将无处不在 会改变我们所做的一切 上周五,特斯拉CEO埃隆·马斯克曾在“欧洲科技创新展览会”上表示,将来有一天,AI将取代所有的工作。一天后,皮查伊在接受采访时也表达了类似的观点,强调了AI无处不在的影响。皮查伊称,AI将很大程度上改变我们所做的一切,并有很多潜力让事情变得更好。当然,它也有会有一些陷阱,需要我们小心,并确保我们解决它。以下为采访内容摘要:为什么要使用GoogleAI?问:AI在过去一年的发展非常疯狂,当前有如此多的AI工具,许多人感觉到,如果他们不使用AI,如果他们不懂AI,他们就落伍了。那么,人们为什么要使用GoogleAI?皮查伊:使用AI的原因有很多种,它会让你的体验变得更好,它会帮你总结一些内容,帮你节省时间。例如,你可以输入一些复杂的问题,找到附近4英里以内仍在营业的健身房,这就是为你提出的一个问题进行总结,会让你的生活变得更轻松。这也是我们将AI整合到产品中的主要方式,AI将走进我们生活的方方面面。当我们了解AI在哪些方面对我们有益,哪些方面有陷阱,逐渐熟悉这项新技术之后,人们将会逐渐使用它。GoogleGemini为何能脱颖而出?问:你也知道,Google有不少竞争对手,比如微软的Copilot、OpenAI的ChatGPT,是什么让GoogleAI比竞争对手的产品更好呢?皮查伊:主要是与Google搜索和其他产品的整合。例如,它可以总结你的Gmail邮件,你可以轻松地发送一封电子邮件。它还与包括YouTube在内的Google其他产品非常好地整合在一起。它是多模式的,所以随着时间的推移,你还将能够使用语音。还有一个优势可以让我们的AI脱颖而出。如果你想让AI帮助策划一次旅行,当然其他AI也可以做到,但结果可能是不现实的。多年来,Google建立了对世界的广泛理解。我们的Gemini可以做的是,它是以我们多年来建立起来的对世界的理解为基础的。因此,当我们说从A地到B地时,它更有可能给出正确的答案,并植根于现实。AI意识与未来展望问:包括Gemini在内的一些AI,感觉有时几乎没有意识。你认为还需要很长时间才会有某种形式的AI意识吗?皮查伊:这是一个深奥的话题,人们还没有完全理解。但我认为,真正的AI意识和AI看起来有意识,这两者之间存在着区别。我想说说后者,我认为在接下来的几年里,我们会有一些AI,让你看起来像是有意识的,你可能无法区分。但这不同于它实际上是有意识的。这是一个非常深刻的哲学话题。问:对于那些使用这些AI的人,无论是在工作中还是在日常生活中,你认为AI在未来5年至10年会是什么样子?皮查伊:我认为,会有一些AI,你可以和它们对话,寻求它们的帮助。如果你在Google文档(Google Docs )中输入一些东西,它会纠正你的拼写和语法。你可以认为这是理所当然的,但在你生活中的几乎所有事情上,AI都会这样做。例如我们的Astra项目, 它是一个多模AI,可以看到你所看到的。你可以和它交谈,可以要求它对世界进行推理。不要忘记,现在还刚刚开始,事情会进展得很快。问:对于那些不接受AI,也不开始使用AI的人,你认为他们的未来会是什么样子?皮查伊:你可以尝试这些东西,使用任何你喜欢的聊天机器人,并学习与它们互动。使用它,人们可以以各种方式表达自己。如果你能理解这项技术,我认为,这是一个重要的改变,且速度远远快于之前的技术。因此,当我们逐渐熟悉这项技术,知道如何使用它,就会如虎添翼。Google Assistant与Gemini的整合问:Gemini已经问世,在使用你们的Pixel设备时,会被提示从Google Assistant改为Gemini,那么Google Assisstant会消失吗?皮查伊:这件事应该这么想:随着时间的的推移,你将拥有Gemini支持的Google Assistant(Google助手),它们会成为基于同一事物的东西。在过渡期间,Gemini可以做Google Assistant能做的一切。它就在那里,唾手可得。问:Gemini已经走进Pixel设备上,你认为人们主要会用它做什么?我相信,你们已经有了这些数据。皮查伊:人们向它征求意见。我认为,人们使用它最常见的方式是他们希望有人与他们进行头脑风暴。我自己也在使用它,比如母亲节应该做些什么。有时你只是想非常快地理解某事,比如问Gemini,它是否含有食物面筋。在Astra项目下,这变得很容易。你可以让Gemini看着食物,它就会为你回答。我认为,人们在不同类型的需求中广泛使用它,人们对这项技术也越来越熟悉,用起来也越来越舒服。所以,它充满了可能性。例如,人们可能想要去一个地方,这一周应该做些什么。我们会让这些事情变得更容易,我们会帮助你策划,这些是我们为Gemini带来的一些新功能,将来还可以做得更多。AI的未来问:你对未来的AI有什么希望?皮查伊:我认为,我们希望它作为一项技术,能够注入我们的生活,让我们生活变得更好。通过Google Assistant,我们已经略窥一斑。当前,我们正在使用同样的AI技术,让汽车实现自动驾驶,或者使用AI来更好地发现可以靶向的药物。我们要以一种深刻的方式来思考它,就像今天你不会想着电一样,因为它已经无处不在。AI将覆盖到我们所做的一切,并且有潜力让事情变得更好。当然,它也有会有一些陷阱,需要我们小心,并确保我们解决它。 ... PC版: 手机版:

封面图片

ChatGPT上身机器人 但离我们要用上可能还远

ChatGPT上身机器人 但离我们要用上可能还远 看他们放出来的视频 demo ,这个大概一米七的机器人,不仅能听懂人话,做起事儿来也相当麻溜。问站它在那里都能看到啥,还没反应几秒,就能说出答案:苹果、水杯等等,连工作人员站在一旁,手搭在桌子上的细节都能准确讲出来。随后,问它能不能递些吃的东西过来,这次都没怎么反应,就把苹果拿给了工作人员。这还不算最厉害的,这个机器人的手指也是相当灵活了,让它捡桌子上的纸团时,它丝毫没把纸团搞变形,力度起到好处,感觉下一步就能揉面包饺子了……整理起桌面来,也是有条不紊的,不过有时候反应的时间确实有点久。而且视频里的这些操作,全都是机器人的 “ 自主意识 ” ,没加速,远程操作也是不存在的。照工程师的说法,它现在就跟刚会说话的幼儿差不多,能讲出看到了什么,也能做些简单的行动计划,短期内发生了啥也能记起来……不知道大伙看到这个视频反应是啥样,至少差评君工作群里都是直呼 “ 牛 X ” 的程度,甚至有同事已经开始担心起智械危机了。要知道,这距离 OpenAI 宣布和 Figure 合作,才过去两个星期。而除了 OpenAI 之外,微软、英伟达和亚马逊创始人杰夫 · 贝佐斯也都入了 Figure 的伙。另外,世超发现 Figure 也算是一个非典型机器人公司,包括波士顿动力在内,一般机器人公司的创始人都是学术圈大佬。而 Figure 创始人的 Adcock ,却是个驰骋商海的富哥们儿,在办 Figure 之前,手里有个招聘公司 Vettery ,还是一家起降飞机企业 Archer Aviation 的大股东。就在前年,他说为了造福全人类,准备一门心思搞人形机器人,就把招聘公司卖了,又退出了 Archer Aviation ,拿到的钱准备全砸在 Figure 上。人才的话,也基本靠挖,波士顿动力、特斯拉、Google这些大厂都被他挖了个遍。有了人才好办事,到第二年年初, Figure 就做出了五个机器人原型,简单走走、搬重物都不在话下。直到今天,和 OpenAI 合作搞出了 Figure 01 一鸣惊人。网上全都是一水儿的好评,有人说 “ AGI 即将到来 ” ,也有人拉踩了一波隔壁的波士顿动力,说他家的机器人只会跳舞。世超看到这个视频,也很兴奋,麻溜找了找搞人形机器人的朋友聊了聊,他们的评价也出奇的一致,觉得 Figure 01 牛 x ,但大家,似乎没夸对地方。首先, Figure 01 的出现,并没有让波士顿动力机器人跌落神坛。因为衡量人形机器人厉不厉害有两个标准,一个是 “ 脑子 ” ,另外一个是 “ 身体 ” 。波士顿动力在 “ 身体 ” 上依旧是业内公认最强。Figure 01 则没展示很多大幅度、高强度的动作,身体协不协调根本看不出来。而 Figure 01 的牛当然不在于身体,而是在于它告诉大家借助大模型的魔力,人形机器人是可以自主做计划、执行任务、有记忆、听懂人话的。要知道在此之前,人形机器人一直都是偏科的体育生,身体不错但是文化课挂科。如果,咱是说如果脑子 + 身体都一级棒。那这段时间爆火的 “ 具身智能 ” 概念成真。具身智能,说白了就是让人形机器人像人类一样,能够与真实的世界进行交互。学界还给它划分了五个阶段,像是计算功能智能、计算感知智能、认知智能、内生智能和自主智能。去年的 ITF World 2023 半导体大会上,那个爱穿皮衣的男人就公开给具身智能站台,说它就是 AI 的下一个浪潮。而现在的 Figure 01 ,则在第二阶段和第三阶段中间。但即便如此,世超觉得距离人形机器人飞入寻常百姓家,估计也还有不少距离。一方面无论是 “ 脑子 ” 还是 “ 身体 ” ,都还有难点没突破。比如这 “ 脑子 ” 的训练数据,是咱们和现实世界物理交互的数据,目前已经稀缺,和 ChatGPT 的文本数据相比,真就九牛一毛了。在身体这块儿,连完全模仿人类的五只手指都还做不到。另一方面,人形机器人的商业化路径还没有共识。通用机器人不是在一个成熟的技术里找产品,而是边突破技术边界边找到产品化的机会,要知道,即便火如大模型,目前最成功的产品也只是聊天机器人而已。不过,技术不是线性发展的,如果突破点出现,后面人形机器人的发展肯定也是井喷式的。这条路,也永远都不缺探路者,这两年,做人形机器人的企业是越来越多了,大厂里像是特斯拉的擎天柱,国内也有小米 CyberOne 、智元机器人,逐际动力等等。所以世超的预测,也很可能被打脸。当然世超也很希望被打脸,对了,如让人形机器人写稿的话,它应该不会拖搞吧。 ... PC版: 手机版:

封面图片

AI 新知: 像大脑一样学习的多模态(极简版起源故事)

AI 新知: 像大脑一样学习的多模态(极简版起源故事) 近日,微软放出了多模态大语言模型的重要论文《Language Is Not All You Need 》。预示着今年AI 的下一个重大突破。 那么,什么是多模态学习, 有没有一种人人皆可理解的方式,让更多人参与着技术民主化的浪潮呢? 答案是乐观和肯定的。 以下内容来自Jeff Dean 去年在TED 做的分享,面向所有人。无需担心技术理解力,更依赖你对大脑本身的好奇心。 原始链接: Jeff Dean 二十多年前加入谷歌,领导着谷歌的人工智能研究与健康部门。 核心内容摘要如下: (这是我的几点解读,供非专业人士参考) 神经网络的机器学习突破是来自科学界对大脑的运作规律的理解(它是自下而上的) 算力是重要且有效的,深度学习突破了识别猫咪、机器翻译到 AlphaGO 等单一任务 AI的单一任务导向的训练是极为低效的,可以请想象成我们从小失去听觉、嗅觉、味觉(去观看电影的感受) 多模态的思想,是进一步模拟大脑运作,就像生物拥有多种感觉来整合认知世界 像大脑一样多个区域进行超高效率的协作,是学习真正的「奥义」;AI的多模态即对大脑深度的模仿。 部分讲稿如下(适当删减,以便于文字阅读): 1/ 人工智能可以做什么? 在过去的十年间,AI 在帮助计算机识别物体、 理解语言和谈话方面 取得的巨大进步。 以往的天方夜谭 现在一一成为现实。计算机视觉来说, 在过去的十年中,电脑快速地发展出了‘看’的能力 。这在计算机运用上 具有变革性的影响。 还有一些了不起的实际应用。 可以通过机器学习预测洪水、翻译一百多种语言、预测和诊断疾病。 2/ 让我们来看看构成当代人工智能系统 基础的两个关键元素。 首先是神经网络,它是解决这些难题的一项重大突破。 第二个是运算能力。 驱动神经网络运作实际需要大量的运算能力, 在过去的十五年, 我们做到了使其减半,那也是整个人工智能得以发展至此的原因之一。Jeff Dean 认为我们做错了几件事~ 3/ AI 小历史。 数十年前几乎从计算机科学最早出现, 人们就想建造可以识别语言及理解谈话的电脑。最初的方法一般是人们手动写下完成难题所需的算法, 但成效一般。 过去的十五年间, 一个方法出其不意地 一次性解决了所有难题: 神经网络。 神经网络并非一个新想法。 背后的理念出现于1960和70年代。 神经网络如同其字面意思一样, 是一连串互相连接的神经元。 它们大致上效仿了人体真正神经元的特性。 4/ 神经网络如何计算? 这种系统中的一个独立神经元, 拥有一组输入信息,每组输入信息有对应的比重,神经元的信息输出就等于那些输入信息乘以它们对应的比重。 其实挺简单的, 无数神经元协同运作,就可以学习复杂的东西。 我们如何在神经网络中学习的? 其实,在学习过程中, 比重在不断被微调, 增强一些东西的影响,削弱其他的影响。 5/ Jeff Dean对神经网络的兴趣, 始于1990年本科阶段时学到的一门相关课程。 那时,神经网络在精细问题的解决上取得了惊人的成果, 但还达不到完成真实世界中重要工作的程度。 他觉得我们可能只是需要更强的运算能力。 明尼苏达大学当时有一个32位处理器。Jeff Dean想:“如果有更强的运算能力, 我们真能用神经网络干点大事。” 所以决定以神经网络的并行训练 作为毕业论文的课题,理念是将电脑或电脑系统中 所有的处理器 运用到同一件任务上,用来训练神经网络。 32位处理器,哇, 我们肯定能用它做点大事。 但我错了。 6/ Jeff Dean 意识到如果想用神经网络做些引人注目的事情, 所需的算力大概是 90年代算力的一百万倍。但从大概2005年开始,多亏了摩尔定律, 我们真的开始拥有算力了,世界上一些大学里的研究员们开始成功用神经网络完成各种任务。和其他几个在谷歌的同事听闻了这些成功事例, 于是决定启动一个项目,训练大型神经网络。 7/ 用油管视频里随机截取的一千万帧照片对其进行训练。 这个系统发展出了能够识别所有不同种类物体的能力,然后因为是油管的关系, 所以它发展出了识别猫的能力。油管上全是猫。 但让它如此引人注目的是从未有人告诉过这个系统猫到底是什么。 仅仅依靠数据的形态规律, 它就能自己琢磨出来猫究竟是什么。 8/ 在那个时候, 我们还对如何打造一个更适合神经网络运算所需的计算机硬件感兴趣。 神经网络运算有两个特性。 第一个是它们对精准度要求很低。 几个有效位就够了, 不需要六七个那么多。 第二个是所有算法都普遍由多个 不同的矩阵和向量的运算组成。 它会非常适用于神经网络运算, 虽然你无法用它做太多别的事,这是我们制作的第一个成品,TPU v1。 “TPU”是张量处理器的意思。 多年来,这一技术运用于谷歌搜索、翻译、以及AlphaGo围棋比赛, 所以李世石和柯洁可能没意识到,他们其实是在和TPU架构比赛。 9/ 我们仍然做错了很多事, 讲三件我们做错的事情, 以及如何修正他们。 第一个是,现如今的大部分神经网络 只被训练进行单一种类的任务。 你训练它去做一件你很关心的事情, 但这是一项非常繁重的工作。 你需要搜索数据组, 选择这个问题所需的网络架构, 接着随机分配起始比重, 然后为调整比重进行大量运算。 到最后,如果你幸运的话,可以得到一个非常适用于你关心的问题的模型。 但如果你一直这样做, 到最后会得到几千个独立的模型,每个可能都很有用,但都只针对某个单一类型的问题。 10/ 想一想人类是怎样学习的。 想象我们沉浸于钻研园艺, 尝试垂直水培园艺。 无需为此重新学习一遍,我已经掌握的有关植物的知识。 知道怎么把植物放进洞里,怎么浇水,以及植物需要光照, 我只需要整合这些知识用以学习新的技术。 (大脑整合了不同维度的知识和模型) 11/ 电脑也可以这样运作,但目前还未实现。为了避免每次学习新东西时忘记之前的知识,我们可以训练一个多任务处理模型,该模型的每个部分都有自己的专长,能够完成成千上万种不同的任务。假设我们有一个能完成一千种任务的模型,当第一千零一种任务出现时,我们可以整合已有的和新任务相关的知识,更快地完成这项新任务。就像你面临新的问题时,能够快速识别已知并能够帮助解决这些新问题的知识一样。 12/ 第二个问题是, 大部分现今的模型只能应对一种形态的数据, 图片、文字或语音, 但无法做到一网打尽。 但想一想人类如何在这世上生活。 你不断地动用你所有的感官去学习,去做出反应, 去搞清楚现在应该做什么。 这样显然更加合理, 我们也可以用同样的方式建造模型。 13/ 我们可以建造一个可以接收 所有不同种类数据的模型, 文字,图像,语音, 然后把它们融合在一起, 这样无论这个模型看到文字“豹子”, 看到豹子的视频,还是听到有人说出“豹子”这个词 它都会触发同样的反应: 一个豹子的概念 可以应对很多种不同的数据输入项, 甚至是非人工的输入项, 例如基因序列, 3D点云数据,当然也包括 图片、文字和影像。 14/ 第三个问题是现有人工智能模型过于稠密,这导致我们在执行某项任务时必须完全激活整个模型。与之相反,人脑的不同区块专注于不同的工作。我们可以制造一种激活反应较稀松的模型,训练时,模型可以学习哪个区块适用于哪个领域。此类模型高效,因为我们只使用完成任务所需的区块。解决这三个问题后,我们可以训练几个通用模型,能够应对成千上万件事情,并整合不同数据形态。我们已经制造了一种符合以上条件的模型,叫做“Pathways”。 15/ 我们的理念是这个模型可以完成成千上万种不同类型的任务, 然后我们可以逐步增加新的任务, 它也可以同时处理各种形态的数据, 然后逐步学习新技能, 并按需为不同任务启动不同区块。 我们对此感到非常兴奋, 我们认为这将是人工智能 系统建造迈出的重要一步。 16/ 浅谈一下什么是可信赖的AI。我们要确保强大的人工智能系统造福所有人,但也要考虑公平性、可解释性、私密性和安全性。为训练这些模型完成成千上万种任务,我们需要大量数据,并确保数据的采集代表不同的社群和情况。数据担忧只是可靠人工智能这个议题的一部分。2018年,谷歌发表了开发此类科技时应注意的人工智能守则。 17/ 这帮助指导了我们在研究领域和产品中使用人工智能。这对于思考复杂问题和在社会中应用人工智能非常有帮助和重要。我们不断更新这些准则,它们是现在研究的热点领域。从只能识别数据中的模式到通用智能系统,它们赋予我们解决人类面临的重大问题的能力。例如,我们可以诊断更多疾病,设计出更好的药品,优化教育系统,解决全球变暖等复杂问题。这些系统需要来自世界各地的多学科专家共同协作。 18/ 将人工智能和你所在的领域相结合, 从而推动产业的进程。 我看到了许多计算机科学的优势, 以及在过去的几十年中计算机科学 如何帮助几百万人更好地理解世界。 今天的人工智能拥有帮助数十亿人的潜力。 我们真的生活在一个振奋人心的时代。 谢谢。 Invalid media:

封面图片

联合创始人Greg最新采访:为什么OpenAI最先做出GPT-4?

联合创始人Greg最新采访:为什么OpenAI最先做出GPT-4? 纵观颠覆性技术的发展史,一个领域的主导者从来无法在下一个时代的平台上继续称雄,因为它们的成功会成为它们最大的桎梏。事实仿佛真的如此。即便Google疯狂自证在 AGI 领域的实力,但却只能在 OpenAI 身后追赶。为什么大企业无法创新?为什么是 OpenAI 首先开发出像 GPT-4 这样强大的模型?即使像 Google、Meta 有那么雄厚的资本,那么多人才储备也没有做到?5 月 15 日,可汗学院(Khan Academy)的 CEO 兼创始人萨尔曼・可汗(Sal Khan)对 OpenAI 联合创始人兼总裁格雷格・布罗克曼(Greg Brockman)进行了一段采访,这段采访或许能够帮助我们找到答案。研究与工程并重OpenAI 日前向公众揭秘了 Omni 团队,团队成员年龄和司龄的年轻化,以及团队管理的扁平化引发了网友热议。其实在成员组合方面,也“暗藏玄机”。OpenAI 的团队不仅有学术背景的研究型人才,同时还有优秀的工程人才,这种组合使他们能够从不同的角度解决问题,更有效地推动项目进步。Khan 询问 Brockman“你们认为自己做了什么才能达到如今的地位?在这个领域,有许多人在努力工作,也有许多资源雄厚的大型组织。你们认为自己做了什么与众不同?是因为你们的方法不同,还是有其他原因?”Greg Brockman 坦言“这是个很好的问题。我认为我们是更大趋势或历史的一部分。回顾过去 70 年的计算机发展史,我们经历了指数级的增长。”“2000 年,Ray Kurzweil 曾经说过,看看计算能力,它会告诉你什么是可能的。这就是推动进步的动力。起初大家都认为他疯了,但现在我相信大家基本上都认同他的观点。”Ray Kurzweil“想想我们为了实现像 GPT-4 这样的项目,付出了多少工程上的努力,从计算基础设施到使用的所有数据集和工具,这其实是全人类在很多方面的巨大努力。”“具体来说,我们能取得这些成就,是因为我们聚集了来自研究和工程背景的优秀人才。”“当我们开始这个项目时,让我感到非常有趣的是观察其他实验室的工作方式。你会发现,大多数实验室以研究为主,研究型工程师被告知要做什么,而研究科学家则可以随心所欲。”“这种方式似乎并不是实际构建一个工作系统的方法,更像是为了追求论文引用数量。如果你真的想产生影响并开发出有用的东西,你需要以不同的方式来组织团队。”“虽然说起来很简单,但实际上,这涉及到很多相互冲突的思维方式,特别是当你来自不同背景时。”我们必须尽力去解决这些问题,虽然你永远不能完全解决它们,但可以不断进步并挑战更复杂的版本。这就是我们需要勇于面对困难、勇于挑战的地方。」不会因为风险的存在而止步不前建立造福人类的 AGIGreg Brockman 第一次对人工智能的概念感到兴奋,是在他读到阿兰・图灵(Alan Turing)1950 年发表的关于图灵测试的论文的时候。他想看看,我们是否能够真正制造出图灵所说的那种机器,一种人类水平的智能,也就是我们所说的 AGI,并让它造福于全人类。这是 OpenAI 诞生的缘起,也是它的使命和愿景。为了这个目标,OpenAI 已经工作了 8 年。在这期间,OpenAI 一直在做同样的事情 建立更大的神经网络,让它更有能力,更协调、更安全,与此同时,部署这项技术,并使其发挥作用。Greg Brockman 称“这就是我认为这项技术最吸引我的地方,每走一步,你都能真正产生影响,真正开始造福人类。你会看到你所建立的东西带来的好处,并真正学会如何减少所有的不利因素。”迎战新的风险当 Khan 问及 AI 的安全性问题,Brockman 这样回答“AI 的安全问题有着悠久的历史,早在 50-60 年代,阿瑟・克拉克这样的人就在谈论这个问题。”《2001:太空漫游》作者阿瑟・克拉克“我认为,对 AI 拥有这种复杂的情感是非常正确的,我们既要对任何新事物感到惊奇,又要问这是要去哪里,哪里会有陷阱?我认为只有这样,我们才能正确地在这个空间里航行。”Brockman 提到,一件非常有趣的事情是,AI 是如何变得看起来“令人惊讶”的?在 90 年代,每个人都认为,如果 AI 可以下棋,就说明进入了 AGI 时代,但实际上,这只是我们要解决的第一件事情,AI 学会下棋并没有让我们真正走得更远。安全性问题也是一样。并不是说对 AI 安全的前瞻性的担忧一定不会发生,但 Brockman 认为,我们在错误的事情上过于自信了。他举了一个例子:对于 GPT-3,OpenAI 只是在基础数据集上进行训练后就将其发布,而对于 GPT-4,团队则对模型进行了调整,尽力消除偏见。事实上 OpenAI 在 2017 年就开始开发这项技术,当时这些模型还没有出现。现在,GPT-4 带来了一类新的风险,未来还会出现更多新的风险。风险和益处将会并存,关键是如何学会如何面对这种风险。在实践中学习当我们在思考 GPT 对教育领域的影响的时候,一些人可能会首先注意到抄袭的问题,Brockman 也承认让学生独立思考非常重要。但是“对于那些无法获得出色的教育工具的人来说,ChatGPT 是一个工具。教师可以根据自己的喜好,帮助学生进行某种工作并填补教育人员无法做到的空白。”至于如何制定规则,如何将这项技术融入教育,则需要“获得大量的意见,与大量的教育工作者接触。OpenAI 不是这项事业唯一的决定者,从每个人那里获得广泛的意见很重要。”“我们为了实现真正的益处,和一线的教育工作者交谈,真正弄清楚他们想要什么。”我们还需要“真正展示积极面”。一旦你有了一个有效的正面例子,就很容易围绕它建立标准,如果没有这个,那么就相当于“在黑暗中开枪”。就像采访者 Khan 谈到的,ChatGPT 对教育的影响取决于怎样使用,比方说我们可以用它来采访历史人物、练习辩论技巧等。更多正面使用的案例和经验需要在实践中获得。去年 OpenAI 发布了一篇关于部署语言模型安全标准的博客文章,这篇文章的形成用了 2 年的时间。Brockman 告诉 Khan“这种从实践中学习的迭代部署,是我们现在可以做的最重要的事情”。每个人都可以获得 AI 的“超能力”人工智能究竟会削弱人类能力,还是增强人类能力?Brockman 和 Khan 都站在人工智能会增强人类能力的这一边。Brockman 乐观地说“现在,拥有一部智能手机就可以开始以一种方式进行创作,而你之前必须购买一堆专业软件,你必须去学校接受大量的培训。”“我认为我们都可以获得人工智能的超能力,我们可以实现我们想要的目标”。当然,关于这个问题,每个人都可以有自己的答案,但 Greg Brockman 无疑是一个乐观主义者,这或许也是 OpenAI 不断向前的原因所在。乐观是油门,悲观是刹车,两者都不可或缺,但是想要前进,我们必须多踩油门而不是刹车。 ... PC版: 手机版:

封面图片

图灵奖揭晓:史上首位数学和计算机最高奖“双料王”出现了

图灵奖揭晓:史上首位数学和计算机最高奖“双料王”出现了 加上2021年获得的阿贝尔奖,维格森教授现在一举成为首个同时拿下数学和计算机最高奖的科学家。(阿贝尔奖也被誉为“数学界诺贝尔奖”)。此外,他还是2017年阿里达摩院刚成立时首批“十大祖师”之一。业内人士纷纷赶来表示祝贺,a16z的研发主管表示:除了已有的学术成果外,也是因为他几十年来孜孜不倦的领导力,才带来理论计算机科学界的长青与活力。比如,没有他,可能就不会有西蒙斯计算理论研究所。值得一提的是,他还在5个月前来到清华叉院做客,对当下大语言模型的发展表达了自己的看法。复杂性理论先驱荣获图灵奖作为一名数学家和计算机科学家,维格森最重要的贡献就是增强了人类对计算中随机性和伪随机性作用的理解。具体什么意思?20实际70年代末,计算机科学家们已经发现:随机性和计算难度之间存在显著联系。(这里的计算难度之高指的是那些没有有效算法,即无法在合理的时间内解决的自然问题,它们计算起来比较困难。)通俗一点解释就是:对于许多难题,采用随机性的算法(也称为概率算法)可以远远胜过其确定性方案。例如,在一个被称为“1977证明”的实现中,两位科学家就引入了一种随机算法,可以比当时最好的确定性算法更快地确定一个数字是否为素数。而在20世纪80年代初,维格森与UC伯克利的科学家Richard Karp合作,将随机性的概念与那些被认为计算难度高的问题联系起来,也就是没有已知的确定性算法可以在合理的时间内解决这些问题的问题。尽管不知道如何证明它们很难,维格森和Richard Karp还是发现了一种针对某个难题的随机算法,然后发现:能够将其去随机化,从而有效地揭示了它的确定性算法。大约在同一时间,其他研究人员也发现密码学问题中的计算难度假设能够实现一般的去随机化。这促使维格森思考随机性本身的特质。他和其他人一样,开始质疑随机性在高效问题解决中的必要性以及在什么条件下它可以完全被消除。终于,1994年,他和另一位计算机科学家Noam Nisan阐明了两者之间的联系。他们证明,如果存在任何自然难题,那么每一种有效的随机算法都可以被有效的确定性算法所取代。即我们总是可以消除随机性。更重要的是,他们还发现确定性算法可能使用“伪随机”序列也就是看似随机但实际上并非随机的数据串。换句话总结就是:随机性对于高效计算来说并不是必需的。即使在没有随机性的情况下,我们仍然可以使用有效的算法来解决问题。这一系列研究彻底改变了计算机科学家对随机性的看法,并适用于理论计算机科学的许多领域。今天,ACM就将图灵奖这一重要荣誉颁给了维格森,主要嘉奖的就是他在如上领域的贡献。在普林斯顿高等研究院的采访中,维格森解释自己既是一位数学家也是一位计算机理论科学家,研究的是计算领域的数学基础。我的研究领域是数学的一个子域,但同时,我所研究的主要概念是计算。对于理论计算机科学,他则认为这个学科拥有一个人对学术研究所能期望的所有优点,包含了一系列令人惊叹的深刻且具有重要智力意义的基本问题,而这些问题对人类、科学、生活和技术都至关重要。(看得出老爷子满满的热爱之情了。)而对于本次大奖,维格森则表示:自己很高兴看到ACM再次认可计算基础理论,它确实对计算科学的实践和技术发展做出了巨大贡献。大学被劝学计算机“好找工作”维格森于1956年在以色列出生,是一位护士和一名电气工程师的儿子。他的父亲喜欢拼图,并对数学的基本概念非常感兴趣,然后又经常跟孩子们分享他的想法。维格森这样描述父亲对他的潜移默化的影响:就是他让我感染了这种病毒。不过等他要在当地海法大学上学时,本想主修数学的他,却被他的父母劝导说:选择计算机吧,计算机好找工作!结果他发现这个领域有很多数学问题没有解决,于是开始吭哧吭哧解决了起来。维格森毕业于以色列理工学院和美国普林斯顿大学,1983 年凭借论文《组合复杂性的研究》获得博士学位。他早期的一项开创性工作,就是证明了一个看似矛盾的问题:能不能在不展示证明过程的情况下,让别人相信一个数学论断已经被证明了。是不是想起隐私计算领域姚期智提出的百万富翁问题内味了。那个问题就是两个百万富翁,他们想证明谁更富有,但两个人都不透露他们拥有多少财富。而原本的这个问题其实是叫做零知识证明,这个概念最早在1985年由三位科学家引入。随后由维格森以及他的合作伙伴Micali和Oded Goldreich进一步阐述了这一想法,并发现了一个意想不到的结果:如果真正安全加密是可能的,那么 NP 中每个问题的解也都可以用零知识证明来证明。换言之,零知识证明可以用于秘密地证明任何有关秘密数据的公开结果。数十年来,他始终活跃在学术岗位上,并且获得诸多赞誉和奖项。1994年,他因在计算复杂性理论方面的工作获得1994年的内万林纳博士毕业后,他在加州大学伯克利分校担任客座助理教授,在IBM担任访问科学家,并在伯克利的数学科学研究所担任研究员。1986年加入希伯来大学担任教员。1994年,他与Omer Reingold和Salil Vadhan一起因在图的 zig-zag 乘积方面的工作而获得了 2009 年哥德尔奖。1999年,他加入普林斯顿高等研究院并工作至今。2013年当选美国国家科学院院士。2018年,他因对计算机科学和数学理论的贡献当选ACM Fellow。第二年,又因为“在随机计算、密码学、电路复杂性、证明复杂性、并行计算以及我们对基本图特性的理解等领域对计算机科学基础做出的根本性和持久性贡献”,他荣获高德纳奖。2021年,维格森与László Lovász共同获得阿贝尔奖。也正因为这样根本性且持久性的贡献,网友们得知他才获图灵奖时感到意外而又惊喜,还以为他早就得了。也有人开始看他曾经写过的书籍了。或许有眼熟的朋友吗?谈大语言模型:最重要还是看它不能做什么而他与姚期智以及中国的缘分还在延续。5个月前,他还曾亲自来到清华叉院做客,带来题为“模仿游戏(Imitation Games)”的特邀报告。由姚期智院士亲自主持讲座,并与他展开对话。据报道,维格森从图灵测试出发,叙述了“模仿学习”理论的沿革及其在密码学、随机性、离散数学、数论等领域的现代应用。他基于凯撒密码、恩尼格玛密码机、选举等案例,引导思考安全性的定义、随机性的应用、隐私和效用的平衡等问题。对于理论计算机研究将如何应对人工智能发展这一问题,维格森表示,尽管包括大语言模型在内的人工智能有很多惊人表现,但最重要的问题是还有什么是AI不能做的。对于给现在正置身于科研的同学们,维格森也给出了自己的建议。他表示,自己曾为解决一个开放性问题用了40年时间,建议同学们要选择自己喜欢的研究领域和话题,并享受在失败中不断学习的过程,这样才能在科研道路上走得长远。参考链接:[1] ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人