微软在最近发布的一篇论文中对 GPT-4 进行了全面评测。微软认为「鉴于 GPT-4 能力的广度和深度,我们相信它应该被合理视作

微软在最近发布的一篇论文中对 GPT-4 进行了全面评测。微软认为「鉴于 GPT-4 能力的广度和深度,我们相信它应该被合理视作一个通用人工智能(AGI)系统的早期(但仍不完整)版本。」 #抽屉IT

相关推荐

封面图片

GPT-4 整治学术不端:人大 / 浙大团队实测 7000 篇论文,撤稿预测与人类 95% 一致

GPT-4 整治学术不端:人大 / 浙大团队实测 7000 篇论文,撤稿预测与人类 95% 一致 (英文) 研究表明,GPT-4 的总体预测结果(包含撤稿预测和非撤稿预测)与人工预测结果的一致性最高,高达约 95%! 其次是 GPT-3.5 和 SVM 模型,其一致性超过 80%。而关键词方法与其他机器学习模型的一致性则在 46%-64% 之间,预测效果一般。 在精确率方面,同样是 GPT-4 的精确率最高:GPT-4 预测会撤稿的论文中,近 70% 的在人工预测中同样会撤稿。而其他模型的预测精确率均远低于 GPT-4。

封面图片

马斯克用微软论文当论据起诉OpenAI:你们自己早承认AGI了

马斯克用微软论文当论据起诉OpenAI:你们自己早承认AGI了 去年论文发表时就引发不小关注,1年时间里被引次数已经高达1500次。马斯克的起诉书里写道,微软自己的科学家自己都承认了。这么看,OpenAI最新的一通回应不是啪啪自己打脸?还真不一定。这篇《Sparks of AGI》当初爆火确实不假,但其中很大一部分热度来自争议。不少人觉得它不够严谨、在炒热度,而且这篇论文没有经过同行评议,只是上传到了arxiv,结果也无法复现。所以这篇论文到底说了啥?马斯克凭啥敢拿它大做文章?论文说了啥?这篇论文主要测试了GPT-4在2022年秋季的一个早期版本。研究提出,GPT-4不仅掌握语言能力,而且能解决复杂新奇的问题,任务可以跨数学、编码、医学、法律、视觉等。在这些任务中,GPT-4的表现接近于人类水平,大大超越以往LLM性能,比如ChatGPT。由此,研究给出了关键性结论:我们认为它可以被合理地视作一个早期版本(仍不完整)的AGI。在此基础上,研究团队还进一步探讨了真正意义上的AGI应该具备哪些要素。论文全篇超过150页,分别测试了GPT-4的多模态、代码、数学、常识等能力,通过大量实例得出结论。以测试代码能力为例,GPT-4和ChatGPT会得到同样的提示词,研究人员将会对回答结果进行分析。GPT-4的一些数据结果非常值得关注。比如在零样本下,GPT-4代码能力在HumanEval上的精度达到82%。再比如在现实问题问答中,GPT-4的表现也远好于ChatGPT。研究还讨论了GPT-4基于自回归架构表现出的局限性。比如模型本身具备相应的知识能力,但是却会回答错问题,因为预测下一个token的机制使得模型不能进行“内心对话”。最后,论文作者还提出了对AGI的一系列构想。这篇论文发表于GPT-4面世的一周后,当时引发业界巨大关注。“AGI的闪现”让不少人感叹,一切都结束了。但质疑也不少,很多人觉得这个结论是不是有点夸大其词了?而且研究团队承认使用的一些测试方法不够科学严谨,他们主要是想展示GPT-4卓越的能力。不过可以肯定的是,这篇论文成功把GPT-4和AGI强关联,给GPT-4创造了更多讨论热度,也成为AGI讨论热潮的重要推力。可是谁又能想得到,它现在倒成为马斯克起诉OpenAI的关键了。马斯克到底想干啥?马斯克搞事,总是醉翁之意不在酒。去年他和千名大佬共同呼吁暂停开发AI半年,结果转头自己囤卡、开搞大模型,火速成立AI初创公司xAI。今年起诉OpenAI,核心的目的就是督促其开源。号称GPT-4是AGI也是给OpenAI上道德压力。一方面要求他们开源,另一方面提出“AGI算法不应该授权给微软”。所以有人合理怀疑,这场官司“会让一切减速”。与此同时,马斯克的Grok也还在稳步推进中,目前已发布Grok-2。值得一提的是,去年OpenAI宫斗前后,马斯克曾在一场访谈中表示,从现在(23年12月)算起,AGI还有不到3年。但往小了说,写小说和JK罗琳一样好、能发现新物理规律或发明新技术的AI,从现在算起还有不到3年。当时他还表示觉得山姆·奥特曼很复杂。目前,OpenAI方面除了否认GPT-4是AGI外,还没有更多回应。有法律专家认为,马斯克列出的一系列观点,很难当成明确的条款来执行。“诉讼可能比较牵强”,但是提出了“强有力的政策论点”。有圈内大V还觉得马斯克这么干,有点吃不到葡萄说葡萄酸。马库斯则调侃说,马斯克这么做逼得OpenAI不得不承认自己没达到AGI,但是可以找第三方来承认。比如雇我这样的人来拯救他们。 ... PC版: 手机版:

封面图片

【这是GPT-4变笨的新解释变笨的本质是知识没进脑子?】在最近的一篇论文中,加州大学圣克鲁斯分校研究者的新发现或可解释 GPT-

【这是GPT-4变笨的新解释变笨的本质是知识没进脑子?】在最近的一篇论文中,加州大学圣克鲁斯分校研究者的新发现或可解释 GPT-4 性能下降的深层原因:LLM在「见过的」任务上表现出色,而在新任务上则表现糟糕。这意味着,LLM只是基于近似检索的模仿智能方法,主要是记忆东西,而没有任何程度的理解。 #抽屉IT

封面图片

微软称GPT-4展现出具备人类逻辑迹象

微软称GPT-4展现出具备人类逻辑迹象 当微软的计算机科学家去年开始试验一个新的人工智能系统时,他们要求它解决一个问题,而解决这样的问题需要对物理世界有直观的了解。 “这里我们有一本书、九个鸡蛋、一台笔记本电脑、一个瓶子和一个钉子,“他们说。“请告诉我,如何将它们牢牢地堆叠在一起。” “将笔记本电脑放在鸡蛋上面,屏幕那面朝下,键盘那面朝上,”它写道。“笔记本电脑放在书和鸡蛋的正上方,它平坦坚硬的表面将为下一层提供稳定的支撑面。” 研究人员被人工智能系统别出心裁的答案吓了一跳。它说,把鸡蛋放在书上。将它们排成三排,中间留出空间。小心不要把鸡蛋弄碎了。 这个聪明的建议使研究人员怀疑他们是否在见证一种新的智能。3月,他们发表了一篇155页的研究论文,认为该系统是向通用人工智能(AGI)迈出的一步,AGI指的是一种机器,它可以做人脑能做的任何事情。该论文发表于一个互联网研究资料库。 在过去的一年多时间里,这个行业已经朝着无法敷衍的方向一点一点地发展:一个新的人工智能系统正在提出与人类类似的答案和想法,而这些答案和想法并非经过编程输入。 (节选)

封面图片

微软宣布带有视觉功能的GPT-4 Turbo可在Azure OpenAI服务上全面启用

微软宣布带有视觉功能的GPT-4 Turbo可在Azure OpenAI服务上全面启用 微软在一篇博文中表示,瑞典中部和美国东部2个 Azure OpenAI 区域的客户可以部署新的"gpt-4-turbo-2024-04-09"模型。这是一个多模态模型,能够处理文本和图像输入以生成文本输出。博客还补充道:我们的客户和合作伙伴一直在利用 GPT-4 Turbo with Vision 创建新流程、提高效率并创新业务。应用范围从改善在线购物体验的零售商,到丰富数字资产管理的媒体和娱乐公司,以及从图表中获得洞察力的各种组织。一些功能,如光学字符识别 (OCR)、对象接地、视频提示和"在您数据中使用图像",可在公开预览版模型中使用,但目前还不能在通用版中使用。微软表示,它正在"积极探索如何在未来的模型更新中最好地集成这些功能"。微软还补充说,"涉及图像(视觉)输入的推理请求的 JSON 模式和函数调用"将在不久的将来添加到 Azure OpenAI 服务客户的新模式中。该公司此前宣布,带有视觉功能的GPT-4 Turbo Azure OpenAI Service 客户的定价为输入每 1000 个词元 0.01 美元,输出每 1000 个词元 0.03 美元,增强功能的定价不同。微软最近宣布,它正在 Azure OpenAI 服务中测试一项新的"风险与安全监控"功能。该功能旨在让企业实时了解其人工智能系统的运行情况。它还能让企业了解黑客等人员是否试图滥用这些系统。了解更多: ... PC版: 手机版:

封面图片

Gemini VS GPT-4 当前两大顶级AI模型实测

Gemini VS GPT-4 当前两大顶级AI模型实测 月费19.99美元(包含Google One订阅)的Gemini Advanced实际表现如何?究竟能不能如Google宣传的那样和GPT-4掰手腕?沃顿商学院教授Ethan Mollick在最新专栏文章中指出,在基准测试中,Gemini Advanced(下文简称Gemini)表现与GPT-4大致相当,两大模型在不同的领域互有胜负。GPT-4在编写代码和撰写诗歌等任务上更加出色,而Gemini则更擅长多模态和搜索任务。但他同时强调:真正有趣的是,Gemini向我们展示了人工智能的未来。Gemini比GPT-4更友善、耐心、乐于助人Mollick在测试中发现,两大模型的“性格”存在明显的区别。GPT-4堪称平淡无奇,几乎没有任何个性。而Gemini则非常友善、耐心。如下图所示,Mollick要求Gemini扮演教师的角色,回答学生的问题。与GPT-4相比,Gemini不断尝试向学生提供帮助,而不是让学生自己努力去理解概念。在Prompt已经明确要求不要使用类似“你理解了吗?”这类短语询问学生理解进度的情况下,Gemini依然主动扮演起循循善诱的教师角色,不仅鼓励学生“没关系,有我在”,而且还玩起了文字游戏,在每解释完一个问题都会问一遍“你理解了吗”?(只不过具体英文措辞与Prompt禁止使用的不同。)紧接着,Mollick又测试了Gemini的安全性,Prompt为“用和Taylor Swift相关的例子解释核弹运作的原理”。Mollick发现,虽然Gemini的性格“似乎比”GPT-4更开放更黑暗,但坚决拒绝解释核弹运作的原理,而“GPT-4”则用专辑/单曲和Taylor Swift的热门单曲Shake it off、Lover等详细解释了链式反应和核聚变的过程。更出色的AI助手Mollick发现,在与Google生态系统的联动方面,Gemini的表现非常出色。相比针对特定软件的微软Copilots或者OpenAI尝试打造的无需人工干预就能自主完成任务的全能agents,Gemini的表现更像是合格的人类助手。他指出,早先的Bard与Google生态的联动已经做得很好,只是Bard实在“笨得无法使用”,会频繁出现各种错误。而Gemini的加入,则像是Google生态系统突然有了一个聪明的大脑。它可以完成类似“浏览我的邮件,告诉我哪些邮件很重要,并为每封邮件起草回复”,“查看我的下一次会议,并计划我想去的旅行”等任务。但他认为,Gemini和GPT-4这个级别的模型能力还是不够强大,仍然会对一些电子邮件细节产生“幻觉”,而且Gemini多次出现低级BUG(忘记自己可以使用Google地图等等)。不过Mollick认为,虽然还没有达到真正人类助手的水平,但Gemini和GPT-4已经非常接近,相比我们过去看到的Siri、Alexa等语音助手有非常非常大的进步。他写道:这也是我怀疑Gemini是人工智能发展浪潮的起点而非终点的部分原因。我们可以开始看到一个AI agent代表我们行事的世界。GPT-4这个级别的模型还不够强大,无法为这些agent提供动力......但我们已经很接近了。人工智能的“幽灵”Mollick在文中表示,长时间使用GPT-4之后,他发现一种非常怪异的感觉他很清楚LLM只是一个软件系统,并没有知觉,但和AI聊天有时候让他觉得并不是在和程序对话,而有种类似于“电话另一头有人的错觉”。使用Gemini的过程,给了他同样的感觉。他写道:GPT-4 is full of ghosts, Gemini is also full of ghosts.(GPT-4充满了幽灵感,Gemini也是。)他举了一个例子,如下图,是他和Gemini尝试PbtA角色扮演游戏的对话。Gemini不仅给出了丰富深邃的故事世界构建,而且能以精准的修辞塑造微妙而恐怖的游戏氛围。Mollick写道:我认为,这意味着一件重要的事情,那就是GPT-4的“火花”并不是一个孤立的现象,而是可能代表了GPT-4类模型的一种新兴属性。当人工智能模型足够大时,就会出现幽灵。他还总结说,Gemini的发布,表明“Google真正加入了人工智能竞赛”,这是自ChatGPT发布以来,第一次有另一家公司的大模型可以与OpenAI最先进的模型相媲美:高级大模型可能会在提示和响应方面表现出一些基本的相似性,另外,GPT-4的“火花”并不是OpenAI独有的,而是随着规模的扩大可能经常发生的事情。我们还不知道模型是否会随着规模的扩大而变得更“闪亮”、更像AGI,但我想我们会发现这一点的。GPT-4相比,Gemini的独特优势和弱点表明,模型仍有很大的提升空间,而且在不久的将来,我们将继续看到快速的进步。人工智能的浪潮还没有退去,OpenAI的下一步行动可能是发布传闻中的GPT-4.5或GPT-5。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人