试着从4月17号最新发布的这篇 agent 综述里,提炼了 6 个让 agent 更智能的方法,以及 2种 agent 架构的适

试着从4月17号最新发布的这篇agent综述里,提炼了6个让agent更智能的方法,以及2种agent架构的适用场景。论文链接是https://arxiv.org/pdf/2404.11584,强烈建议每一位对agent感兴趣的同好,都去精读几遍。言归正传,下面是我的总结:一、如何让agent更智能1、明确定义的系统提示,指导智能体的行为和目标例子:ReAct方法在ReAct方法中,智能体首先对给定任务进行思考,然后根据这些思考执行动作。这个过程可能会重复进行,直到任务完成。这种方法中的系统提示非常明确,指导智能体首先进行思考,然后行动,这样的循环确保智能体在执行任务时有明确的行为和目标指导。2、明确的领导和任务分工机制例子:EmbodiedLLMAgentsLearntoCooperateinOrganizedTeams在这个研究中,团队中的领导智能体对整个团队的效率有显著影响。领导智能体负责指导和分配任务,使得其他智能体可以更专注于执行具体的任务。这种明确的领导和任务分工机制使得团队能够更快地完成任务,减少了无效的沟通和混乱。3、专门的推理/规划、执行和评估阶段例子:AgentVerse方法AgentVerse方法中包含了明确的任务执行阶段:招募、协作决策、独立行动执行和评估。这些阶段被严格定义,每个阶段完成后,智能体团队会根据任务进展进行重新组织,确保每个阶段的智能体都最适合当前的工作需求。4、动态调整的团队结构,根据需要添加或移除智能体例子:DyLAN方法DyLAN框架通过动态的智能体结构来处理复杂任务,如逻辑推理和代码生成。系统会评估每个智能体在上一轮工作中的贡献,并只将表现最好的智能体保留在下一轮执行中。这种动态调整的团队结构使得智能体团队始终保持最高效率。5、来自人类或其他智能体的反馈机制例子:Reflexion方法在Reflexion方法中,智能体在执行任务的过程中会接收到来自一个语言模型评估器的反馈。这种反馈机制使得智能体能够根据反馈调整自己的行为和策略,从而提高任务完成的成功率和减少错误。例如,如果智能体在执行任务时偏离了正确的轨道,评估器可以指出这一点,并建议智能体如何调整策略以更好地达成目标。这种反馈循环不仅增强了智能体的性能,也提高了其与人类用户的互动质量和信任度。

相关推荐

封面图片

6、智能的消息过滤,减少无关信息干扰

6、智能的消息过滤,减少无关信息干扰例子:MetaGPT方法MetaGPT实现了一个“发布-订阅”机制,允许所有智能体在一个共享的信息平台上发布信息,但每个智能体只阅读与自己任务相关的信息。这种智能的消息过滤机制显著提高了团队执行目标的效率,减少了无关信息的干扰。二、多智能体一定比单智能体高贵吗?并不是,单智能体和多智能体模式,都显示出解决「需要高级问题解决技能」的复杂多步骤问题的能力。1、单智能体模式通常最适合于工具列表有限且流程明确的任务。单智能体架构相对容易实现,因为只需定义一个智能体及其可用工具。此外,单智能体不会面临来自其他智能体的糟糕反馈或令人分心的无关闲聊等限制。然而,如果单智能体缺乏强大的推理和自我改进能力,它们可能会陷入无休止的执行循环,无法真正朝着目标前进。2、多智能体架构往往适用于需要多个角色反馈以完成任务的情况。例如,在文档生成过程中,一个智能体可以对文档某个部分提出反馈,供另一个智能体参考和改进。多智能体系统还有助于跨不同任务或工作流实现并行化。Wang等人的研究发现,在没有提供示例的情况下,多智能体模式的表现优于单智能体。不过,多智能体系统通常更加复杂,需要良好的对话管理和明确的领导才能发挥最佳效能。

封面图片

“生成式人工智能,我更看好的方向是什么呢?是智能体(Agent)。”近日,百度创始人、董事长兼首席执行官李彦宏在“亚布力成长计划

“生成式人工智能,我更看好的方向是什么呢?是智能体(Agent)。”近日,百度创始人、董事长兼首席执行官李彦宏在“亚布力成长计划-走进百度”活动上表示,智能体是AI时代的网站,将会有几百万、甚至更大量的智能体出现,形成庞大生态。谈及企业做智能体的方向,李彦宏表示,如果仅仅是针对理解、生成、逻辑和记忆等大模型基础能力做改进或集成,则价值不大;但在各个不同场景中,发挥特有的数据优势,就能逐渐积累出自身的竞争优势。(澎湃新闻)

封面图片

清华大学教授AMiner创始人唐杰的团队做了一个全新的Agent能力榜单,评估基础模型智能体。

清华大学教授AMiner创始人唐杰的团队做了一个全新的Agent能力榜单,评估基础模型智能体。这是一个多维演进基准测试,包括8个不同环境,用于评估大型语言模型(LLMs)在多回合开放式生成环境中的推理和决策能力,通过对25个语言模型的广泛测试,发现顶级商业语言模型在复杂环境中表现出色,且与开源模型之间存在显著差距。AgentBench的数据集,环境,和集成评估包已在github上发布。8种不同的环境任务,即操作系统(OS)、数据库(DB)、知识图谱(KG)、卡牌对战(DCG)、情景猜谜(LTP)、家居(Alfworld)、网络购物(WebShop)、和网页浏览(Mind2Web)。使用AgentBench对25个不同的语言模型进行了全面评估,揭示了领先的商业语言模型与开源模型之间的显着性能差距。对语言模型作为智能体的更广泛讨论的贡献,表明需要进行严格、系统的评估,并提供强大的开源工具来促进此类评估。

封面图片

对 agent 的一个暴论:现有 (multi) agent workflow 的模式没有太大价值。Agent 今年(在以吴恩达

对agent的一个暴论:现有(multi)agentworkflow的模式没有太大价值。Agent今年(在以吴恩达老师为首的各类大佬的吹捧下)热度很高,但现有的这些所谓的(multi)agentworkflow,本质上是把一个大任务拆分成很多个子任务,每个子任务都有明确的input和output,自己定义一些变量和接口,把这些子任务串起来。这种方式很像是早期的自动驾驶,把感知和规控分开解,或者是上一代的语音助手,把语音转文字、LLM、语音合成这些工作流串起来。终极的解决方案应该不是这个样子的。现有的(multi)agentworkflow,速度慢先不说,最大的问题还是在接口的地方把信息降维了。这些input/output的接口和变量,本质上都是把信息降维到人能理解的维度,这是以高维信息的损失为代价的。每多一层workflow,损失的信息就多了一次。面对简单问题时,(multi)agentworkflow或许是可行的,但它注定无法解决复杂问题。就好比Waymo用感知+规控的架构,搭配高精地图,能够在凤凰城和三藩市勉强把本地L4跑通,但很难scale成一个通用的解法。只有Tesla端到端的方案才是自动驾驶的未来。因此,现有的(multi)agentworkflow方式注定只是一个中间状态,类似自动驾驶中感知+规控+高精地图的拼凑。而最终想要解决复杂问题,需要靠基础模型的进化。当模型能力足够强之后,应该是可以端到端的解决问题。你可以在prompt里提示它去使用某些工具,或者采用某些步骤,但应该不需要人为去把workflow拆出来。Agent的概念依旧重要,但应该回归它更加native的定义,即每一个Agent应该是独立的智能体,拥有自己的memory,planning,tooluse等能力,能够端到端地解决问题,而不是需要人类按照自己的理解一口口地把饭喂到嘴里。一个Agent就应该是一辆独立的L5Autopilot的汽车,而不是一堆弱智L2Workflow凑出来的所谓multiagents辅助驾驶杂牌军团。这听起来就很不优雅。

封面图片

中科创达:“魔方法律助手” 端侧智能应用与联想 AI PC 个人智能体 “联想小天” 实现无缝对接

中科创达:“魔方法律助手”端侧智能应用与联想AIPC个人智能体“联想小天”实现无缝对接有投资者问,联想的AIPC是用的中科创达的操作系统吗?与联想有哪些方面的合作?中科创达在互动平台表示,公司是AIPC产业全栈产品和技术提供商。公司与微软,高通都保持着非常紧密的合作。公司在AIPC生态方面也和主流PC厂商建立合作,帮助厂商大模型在端侧场景的落地。中科创达“魔方法律助手”端侧智能应用正式与联想AIPC个人智能体“联想小天”实现无缝对接。

封面图片

谷歌DeepMind创始人提出通用人工智能分级 ChatGPT只是初级

谷歌DeepMind创始人提出通用人工智能分级ChatGPT只是初级长期以来,AGI都是一个含义模糊的概念,粗略可以将其理解为“和人类差不多聪明”。研究团队在论文中写道,“我们希望提供一个共通的语言,用于比较模型、评估风险,以及衡量我们在通往AGI的道路上行进到了什么阶段。”AGI六大定义原则研究团队没有用一句话概括AGI,而是提出,任何对AGI的定义都应满足六条原则:关注能力,而非过程。也就是说关注AGI可以完成什么,而不是完成任务的机制。这种将关注焦点放在能力上的方式,使我们能够将一些内容排除在对AGI的要求之外,比如实现AGI并不意味着智能体以类似人类的方式思考或理解,或实现AGI并不意味着智能体具备意识或感知(具有情感的能力),因为这些特质不仅侧重于过程,而且目前无法通过公认的科学方法来衡量。关注通用性和性能。研究团队认为,通用性和性能是AGI的关键组成部分。关注认知和元认知任务。大多数对AGI的定义侧重于认知任务,可以理解为非物理任务。尽管目前机器人技术取得了一些进展,但与非物理能力相比,AI系统的物理能力似乎滞后了。执行物理任务的能力确实增加了智能体的通用性,但我们认为这不应被视为实现AGI必要的先决条件。另一方面,元认知能力(例如学习新任务的能力或知道何时向人类请求澄清或协助的能力)是智能体实现通用性的关键先决条件。关注潜力,而非部署。证明系统能够以一定性能水平执行一组必要任务,应该足以宣布该系统为AGI,在现实世界部署这样的系统,不应该成为AGI定义的固有要求。关注生态效度(EcologicalValidity)。我们希望强调,选择与人们在现实世界(即生态有效)所重视的任务相一致的任务非常重要。关注通往AGI的路径,而不是单一的终点。研究团队提出AGI的五级分类,每个AGI级别都与一组明确的度量/基准相关联,以及每个级别都引入已识别的风险和人机交互范式的变化,比如OpenAI提出的劳动替代定义就更符合“大师AGI”。AGI五级分类基于能力深度(性能)和广度(通用性)将AGI分类为:非AI、初级、中级、专家、大师、超级智能。基于能力深度(性能)和广度(通用性),该研究将AGI分类为:非AI、初级、中级、专家、大师、超级智能。单个系统可能横跨分类法中的不同级别,截至2023年9月,前沿语言模型如OpenAI的ChatGPT、Google的Bard、Meta的Llama2在某些任务上(如短篇论文写作、简单编码)表现出能力娴熟的“中级”性能水平,但在大多数任务上(如数学能力、涉及事实性的任务)仍处于“初级”性能水平。研究团队认为,总的来说,当前的前沿语言模型会被视为第1级通用AI,即“初级AGI”,直到其性能水平在更广泛的任务集上提高,满足第2级通用AI(“能力娴熟AGI”)的标准。同时,研究团队提醒道,获得特定认知领域的更强技能,可能对AI安全产生严重影响,如在掌握强大的伦理推理技能之前获得强大的化学工程知识可能是一种危险的组合。还要注意,性能或通用性级别之间的进展速度可能是非线性的。获得学习新技能的能力可能会加速通往下一个级别的进程。在性能和通用性的综合方面,分级中的最高级别是ASI(人工超级智能)。研究团队将“超级智能”性能定义为超过100%的人类。例如,研究团队假定AlphaFold是分类法中的第5级“限定领域超人AI”,因为它在一个任务(从氨基酸序列预测蛋白质的三维结构)上的表现高于全球顶级科学家的水平。这个定义意味着第5级通用AI(ASI)系统将能够以没有人类能够匹敌的水平执行各种任务。此外,这个框架还意味着这样的“超人系统”可能能够执行比AGI低级别更广泛的任务,可以理解为其能够实现原本人类完全不可能执行的任务。ASI可能具有的非人类技能可能包括神经界面(通过分析大脑信号来解码思想的机制)、神谕能力(通过分析大量数据来做出高质量预测的机制),以及与动物交流的能力(通过分析它们的声音、脑电波或肢体语言的模式等机制)。10月底,莱格在接受科技播客采访时表示,他仍然坚持2011年就曾公开发表的观点——研究人员有50%的可能在2028年实现AGI。那么这具体指的是哪一个级别?目前他还没有明确的阐释。...PC版:https://www.cnbeta.com.tw/articles/soft/1395531.htm手机版:https://m.cnbeta.com.tw/view/1395531.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人