最近在看 MetaGPT 的框架,拿到 AgentStore 测试名额。感觉提示词这部分存在着一直以来很普遍的问题:忽略细节。这
最近在看 MetaGPT 的框架,拿到 AgentStore 测试名额。感觉提示词这部分存在着一直以来很普遍的问题:忽略细节。这也是我在社交媒体上看到各路 Prompter 分享 Role 的一个尚待优化的点。 我举个例子,错误示范: 你是一个 xx 专家,你很 blabla; 又或者,请检查 xx 是否有错误,是否存在 yy 问题。 我这里说的“错”不是指自己用 GPT 的场景,而是针对于构建自动化处理任务的 Agent 这个任务来说。 这两个错误真的是非常典型,而且本质上是一个问题。你把 GPT 想象为一个依靠 Prompt 进行选择性表达或是从中心点向四周分化的细胞。你会发现从底层能力上看,通过实验来看它就是没法分化太远(我是说目前),原因有两个。 你看 MetaGPT 文档第一句话说的是什么? Code = SOP(Team) is the core philosophy. We materialize SOP and apply it to teams composed of LLMs. SOP 是如何体现的?我换个问法好了,当你找某个方面的专家帮你做事 / 给予服务的时候,我们期望的其实就和上面一样 我们不是这个方面的专家,期待的自然是专家能自行判断一些事情,或者说他知道该如何反过来 prompt 你(而不是一直你单方面 prompt),不妨回忆一下「询前表单」。 我之前和 @小江在想 在一个班一起学 PPT 定制设计。这个是小江之前写的:如何又好又快地解决 PPT当然,还有一些沟通方面的我放在了截图里 你可以看到文档里几乎所有的信息都可以被精简和提炼为一个个 Instructions. 可能是制作的哲理(风格),也可能是不同场景和生产环节的具体要求。 一个专家应该有他自己的判断。 相应地,当客户没有提供清楚所需要的必要的材料的时候,任务就不可能顺利进行。这个时候必然会由专家反过来提问客户说:「关于 xxx,我们还缺少 yyy 材料;以及 zzz 我们是否需要进一步沟通一下,因为在我看来,zzz 存在两种不同的方向,到底是 aaa 还是 bbb,我需要进一步确认品牌对于 ccc 的考量 blabla。」
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人