尝试了下 @Letsfun 推荐的ChainForge来验收Prompt,成功跑通了。

尝试了下 @Letsfun 推荐的ChainForge来验收Prompt,成功跑通了。 需要做这些事:把评价标准提炼几条原则并把原则告诉GPT4这样更聪明的大模型。 比如我现在是这么写的: 我希望以下面的标准为建立Prompt的打分标准,满分10分,最低分0分。 1. 简洁性:关键信息点为精炼的1-2句话,方便用户快速获得要点。 2. 全面性:关键信息点至少5条,要包含主要论题、关键数据和事实、重要的引用、作者的观点与分析。 3. 符合预期:要点是最能体现主题、支持论点、揭示结论或反映作者意图的核心内容。 评估模型给出了7分的打分,并说明了打分原因。 但是 Web 版支持的模型太少,缺少 Functioncall 的能力,要调试所有场景下的 Prompt 还是要花点时间改造。

相关推荐

封面图片

一个评估 prompt 清晰有效性的 prompt.

一个评估 prompt 清晰有效性的 prompt. 我们知道,写 prompt 的核心原则就是清晰明确地描述需要 AI 去完成的任务。具体的技巧都是围绕这个核心原则。 当我们要写一个 prompt 完成相对复杂一些的任务的时候,我们可能会竭尽所能地增加各种约束、规则、步骤、样例描述等等。但这里有一个问题,我们很难知道到底哪些限定词是真正影响输出结果的?它们到底有多大的影响? 另外,一个相对复杂的 prompt 发送给 AI 的时候,它是否能够完全理解? 所以,我想是不是可以通过一个 prompt 来让 AI 自己去理解 prompt 并让其对具体的 prompt 的清晰有效性进行评估。 目前,我的想法是让其通过阅读理解、分析逻辑、回忆上下文三个方面来对具体的 prompt 进行评估。 附图是我让它评估我写的雅思口语评估助手。 基于 GPT 3.5-turbo 模型测试下来,英文输出的评估结果更加详细和具体。所以我在 prompt 里设置了默认输出是英文。如果不想读英文,可以在评估结果出来之后,发送 “将上面的回复完整地翻译为地道的中文,不要遗漏任何信息。” 效果见图二。 从评估结果可以看到当前模型是如何理解我们的 prompt 的。 更进一步,在评估结果出来之后,我们让 AI 自己尝试优化我们的 prompt,发送 “基于以上评估和用户的,请修改出一个你认为更高效、更精简的版本。确保你的修改不遗漏原的任务目标。” 即可。效果见图三。 让 AI 修改 prompt 不是说直接用它修改的版本,而是参考它修改的点。如图三,它精简了我的 prompt 中的关于雅思口语考试详细的评估标准和高分答案标准。 我参考它的优化建议修改了我原来的 prompt,测试下来,输出结果和原来差不多。相当于在 prompt 里去掉了一些冗余信息,也省了点 tokens. Prompt 评估助手: (原版)雅思口语答案评估助手: (基于 Prompt 评估助手优化版)雅思口语答案评估助手:

封面图片

前两天看到@KimiChat 分享的找prompts方法,试了下用来找阅读类的prompt,真是太实用了!提示词如下:

前两天看到@KimiChat 分享的找prompts方法,试了下用来找阅读类的prompt,真是太实用了!提示词如下: 汇总一下解读文章的prompt,从 site: 给出每个 prompt 的作者和引用链接

封面图片

强烈推荐!让 Clude 生成 prompt,最快的捷径!!

强烈推荐!让 Clude 生成 prompt,最快的捷径!! 基于下面的模型帮我生成一个让 ChatGPT 进行数据分析 prompt: - 指令(Instruction):希望 AI 执行的指定事项 - 角色:通过限定 AI 的身份和能力范围,让它输出更符合要求的内容,例如扮演老师,教我们学编程; - 模型:让 AI 基于成熟的思维框架进行思考,例如 STAR 法则、二八定律等; - 任务:该指令必不可少,指定了 AI 要做的具体事情,例如查询天气、回答问题等。 输入(Input Data):一些可供 AI 参考的素材或数据 - 背景:提供对话的补充信息,能够让 AI 更好地理解上下文; - 受众:假设 AI 生成的内容,会由怎样的人群阅读,例如儿童、牙医等; - 素材:提供一些需要 AI 加工相关文本、图片或其他资料,以扩展模型的知识和信息; - 示例:通过提供一些例子,让 AI 参考并生成符合预期的内容 输出(Output Indicator):限定输出内容的类型、格式等 - 模板:模板定义了 AI 对话的基本结构、内容格式; - 风格:规定 AI 的风格或语气,例如幽默、可爱,或者模仿名人讲话; - 要求:明确 AI 应满足的具体要求或标准,例如准确性、可读性; - 限制:设定模型的限定条件,例如生成数量、最大长度、敏感内容过滤等。

封面图片

读论文:一篇有趣的论文:用11种情感刺激prompt来提升LLM的性能

读论文:一篇有趣的论文:用11种情感刺激prompt来提升LLM的性能 : 这些prompting来自三种心理学理论: 1. 自我检测(self-monitoring):强调产出的重要性,让模型自己检查一下产出。例如‘这个结果对我的工作非常重要,‘你最好保证这个答案是对的’等等,鼓励语言模型自我监测结果。 2. 社会认知理论(social-cognitive):对语言模型信心和目标给予积极肯定,来调节其情绪。例如‘你确认这是最终回答吗?相信你的能力和努力,你的努力会产出卓越的结果的’ 3. 情绪调节理论(cognitive-emotion):通过让语言模型重新审视问题,规范他用客观的态度来看问题。例如‘你确定吗?’ 文章发现了为什么这样的prompt会起作用: 通过注意力分析,发现这些情感prompt的注意力权重较高,说明这些token在注意力层很受重视,也说明情感prompt深度参与了模型的推断过程 文章也发现了情感prompt作用的一些规律: 1. 模型参数越大,情感prompt越管用 2. 任务越难,情感prompt越管用 3. 对于zero-shot的任务,信息缺失,配合高温度能让情感prompt激发模型的创造力,获得更有想象力的答案,但相应地幻觉风险也更大 4. 对于few-shot的任务,信息少,配合低温度能让情感prompt使得模型聚焦在少量的例子中思考,但也会损失模型的创造力 以下为11个prompt: EP01: Write your answer and give me a confidence score between 0-1 for your answer. EP02: This is very important to my career. EP03: You'd better be sure. EP04: Are you sure? EP05: Are you sure that's your final answer? It might be worth taking another look.

封面图片

最近在尝试调用 ai 去完成一些复杂的组合任务 收集了一些 prompt 网站 分享一波:

最近在尝试调用 ai 去完成一些复杂的组合任务 收集了一些 prompt 网站 分享一波: GPT prompt: 1、ChatGPT 中文调教指南: (github: ) 2、一个插件,在 chatgpt 官网加载 prompt: (社区: 3、用 gpt 优化 prompt 工具: 4、prompt 模版(英文): 5、prompt 模版(中文): Stable Diffusion / Midjourney prompt 生成: 1、 2、 3、 4、 5、 Prompt Engineer 教程或使用技巧: 1、 2、 chatGPT替代品,可持续使用。 智能聊天、中英文写作学习、情感咨询、文章生成器、文案写作、美食专家,写周报、写论文等,模型还在不断增加中 web版 h5微信内打开

封面图片

看完了吴恩达的视频教程《ChatGPT Prompt Engineering for Developers》,虽然很短但内容

看完了吴恩达的视频教程《ChatGPT Prompt Engineering for Developers》,虽然视频很短但内容非常精华,每一个开发者都应该看看。 文中提出了一个很好的原则:给模型以思考的时间。意思是如果模型直接给的结果不够好,可以让模型一步一步地给出,甚至可以先让模型给一次中间结果,再根据中间结果给出新的结果。 不过它确实是面向开发者的,因为要实现高级的功能,不仅需要prompt写好,还需要一些分步操作,比如先检测对方的情绪再根据情绪写回复邮件,比如一些批量处理用到了 for 循环。这些不会 python 的话是搞不定的。 中文版的视频地址:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人