投稿一下我写的一个Prompt见解:

None

相关推荐

封面图片

一个将写 Prompt 门槛降低到地板以下的工具网站。

一个将写 Prompt 门槛降低到地板以下的工具网站。 只要给出最初始的需求,结合AI进行调试,最终可以获得一个符合预期的 Prompt。在确保 AI 回答质量不下降的情况下,还可以利用这个工具对 Prompt 做精简,增加道德约束、法律约束等。 你可以直接在网站上完成多个 AI 模型的效果测试,直观地观测上面拿到的 Prompt 在所有流行的大模型中,效果是不是都符合预期。 它还提供了一个 Prompt as a Service 的服务,提示词即服务,这可以帮助开发者(和非开发者)构建一个立马可用的 Agent 服务,例如设计一个翻译接口、数据转换接口、业务建模服务、学生助教服务、互动游戏设计服务等。 | #工具

封面图片

一个将写 Prompt 门槛降低到地板以下的工具网站,PromptPerfect,

一个将写 Prompt 门槛降低到地板以下的工具网站,PromptPerfect, 根据它提供的流水线能力,只要给出最初始的需求,过程中跟 AI 一起结对编(调)程(试),最终就可以获得一个符合预期的 Prompt,在确保 AI 回答质量不下降的情况下,还可以利用这个工具对 Prompt 做精简,增加道德约束、法律约束等。 更优秀的是,你可以直接在网站上完成多个 AI 模型的效果测试,直观地观测上面拿到的 Prompt 在所有流行的大模型中,效果是不是都符合预期。它甚至还提供了一个 Prompt as a Service 的服务,提示词即服务,这可以帮助开发者(和非开发者)构建一个立马可用的 Agent 服务,例如设计一个翻译接口、数据转换接口、业务建模服务、学生助教服务、互动游戏设计服务等等。

封面图片

发现了好登西,吴恩达prompt工程笔记,帮宣传(CX)一下,声明一下不是我的笔记,欢迎给他github一个star

发现了好登西,吴恩达prompt工程笔记,帮宣传(CX)一下,声明一下不是我的笔记,欢迎给他github一个star 连肝两天,学以致用,基本搞完!也许是第一份完整的中文笔记了! 在线阅读:prompt-engineering-note 提示工程笔记… Github链接:https://islinxu/prompt-engineering-note/ 求个 完成笔记的过程,也是实践练习 Andrew 课程内容的过程。我的工作流如下,在这个过程中也的确加深了对课程学习内容的理解。 ▶ 课程全文翻译:Prompt + ChatGPT,并且提供了中英文对照 ▶ 笔记总结扩展:Prompt + ChatGPT,并且附上了 ChatGPT 总结的效果 ▶ 本次实践代码:位于 source/jb_code,运行对应Jupyter Notebook文档,可以用于本地复现 ▶ 拓展 (更新中):基于 notebook 代码制作 shell 的 cli 命令脚本 ▶ 拓展 (更新中):提示工程相关的 Awesome 项目清单 感谢 Isa Fulford 和 AndrewNg,感谢 OpenAI 和提供的精彩课程! 课程笔记持续完善中,也会持续整理全网学习者对这门课程的学习和实践。

封面图片

一个把写 Prompt 门槛降低到膝盖以下的工具网站,ClickPrompt,

一个把写 Prompt 门槛降低到膝盖以下的工具网站,ClickPrompt, 根据自己的需求场景,结合网站上提供的常用模式、示例内容和选择器工具,点一点,就可以快速实现一个效果还不错的稳定可用的 Prompt。 如果还是玩不转,它提供了演示器,手把手教你,一步步实现复杂交互:

封面图片

写 Prompt 的6个技巧,非常实用

封面图片

一个评估 prompt 清晰有效性的 prompt.

一个评估 prompt 清晰有效性的 prompt. 我们知道,写 prompt 的核心原则就是清晰明确地描述需要 AI 去完成的任务。具体的技巧都是围绕这个核心原则。 当我们要写一个 prompt 完成相对复杂一些的任务的时候,我们可能会竭尽所能地增加各种约束、规则、步骤、样例描述等等。但这里有一个问题,我们很难知道到底哪些限定词是真正影响输出结果的?它们到底有多大的影响? 另外,一个相对复杂的 prompt 发送给 AI 的时候,它是否能够完全理解? 所以,我想是不是可以通过一个 prompt 来让 AI 自己去理解 prompt 并让其对具体的 prompt 的清晰有效性进行评估。 目前,我的想法是让其通过阅读理解、分析逻辑、回忆上下文三个方面来对具体的 prompt 进行评估。 附图是我让它评估我写的雅思口语评估助手。 基于 GPT 3.5-turbo 模型测试下来,英文输出的评估结果更加详细和具体。所以我在 prompt 里设置了默认输出是英文。如果不想读英文,可以在评估结果出来之后,发送 “将上面的回复完整地翻译为地道的中文,不要遗漏任何信息。” 效果见图二。 从评估结果可以看到当前模型是如何理解我们的 prompt 的。 更进一步,在评估结果出来之后,我们让 AI 自己尝试优化我们的 prompt,发送 “基于以上评估和用户的,请修改出一个你认为更高效、更精简的版本。确保你的修改不遗漏原的任务目标。” 即可。效果见图三。 让 AI 修改 prompt 不是说直接用它修改的版本,而是参考它修改的点。如图三,它精简了我的 prompt 中的关于雅思口语考试详细的评估标准和高分答案标准。 我参考它的优化建议修改了我原来的 prompt,测试下来,输出结果和原来差不多。相当于在 prompt 里去掉了一些冗余信息,也省了点 tokens. Prompt 评估助手: (原版)雅思口语答案评估助手: (基于 Prompt 评估助手优化版)雅思口语答案评估助手:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人