吴恩达新写的提示工程技巧,主要的内容就四步:

吴恩达新写的提示工程技巧,主要的内容就四步: 1. 快速撰写简单的提示并测试其效果。 2.根据结果的不足,逐步丰富和细化提示,这可能导致更长、更详细的提示,甚至是“大型提示”。 3. 如果效果仍不理想,可以考虑应用少样本或多样本学习策略(如果适用),或偶尔进行微调。 4. 如果问题仍未解决,可将任务拆分为子任务,采用智能体工作流程。 来源:

相关推荐

封面图片

我们来继续 Claude 提示工程教程的第二部分“一些有用的提示技巧”。

我们来继续 Claude 提示工程教程的第二部分“一些有用的提示技巧”。 第一部分内容: 全文: 让Claude说“我不知道”以防止出现幻觉 虽然Claude被训练成一个诚实的助手,但它仍然偶尔会产生“幻觉”编造不真实的事实或细节,或者在输入中“找到”实际上并不存在的东西,以尽可能提供帮助。防止这种情况的一种方法是明确允许 Claude 在不知道你问题的答案时说“我不知道”。比如下面这个例子(图 1): 在回应之前给Claude“思考”的空间 有情况下明确指示Claude去生成额外的文本,它可以认真思考问题。 例如,以下是提示的一部分,旨在通过写下常见问题解答文档中的相关引用来让 Claude 需要“思考”问题(图 2): 让 Claude 一步一步思考 如果你要求 Claude 执行一项包含许多子任务的复杂任务,那么单独列出子任务会很有帮助。 当你自己不清楚子任务时,也就是你正在要求 Claude 解决问题,你可以通过明确地告诉 Claude 逐步思考来显著提高回答的推理和准确性。 为了获得最佳效果,我们建议将此请求放在提示的另一部分。(图 3) 将复杂的任务分解为子任务 Claude 在由多个子任务组成的“复杂”任务上表现不佳。如果你已经知道这些子任务是什么(即你理解问题很好),你可以通过将提示分解为步骤来帮助 Claude。(图 4) 接下来是比较重要的一个概念:提示链接 将 Claude 的响应输入到另一个提示的输入中。这种技术称为提示链接。 提示链接可以使你通过将多个较小和较简单的提示传递给Claude而完成一项复杂任务,而不是一个非常长且详细的提示。它有时可以比将任务的所有子任务放在单个提示中更有效。 将长而复杂的提示变成提示链有几个优点: 1、你可以编写不太复杂的指令。 2、你可以隔离 Claude 遇到问题的部分问题,以集中精力进行故障排除。 3、你可以分阶段检查 Claude 的输出,而不仅仅是在最后检查。 以下是提示链接的一些用例。 使用文档和引用回答问题

封面图片

《吴恩达.面向开发人员的 ChatGPT 提示工程师课程》

《吴恩达.面向开发人员的 ChatGPT 提示工程师课程》 简介:本书系统解析吴恩达.面向开发人员的 ChatGPT 提示工程师课程的核心内容,并结合实用案例帮助读者加深理解。内容涵盖其发展历程、关键概念及实际应用,提供深入的知识探索路径。适合对该主题有兴趣的学习者,帮助拓宽视野并提高专业素养。 标签: #吴C提 #吴恩达. #知识 #学习 文件大小:NG 链接:https://pan.quark.cn/s/585f071cf494

封面图片

吴恩达和OpenAI携手推出了一门免费的Prompt Engineering(提示工程师)课程

吴恩达和OpenAI携手推出了一门免费的Prompt Engineering(提示工程师)课程 该课程旨在为AI开发者们提供一个全面而深入的学习平台,内容涵盖了如何书写高质量的AI提示词,以及如何利用GPT-3的先进技术开发一个高效、智能的AI聊天机器人。无论你是初学者还是经验丰富的专业人士,该课程都将为你提供一种系统而有效的学习方法。, ) 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

前几天我发了一个Claude的提示工程师给出的五个提示词的书写建议的视频,他最后提议去看 Claude 的文档。

前几天我发了一个Claude的提示工程师给出的五个提示词的书写建议的视频,他最后提议去看 Claude 的文档。 我去看了一下文档里面还有很多更详细的技巧也比较成体系,所以这里就翻译整理了一下。通过翻译和学习这个文档 我对之前不太理解的一些提示词概念也有了更深的理解。 整个文档包括两个部分第一部分是“提示设计”包括什么是提示(Prompt)和提示设计,提示是如何起作用的以及如何设计提示。第二部分是一些有用的提示词书写技巧。 这里是第一部分提示设计,详细的内容可以去这里看: 这里阅读体验不太好所以精简了一些内容。 什么是提示(Prompt)? 给 Claude 的文本旨在引出或“提示”相关输出。提示通常采用问题或说明的形式。Claude 响应的文本称为“输出”。(图 1) 这是第一部分第一小节构建提示的内容: 很好地描述任务 在描述任务时,最好为 Claude 提供尽可能多的背景和细节,以及正确完成任务的任何规则。比如下面这个示例,我们将要求 Claude 帮助我们从给定文本中删除任何个人身份信息。(图 2) 如果我们需要 Claude 以特定格式进行响应,并通过各种输入一遍又一遍地正确执行任务,那么我们应该在提示中添加更多详细信息,比如(图 3): 在这个修订版的提示中,我们: 提供了上下文(例如为什么我们希望完成任务) 定义术语(PII = 姓名、电话号码、地址) 给出有关 Claude 应如何完成任务的具体细节(将 PII 替换为 XXX) 标记提示的不同部分 XML 标签,如这些有助于划分提示中的一些重要部分,比如规则、示例或处理的输入文本。Claude 经过微调,特别关注由 XML 标签创建的结构。 我们还可以要求 Claude 在其响应中使用 XML 标签。这样做可以轻松地在自动处理输出的设置中提取关键信息。 Claude 天生就很健谈,因此请求这些输出 XML 标记有助于将响应本身与 Claude 对响应的评论分开。 比如下面两个例子(图 4): 示例(可选) 通过在提示中添加一些示例,可以让 Claude 更好地了解如何正确执行任务。可以大大提高准确性和一致性。如果你确实添加了示例,最好使用标签清楚地标记它们,以便将它们与你希望 Claude 处理的文本区分开来。

封面图片

发现了好登西,吴恩达prompt工程笔记,帮宣传(CX)一下,声明一下不是我的笔记,欢迎给他github一个star

发现了好登西,吴恩达prompt工程笔记,帮宣传(CX)一下,声明一下不是我的笔记,欢迎给他github一个star 连肝两天,学以致用,基本搞完!也许是第一份完整的中文笔记了! 在线阅读:prompt-engineering-note 提示工程笔记… Github链接:https://islinxu/prompt-engineering-note/ 求个 完成笔记的过程,也是实践练习 Andrew 课程内容的过程。我的工作流如下,在这个过程中也的确加深了对课程学习内容的理解。 ▶ 课程全文翻译:Prompt + ChatGPT,并且提供了中英文对照 ▶ 笔记总结扩展:Prompt + ChatGPT,并且附上了 ChatGPT 总结的效果 ▶ 本次实践代码:位于 source/jb_code,运行对应Jupyter Notebook文档,可以用于本地复现 ▶ 拓展 (更新中):基于 notebook 代码制作 shell 的 cli 命令脚本 ▶ 拓展 (更新中):提示工程相关的 Awesome 项目清单 感谢 Isa Fulford 和 AndrewNg,感谢 OpenAI 和提供的精彩课程! 课程笔记持续完善中,也会持续整理全网学习者对这门课程的学习和实践。

封面图片

OpenAI把GPT-4原始版给了EPFL研究团队 不微调只靠提示词能走多远?

OpenAI把GPT-4原始版给了EPFL研究团队 不微调只靠提示词能走多远? 也就是不用监督微调、也不用RHLF或其他强化学习对齐方法,只靠提示词能走多远?预训练模型,究竟能不能一步登天,直接改造成聊天机器人或AI助手?如果可行,将大大降低类ChatGPT大模型的开发难度。免微调对齐靠谱吗?免微调对齐,让刚出炉的预训练模型不止会“文本补全”,只从提示词中学会和用户对话、跟随指令,一直是业界关注的研究方向。目前的SOTA方法URIAL来自艾伦研究所,使用系统提示词+少数风格示例就能达到不错的效果。但EPFL团队发现,URIAL仍无法完全弥补与指令微调模型的差距,尤其在多轮对话中的表现更差一些。实验中,在Llama系列、Mistral系列和一般人接触不到的GPT-4-Base都观察到这种现象。其中GPT-4-Base的API访问权限从OpenAI Researcher Access Program项目中申请到。EPFL团队从这里出发,尝试了各种办法来提升上下文学习的效果。首先他们增加示例的数量,但发现帮助不大,没有随着例子数目增加性能就提升的趋势。这一点跟图像分类、机器翻译等任务还不太一样。然后他们使用了贪心搜索算法,从一大堆示例中选择最佳的添加到上下文。这种方法可以进一步提高性能,但与指令微调模型的差距仍然存在,特别是在 AlpacaEval 2.0基准测试中。此外他们还发现,贪心搜索为某个特定模型找到的最佳示例,对于其他模型不能可靠地迁移。也就是说,不同的示例适合不同的模型。团队还进行了一系列消融实验,以更多地了解上下文学习的工作原理。他们发现,在MT-Bench这样的综合评测中,示例包含正确的“问题-答案对”至关重要。这与此前大模型在分类任务中,只要有大量示例,部分标签错了也无所谓的发现非常不同。所以最终得出的结论是:即使采用更多复杂的改进方法,完全缩小上下文学习和指令微调之间的差距也有挑战,即使对于非常长上下文的大模型也是如此。论文最后分析,大语言模型可能通过上下文学习只学会了如何模仿例子里的回答风格,但还没有真正理解执行指令的逻辑。指令跟随任务相对还是比较复杂和开放的,没那么容易掌握。想让AI助手更“听话”,暂时还是很难有捷径可走。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人