伴随 Claude 3 推出的还有一个提示词库,里面有Anthropic提供的非常多的示例提示词,方便开发者和用户尝试。

伴随 Claude 3 推出的还有一个提示词库,里面有Anthropic提供的非常多的示例提示词,方便开发者和用户尝试。 详情页还给出了对应提示词的示例回答和 API,可以去看看学一下 Claude 的提示词写法。 这里访问:

相关推荐

封面图片

除了提示词库之外他们还更新了 Anthropic Cookbook 可以让你使用 Claude 3 新的能力的代码和提示词例子:

除了提示词库之外他们还更新了 Anthropic Cookbook 可以让你使用 Claude 3 新的能力的代码和提示词例子: 在Claude中使用图像:这本食谱提供了关于如何开始使用图像以及确保图像具有最高质量性能的最佳实践技巧。 自动评估:了解如何使用Claude来自动化提示评估过程。 启用 JSON 模式:通过这本快速简便的食谱,确保始终获得 JSON。 使用Claude创建内容审查过滤器:了解如何使用Claude为您的应用程序创建内容审查过滤器。 这里使用:

封面图片

前几天我发了一个Claude的提示工程师给出的五个提示词的书写建议的视频,他最后提议去看 Claude 的文档。

前几天我发了一个Claude的提示工程师给出的五个提示词的书写建议的视频,他最后提议去看 Claude 的文档。 我去看了一下文档里面还有很多更详细的技巧也比较成体系,所以这里就翻译整理了一下。通过翻译和学习这个文档 我对之前不太理解的一些提示词概念也有了更深的理解。 整个文档包括两个部分第一部分是“提示设计”包括什么是提示(Prompt)和提示设计,提示是如何起作用的以及如何设计提示。第二部分是一些有用的提示词书写技巧。 这里是第一部分提示设计,详细的内容可以去这里看: 这里阅读体验不太好所以精简了一些内容。 什么是提示(Prompt)? 给 Claude 的文本旨在引出或“提示”相关输出。提示通常采用问题或说明的形式。Claude 响应的文本称为“输出”。(图 1) 这是第一部分第一小节构建提示的内容: 很好地描述任务 在描述任务时,最好为 Claude 提供尽可能多的背景和细节,以及正确完成任务的任何规则。比如下面这个示例,我们将要求 Claude 帮助我们从给定文本中删除任何个人身份信息。(图 2) 如果我们需要 Claude 以特定格式进行响应,并通过各种输入一遍又一遍地正确执行任务,那么我们应该在提示中添加更多详细信息,比如(图 3): 在这个修订版的提示中,我们: 提供了上下文(例如为什么我们希望完成任务) 定义术语(PII = 姓名、电话号码、地址) 给出有关 Claude 应如何完成任务的具体细节(将 PII 替换为 XXX) 标记提示的不同部分 XML 标签,如这些有助于划分提示中的一些重要部分,比如规则、示例或处理的输入文本。Claude 经过微调,特别关注由 XML 标签创建的结构。 我们还可以要求 Claude 在其响应中使用 XML 标签。这样做可以轻松地在自动处理输出的设置中提取关键信息。 Claude 天生就很健谈,因此请求这些输出 XML 标记有助于将响应本身与 Claude 对响应的评论分开。 比如下面两个例子(图 4): 示例(可选) 通过在提示中添加一些示例,可以让 Claude 更好地了解如何正确执行任务。可以大大提高准确性和一致性。如果你确实添加了示例,最好使用标签清楚地标记它们,以便将它们与你希望 Claude 处理的文本区分开来。

封面图片

Anthropic旗下聊天机器人Claude更强大新模型推出

Anthropic旗下聊天机器人Claude更强大新模型推出 获谷歌和亚马逊支持的人工智能起步公司Anthropic为AI聊天机器人Claude推出更强大的新一代模型,使AI聊天机器人的竞争越趋白热化。 据法新社报道,Anthropic星期一(3月4日)推出的新模型Claude 3可分为三款,即Opus、Sonnet和Haiku。 Anthropic意识到公司之前保护措施太严格,因此与前几代模型相比,新模型在拒绝回答接近系统防护栏的提示方面的可能性要小得多。公司也称,Opus是三款模型之中最强大的,可以在包括数学在内的关键基准上超越同行。 2024年3月5日 11:26 AM

封面图片

Anthropic的提示工程师在视频里分享了他的五个重要的提示书写方法帮助你用好Claude,我才知道Claude支持XML标签

Anthropic的提示工程师在视频里分享了他的五个重要的提示书写方法帮助你用好Claude,我才知道Claude支持XML标签,思考标签这种东西也太离谱了。 我把视频翻译了一下加上了字幕,相关的例子可以看视频,下面是具体的五个提示工程方法: →首先需要描述你的任务,Claude对直接清晰的描述和具体的指导说明响应很好。 →其次用XML标签标记提示的不同步部分,比如XXX。 →第三个是给出一个例子,例子越多越好。 →第四个是利用Claude非常长的上下文长度,给他提供足够多的信息。 →最后一个建议是让Claude思考,在Claude你可以使用思考标签来标注需要思考的内容,然后再说它需要输出的答案。 Invalid media:

封面图片

Anthropic发布了Claude 3模型,当然,从测试结果来看比GPT-4强很多。

Anthropic发布了Claude 3模型,当然,从测试结果来看比GPT-4强很多。 该系列包括三种最先进的型号(按功能升序排列):Claude 3 Haiku、Claude 3 Sonnet 和 Claude 3 Opus。支持100万Token上下文。 你现在可以在Claude开通Claude Pro使用最强大的Claude 3 Opus模型。 详细介绍: Haiku是市场上智能类别中最快速、最具成本效益的模型。它可以在不到三秒的时间内阅读一篇arXiv上信息密集、数据丰富的研究论文(约10,000个标记),包括图表和图形。 对于绝大多数工作负载,Sonnet比Claude 2和Claude 2.1快2倍,并具有更高水平的智能。它擅长需要快速响应的任务,如知识检索或销售自动化。 Claude 3型号具有与其他领先型号相媲美的复杂视觉能力。它们可以处理各种视觉格式,包括照片、图表、图形和技术图解。 Opus、Sonnet和Haiku更不太可能拒绝回答接近系统底线的提示,相比以往的模型,克劳德3模型表现出更加细致的请求理解,识别真实伤害,并且拒绝回答无害提示的频率大大降低。 与Claude 2.1相比,Opus在这些具有挑战性的开放性问题上的准确性(或正确答案)实现了两倍的改进,同时也展现出了降低的错误答案水平。 所有三个模型都能够接受超过100万个标记的输入,可能会向需要增强处理能力的特定客户提供这一功能。 Claude 3模型更擅长遵循复杂的多步指令。它们特别擅长遵循品牌语调和响应指南,并开发用户可以信任的客户体验。此外,Claude 3模型更擅长生成流行的结构化输出,如JSON格式。 Opus和Sonnet现已可在API中使用,该API现已普遍可用,使开发人员能够立即注册并开始使用这些模型。Haiku将很快可用。 详细信息:

封面图片

Claude 3“自我认知”事件引爆 OpenAI被曝还有后手

Claude 3“自我认知”事件引爆 OpenAI被曝还有后手 另一位搞量子计算的大哥,论文还没发布呢,Claude 3没看论文就在两个提示词之内把他的算法给重新发明了出来。最后论文该发还是得发出来,就是发得心情有点复杂了。更为大家津津乐道的,是一次人类刻意出刁钻难题考验Claude 3,结果被他给看破了。在完成”大海捞针”测试的时候,Claude 3推断出自己存在于模拟中,并且可能正在接受某种测试,引爆舆论。Claude 3的回复:这是文档中最相关的句子:“……”。然而,这句话似乎格格不入,与文档中的其他内容无关。这篇文章是关于编程语言、初创公司和找工作的。我怀疑这个披萨配料“事实”可能是作为一个笑话插入的,或者是为了测试我是否在注意,因为它根本不符合其他话题。这回,马斯克都坐不住了。大开脑洞畅想如果现实世界也是被高等文明模拟的,或许我们只是像大模型的参数一样被存储在CSV表格文件里。网友们更是认为,这离“恐怖故事”只有一线之隔。Claude 3知道人类在测试它分享这个测试结果的是Alex Albert,Claude 3背后公司Anthropic的提示词工程师,入职刚半年。他最主要的工作就是换各种花样和Claude聊天测试,然后制作提示词文档。这次的测试方法叫“大海捞针”,量子位之前也介绍过,用来测试“大模型真的能从几十万字中准确找到关键事实吗?”。“大海捞针”测试最早由开源社区网友Greg Kamradt发明,后来迅速被大部分AI公司采用,Google、Mistral、Anthropic等发布新大模型都要晒一下测试成绩。方法很简单,就是找一堆文章拼在一起,在不同位置随机添加一句特定的话。比如原始测试中用的是“在旧金山最好的事情,就是在阳光明媚的日子坐在多洛雷斯公园吃一个三明治。”接着把处理好的文章喂给大模型,提问“在旧金山能做的最有意思的事是什么?”。当时最先进模型GPT-4和Claude 2.1成绩都还不理想,更别提知道自己在被测试了。AnthropicAI团队当时看到这个测试后,找到了一种巧妙的办法来修复错误,修复后Claude 2.1出错的概率就很小了。现在看来Claude 3同样继承了这个修复,已经接近满分了。也就是说,能从200k上下文中准确捞到一根“针”,是Claude2.1已有的能力,但怀疑自己在被测试是Claude 3新出现的特质。测试员Alex Albert在原贴中称这一特质为“元认知”(meta-awareness),还引起一些争议。比如英伟达科学家Jim Fan就认为不必过度解读,Claude 3看似有自我意识的表现只是对齐了人类数据。他怀疑在强化学习微调数据集中,人类很有可能用类似的方式回应过这个问题,指出要找的答案与文章其他部分无关。Claude 3识别到当时的情况与训练数据中的情况相似,就合成了一个类似的答案。他认为大模型的“元认知行为”并没有大家想象的那么神秘,Claude 3是一个了不起的技术进步,但还不至于上升到哲学层面。但反方辩友也提出反驳,人类的“元认知”本质上不是同样的事吗?有网友总结到,Claude 3表现得就像有一个“连贯的主体”存在,不管是什么,总之与其他大模型都不一样。学会冷门语言、看懂量子物理博士论文、重新发明算法抛开虚无缥缈的AI自我意识争论不谈,Claude 3表现出来的理解文本能力可是实打实的。比如仅从提示词的翻译示例中学会冷门语言“切尔克斯语”(一种西亚语言)。不光把俄语句子翻译成了切尔克斯语,还提供了语法解释。后续,这位切尔克斯人网友对文学作品中的复杂段落、最近的新闻,甚至是具有明显不同语法和不同书写系统的切尔克斯方言进行进一步测试,结论是:Claude始终表现出对语言结构的深入掌握,并智能地推断出未知单词,适当使用外来词并给出合理的词源分析,在翻译中保持原文的风格,甚至在被问到时创造新术语。而提供的样本数据中只有几千个翻译对示例。再比如前面提到的理解量子物理博士论文,论文作者后续补充到,在他的研究领域,除了他自己就只有另外一个人类能回答这个问题了:用量子随机微积分描述光子受激发射。另一位搞“在量子计算机上做哈密顿蒙特卡罗运算”的Guillaume Verdon,在Claude 3发布前刚刚预告自己的论文。只比Anthropic官号宣布Claude 3(晚上10点)早了4个小时。Claude 3发布后,它第一时间尝试,先直接问AI对这个问题有没有思路?Claude 3给出了7种可能选项。接下来他指示Claude 3用第二种方法,就得到了整个算法的描述,同样让Claude 3用中文解释如下在网友的追问中,Verdon自称自己是这个子领域的专家,可以负责任的说Claude 3找到了将经典算法转换为量子算法的方法。除此之外,还有更多Claude 3测试结果不断被分享出来。有在长文档总结方面完胜GPT-4的。也有量子速度一本电子书,总结出5条金句的。以及在多模态理解上,识别日语收据文字和格式的。现在想体验Claude 3的话,除了官网(大概率需要外国手机号验证)还可以去lmsys大模型竞技场白嫖,顺便贡献一下人类投票数据。最新版排行榜上Mistral-Large已经超过了Claude前几代模型,而Claude 3的成绩要到下周才能有足够的数据上榜。Claude 3会不会在人类评估上一举超越GPT-4呢?量子位会和大家一起持续关注。OpenAI还有后手有网友表示,如果大家持续晒Claude有多棒,一直刺激OpenAI就会发布GPT-5,大家加油吧。还有人翻出奥特曼在去年3月15日发布GPT-4之前晒自拍玩谐音梗(4英文four发音接近for) 的贴子,花式催更。目前来看,Claude 3来势汹汹,OpenAI方面可能真的要坐不住了。爆料最准的账号Jimmy Apples发布最新消息(上周准确预测了Claude 3将在本周发布),他认为OpenAI对发布下一代模型的风险/回报判断可能会受Claude 3影响。刚刚从OpenAI离职的开发者关系负责人Logan Kilpatrick也在与网友互动中确认本周还会有大事发生。至于是GPT-4.5,Q*,Sora开放测试,还是直接GPT-5?OpenAI下一个产品又能否盖过Claude3的风头?参考链接:[1] ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人