伴随 Claude 3 推出的还有一个提示词库,里面有Anthropic提供的非常多的示例提示词,方便开发者和用户尝试。

伴随 Claude 3 推出的还有一个提示词库,里面有Anthropic提供的非常多的示例提示词,方便开发者和用户尝试。 详情页还给出了对应提示词的示例回答和 API,可以去看看学一下 Claude 的提示词写法。 这里访问:

相关推荐

封面图片

除了提示词库之外他们还更新了 Anthropic Cookbook 可以让你使用 Claude 3 新的能力的代码和提示词例子:

除了提示词库之外他们还更新了 Anthropic Cookbook 可以让你使用 Claude 3 新的能力的代码和提示词例子: 在Claude中使用图像:这本食谱提供了关于如何开始使用图像以及确保图像具有最高质量性能的最佳实践技巧。 自动评估:了解如何使用Claude来自动化提示评估过程。 启用 JSON 模式:通过这本快速简便的食谱,确保始终获得 JSON。 使用Claude创建内容审查过滤器:了解如何使用Claude为您的应用程序创建内容审查过滤器。 这里使用:

封面图片

前几天我发了一个Claude的提示工程师给出的五个提示词的书写建议的视频,他最后提议去看 Claude 的文档。

前几天我发了一个Claude的提示工程师给出的五个提示词的书写建议的视频,他最后提议去看 Claude 的文档。 我去看了一下文档里面还有很多更详细的技巧也比较成体系,所以这里就翻译整理了一下。通过翻译和学习这个文档 我对之前不太理解的一些提示词概念也有了更深的理解。 整个文档包括两个部分第一部分是“提示设计”包括什么是提示(Prompt)和提示设计,提示是如何起作用的以及如何设计提示。第二部分是一些有用的提示词书写技巧。 这里是第一部分提示设计,详细的内容可以去这里看: 这里阅读体验不太好所以精简了一些内容。 什么是提示(Prompt)? 给 Claude 的文本旨在引出或“提示”相关输出。提示通常采用问题或说明的形式。Claude 响应的文本称为“输出”。(图 1) 这是第一部分第一小节构建提示的内容: 很好地描述任务 在描述任务时,最好为 Claude 提供尽可能多的背景和细节,以及正确完成任务的任何规则。比如下面这个示例,我们将要求 Claude 帮助我们从给定文本中删除任何个人身份信息。(图 2) 如果我们需要 Claude 以特定格式进行响应,并通过各种输入一遍又一遍地正确执行任务,那么我们应该在提示中添加更多详细信息,比如(图 3): 在这个修订版的提示中,我们: 提供了上下文(例如为什么我们希望完成任务) 定义术语(PII = 姓名、电话号码、地址) 给出有关 Claude 应如何完成任务的具体细节(将 PII 替换为 XXX) 标记提示的不同部分 XML 标签,如这些有助于划分提示中的一些重要部分,比如规则、示例或处理的输入文本。Claude 经过微调,特别关注由 XML 标签创建的结构。 我们还可以要求 Claude 在其响应中使用 XML 标签。这样做可以轻松地在自动处理输出的设置中提取关键信息。 Claude 天生就很健谈,因此请求这些输出 XML 标记有助于将响应本身与 Claude 对响应的评论分开。 比如下面两个例子(图 4): 示例(可选) 通过在提示中添加一些示例,可以让 Claude 更好地了解如何正确执行任务。可以大大提高准确性和一致性。如果你确实添加了示例,最好使用标签清楚地标记它们,以便将它们与你希望 Claude 处理的文本区分开来。

封面图片

Anthropic的提示工程师在视频里分享了他的五个重要的提示书写方法帮助你用好Claude,我才知道Claude支持XML标签

Anthropic的提示工程师在视频里分享了他的五个重要的提示书写方法帮助你用好Claude,我才知道Claude支持XML标签,思考标签这种东西也太离谱了。 我把视频翻译了一下加上了字幕,相关的例子可以看视频,下面是具体的五个提示工程方法: →首先需要描述你的任务,Claude对直接清晰的描述和具体的指导说明响应很好。 →其次用XML标签标记提示的不同步部分,比如XXX。 →第三个是给出一个例子,例子越多越好。 →第四个是利用Claude非常长的上下文长度,给他提供足够多的信息。 →最后一个建议是让Claude思考,在Claude你可以使用思考标签来标注需要思考的内容,然后再说它需要输出的答案。 Invalid media:

封面图片

人工智能初创公司Anthropic推出聊天机器人Claude 3新模型

人工智能初创公司Anthropic推出聊天机器人Claude 3新模型 该公司称,在行业基准测试中,能力最强的新机型 Claude 3 Opus 的表现优于 OpenAI 的 GPT-4 和Google的 Gemini Ultra,如本科生水平的知识、研究生水平的推理和基础数学。这是 Anthropic 首次提供多模式支持。用户可以上传照片、图表、文档和其他类型的非结构化数据,以供分析和解答。其他定制改款模型如 Sonnet 和 Haiku比 Opus 更小巧,价格也更低。据 Anthropic 称,Sonnet 和 Opus 从下周一开始在 159 个国家上线,而 Haiku 将很快上线。该公司拒绝说明培训 Claude 3 所花费的时间或成本,但表示 Airtable 和 Asana 等公司帮助对这些模型进行了 A/B 测试。去年这个时候,Anthropic 开始被认为是一家很有前途的生成式人工智能初创公司,它由前 OpenAI 研究高管创立。它已经完成了 A 轮和 B 轮融资,但只推出了第一版聊天机器人,没有任何消费者访问或大张旗鼓的宣传。12 个月后,它已成为最炙手可热的人工智能初创公司之一,支持者包括Google、Salesforce 和亚马逊,其产品在企业和消费者领域都与 ChatGPT 直接竞争。在过去的一年里,这家初创公司完成了五笔不同的融资交易,总金额约为 73 亿美元。根据 PitchBook 的数据,在过去一年里,生成式人工智能领域出现了爆炸式增长,2023 年近 700 笔交易的投资额达到了创纪录的 291 亿美元,交易额同比增长超过 260%。它已成为一个又一个季度的企业财报电话会议上最热门的词汇。学术界和伦理学家对该技术传播偏见的倾向表示了极大的担忧,但即便如此,它还是迅速进入了学校、在线旅游、医疗行业、在线广告等领域。Anthropic公司联合创始人丹妮拉-阿莫迪(Daniela Amodei)在接受CNBC采访时说,有60到80人从事核心人工智能模型的开发工作,120到150人从事技术方面的工作。阿莫迪今年 7 月告诉 CNBC,在人工智能模型的最后一次迭代中,有一个 30 到 35 人的团队直接参与其中,共有约 150 人提供支持。Anthropic说,Claude 3可以概括大约15000个单词,或者说是一本相当厚的书(大约是《白鲸记》或《哈利-波特与死亡圣器》的长度范围)。它的前一版本只能概括 75000 字。用户可以输入大型数据集,以备忘录、信件或故事的形式要求摘要,相比之下,ChatGPT 只能处理大约 3000 个单词。阿莫代还表示,与前一版本相比,《Claude 3 号》在应对风险方面有了更好的理解。为了追求一个高度无害的模型,Claude 2有时会过度拒绝请求,当有人碰到一些比较尖锐的话题或碰触信任和安全防护栏时,Claude 2 号在回答这些问题时有时会趋于保守。而根据 Anthropic 的说法,Claude 3 对提示的理解更加细致入微。多模态,即在生成式人工智能中添加照片和视频功能等选项,无论是自己上传还是使用人工智能模型创建,都已迅速成为业界最热门的用例之一。"世界是多模态的,"OpenAI 首席运营官 Brad Lightcap介绍说。"如果你想想我们人类处理世界和与世界打交道的方式,我们看到的东西、听到的东西、说出来的东西世界比文本大得多。因此,对我们来说,将文本和代码作为单一的模式、单一的界面,让我们了解这些模型有多么强大以及它们能做什么,总是感觉不完整。"但是,多模态和日益复杂的人工智能模型也带来了更多潜在风险。最近,Google下线了其人工智能图像生成器(双子座聊天机器人的一部分),因为用户发现了与历史不符的内容和有问题的回复,这些内容在社交媒体上广为流传。Anthropic 的 Claude 3 不生成图像,而只允许用户上传图像和其他文件进行分析。"当然,没有一种模型是完美无缺的,我认为这一点非常重要,"阿莫迪表示。"我们一直非常努力地使这些模型尽可能地兼具能力和安全性。当然,在某些地方,模型还是会不时地出现一些问题。" ... PC版: 手机版:

封面图片

这个研究有点强的,我们可能获得了另外一种增强Stable Diffusion控制的方法,它允许你使用富文本书写提示词。

这个研究有点强的,我们可能获得了另外一种增强Stable Diffusion控制的方法,它允许你使用富文本书写提示词。 比如指定某个提示词的颜色,例如提示词中有长发这个单词,然后你把长发的文字颜色改成了粉色,那么生成图像的头发颜色就会变成粉色。不只是那种粗略的粉色哦,是带有精确色值的。 下面我们分别来看一下它支持的富文本格式和生效方式: 首先你可以通过字体颜色控制生成对象的颜色,比如下面这张图Hair头发的字体颜色被改成粉色的时候生成图像的头发颜色就会变为粉色。 然后你可以改变对应提示词单词的字体来赋予图像对应的风格,这个就有点意识流了,全看模型对这个字体的感知,比如下面这这张图的guitar吉他的字体如果是比较放松的就会生成彩色的吉他,如果是古朴的手写体吉他就比较有年代感。 最后你可以给对应提示词的单词增加注释对其进行补充说明,比如下方这个例子中的cat被加上了“一只戴着墨镜、脖子上围着头巾的猫。”这样的注释在不影响整体画面的情况下猫这个主体准确的生成了注释的内容。你也可以给多个单词都加上这样的注释。 下面看一下这个论文大概的原理: 简单来说他们用了一种方法获得了每一个提示词单词对生成图像影响区域的映射,然后用将富文本的属性拿出来单独针对每个影响的提示词单词的区域再进行降噪操作从而修改扩散模型第一次生成的图像。 好了介绍到这里就结束了,希望早日有大神可以将这种方法集成到SD里面,或者开发出更多地富文本格式。 这里是论文的介绍: 这里你可以试玩这个控制方法:

封面图片

Claude 3“自我认知”事件引爆 OpenAI被曝还有后手

Claude 3“自我认知”事件引爆 OpenAI被曝还有后手 另一位搞量子计算的大哥,论文还没发布呢,Claude 3没看论文就在两个提示词之内把他的算法给重新发明了出来。最后论文该发还是得发出来,就是发得心情有点复杂了。更为大家津津乐道的,是一次人类刻意出刁钻难题考验Claude 3,结果被他给看破了。在完成”大海捞针”测试的时候,Claude 3推断出自己存在于模拟中,并且可能正在接受某种测试,引爆舆论。Claude 3的回复:这是文档中最相关的句子:“……”。然而,这句话似乎格格不入,与文档中的其他内容无关。这篇文章是关于编程语言、初创公司和找工作的。我怀疑这个披萨配料“事实”可能是作为一个笑话插入的,或者是为了测试我是否在注意,因为它根本不符合其他话题。这回,马斯克都坐不住了。大开脑洞畅想如果现实世界也是被高等文明模拟的,或许我们只是像大模型的参数一样被存储在CSV表格文件里。网友们更是认为,这离“恐怖故事”只有一线之隔。Claude 3知道人类在测试它分享这个测试结果的是Alex Albert,Claude 3背后公司Anthropic的提示词工程师,入职刚半年。他最主要的工作就是换各种花样和Claude聊天测试,然后制作提示词文档。这次的测试方法叫“大海捞针”,量子位之前也介绍过,用来测试“大模型真的能从几十万字中准确找到关键事实吗?”。“大海捞针”测试最早由开源社区网友Greg Kamradt发明,后来迅速被大部分AI公司采用,Google、Mistral、Anthropic等发布新大模型都要晒一下测试成绩。方法很简单,就是找一堆文章拼在一起,在不同位置随机添加一句特定的话。比如原始测试中用的是“在旧金山最好的事情,就是在阳光明媚的日子坐在多洛雷斯公园吃一个三明治。”接着把处理好的文章喂给大模型,提问“在旧金山能做的最有意思的事是什么?”。当时最先进模型GPT-4和Claude 2.1成绩都还不理想,更别提知道自己在被测试了。AnthropicAI团队当时看到这个测试后,找到了一种巧妙的办法来修复错误,修复后Claude 2.1出错的概率就很小了。现在看来Claude 3同样继承了这个修复,已经接近满分了。也就是说,能从200k上下文中准确捞到一根“针”,是Claude2.1已有的能力,但怀疑自己在被测试是Claude 3新出现的特质。测试员Alex Albert在原贴中称这一特质为“元认知”(meta-awareness),还引起一些争议。比如英伟达科学家Jim Fan就认为不必过度解读,Claude 3看似有自我意识的表现只是对齐了人类数据。他怀疑在强化学习微调数据集中,人类很有可能用类似的方式回应过这个问题,指出要找的答案与文章其他部分无关。Claude 3识别到当时的情况与训练数据中的情况相似,就合成了一个类似的答案。他认为大模型的“元认知行为”并没有大家想象的那么神秘,Claude 3是一个了不起的技术进步,但还不至于上升到哲学层面。但反方辩友也提出反驳,人类的“元认知”本质上不是同样的事吗?有网友总结到,Claude 3表现得就像有一个“连贯的主体”存在,不管是什么,总之与其他大模型都不一样。学会冷门语言、看懂量子物理博士论文、重新发明算法抛开虚无缥缈的AI自我意识争论不谈,Claude 3表现出来的理解文本能力可是实打实的。比如仅从提示词的翻译示例中学会冷门语言“切尔克斯语”(一种西亚语言)。不光把俄语句子翻译成了切尔克斯语,还提供了语法解释。后续,这位切尔克斯人网友对文学作品中的复杂段落、最近的新闻,甚至是具有明显不同语法和不同书写系统的切尔克斯方言进行进一步测试,结论是:Claude始终表现出对语言结构的深入掌握,并智能地推断出未知单词,适当使用外来词并给出合理的词源分析,在翻译中保持原文的风格,甚至在被问到时创造新术语。而提供的样本数据中只有几千个翻译对示例。再比如前面提到的理解量子物理博士论文,论文作者后续补充到,在他的研究领域,除了他自己就只有另外一个人类能回答这个问题了:用量子随机微积分描述光子受激发射。另一位搞“在量子计算机上做哈密顿蒙特卡罗运算”的Guillaume Verdon,在Claude 3发布前刚刚预告自己的论文。只比Anthropic官号宣布Claude 3(晚上10点)早了4个小时。Claude 3发布后,它第一时间尝试,先直接问AI对这个问题有没有思路?Claude 3给出了7种可能选项。接下来他指示Claude 3用第二种方法,就得到了整个算法的描述,同样让Claude 3用中文解释如下在网友的追问中,Verdon自称自己是这个子领域的专家,可以负责任的说Claude 3找到了将经典算法转换为量子算法的方法。除此之外,还有更多Claude 3测试结果不断被分享出来。有在长文档总结方面完胜GPT-4的。也有量子速度一本电子书,总结出5条金句的。以及在多模态理解上,识别日语收据文字和格式的。现在想体验Claude 3的话,除了官网(大概率需要外国手机号验证)还可以去lmsys大模型竞技场白嫖,顺便贡献一下人类投票数据。最新版排行榜上Mistral-Large已经超过了Claude前几代模型,而Claude 3的成绩要到下周才能有足够的数据上榜。Claude 3会不会在人类评估上一举超越GPT-4呢?量子位会和大家一起持续关注。OpenAI还有后手有网友表示,如果大家持续晒Claude有多棒,一直刺激OpenAI就会发布GPT-5,大家加油吧。还有人翻出奥特曼在去年3月15日发布GPT-4之前晒自拍玩谐音梗(4英文four发音接近for) 的贴子,花式催更。目前来看,Claude 3来势汹汹,OpenAI方面可能真的要坐不住了。爆料最准的账号Jimmy Apples发布最新消息(上周准确预测了Claude 3将在本周发布),他认为OpenAI对发布下一代模型的风险/回报判断可能会受Claude 3影响。刚刚从OpenAI离职的开发者关系负责人Logan Kilpatrick也在与网友互动中确认本周还会有大事发生。至于是GPT-4.5,Q*,Sora开放测试,还是直接GPT-5?OpenAI下一个产品又能否盖过Claude3的风头?参考链接:[1] ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人