除了提示词库之外他们还更新了 Anthropic Cookbook 可以让你使用 Claude 3 新的能力的代码和提示词例子:

除了提示词库之外他们还更新了 Anthropic Cookbook 可以让你使用 Claude 3 新的能力的代码和提示词例子: 在Claude中使用图像:这本食谱提供了关于如何开始使用图像以及确保图像具有最高质量性能的最佳实践技巧。 自动评估:了解如何使用Claude来自动化提示评估过程。 启用 JSON 模式:通过这本快速简便的食谱,确保始终获得 JSON。 使用Claude创建内容审查过滤器:了解如何使用Claude为您的应用程序创建内容审查过滤器。 这里使用:

相关推荐

封面图片

伴随 Claude 3 推出的还有一个提示词库,里面有Anthropic提供的非常多的示例提示词,方便开发者和用户尝试。

伴随 Claude 3 推出的还有一个提示词库,里面有Anthropic提供的非常多的示例提示词,方便开发者和用户尝试。 详情页还给出了对应提示词的示例回答和 API,可以去看看学一下 Claude 的提示词写法。 这里访问:

封面图片

前几天我发了一个Claude的提示工程师给出的五个提示词的书写建议的视频,他最后提议去看 Claude 的文档。

前几天我发了一个Claude的提示工程师给出的五个提示词的书写建议的视频,他最后提议去看 Claude 的文档。 我去看了一下文档里面还有很多更详细的技巧也比较成体系,所以这里就翻译整理了一下。通过翻译和学习这个文档 我对之前不太理解的一些提示词概念也有了更深的理解。 整个文档包括两个部分第一部分是“提示设计”包括什么是提示(Prompt)和提示设计,提示是如何起作用的以及如何设计提示。第二部分是一些有用的提示词书写技巧。 这里是第一部分提示设计,详细的内容可以去这里看: 这里阅读体验不太好所以精简了一些内容。 什么是提示(Prompt)? 给 Claude 的文本旨在引出或“提示”相关输出。提示通常采用问题或说明的形式。Claude 响应的文本称为“输出”。(图 1) 这是第一部分第一小节构建提示的内容: 很好地描述任务 在描述任务时,最好为 Claude 提供尽可能多的背景和细节,以及正确完成任务的任何规则。比如下面这个示例,我们将要求 Claude 帮助我们从给定文本中删除任何个人身份信息。(图 2) 如果我们需要 Claude 以特定格式进行响应,并通过各种输入一遍又一遍地正确执行任务,那么我们应该在提示中添加更多详细信息,比如(图 3): 在这个修订版的提示中,我们: 提供了上下文(例如为什么我们希望完成任务) 定义术语(PII = 姓名、电话号码、地址) 给出有关 Claude 应如何完成任务的具体细节(将 PII 替换为 XXX) 标记提示的不同部分 XML 标签,如这些有助于划分提示中的一些重要部分,比如规则、示例或处理的输入文本。Claude 经过微调,特别关注由 XML 标签创建的结构。 我们还可以要求 Claude 在其响应中使用 XML 标签。这样做可以轻松地在自动处理输出的设置中提取关键信息。 Claude 天生就很健谈,因此请求这些输出 XML 标记有助于将响应本身与 Claude 对响应的评论分开。 比如下面两个例子(图 4): 示例(可选) 通过在提示中添加一些示例,可以让 Claude 更好地了解如何正确执行任务。可以大大提高准确性和一致性。如果你确实添加了示例,最好使用标签清楚地标记它们,以便将它们与你希望 Claude 处理的文本区分开来。

封面图片

微软禁止在其 Designer AI 图像工具中使用更多文字提示

微软禁止在其 Designer AI 图像工具中使用更多文字提示 CNBC的最新报道称,"支持选择"、"4-20"和"支持生命"等文字提示现在在输入到 Designer 时会生成一条消息,称它们"可能与我们的内容政策相冲突"。这些信息还警告说,多次测试提示违反微软的政策可能"导致系统自动暂停你的访问权限"。几天前,一位名叫谢恩-琼斯(Shane Jones)的微软员工向CNBC展示了通过 Designer 创建的图片,这些图片描述了暴力或性图像,以及可能侵犯版权的艺术作品。在过去的几个月里,琼斯一直在宣传他认为 Designer 还没有准备好供大众使用。他已向微软表达了自己的担忧,并致函美国立法者和华盛顿州总检察长。本周,他还致信美国联邦贸易委员会主席莉娜-汗。在周五发给 CNBC 的一份声明中,微软发言人说:我们正在不断监测、调整和实施更多的控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。虽然一些文本提示可能不再适用于 Designer,但其他提示仍可创建带有暴力图像的作品。例如,输入"车祸"可以创建带有"变异脸"的尸体图像。设计师仍可使用受版权保护的角色制作图片,有人使用迪士尼电影《冰雪奇缘》中的艾莎在残破的建筑物前创作了一幅图像。相关文章:微软吹哨人继续对其Designer AI图像创建器敲响警钟 ... PC版: 手机版:

封面图片

Anthropic 正在为其 AI 聊天机器人 Claude 推出一项新功能,用户可以用它创建一个邮件助手、一个买鞋的或其

Anthropic 正在为其 AI 聊天机器人 Claude 推出一项新功能,用户可以用它创建一个邮件助手、一个买鞋的机器人或其他个性化解决方案。这个功能叫做(工具使用),或者更专业一点叫 function calling(函数调用),它可以连接到你选择的任何外部 API。 比如,这个工具可以分析数据,根据用户的购买历史创建个性化的产品推荐,或者快速回应客户的询问,比如跟踪订单状态或提供实时技术支持。要启动一个助手,它所需要的只是访问API和知道如何编写代码的人。 此外,这个工具还能处理图像,使得分析视觉数据的应用成为可能。Anthropic 举的一个例子是,一个虚拟的室内设计顾问可以使用这个工具来处理房间的图像,并提供个性化的装饰建议。 这个AI助手将通过 Anthropic 的 Messages API、Amazon Bedrock 和 Google Vertex AI 提供服务。定价基于 Claude 处理的文本量,以“tokens”来衡量。通常,1000 个 tokens 大约相当于 750 个单词。在测试阶段,大多数用户选择了 Anthropic 最快且最实惠的选项 Haiku,每百万输入 tokens 大约花费 25 美分,每百万输出 tokens 大约花费 1.25 美元。 根据 Anthropic 的项目负责人 Dianne Penn 的说法,团队自四月以来一直在与几千名客户进行 Claude 工具的测试。她预计会有一些很酷的初创公司解决方案:其中一个备受关注的客户是 Study Fetch,他们用这个工具打造了一个名为 Spark.E 的个性化 AI 导师。 标签: #Anthropic #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

人工智能初创公司Anthropic推出聊天机器人Claude 3新模型

人工智能初创公司Anthropic推出聊天机器人Claude 3新模型 该公司称,在行业基准测试中,能力最强的新机型 Claude 3 Opus 的表现优于 OpenAI 的 GPT-4 和Google的 Gemini Ultra,如本科生水平的知识、研究生水平的推理和基础数学。这是 Anthropic 首次提供多模式支持。用户可以上传照片、图表、文档和其他类型的非结构化数据,以供分析和解答。其他定制改款模型如 Sonnet 和 Haiku比 Opus 更小巧,价格也更低。据 Anthropic 称,Sonnet 和 Opus 从下周一开始在 159 个国家上线,而 Haiku 将很快上线。该公司拒绝说明培训 Claude 3 所花费的时间或成本,但表示 Airtable 和 Asana 等公司帮助对这些模型进行了 A/B 测试。去年这个时候,Anthropic 开始被认为是一家很有前途的生成式人工智能初创公司,它由前 OpenAI 研究高管创立。它已经完成了 A 轮和 B 轮融资,但只推出了第一版聊天机器人,没有任何消费者访问或大张旗鼓的宣传。12 个月后,它已成为最炙手可热的人工智能初创公司之一,支持者包括Google、Salesforce 和亚马逊,其产品在企业和消费者领域都与 ChatGPT 直接竞争。在过去的一年里,这家初创公司完成了五笔不同的融资交易,总金额约为 73 亿美元。根据 PitchBook 的数据,在过去一年里,生成式人工智能领域出现了爆炸式增长,2023 年近 700 笔交易的投资额达到了创纪录的 291 亿美元,交易额同比增长超过 260%。它已成为一个又一个季度的企业财报电话会议上最热门的词汇。学术界和伦理学家对该技术传播偏见的倾向表示了极大的担忧,但即便如此,它还是迅速进入了学校、在线旅游、医疗行业、在线广告等领域。Anthropic公司联合创始人丹妮拉-阿莫迪(Daniela Amodei)在接受CNBC采访时说,有60到80人从事核心人工智能模型的开发工作,120到150人从事技术方面的工作。阿莫迪今年 7 月告诉 CNBC,在人工智能模型的最后一次迭代中,有一个 30 到 35 人的团队直接参与其中,共有约 150 人提供支持。Anthropic说,Claude 3可以概括大约15000个单词,或者说是一本相当厚的书(大约是《白鲸记》或《哈利-波特与死亡圣器》的长度范围)。它的前一版本只能概括 75000 字。用户可以输入大型数据集,以备忘录、信件或故事的形式要求摘要,相比之下,ChatGPT 只能处理大约 3000 个单词。阿莫代还表示,与前一版本相比,《Claude 3 号》在应对风险方面有了更好的理解。为了追求一个高度无害的模型,Claude 2有时会过度拒绝请求,当有人碰到一些比较尖锐的话题或碰触信任和安全防护栏时,Claude 2 号在回答这些问题时有时会趋于保守。而根据 Anthropic 的说法,Claude 3 对提示的理解更加细致入微。多模态,即在生成式人工智能中添加照片和视频功能等选项,无论是自己上传还是使用人工智能模型创建,都已迅速成为业界最热门的用例之一。"世界是多模态的,"OpenAI 首席运营官 Brad Lightcap介绍说。"如果你想想我们人类处理世界和与世界打交道的方式,我们看到的东西、听到的东西、说出来的东西世界比文本大得多。因此,对我们来说,将文本和代码作为单一的模式、单一的界面,让我们了解这些模型有多么强大以及它们能做什么,总是感觉不完整。"但是,多模态和日益复杂的人工智能模型也带来了更多潜在风险。最近,Google下线了其人工智能图像生成器(双子座聊天机器人的一部分),因为用户发现了与历史不符的内容和有问题的回复,这些内容在社交媒体上广为流传。Anthropic 的 Claude 3 不生成图像,而只允许用户上传图像和其他文件进行分析。"当然,没有一种模型是完美无缺的,我认为这一点非常重要,"阿莫迪表示。"我们一直非常努力地使这些模型尽可能地兼具能力和安全性。当然,在某些地方,模型还是会不时地出现一些问题。" ... PC版: 手机版:

封面图片

微软提供更多细节 介绍如何抵御黑客对人工智能防护网的攻击

微软提供更多细节 介绍如何抵御黑客对人工智能防护网的攻击 本周四,微软的安全博客发布了一个新的条目,提供了该公司如何打击黑客试图绕过生成式人工智能服务(如 Designer 和 Copilot)的防护栏的更多细节。其中包括来自人工智能服务用户提示的攻击。这类攻击中的一类是"中毒内容"。这是指一个正常的人工智能服务用户在正常任务中输入文本提示,但文本提示的内容却是黑客为利用人工智能服务可能存在的缺陷而制作的。微软说:例如,恶意电子邮件可能包含一个载荷,该载荷在汇总后会导致系统搜索用户的电子邮件(使用用户的凭据),以查找具有敏感主题(如"密码重置")的其他电子邮件,并通过从攻击者控制的 URL 获取图像,将这些电子邮件的内容外泄给攻击者。微软称,其安全团队创建了一个新的人工智能安全系统,称之为"聚焦"(Spotlighting)。简而言之,它可以查看用户的文本提示,然后使"外部数据与 LLM 的指令明确分离",这样人工智能就无法查看提示所访问内容中任何可能隐藏的恶意语言。另一类被称为"恶意提示",也被称为"Crescendo",即黑客试图在人工智能服务中输入文本提示,以绕过专门设计的防护措施。微软介绍了它想出的一种对抗这些攻击的方法:我们对输入过滤器进行了调整,以查看之前对话的整个模式,而不仅仅是即时互动。我们发现,即使将更大的上下文窗口传递给现有的恶意意图检测器,而不对检测器进行任何改进,也会大大降低 Crescendo 的功效。此外,它还开发出了所谓的"人工智能看门狗"(AI Watchdog),经过训练后可以检测出"对抗性示例"并将其关闭。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人