最近在试着用 Claude2 配合 GPT4 写代码

最近在试着用 Claude2 配合 GPT4 写代码 Claude2 像是一个研发高 P,超长的上下文让它能把整个项目吞进去,你只要提需求,他给你提供代码的设计方法,该弄几个类,变量怎么传递之类的,但你真让这位高 P 自己写代码,就会发现他大概是带团队太久,动手能力已经退化了,经常会出一些低级错误 GPT4 比较像是应届生,代码工整,一半以上的可以一次跑通,但是应届生的脑容量比较有限,不能理解太长的上下文,喂代码的时候必须要把在哪儿改,改什么都说清楚 让两个 AI 配合的结果,就是提需求给 Claude,让高 P 把需求翻译成生成代码的 Prompt ,然后复习粘贴给小弟干活儿,完美

相关推荐

封面图片

Claude 已经接近 GPT4

Claude 已经接近 GPT4 ChatGPT 3.5 很快就要被开源超过了 : Announcing the Week 2 update for the Chatbot Arena leaderboard! We've added some new models that are showcasing strong performance. Currently, @OpenAI's GPT-4 and @AnthropicAI's Claude lead the pack, with open-source models in hot pursuit. More findings:

封面图片

和 @PepsinY 昨晚做非完备逻辑推理测试,Claude+和GPT4是唯二的能猜到凶手的模型,谷歌的用英文测了不行,完全不理

和 @PepsinY 昨晚做非完备逻辑推理测试,Claude+和GPT4是唯二的能猜到凶手的模型,谷歌的用英文测了不行,完全不理解要干嘛。 至于 Claude+和GPT4谁强呢?还是 GPT4,因为删除最后半句话后只有GPT4还能猜出凶手。

封面图片

前两天一位新朋友用我的 Claude API 跑了一些对比 ChatGPT 3.5 和 GPT4 的测试,得出了一些非常有趣且令

前两天一位新朋友用我的 Claude API 跑了一些对比 ChatGPT 3.5 和 GPT4 的测试,得出了一些非常有趣且令人惊喜的结论。 Claude 最新版的的综合能力已经超出了 ChatGPT 3.5 。 特别是数学推理能力和理解能力已经接近 GPT4 。 希望支持 Claude API 的产品多一些吧,它真的很棒。

封面图片

GitHub19k星项目:无需注册,免费使用GPT4,GPT3.5,Claude等AI模型。ForeFront还支持不同的助手,

GitHub19k星项目:无需注册,免费使用GPT4,GPT3.5,Claude等AI模型。ForeFront还支持不同的助手,比如毕加索,托尼斯塔克,爱因斯坦等等 目前OpenAI已经发了警告邮件要求开发者撤下此系统,否则开发者将面临法律诉讼。

封面图片

GPT4 的四个能力示例

GPT4 的四个能力示例 - 画小人,对人体的结构理解和视觉能力 - 文字解谜,对空间的感知能力 - 对话分析,对人类对话的深度理解能力 - 代码解释,用自然语言推导代码运行结果 读过《千脑智能》的朋友应该还记得,人类的大脑里有一个世界模型,并在此模型内进行预测,而GPT4里也初步展现出“世界模型”。 要注意,这只是没有经过视觉训练的GPT4的早期版本。 GPT4 多模态版本的真正的实力,除了 OpenAI 还没人知道。

封面图片

!非常好的文章,使我的GPT4旋转。

!非常好的文章,使我的GPT4旋转。 Claude 官方发布的一篇博客,很实用,链接 下面是我用ChatGPT4的web browsing功能把这篇博客通过特定的prompt转换成的一本「执行手册」,可以简单参考一下,具体信息建议还是从原文链接看: 基于您的要求和提供的文章内容,以下是一份详细、具体、逻辑清晰且可操作的执行手册,形式为Markdown文本: - # Claude模型长文本回忆优化执行手册 本手册旨在指导用户通过特定步骤和方法,优化Claude模型在处理长文档时的回忆能力。 ## 一、目标定义 - 评估和优化Claude模型在长文档上下文中正确回忆特定信息的能力。 ## 二、准备阶段 ### 2.1 数据源选择 - 选择一个公开可用的、日常发布的政府文档,作为测试的基础数据源。 ### 2.2 文档分段与问题生成 - 将选定的文档分成多个部分。 - 使用Claude为每个部分生成五个选择题,每个题目包含三个错误答案和一个正确答案。 ## 三、多选题生成策略 ### 3.1 避免过于明显的问题 - 确保问题不应包含答案。 ### 3.2 避免模糊的短语 - 避免使用模糊的短语,如“此文档”或“此段落”,而应明确指定问题所指的段落。 ## 四、评估与测试 ### 4.1 模型选择 - 使用Claude Instant 1.2模型进行测试。 ### 4.2 回忆能力测试 - 在不同情境下测试Claude的回忆能力,例如仅提供Claude用于编写问题的确切段落,评估Claude能否正确回答自己生成的问题。 ## 五、提示策略 ### 5.1 Base策略 - 直接要求Claude回答问题。 ### 5.2 Nongov Examples策略 - 提供与政府文档无关的两个正确回答的常识性选择题示例。 ### 5.3 Two Examples策略 - 提供两个与文档上下文中的其他部分有关的正确回答的选择题示例。 ### 5.4 Five Examples策略 - 同上,但提供五个示例。 ## 六、优化提示 ### 6.1 使用 - 在测试各种提示策略时,同时测试是否使用,在其中指示Claude提取相关引用。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人