最近在试着用 Claude2 配合 GPT4 写代码

最近在试着用Claude2配合GPT4写代码Claude2像是一个研发高P,超长的上下文让它能把整个项目吞进去,你只要提需求,他给你提供代码的设计方法,该弄几个类,变量怎么传递之类的,但你真让这位高P自己写代码,就会发现他大概是带团队太久,动手能力已经退化了,经常会出一些低级错误GPT4比较像是应届生,代码工整,一半以上的可以一次跑通,但是应届生的脑容量比较有限,不能理解太长的上下文,喂代码的时候必须要把在哪儿改,改什么都说清楚让两个AI配合的结果,就是提需求给Claude,让高P把需求翻译成生成代码的Prompt,然后复习粘贴给小弟干活儿,完美

相关推荐

封面图片

Anthropic 发布第二代 Claude

Anthropic发布第二代Claude被誉为GPT-4最强竞品的Claude近日发布了V2版本的更新,Claude2支持长度为20万的Token上下文输入(约15万单词的、相当于一本短篇小说),并将知识数据内容的截止时间提升到了23年初(GPT4为21年9月),同时官方版本即支持导入txt、pdf等多个格式的文档,并支持在多个文档间进行关联。除了上述功能更新以外,开发Claude的Anthropic公司还宣布了Claude2最大的杀手锏。这款在使用体验上媲美ChatGPT的产品目前无需排队,个人用户可完全免费使用,商业用户也可利用相对低得多的成本,将AI集成到自己的产品中。

封面图片

GPT-4最强对手Claude 2震撼发布

GPT-4最强对手Claude2震撼发布废话不多说,先奉上网页版体验地址:https://claude.ai/chats一、完全免费!我们可以用中文和Claude 2对话,而且完全免费只要用自然语言,就可以让Claude 2帮你完成很多任务。多位用户表示,与Claude 2 交流非常顺畅,这个AI能清晰解释自己的思考过程,很少产生有害输出,而且有更长的记忆。二、更长文本:Claude 2最高支持10万tokens的输入和4000个tokens的输出这次Claude 2的一个大升级,就是输入和输出长度的增加。在每个prompt最多可以包含100k的token,这意味着:Claude 2可以一次读取几百页的技术文档,甚至一整本书!并且,它的输出也更长了。现在,Claude 2可以写长达几千个token的备忘录、信函、故事。你可以上传PDF之类的文档,然后基于PDF进行对话,上下文的长度,比GPT要大。比如,现在有一篇关于生成式AI的行业报告,你可以对Claude 2说:请你给我解释一下这篇报告的重要结论。这个功能相对于ChatGPT来讲是一个很大的突破三、更强逻辑:Claude2不仅可以写代码,还会对代码进行解释可以看到,Claude 2的中文还是很溜的,不仅分析了代码,而且还介绍了算法的复杂度。也可以给Claude 2一段代码,让它进行分析,也可以做到很好。四、更新数据:Claude 2使用2023年初的新数据训练模型Claude 2使用2023年初的新数据训练模型,这一点是相比ChatGPT的一个非常大的优势。尽管现在付费的GPT-4支持使用插件的方式来进行访问新数据,但是目前插件并不具备完善的稳定性。因此Claude 2模型的数据更新,对2023年之前发生的重要事情与内容应该都是知道的。尽管ClaudeAI不支持插件,但是官方说,它是支持与搜索工具连接的,包括网络和数据库等,同时,也可以直接将文档发给Claude来分析。五、更高安全性此前据说,Anthropic的创始人们就是和OpenAI在大模型的安全性上理念不一致,才集体出走,创立了Anthropic。Claude 2也一直在不停迭代,安全性和无害性大大提高,产生冒犯性或危险性的输出的可能性大大降低。据专业人士评估,与Claude 1.3相比,Claude 2在无害回应方面的表现提高了2倍。Anthropic采用了被他们称为Constitute AI的技术框架来实现对于语言模型的无害化处理。在Anthropic官方发布的论文中,花了很大篇幅对安全性的改进进行了展示。可以不夸张地说,Claude 2可能是现在市面上最安全的大模型了。论文地址:https://arxiv.org/abs/2212.08073不论是国内还是国外,大模型的发展真是令人惊叹。Claude真的是一款值得追捧的大模型,大家都可以赶紧试用起来了。...PC版:https://www.cnbeta.com.tw/articles/soft/1370469.htm手机版:https://m.cnbeta.com.tw/view/1370469.htm

封面图片

OpenAI 遥遥领先 —— GPT-4 与 Claude 2.1 的长上下文精度对比

OpenAI遥遥领先——GPT-4与Claude2.1的长上下文精度对比GregKamradt对GPT-4(128K)与Claude2.1(200K)进行了名为"大海捞针"的长上下文精度测试。实验了两个AI在接收不同长度的上下文时,对文档中不同位置的内容,有何记忆上的差异。测试结果:*AI更容易记住(无论长度):文本后半部分。*AI更不容易记住(90K长文时):文本前半部分。*AI近乎100%记住(无论长度):文本开头&文本结尾。*越少的上下文=越高的准确性。*测试的API调用成本约为1016美元。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

GPT4 的四个能力示例

GPT4的四个能力示例-画小人,对人体的结构理解和视觉能力-文字解谜,对空间的感知能力-对话分析,对人类对话的深度理解能力-代码解释,用自然语言推导代码运行结果读过《千脑智能》的朋友应该还记得,人类的大脑里有一个世界模型,并在此模型内进行预测,而GPT4里也初步展现出“世界模型”。要注意,这只是没有经过视觉训练的GPT4的早期版本。GPT4多模态版本的真正的实力,除了OpenAI还没人知道。

封面图片

!非常好的文章,使我的GPT4旋转。

!非常好的文章,使我的GPT4旋转。Claude官方发布的一篇博客,很实用,链接https://www.anthropic.com/index/prompting-long-context下面是我用ChatGPT4的webbrowsing功能把这篇博客通过特定的prompt转换成的一本「执行手册」,可以简单参考一下,具体信息建议还是从原文链接看:基于您的要求和提供的文章内容,以下是一份详细、具体、逻辑清晰且可操作的执行手册,形式为Markdown文本:---#Claude模型长文本回忆优化执行手册本手册旨在指导用户通过特定步骤和方法,优化Claude模型在处理长文档时的回忆能力。##一、目标定义-评估和优化Claude模型在长文档上下文中正确回忆特定信息的能力。##二、准备阶段###2.1数据源选择-选择一个公开可用的、日常发布的政府文档,作为测试的基础数据源。###2.2文档分段与问题生成-将选定的文档分成多个部分。-使用Claude为每个部分生成五个选择题,每个题目包含三个错误答案和一个正确答案。##三、多选题生成策略###3.1避免过于明显的问题-确保问题不应包含答案。###3.2避免模糊的短语-避免使用模糊的短语,如“此文档”或“此段落”,而应明确指定问题所指的段落。##四、评估与测试###4.1模型选择-使用ClaudeInstant1.2模型进行测试。###4.2回忆能力测试-在不同情境下测试Claude的回忆能力,例如仅提供Claude用于编写问题的确切段落,评估Claude能否正确回答自己生成的问题。##五、提示策略###5.1Base策略-直接要求Claude回答问题。###5.2NongovExamples策略-提供与政府文档无关的两个正确回答的常识性选择题示例。###5.3TwoExamples策略-提供两个与文档上下文中的其他部分有关的正确回答的选择题示例。###5.4FiveExamples策略-同上,但提供五个示例。##六、优化提示###6.1使用-在测试各种提示策略时,同时测试是否使用,在其中指示Claude提取相关引用。

封面图片

一个代码解释器框架,利用GPT-4、CodeLlama 和 Claude 2 等大型语言模型的强大功能,允许用户编写任务,Eva

一个代码解释器框架,利用GPT-4、CodeLlama和Claude2等大型语言模型的强大功能,允许用户编写任务,EvalGPT将协助编写代码、执行代码并交付结果结果。1.自动代码编写:EvalGPT利用先进的语言模型自动生成代码,减少手动工作并提高生产力。2.高效的任务执行:通过将复杂的任务分解为可管理的子任务,EvalGPT确保高效并行执行,从而加快整个流程。3.强大的错误处理:EvalGPT能够在出现错误时重新计划任务,确保可靠的操作和准确的结果。4.可扩展性:EvalGPT旨在处理不同复杂性的任务,使其成为满足广泛编码需求的可扩展解决方案。5.资源优化:受GoogleBorg资源管理的启发,EvalGPT优化利用计算资源,从而提高性能。6.可扩展性:EvalGPT能够将外部工具合并到其运行时中,因此具有高度适应性,可以扩展以处理各种任务。#框架

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人