这个VS Code的AI插件感觉比GitHub的Copilot强多了,功能非常全面,而且支持GPT-4和PaLM 2等常见模型的

这个VSCode的AI插件感觉比GitHub的Copilot强多了,功能非常全面,而且支持GPT-4和PaLM2等常见模型的API。主要功能有:◆可以选中对应代码之后跟GPT进行聊天沟通。◆通过注释生成对应要求的代码。◆Stackoverflow获取问题的答案,并且跟GPT的答案比较◆跟AI聊天并且创建对应代码的单元测试。◆打开Notebook(.ipynb文件)并使用Notebook扩展运行代码。通过API修改代码不可避免涉及到代码泄露的问题,这个需要自行斟酌,公司代码谨慎使用。插件地址:https://marketplace.visualstudio.com/items?itemName=DanielSanMedium.dscodegpt&ssr=false#overview

相关推荐

封面图片

我用GPT-4帮忙写了一个Midjourney增强插件,下面是插件的使用方式介绍、我总结的GPT-4使用技巧以及产品实现的具体过

我用GPT-4帮忙写了一个Midjourney增强插件,下面是插件的使用方式介绍、我总结的GPT-4使用技巧以及产品实现的具体过程,还有如何用AI工具帮助宣传产品。详细的过程可以去这里查看:https://mp.weixin.qq.com/s/A3qKAYjO6JJmfoDEOtjdPg插件已经开源在这里下载:https://github.com/op7418/Mijourney-enhanced插件介绍:像我这种英语不好的人使用Midjourney的时候一个很痛的痛点就是提示词的翻译,使用正常的翻译工具要不只能一个词一个词翻译,要不就只能整段翻译。所以就有了这个插件,主要功能是按照提示词作者原有的语义分割自动翻译提示词的部分,同时可以快速复制原有提示词。总结的GPT-4编码技巧信息输入:-提前自己梳理需求内容和目标,最好在别的地方先写好在粘贴进去。像平时写PRD那样,不要偷懒,你偷懒他就会教你做人,特别是复杂任务。-按照正常的软件开发角色的和流程给他设定角色,不同角色需要做的事情开多个聊天窗口做,比如先让它输出整体架构再去另一个聊天里输出具体代码,甚至前端和后端分开,每个模块分开输出。-详细的描述需求包括需求的背景,你希望实现的方式涉及到了哪些外部软件的联动,各个内容之间交互方式是什么样的。期望它输出的结果:包含的内容和要求,主要是明确需要他产出的内容。-你对内容的要求:明确一些具体的要求包括解释每一个方案选择的具体原因和相关文档、代码结构、每个关键的代码结构都要加上注释等。优化调整:-如果在沟通过程中频繁出现问题可以采取以下方式:-一次只实现一个模块或者一个功能渐进式的推进项目,降低问题的复杂程度;-当输出结果频繁出现问题的时候重新审视你自己给出的信息,包括是否存在描述的不够全面或者有歧义;-可以从其他渠道获取一些信息,比如要求GPT给你一些官方文档的地址去查看;-如果遇到了GPT记忆的内容出现问题你需要重新完整的将现在的内容跟他同步一次。实现过程开始我只是粗略的跟他说了一下需求。它就输出了具体需要做的步骤和具体代码,包括追问你的需求细节,查看开发文档的建议,以及项目文件结构,每个文件的具体代码。按照他的指导创建了文件夹、文件和需要的图标,并将代码粘贴了进去。我按照他给的方式开始在浏览器上运行插件开始调试果不其然开始报错了,开始不断的沟通修复问题。

封面图片

GitHub 发布了基于GPT-4的Copilot X,号称人工智能驱动的开发者体验 | 详文

GitHub发布了基于GPT-4的CopilotX,号称人工智能驱动的开发者体验1.GitHubCopilotChat:在编辑器中获得类似ChatGPT的体验2.CopilotforPullRequests:生成PR的描述,如果PR测试代码不够发出警告3.GitHubCopilotforDocs:使用聊天界面为用户提供AI生成的对文档问题的回答4.CopilotCLI:命令行的智能提示

封面图片

换回 Flomo 记录信息的同时发现Twitter 的信息不太好同步,就自己用 GPT-4 写了一个 Twitter to fl

换回Flomo记录信息的同时发现Twitter的信息不太好同步,就自己用GPT-4写了一个Twittertoflomo的浏览器插件。发现现在上下文长度长了以后,写这种小项目的门槛更低了。总共用了不超过4个小时就搞完了。下面有用GPT-4写这个项目的提示技巧、插件使用方法以及插件下载:##总结的一些技巧:补充开发文档:告诉GPT谷歌已经讲浏览器扩展的ManifestV2改为了ManifestV3,并且将对应的更改内容文档上传到GPT,告诉他根据这个编写代码。先实现核心能力:建议刚开始只实现最核心的功能,对于我这个项目来说就是获取推特内容,然后传输到flomo。提供必要信息:比如GPT显然是不知道Flomo的API格式的,你需要把对应的文档发给他,我都是直接全选文档页面内容,然后保存成MD格式。善用控制台log和报错信息:刚开始如果报错可以复制报错信息让GPT分析并改进,如果改了几次没改好,就想办法用log获取更多信息,比如我这个核心功能主要有两部分,先是获取信息,然后是传输,我们需要确定是哪一步错了,就可以让他在对应阶段完成的时候在控制台打印输出的log信息。及时上传代码:发现GPT-4输出的代码无法与原有代码对应的时候,应该及时重新上传现在完整的代码,防止他忘的越来越多。最重要的立刻去做:其实没有那么难,不要想那么多我不会写提示词也没有开发经验怎么办,GPT都会告诉你,开始问出第一个问题是最难的一步。这是这个项目与GPT的完整对话记录:##如何使用点击Github页面右上角的Code按钮选择Downlaodzip按钮将插件文件下载到本地。打开浏览器扩展页面,打开开发者模式,选择加载解压的扩展程序选择解压后的文件夹。加载之后点开插件图标,点击Setting按钮,进入设置页面。你可以在Flomo的扩展中心&API页面找到你的专属API,填写到FlomoURL输入框就行。ContentPrefix是你希望同步到flomo时内容的标签,主要填写时前面需要加#。点击Save之后就可以使用了,支持右键保存到Flomo以及点击插件图标内的SendCurrentFlomo保存。

封面图片

谷歌发布AI语言模型PaLM 2 挑战OpenAI的GPT-4

谷歌发布AI语言模型PaLM2挑战OpenAI的GPT-4皮查伊称:“PaLM2在逻辑和推理方面进行了广泛的训练,具有极强的逻辑和推理能力。同时,它还接受了多语言文本训练,支持100多种语言。谷歌在2022年4月首次发布了PaLM语言模型。谷歌高级研究总监斯拉夫·彼得罗夫(SlavPetrov)称,最新的PaLM2在一系列基于文本的任务上表现更好,包括推理、编码和翻译等。他说:“与PaLM1相比,PaLM2有了显著提升。”对于PaLM2,谷歌工程师在一份研究论文中称,该系统的语言熟练程度“足以教授这门语言”。与其他大型语言模型一样,PaLM2与其说是一款单一产品,不如说是一系列产品。它拥有不同的版本,可部署在消费者和企业环境中。确切而言,PaLM2分为四种规格,从小到大依次为Gecko、Otter、Bison和Unicorn,依据特定领域的数据进行了微调,以执行企业客户的特定任务。其中,体积最小的Gecko可以在手机上运行,每秒可处理20个Token,大约相当于16或17个单词。谷歌还称,PaLM2已被用于支持自家的25项功能和产品,其中包括AI聊天机器人Bard,以及谷歌文档、幻灯片和工作表等。...PC版:https://www.cnbeta.com.tw/articles/soft/1359045.htm手机版:https://m.cnbeta.com.tw/view/1359045.htm

封面图片

五分钟速览OpenAI发布会:GPT-4 Turbo模型、GPT应用商店等登场

五分钟速览OpenAI发布会:GPT-4Turbo模型、GPT应用商店等登场(来源:OpenAIDevDay)在发布会的开始,奥特曼简短回顾了公司过去一年的发展历程,特别提到“公司在今年3月发布的GPT-4,至今仍是世界上能力最强的AI大模型”。时至今日,已经有200万开发者正在使用OpenAI的API(应用程序接口),在全球各地提供多种多样的服务;92%的财富500强公司正在使用OpenAI的产品搭建服务,而ChatGPT的周活用户数也达到1亿人。GPT-4Turbo模型登场随后便进入了新品发布时间,首先登场的是GPT-4Turbo模型。简单来说,相较于全球股民都很熟悉的GPT-4,GPT-4Turbo的进步主要体现在6个方面。1、AI能够理解更长的上下文对话长度(contextlength)。标准版GPT-4模型最多支持8192个token,此前的升级将其提高至最多3.2万个token。而GPT-4Turbo支持最高12.8万个token,相当于一本标准大小的300页纸质书所包含的文本量;奥特曼也表示,新模型在处理长文本情境下的准确度也有所提高;2、给予开发者更多的控制权。新的模型允许开发者指示模型固定以特定形式返回有效JSON—JSON模式。同时开发者可以通过访问seed参数和system_fingerprint响应字段,来实现“模型对每次请求都给出确定性的输出”。3、GPT-4对于现实世界的知识截止于2021年9月,GPT-4Trubo的知识则截止于2023年4月。4、多模态API来了。文生图模型DALL·E3、具有视觉输入能力的GPT-4Trubo,以及新的声音合成模型(TTS)都在今日进入API。OpenAI也在今天发布了新的语音识别模型WhisperV3,将在近期向开发者提供API。5、继向全球开发者开放GPT3.5微调(Fine-tuning)后,OpenAI宣布将向活跃开发者提供GPT-4微调的资格。对于开发细分行业的垂直AI应用而言,微调是必经的过程。对于这类开发者,OpenAI也推出了定制化模型项目,帮助一些组织训练针对特定领域的定制化GPT-4模型。奥特曼也表示,这件事情一开始并不会便宜。6、OpenAI将所有GPT-4用户的Token速率限制扩大了一倍,开发者可以申请进一步提高速率。与微软、Adobe类似,OpenAI也引入了“版权护盾”机制。在ChatGPT企业版用户和API用户遭到版权官司时,公司将会出面辩护,并支付因此产生的赔偿责任。在市场极为关注的定价方面,作为行业领先的大模型,GPT-4Turbo的价格要远低于GPT-4。其中输入Token的价格只有三分之一,而输出Token的价格只有一半。也就是说,输入1000个Token的定价为1美分,而输出1000个Token的定价为3美分。与此同时,GPT-3Turbo16K模型的价格也有所下调。(新定价表,来源:OpenAI)在新品发布间隙,微软CEO纳德拉也来到现场,猛夸了一顿OpenAI并再次强调“微软深爱着OpenAI”。ChatGPT也有更新奥特曼宣布,虽然今天是开发者大会,但OpenAI也忍不住对ChatGPT做出一些更新。首先,从今天开始ChatGPT将使用刚刚发布的GPT-4Trubo模型。另外,针对用户每次对话前都要选择不同模式的困扰,GPT-4Trubo也将迎来产品逻辑的更新,现在机器人能够主动根据对话来适配对应的功能。更新前更新后接下来本场活动的第二个重要产品登场——GPTs。用户将能通过自定义指令、拓展(模型)的知识边界和下达行动命令,来构建自己的GPT,并能对外发布给全球更多的人使用。更重要的是,整个构建“自定义GPT”的过程也是通过自然语言对话形成的。奥特曼也在现场演示了如何通过聊天搭建一个GPT。他给GPTBuilder的指令是“希望帮助创业者思考商业灵感并提供建议,然后‘拷问’他们为何公司发展得不够快。”随后ChatGPT迅速搭建了一个创业咨询GPT,还顺手生成了一个Logo。随后奥特曼在属性页面中上传了一份他自己关于创业公司的演讲稿,向这个用例提供了额外的知识。至此,自定义用途的GPT初步搭建完成。用户可以保存这个用例只给自己使用,也能对外公开发布。既然说到“公开发布”,OpenAI也顺势宣布,将在本月晚些时候上线“GPT应用商店”。对于那些最热门的GPT,公司还将分享一部分的营收,来推进GPT应用生态的进步。AssistantsAPI最后是面向开发者的新品AssistantsAPI。“助理API”是一个专门构建的人工智能,具有特定的指令,利用额外的知识,并能调用模型和工具来执行任务。新的助手API提供了如代码解释器、检索以及函数调用等功能,以处理此前开发者必须自己完成的诸多繁重工作。OpenAI介绍称,这个API的用例范围非常灵活,例如基于自然语言的数据分析应用、编程助手、AI度假规划器、语音控制DJ、智能视觉画布等等。作为示例,OpenAI的首席开发者体验官RomainHuet搭建了一个“知晓整场开发者大会”的用例,并调用Whisper来实现语音输入。同时由于这个API可以联网,所以Romain也在现场用语音指示AI随机挑选5位现场观众,给他们的OpenAI账户里各充值500美金。作为本场活动的最后一个惊喜环节,Romain再一次向AI发出指令,给现场所有人的账户里各打了500美元。...PC版:https://www.cnbeta.com.tw/articles/soft/1394965.htm手机版:https://m.cnbeta.com.tw/view/1394965.htm

封面图片

微软AI聊天机器人Copilot上架iOS:完全免费、支持GPT-4

微软AI聊天机器人Copilot上架iOS:完全免费、支持GPT-4近日,微软在IOS平台上架了,MicrosoftCopilot(最初被称为必应聊天)与ChatGPT和其他充斥网络的聊天机器人非常相似。你输入你的提示,无论是一个问题,还是写一封电子邮件或摘要的求助,它都会说出你需要什么。与使用GPT-3.5的ChatGPT免费版本不同,Copilot允许用户访问OpenAI新的大型语言模型GPT-4,并且完全免费。而这并不是二者之间唯一的区别。Copilot还集成了文本到图像生成器DALL-E3,可以通过关键词或者短语生成你想要的图像,而ChatGPT只支持文字聊天。来源,前文:频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人