我用GPT-4帮忙写了一个浏览器扩展,帮你把Midjourney提示词和对应图片快速保存到Notion中,下面是插件的使用方式介

我用GPT-4帮忙写了一个浏览器扩展,帮你把Midjourney提示词和对应图片快速保存到Notion中,下面是插件的使用方式介绍、我总结的GPT-4使用技巧以及产品实现的具体过程。详细的过程可以去这里查看:https://mp.weixin.qq.com/s/lTPMfp-xFO4MHJL38qkEzw插件已经开源在这里下载:https://github.com/op7418/Prompt-hunter插件介绍:Prompthunter扩展支持一键将Midjourney图片详情页的图片提示词和其他信息收集到你自己的Notion数据库中,未来也会支持保存到其他工具例如飞书语雀等。也会支持civitai等SD网站的提示词和信息收集。本周总结的GPT-4编码技巧在代码编写方面多做要求GPT-4的输出结果可读性会好很多尽量让他多打log,以便能够准确定位问题由于他的数据库就到21年很多事情不知道,所以你需要给他一些输入,例如对应产品的开发文档。比如他就认为NotionAPI支持更改数据库的内容不支持为页面添加内容,于是我直接把Notion那部分的开发文档扔给它,它就会了,学习能力真的强。还是那句话GPT-4不是全知的所以产出效果很依赖你的输入内容质量,在跟他对话的时候尽量提供详细的完整的信息实现过程首先这次我在描述需求的时候比之前细致了非常多我详细描述了需求的背景具体的功能,以及需求涉及到的所有交互链路,还加上了对代码的一些要求。这次由于交互链路非常复杂学到的一个技巧就是,让他在每一个个关键节点都在控制台输出log方便调试和寻找问题,不然点开没有反应浏览器的报错又很迟钝根本找不到哪里错了。我发现,保存的图片地址都是一个SVG根本打不开,搜了一下居然是用图片懒加载做的反爬机制。这下GPT-4帮不了我了,我必须得自己找到真正的img标签的位置,后来找了好久一层一层看。终于让我找到了。第二个比较大的坑是MJ详情页单独作为页面打开和作为浮层打开图片部分的class名称是不一样的,导致我找了很久打了好几个log才定位了问题。最后为了保证表单的填写体验我对扩展浮层和设置页面的样式都做了视觉和交互上的优化。感谢各位能够看到这里,如果觉得我的内容对你有帮助也欢迎转发给你的朋友或者同事。

相关推荐

封面图片

我用GPT-4帮忙写了一个Midjourney增强插件,下面是插件的使用方式介绍、我总结的GPT-4使用技巧以及产品实现的具体过

我用GPT-4帮忙写了一个Midjourney增强插件,下面是插件的使用方式介绍、我总结的GPT-4使用技巧以及产品实现的具体过程,还有如何用AI工具帮助宣传产品。详细的过程可以去这里查看:https://mp.weixin.qq.com/s/A3qKAYjO6JJmfoDEOtjdPg插件已经开源在这里下载:https://github.com/op7418/Mijourney-enhanced插件介绍:像我这种英语不好的人使用Midjourney的时候一个很痛的痛点就是提示词的翻译,使用正常的翻译工具要不只能一个词一个词翻译,要不就只能整段翻译。所以就有了这个插件,主要功能是按照提示词作者原有的语义分割自动翻译提示词的部分,同时可以快速复制原有提示词。总结的GPT-4编码技巧信息输入:-提前自己梳理需求内容和目标,最好在别的地方先写好在粘贴进去。像平时写PRD那样,不要偷懒,你偷懒他就会教你做人,特别是复杂任务。-按照正常的软件开发角色的和流程给他设定角色,不同角色需要做的事情开多个聊天窗口做,比如先让它输出整体架构再去另一个聊天里输出具体代码,甚至前端和后端分开,每个模块分开输出。-详细的描述需求包括需求的背景,你希望实现的方式涉及到了哪些外部软件的联动,各个内容之间交互方式是什么样的。期望它输出的结果:包含的内容和要求,主要是明确需要他产出的内容。-你对内容的要求:明确一些具体的要求包括解释每一个方案选择的具体原因和相关文档、代码结构、每个关键的代码结构都要加上注释等。优化调整:-如果在沟通过程中频繁出现问题可以采取以下方式:-一次只实现一个模块或者一个功能渐进式的推进项目,降低问题的复杂程度;-当输出结果频繁出现问题的时候重新审视你自己给出的信息,包括是否存在描述的不够全面或者有歧义;-可以从其他渠道获取一些信息,比如要求GPT给你一些官方文档的地址去查看;-如果遇到了GPT记忆的内容出现问题你需要重新完整的将现在的内容跟他同步一次。实现过程开始我只是粗略的跟他说了一下需求。它就输出了具体需要做的步骤和具体代码,包括追问你的需求细节,查看开发文档的建议,以及项目文件结构,每个文件的具体代码。按照他的指导创建了文件夹、文件和需要的图标,并将代码粘贴了进去。我按照他给的方式开始在浏览器上运行插件开始调试果不其然开始报错了,开始不断的沟通修复问题。

封面图片

换回 Flomo 记录信息的同时发现Twitter 的信息不太好同步,就自己用 GPT-4 写了一个 Twitter to fl

换回Flomo记录信息的同时发现Twitter的信息不太好同步,就自己用GPT-4写了一个Twittertoflomo的浏览器插件。发现现在上下文长度长了以后,写这种小项目的门槛更低了。总共用了不超过4个小时就搞完了。下面有用GPT-4写这个项目的提示技巧、插件使用方法以及插件下载:##总结的一些技巧:补充开发文档:告诉GPT谷歌已经讲浏览器扩展的ManifestV2改为了ManifestV3,并且将对应的更改内容文档上传到GPT,告诉他根据这个编写代码。先实现核心能力:建议刚开始只实现最核心的功能,对于我这个项目来说就是获取推特内容,然后传输到flomo。提供必要信息:比如GPT显然是不知道Flomo的API格式的,你需要把对应的文档发给他,我都是直接全选文档页面内容,然后保存成MD格式。善用控制台log和报错信息:刚开始如果报错可以复制报错信息让GPT分析并改进,如果改了几次没改好,就想办法用log获取更多信息,比如我这个核心功能主要有两部分,先是获取信息,然后是传输,我们需要确定是哪一步错了,就可以让他在对应阶段完成的时候在控制台打印输出的log信息。及时上传代码:发现GPT-4输出的代码无法与原有代码对应的时候,应该及时重新上传现在完整的代码,防止他忘的越来越多。最重要的立刻去做:其实没有那么难,不要想那么多我不会写提示词也没有开发经验怎么办,GPT都会告诉你,开始问出第一个问题是最难的一步。这是这个项目与GPT的完整对话记录:##如何使用点击Github页面右上角的Code按钮选择Downlaodzip按钮将插件文件下载到本地。打开浏览器扩展页面,打开开发者模式,选择加载解压的扩展程序选择解压后的文件夹。加载之后点开插件图标,点击Setting按钮,进入设置页面。你可以在Flomo的扩展中心&API页面找到你的专属API,填写到FlomoURL输入框就行。ContentPrefix是你希望同步到flomo时内容的标签,主要填写时前面需要加#。点击Save之后就可以使用了,支持右键保存到Flomo以及点击插件图标内的SendCurrentFlomo保存。

封面图片

今日重磅: Open AI 正式推出 GPT-4!

今日重磅:OpenAI正式推出GPT-4!在演示视频中,GPT-4可以实现:-问它如何清洁装满食人鱼的鱼缸里面?(回答惊喜连连~)-自动编写一个python脚本来分析我的月度财务情况(支持主流编程语言)-分析、理解图片,并「预测」可能性(这里的预测太酷了:杠杆那头的棒球会被击飞)综合来说:GPT-4是多模态。直接读取图片和文档等应用场景。(多模态意味着机器拥有了更多维度的输入数据处理能力,类似生物有了多感官能力。)GPT-4的高级推理能力超过了ChatGPT。上下文理解巨幅提升。GPT-4能够处理超过25,000字的文本,允许使用案例,如长形式的内容创建,扩展的对话,以及文件搜索和分析。中文准确度大幅提升。更多请访问OpenAI官网:https://openai.com/product/gpt-4Invalidmedia:

封面图片

GPT-4 ,人类迈向AGI的第一步(上半)

GPT-4,人类迈向AGI的第一步(上半)文章节选+翻译了本月最重要的一篇论文的内容该论文是一篇长达154页的对GPT-4的测试。微软在很早期就接触到了GPT-4的非多模态版本,并进行了详尽的测试。论文不管是测试方法还是测试结论都非常精彩,强烈推荐https://orangeblog.notion.site/GPT-4-AGI-8fc50010291d47efb92cbbd668c8c893

封面图片

新版 ChatGPT 可同时访问所有 GPT-4 工具

新版ChatGPT可同时访问所有GPT-4工具OpenAI计划推出一种使用多模式GPT-4的新方法,无需切换即可访问所有工具,并提供更多文档分析功能。许多ChatGPTPlus用户在X上分享的截图显示了PDF和文档分析的新功能以及"所有工具"功能。所有工具"可让用户访问GPT-4的所有功能,而无需在不同功能之间切换。此举被誉为一次重大飞跃,它超越了基于文本的查询,推动了生成式人工智能功能的发展。现在,用户可以上传一张图片,让DALL-E3做出回应,为他们的工作流程增添了新的维度。随着越来越多的用户开始使用新的多模态功能,更多关于如何将所有GPT-4工具结合在一起使用的例子也将出现。有趣的是,GPT-4的所有工具功能似乎并不包括ChatGPT插件。一些新功能可能会使许多第三方ChatGPT插件过时。这可能是为了简化用户体验而精心策划的举动,同时也是对以往提供类似功能的第三方插件的一种限制。在系统中直接分析PDF和其他文件的功能有效地消除了对第三方ChatGPT插件的需求,而这些插件一直以来都在填补这些空白。通过在最新版本的ChatGPT中整合这些功能,OpenAI回应了用户的反馈意见,创建了一个不依赖外部功能的更强大的工具。除了用户可以访问GPT-4AllTools之外,其他人也注意到了更近的知识截止日期。最新消息发布于OpenAI下周的DevDay大会之前,预计该公司将在会上与开发者探讨新工具。...PC版:https://www.cnbeta.com.tw/articles/soft/1393089.htm手机版:https://m.cnbeta.com.tw/view/1393089.htm

封面图片

GPT-4满分通过MIT本科数学考试 这套提示词火了

GPT-4满分通过MIT本科数学考试这套提示词火了要知道,测出这个结果的不是别人,正是来自MIT和波士顿大学、康奈尔大学的研究团队。而且强如上一代王者GPT-3.5,在同样的测试中,只成功搞定了三分之一。论文一出,无数目光迅速被吸引过来。GPT-4这样看似开挂的行为,自然引发了不少网友的感慨。比GPT-3.5强好多,好耶!咱就是说,有没有可能以后不需要比GPT-4更强的模型,来解决学术问题了?还有网友展现了自己网上冲浪的“前沿性”,玩了个这两天YannLeCun吐槽“GPT-4智商不如狗”的梗:GPT-4开挂MIT考试具体来说,GPT-4这次是参与了这样一场测试:研究团队策划了一个数据集,其中包含4550个问题和解决方案。这4550个问题和解决方案,来自MIT数学系和EECS的学生获得本科学位,需要学习的课程问题集、期中考试和期末考试。包括:6-1:电气科学与工程;6-2:电气工程与计算机科学;6-3:计算机科学与工程;6-4:人工智能与决策;18-1:普通数学;18-2:应用数学;18-3:纯数学;18-C:数学与计算机科学。题目统统出自MIT的数据集,从中随机生成228个问题,不涉及图像和已有解决方案的问题。题目的难度等级由易到难依次为:练习、习题、期中考试、期末考试、实验和专题。按答案类型排序,题目的难度由易到难依次为:编程、开放、选择题、数值、表达式和图像。这一次,参与考试的不只有GPT-4和GPT-3.5,还有StableVicuna-13B、LLaMA-30B和LLaMA-60B。选择让这4个大模型作为考试参赛选手,原因是它们是“最先进的大语言模型”。通过表格里的数据可以看到,得分最高的是经过调优后的GPT-4,得分率100%;表现最一般的是LLaMA-30B,只拿下了30%的分数。值得关注的是,原始版本的GPT-4开箱即用,完全不经过调优,在本次MIT考试中也拿到了90%的分数。调优流程,包括Few-Shot+CoT+Self-critique+Experts。从最终考试成绩的表格数据可以看到,从左到右每增加一个环节,调优后的GPT-4得分都会更上一层楼。此外,研究团队还在提示框里进行了工程优化,具体的“咒语”如下:等等,评分人是GPT-4自己?看到这样的结果,不少网友心生感慨,LLM在数学考试上的进步,未免有些神速了哈。2年前,AI还在苦苦挣扎小学数学问题。类似“小明种了5棵柠檬树,每年从每棵树上得到6个柠檬,10年间他总共得到多少柠檬”这种。去年年初,MIT+哈佛+哥伦比亚大学+滑铁卢大学的联合研究表示,把数学问题转换成等价的编程问题,就可以让GPT-3的同门师兄弟——OpenAI的Codex掌握高数,达到MIT本科水平。学了6门MIT本科基础数学课里随机抽取的例题,6门课程每门随机出25道题,再加上一个ACT水平(美国高考)的数据集里的60道题。总计210道题,AI全部答对。不过有人提出,AI达到的“MIT本科水平”,实际是Codex在做语言题而非数学题——因为当时的评测中,Codex负责读写,并不包括求解。所以,这一回GPT-4表现奇佳,怎一个妙字了得~好了,知道你很着急夸它,但你先别着急夸它,因为很快有人发现了一些“诡异”。主要有2大槽点。第一个值得质疑一番的,就是OpenAI的训练数据集没有完全公布。这也就意味着,无法证明数据集中的4550个问题和解决方案,在GPT-4的训练集中不存在。换句话说,如果GPT-4在预训练阶段已经接触到了这次的考题们,那最终拿下完美得分,就没什么好惊喜的了。也难怪乎有网友毫不客气地yygq,认定GPT-4拿到这样的结果,一定是数据集已经包含在训练数据里了。第二个槽点,就是GPT-4最后100%的得分率,似乎哪里不对劲???定睛一看,在论文的第2.6节有一句很关键的点:团队在数据集上微调开源大模型,“给定问题Q、基本事实解S和LLM答案A,我们使用GPT-4自动对模型响应进行评分”。实际操作上,就是每个大模型生成这次考试的答案,然后派出GPT-4打分,分值在0-5之间。所以给GPT-4打出满分的,实际上是GPT-4自己。啊这……很难说没有王婆卖瓜自卖自夸的嫌疑。此外,关于要给GPT-4提供“好的提示”,才能让它达到满分成绩,也让许多人抱有微词。到底什么算“好的提示”呢?似乎无法定义。甚至有人喊着,应该把这些题丢给MIT数学和EECS的学生去做,并不断给他们“好的提示”,这样人类学生也能拿下100%的吧……OneMoreThing一个小小的彩蛋:整个测试中,基本上可以在笔记本电脑上部署运行的StableVicuna-13B,也有48%的得分率。这个成绩,不仅比模型更大的LLaMA-65B高出近10个百分点,就连MITfine-tuing过后的LLaMA-30B,还要高。让人不得不陷入一些关于模型规模与能力相关性的思考参考链接:[1]https://arxiv.org/abs/2306.08997[2]https://twitter.com/johnjnay/status/1669687958960586753[3]https://twitter.com/arankomatsuzaki/status/1669528841629601792[4]https://twitter.com/emollick/status/1669742473097228292...PC版:https://www.cnbeta.com.tw/articles/soft/1365793.htm手机版:https://m.cnbeta.com.tw/view/1365793.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人