最近我做了一个打标助手GPTs,感觉特别实用,推荐给大家!

最近我做了一个打标助手GPTs,感觉特别实用,推荐给大家!主要功能:上传任意一张或多张图片,打标助手就会自动识别图像内容,并返回给你适用于AI模型训练标注的图像描述。使用链接:https://chat.openai.com/g/g-tOuLKW5VD-label-assistant支持一次性上传10张图片进行标注(图一)识别效果上,精准度明显优于Clip和Blip2这两个打标常用的AI模型(图二)风格兼容上,几乎没有限制(图三)还可以结合Dalle3,根据返回的描述生成同类图(图四)What’sNext!因为ChatGPT中一次最多只能上传10张图片,且返回的标注需要手动复制,效率有限。于是@晨然的好奇屋和我决定把这个GPTs工具化,做一个真正可以批量打标,并批量下载标注的平台。这两天就会发布,大家期待一下吧!(´▽`)ノ

相关推荐

封面图片

打标助手平台做好啦!

打标助手平台做好啦!基于GPT4-Vision做的免费批量打标工具,使用链接:https://label-assistant.vercel.app/支持一次性给100张图像打标、批量下载标注文件、批量增加/删除前缀、手动改标注。本质是个转发工具,平台不会且无法访问/储存你的任何信息及数据。平台免费,但需添加自己的OpenAIAPIKey,使用方式见视频。开发者:@晨然的好奇屋是我最近超高频使用的工具了,好喜欢这种轻量但能解决重要需求的产品!~欢迎大家使用反馈报bug提需求(XInvalidmedia:

封面图片

OpenAI 官方 16 个 GPTs 提示词分析。

OpenAI官方16个GPTs提示词分析。花了点时间读完了官方默认的16个GPTs,从写作助手、数学老师到菜谱助手等等,这些GPTs充分地展现了GPT-4/4V的能力。从提示词写法上来说,可以归类为三种。1.根据我的推测,是用GPTBuilder创建的。提示词比较简单。主要就是指定名字、主要用途、注意事项、语言风格。没有详细的例子或者规则。你如果读过GPTBuilder自动生成的Instruction,只要一读这个提示词,就能感觉出来。参考图一。这其中包括以下4个GPTs:-MathMentor-TheNegotiator-SousChef-CreativeWritingCoach2.手动写的,但是用的非常简单通用的结构。手动指定目标(goal)和语言风格(style),最多增加一些具体的样例。参考图二。这其中包括以下2个GPTs:-genz4meme-ChatGPTClassic(啥也没定义)3.看上去很复杂,但实际上相似度80%。可以先瞅一眼图三。看上去很唬人。但实际上我们只需要关注#号开头的部分。从图三可以看到,里面包含了几个#号开头的段落:#Tools##python##browser##myfiles_browser我们知道,GPT-4/4V有最基本的4个能力,分别是:-DataAnalysis可以生成并执行代码(python)-浏览器可以查询互联网(browser)-DALL.E图片生成和处理(dalle)-上传文件量化作为知识库(myfiles_browser)。##开头的提示词段落,就是在分别定义这个GPT里用到这些功能的时候的流程和注意事项。上面已经包含了3个,剩下一个就是##dalle,在图四可以看到。忽略##dalle段落,你会发现,图四中,##myfiles_browser和##python跟图三是一样的。而剩下的其他GPTs几乎都是这样的结构,只是复制过去的功能不一样,有些只需要##browser,有些需要的功能多一点。所以我说,它们相似度80%.10个GPTs用到的功能如下:

封面图片

一个可帮助国内用户写作的托盘助手:BlogHelper

一个可帮助国内用户写作的托盘助手:特性:一键发布本地文章到知乎、简书、博客园、CSDN、掘金、SegmentFault(思否)、开源中国等平台。支持的图床有:新浪、SM.MS、Github、Imgur、七牛云、腾讯云、阿里云、又拍云。支持快捷键上传剪贴板里第一张图片,更新剪贴板内容为图片链接。一键将本地文章中引用的本地图片上传到图床并替换为引用链接。对剪贴板拷贝的代码进行对齐操作,解决粘贴代码左侧留白的苦恼。一键将HTML文件转换为Markdown文本文件(支持批量)。对本地文章中的图片进行各种DIY操作,一键网络图片下载,一键本地文章整理。丰富的工具集,包括一键打开微信文章排版,一键打开图片素材网站等。

封面图片

MIdjourney V5模型即将发布,现在付费用户可以参与测试对V5生成的一部分图像做出评价(付费打标?)。

MIdjourneyV5模型即将发布,现在付费用户可以参与测试对V5生成的一部分图像做出评价(付费打标?)。虽然官方强调这里的图片不代表V5模型的水平,但也可以看出一些东西出来。我这里列了一写自己在测试过程中看到的比较好的图片。大家也可以把你觉得还OK的贴在评论里。如果你是付费用户可以点这里参与测试:https://www.midjourney.com/rate/pairs/v5-one-staging/

封面图片

Google将默认为搜索结果中的露骨图像打码

Google将默认为搜索结果中的露骨图像打码该设置将很快成为尚未开启SafeSearch过滤器的用户的新默认设置。因此,如果明确的露骨图像出现在搜索结果中,Google将对其进行模糊处理,这些结果包括色情、暴力和血腥等性方面的内容。Google指出,用户可以选择在任何时候调整这一设置。在这次扩展之前,对于18岁以下的登录用户,该过滤器已经默认开启。一旦该设置成为默认值,Google就会通知你,它已经开启了SafeSearch的模糊功能。如果你遇到一张露骨的图片,你可以通过点击"查看图片"按钮来选择查看它。或者,你可以选择"管理设置"按钮来调整过滤器或完全关闭它。例如,可以选择"过滤"选项,这有助于过滤明确的图像、文本和链接。或者可以选择"关闭"选项,这意味着你将看到你查询的所有相关结果,即使它们是露骨的。值得注意的是,SafeSearch只对Google的搜索结果起作用,它不会阻止你在其他搜索引擎或你直接进入的网站上发现的露骨内容。Google还指出,虽然SafeSearch不是100%准确,但它有助于在Google搜索结果中过滤掉你在图片、视频和网站上的所有查询的露骨内容。2021年8月,当美国国会就Google和其他科技公司的服务可能对儿童产生的负面影响向其施压时,Google最初默认为18岁以下的登录用户打开了SafeSearch。通过让所有用户默认开启SafeSearch过滤功能,Google将更容易确保儿童和青少年不会遇到露骨的图像,因为不是每个人都在登录账户后使用Google,这意味着即使他们未满18岁,也可能没有为他们启用过滤器。这一扩展也让那些在其他情况下可能没有意识到这一功能,但可能发现它很有用的人接触到这一功能。当然,如果你不想启用该过滤器,你可以在设置中关闭它。去年,Google表示,它开始使用人工智能来提高其能力,以便在人们没有特别寻求的情况下从搜索结果中删除不需要的明确或暗示性内容。即使Google的SafeSearch过滤技术被关闭,Google仍然试图从那些搜索中减少不需要的露骨内容,而寻找露骨内容并不是目标。但是,被称为BERT的人工智能技术现在可以帮助Google更好地了解人们是否在寻找露骨的内容。...PC版:https://www.cnbeta.com.tw/articles/soft/1343101.htm手机版:https://m.cnbeta.com.tw/view/1343101.htm

封面图片

试了这个被刷屏的视频AI 我感觉自己被诈骗了……

试了这个被刷屏的视频AI我感觉自己被诈骗了……甚至其中一个创始人爸爸的上市公司,还在Pika的爆火下涨停了,真就父凭女贵……世超也闻着味儿,直接去了他们的官网,想一探究竟。结果,他们的宣传视频,上来就把我给唬住了。它除了丢一张图片进去就能生成一段视频之外。还能靠一两句提示词就生成一个视频。比如让它生成一个在太空里讲话的3D动漫的老马。这脸型、这神态,估计是连马斯克本人看到都会直呼牛X的程度。丢段视频进去,Pika也能根据提示生成新的内容。像演示里,丢个骑马小伙的剪影视频进去,根据提示词就能生成对应的风格。并且把现实风、3D卡通风、像素风各种风格拼接在一起后,之间的切换无比丝滑,整个过程里骑马的动作丝毫没有变形。甚至这个Pika已经能直接对视频进行局部修改了,指哪打哪……只要鼠标轻轻拖拽一下,框出视频里要修改的元素,分分钟就能给小姐姐来个换装,顺便给黑猩猩带个墨镜。有一说一,就上面那些演示的功能和效果,几乎可以把一大部分视频生成AI吊起来打了。但,上面这些官方给出的演示视频,大家dddd。实际和演示的有哪些差距?老样子,世超先替你们测评一波。现在正式网页版的还得排队,我们只能先在Discord社区里体验一下“阉割版”的,只有文字生成视频和图片生成视频两大功能。打开Discord里面的Pika社区后,整个界面的主体就是入门介绍了,左边有个“CREATIONS”的下拉入口,里面的10个生成入口,随便进一个都可以体验。用的时候也很简单,打个“/”,会自动弹出后缀,Pika的主要两大功能就是/animate(图片生成视频)和/create(文字生成视频)。选择模式之后,就跟用ChatGPT一样,打字或者输入图片讲需求就行了。虽然这个Pika不像Runway有专门的参数调节栏,但想要调节参数它也是可以的,直接加后缀就行。并且这个Pika能调节的参数也不少,这次新发布的功能就有个调节镜头的选项。像什么放大画面、缩小画面、上下左右移动、各种方向旋转……都能调,就跟当导演一样。其他的参数还有帧数、画面变化的幅度、视频比例等等,也都是在提示词后面加个“-”说要求。了解完参数,就能直接开玩了,世超先试了试图片生成视频的功能,丢给了它一张正在下雪的图,大概等个一分钟左右就好了。效果看起来也还不错,不过Pika这个体验版一次最多就只有3秒,有点意犹未尽的感觉。接下来再丢个整个上次用Runway试过的经典梗图,虽说Pika的画面是糊了点,但就动作连贯性来说,它还是略胜一筹了,起码没当街表演换装,而且走路的节奏也很正常……Pika(上)和Runway(下)效果对比不过也有翻车的时候,还是上次试过的一个案例,让下面这位长发美女的头发飘逸起来,Runway效果还算不错。但Pika这边就不太对劲了,她头发不飘起来我都还不知道里面竟然还能藏个人头,好好的一张图立马变鬼片……Pika(上)和Runway(下)效果对比世超还在提示词后面加了个“-camerarotateclockwise”,试了试Pika这次新出的“镜头控制”参数,让画面顺时针旋转起来。乍一看还算不错,但遗憾的是这些蝴蝶没在镜头旋转的时候扑腾两下,而且方向还转错了。试完了图片生成视频的功能,咱们又试了下文字生成视频。世超发现,对于一些小幅度动作或者简单动作的要求,Pika生成的效果还不错。比如让Pika生成个1:1画面的猫猫睡觉视频,算是中规中矩。但只要涉及到要四肢协调运动,或者手部细节时,那可是槽点满满了。让一个3D版的马里奥跑个步,这手脚频率不同步就算了,但腿怎么还换来换去,而且一个手四指,另一个手五指……还有让迈克·杰克逊跳个舞,前一秒还觉得这次有戏能成,结果后一秒突然长了两个小胳膊。有趣的是,我还去扒了扒官方演示里的提示词去试,结果只能说太抽象了。马斯克那个完全没有演示视频里的效果,大家直接看效果吧,很难评……还有机器人走路的提示词,演示图是这样的:而咱们试出来却是这个样子,虽说效果还行,但完全没演示中那味。试了太多次没啥比较好的案例,世超又去翻了翻社区里大家生成的视频,还跑到了官方给出的优秀案例库看了看,结果发现,没啥好效果还真不是我个人的原因。大家用Pika生成效果好的,大部分都是画面部分元素闪烁、或者没啥动作幅度的视频,只要动作幅度大一点,缺点就全都暴露出来了。下面这个还是收在优秀案例库里的,小腿那边看着也都有点奇怪……总的来说,就单在Discord上的体验来看,Pika的效果一般,和上次在Runway的效果差不多,有好有坏。不过,之后正式版Pika的功能还会更多,说不定到时候演示图里的上传视频,修改视频局部的功能也都能用上了。现在回过头来看最近几个月,AI生成视频的模型几乎都扎堆出来更新了,像是Runway、StabilityAI还有Meta等等,都发了新的生成视频的模型。虽然目前市面上的这些AI,效果看起来还达不到标准视频的水准,但只要稍微了解下AI生成视频的发展,就会发现,最近的这波更新进步已经是非常大了。像前几个月用AI生成的视频时,连带着背景都还在不断变化,而现在,背景已经稳定多了。这还只是短短几个月的成果,或许再过几个月,这波模型再来一次大更新,到时候的效果又会是另一番景象。...PC版:https://www.cnbeta.com.tw/articles/soft/1401165.htm手机版:https://m.cnbeta.com.tw/view/1401165.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人