:用于快速添加和编辑图像标签和描述的跨平台桌面应用,旨在为生成器式 AI 模型(如 Stable Diffusion)创建图像数

:用于快速添加和编辑图像标签和描述的跨平台桌面应用,旨在为生成器式 AI 模型(如 Stable Diffusion)创建图像数据集,支持自动生成描述。 特征 键盘友好的界面,可快速标记 根据您自己最常用的标签自动完成标签 集成稳定扩散令牌计数器 使用 CogVLM、LLaVA、WD Tagger 等模型自动生成标题和标签 可选择加载 4 位自动字幕模型以减少 VRAM 使用 批量标签操作,对标签进行重命名、删除、排序等操作 高级图像列表过滤

相关推荐

封面图片

Stable Diffusion发布了新的图像模型SDXL 0.9

Stable Diffusion发布了新的图像模型SDXL 0.9 这是文本到图像模型的一项突破性发展,相比前身在图像构成和细节上有显著的改进。SDXL 0.9的应用超越了传统的边界,可以用于电影、电视、音乐和教学视频,以及设计和工业用途。 SDXL 0.9可以在消费级GPU上运行,只需要Windows 10或11,或Linux操作系统,16GB RAM,以及至少有8GB VRAM的Nvidia GeForce RTX 20显卡(或更高标准)。Linux用户也可以使用配备16GB VRAM的兼容AMD卡。 SDXL 0.9的功能不仅限于基本的文本提示,还提供了如图像到图像提示(输入一张图像以获取该图像的变体)、修复(重构图像的缺失部分)和扩展(创建现有图像的无缝扩展)等功能。#SD 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0 今天,Stability AI 宣布推出 Stable Diffusion XL 1.0,这是该公司迄今为止描述为“最先进”的文本到图像模型。Stable Diffusion XL 1.0 可在上以开源形式使用,并提供给 Stability 的和消费者应用程序和 。Stability 声称,与其前代产品相比,Stable Diffusion XL 1.0 提供了“更生动”和“更准确”的颜色,更好的对比度、阴影和照明效果。 在接受采访时,Stability AI 的应用机器学习负责人Joe Penna 指出,Stable Diffusion XL 1.0 包含 35亿个参数,可以“在几秒钟内”生成多种长宽比的 100万像素分辨率的完整图像。“参数”是模型从训练数据中学习到的部分,基本上定义了模型在解决问题上的技能水平。 上一代稳定扩散模型稳定扩散 XL 0.9 也可以生成更高分辨率的图像,但需要更多的计算能力。 、

封面图片

Meta 的 AI 图像生成器用了 11 亿 Instagram 和 Facebook 照片训练

Meta 的 AI 图像生成器用了 11 亿 Instagram 和 Facebook 照片训练 Meta 发布了一个免费的文本图像生成网站 (需要登陆)。它的图像生成器是基于其 Emu 图像合成模型,用了 11 亿 Instagram 和 Facebook 上公开可见的照片训练。你的 Facebook 或 Instagram 的公开照片很可能被用于训练 Emu 了,不想被训练的话可以将自己的照片设为私有。Instagram 上每天上传的照片数以亿计,Meta 只使用了很小一部分去训练其模型。在 Imagine with Meta AI 上输入提示词,它会返回四张 1280×1280 像素的图像,可以以 JPEG 格式下载保存,图像左下方会打上水印 Imagined with AI。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

Meta 推出独立的人工智能图像生成器,目前免费但只支持英文提示词

Meta 推出独立的人工智能图像生成器,目前免费但只支持英文提示词 Meta 在网页上推出了一种新的、独立的生成式人工智能体验「」,它允许用户通过用自然语言描述图像来创建图像。 新的人工图像生成器由 Meta 现有的 Emu 图像生成模型提供支持,可根据文本提示创建高分辨率图像。 它目前对美国的英语用户免费使用,并且每个提示都会生成四个图像。

封面图片

使用脑电波活动作为输入运行 Stable Diffusion 进行高分辨率图像重建

使用脑电波活动作为输入运行 Stable Diffusion 进行高分辨率图像重建 摘要 从人脑活动重建视觉体验为研究大脑如何表示世界、解释计算机视觉模型与我们的视觉系统之间关系提供了一种独特的方式。虽然近年来深度生成模型已被应用于此任务,但实现高语义保真度的真实图像重建仍是一个具有挑战性的问题。在本文中,我们提出了一种基于扩散模型(Diffusion Model,DM)的新方法,通过功能性磁共振成像(fMRI)获得的人脑活动来重建图像。我们依赖于一种名为 Stable Diffusion 的潜在空间扩散模型(Latent Diffusion Model,LDM)。该模型降低了扩散模型的计算成本,同时保持了其高生成性能。我们还通过研究LDM的不同组成部分(如潜在向量Z、条件输入C和去噪U-Net的不同元素)与不同的脑功能联系起来,表征了LDM的内部机制。我们展示了我们的方法可以简单地重建高保真度的高分辨率图像,无需进行任何额外的训练和微调复杂的深度学习模型。我们还从神经科学的角度提供了对不同LDM组件的定量解释。总体而言,我们的研究提出了一种有前景的从人脑活动恢复图像的方法,并为理解扩散模型提供了一个新的框架。 (摘要由 ChatGPT 翻译)

封面图片

Stable Diffusion 是人工智能公司 Stability AI 背后的文本到图像模型,于 2022 年 8 月发布。

Stable Diffusion 是人工智能公司 Stability AI 背后的文本到图像模型,于 2022 年 8 月发布。Stability AI 首席执行官 Emad Mostaque 表示,Stable Diffusion 在所有渠道拥有超过 1000 万用户。如果我们推断一下《Midjourney》的数据和趋势,就会发现,通过官方的 Stable Diffusion 渠道,用户每天会生成 200 万张图片,而在发布一年多的时间里,这个数字已经达到了 6.9 亿张图像。 如果加上其他流行模型(例如 Runway,我们单独统计)和 Stability AI 的官方渠道,使用 Stable Diffusion 创建的图像数量将增加到 125.9 亿张,占所有使用文本转文字创建的 AI 图像的 80%。 Adobe Firefly Adobe Adobe 推出了 Firefly,于 2023 年 3 月发布。上线 6 周内,用户创建了超过 1 亿资产。随着 Firefly 于 2023 年 5 月集成到 Adobe Photoshop,考虑到全球使用 Photoshop 的人数,图像数量呈指数级增长。 Adobe 在最新的新闻稿中分享了其 AI 图像统计数据:推出仅 3 个月,使用 Adobe Firefly 创建的图像数量就已达到 10 亿张。 使用 Stable Diffusion、Adobe Firefly、Midjourney 和 DALLE-2 总共生成了超过 150 亿张人工智能创建的图像。这比 Shutterstock 的整个照片、矢量图和插图库还要多,而且是 Instagram 上传的图片数量的三分之一。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人