ComfyUI ProPost一个非常有意思的节点,可以为你生成的图片添加各种丰富的效果,比如胶片颗粒、暗角、模糊等等,帮助生成

ComfyUI ProPost一个非常有意思的节点,可以为你生成的图片添加各种丰富的效果,比如胶片颗粒、暗角、模糊等等,帮助生成图片的质感获得极大的提升。 你还可以对这些效果组合使用,比如下面这张图。 支持的效果有: 胶片颗粒:它可以创建不同的噪声类型和图案,并且可用于创建各种胶片颗粒外观。 晕影效果:使屏幕边缘变暗。 径向模糊:让你模糊图像的边缘。 深度图模糊:允许根据深度图模糊图像。可以将其与现有的深度图节点结合使用。 应用 LUT 滤镜:允许将 3D LUT 应用到图像。目前它仅支持 CUBE 格式的 3D LUT。 项目地址:

相关推荐

封面图片

一个非常有意思的项目可以用 SD 直接生成透明的 PNG 图片,也可以直接生成带有透明度分层的图片。

一个非常有意思的项目可以用 SD 直接生成透明的 PNG 图片,也可以直接生成带有透明度分层的图片。 这个想象力很大能带来很多玩法。也可以使用现有的 SD 社区模型。 项目介绍: LayerDiffusion使得大型已经过预训练的潜在扩散模型(latent diffusion model)能够创造透明图像。 这项技术不仅可以生成单独的透明图像,还能生成多层透明图层。它通过一种被称为“潜在透明度”的方法,将透明度(即 alpha 通道)整合到预训练的潜在扩散模型的潜在结构中。 这样做的好处是,它通过以潜在偏移的形式加入透明度,几乎不改变模型原有的潜在分布,从而保持了模型的高质量输出能力。基于这种方法,任何一个潜在扩散模型都可以通过对潜在空间的微调,转化为透明图像生成器。 我们训练这个模型时,使用了一种涉及人机互动的方法,收集了一百万组透明图像层数据。 我们的研究显示,这种潜在透明技术不仅可以应用于不同的开源图像生成器,还可以适配多种条件控制系统,实现例如基于前景/背景条件的层生成、层的联合生成、对层内容进行结构控制等多种应用。 一项用户研究发现,大多数情况下(97%),相比于之前的临时解决方案(如先生成图像再进行抠图处理),用户更喜欢我们直接生成的透明内容。用户还表示,我们生成的透明图像在质量上可媲美真实的商业级透明素材,例如 Adobe Stock 提供的素材。 论文地址:

封面图片

实现更强效果 Yuzu模拟器添加帧生成技术支持

实现更强效果 Yuzu模拟器添加帧生成技术支持 团队在官方Yuzu博客上写道:“截至撰稿时,对多进程的支持尚未整合,但针对GPU、输入模块和其他模块的修复已经准备并发布,允许逐步添加全部支持。”上个月,通用帧生成器LFSG 1.0发布,允许玩家将帧生成添加到许多游戏中。最新版本的Yuzu支持此程序,虽然它的使用提升了感知帧率,但图形画面瑕疵相当普遍,尤其在大屏幕上。然而,根据Yuzu开发者的说法,对于使用AMD显卡的用户来说,现在有一种获得更流畅游戏体验的更好方法AMD Fluid Motion Frames,该功能由AMD团队上个月正式发布。通过简单的文件编辑,用户可以支持Vulkan、OpenGL和Direct3D 9/10,以及Direct3D 11和12。图像质量比使用无损缩放更好,并且在60帧/秒的基础帧率下,性能提升非常显著。例如,在《塞尔达传说:王国之泪》中,使用AMD Fluid Motion Frames可以让搭载Radeon 5600X和NVIDIA RTX3060Ti的组合实现170到180fps之间的性能。Yuzu团队解释道:“游戏可以使用NVIDIA或Intel GPU渲染,同时使用AFMF生成帧,但由于完成帧通过PCIe传输会产生额外延迟,因此结果比直接使用AMD显卡稍差。使用AFMF工作只需要将显示器连接到兼容的AMD GPU,然后任何其他GPU都可以进行实际渲染。” ... PC版: 手机版:

封面图片

NodeVideo MOD APK 6.1.1,终身解锁

NodeVideo MOD APK 6.1.1,终身解锁 Node Video 是最强大的手机视频编辑应用程序之一。凭借许多革命性的功能,您可以创造出您从未想象过的惊人效果!•极其强大和灵活。无限的图层和组。 精确的视频编辑和丰富的可能性。 超快速渲染。 各种编辑工具可用:时间轴、关键帧动画、曲线编辑器、遮罩、颜色校正等。 •革命性的音频反应器。 将您的音频可视化到任何东西。每个 effect&property 的每个参数都可以由音频频谱控制。•AI 驱动的功能,实时自动分离人背景!更多功能即将推出,•3D渲染器.将您的视频和图像映射到3D模型.•专业效果和预设.定期获取新的效果和预设,仅适用于专业版订阅者•当前包含的效果/属性-混合模式-运动模糊-亮度淡入淡出-镜头光晕-分形噪声-时间重映射-基本颜色校正(曝光,对比度,白平衡等)-浮雕-4 颜色渐变-移位通道-反转-相机镜头模糊-高斯模糊-交叉模糊-定向模糊-径向模糊-发光-运动平铺-马赛克-查找边缘-晕影-位移地图-镜子-镜头畸变-极坐标-剪贴蒙版-人体遮罩-形状蒙版-RGB 曲线-HSL 曲线-色轮-素描-老电影-漫画-卡通··· 免费资源频道:@ZYPD123 全网搜索群:@soso_Group

封面图片

#晚安提示词 看 Midjoureny 的探索页面的时候发现了一个很有意思的效果。

#晚安提示词 看 Midjoureny 的探索页面的时候发现了一个很有意思的效果。 很像修真小说里面的画面,一个人虚空走在很多写着经书的布料上面。优化了一下提示词,去掉了原来矮小的说明和一些词。加了权重。 需要注意的是,这个提示词生成的人物总会有问题,如果氛围好人物有问题的话可以用局部重绘试一试。为了让画面更丰富我还加了一个c 10。 提示词: Drone View. An ancient Chinese cultivator walks among many undulating scrolls of calligraphy and paintings. The scrolls are covered with calligraphic characters. He is holding a long sword and wearing a flowing silk Chinese dress with long hair flowing in the wind ::3 3D rendering of a Chinese ink painting scene. Pale gold and emerald green. The scene looks grand in scale from above. Clear light and shadow, subtle starlight floating in the sky, creating a dreamy surreal atmosphere. Ultra-high resolution, the overall composition is very artistic and spatial. Brushstrokes, soft flow, history painting, 3D rendering ::1 chaos 10 ar 16:9 style raw stylize 250

封面图片

就在刚刚 Adobe 发布了自己的生成式设计工具 beta 版本的内测链接,同时还将在北京时间凌晨 4 点召开发布会,看了下官方

就在刚刚 Adobe 发布了自己的生成式设计工具 beta 版本的内测链接,同时还将在北京时间凌晨 4 点召开发布会,看了下官方公布的能力,算是对目前图片编辑相关生成能力的集大成了,我按照图片的生成方式、生成格式、细节优化、特殊效果这四个大类将官网上露出了能力进行了分类,具体如下 【类型一】图片生成方式 - 文字转图片:这个无需多言; - 对话式编辑:通过输入文本描述,实现图片的连续编辑; - 条件式图片生成( color- conditioned image generation ):感觉就是从图片智能取色,再结合文本生成图片; - 图片合成:拖拽多张图,一键合成为多个图片方案; - 个性化结果:根据你上传的图片或风格生成图像(风格训练)。 【类似二】可编辑格式生成功能 - 文本生成矢量图(Text to vector):通过文本生成可修改的矢量图,可以直接下载到 photoshop 中编辑; - Text to template(文本到模版):从详细的文本描述生成可编辑的模板; - Text to brush:根据详细的文本描述为 Photoshop 和 Fresco 生成画笔; - Text to pattern:从详细的文本描述生成无缝平铺模式(这个稍稍有点没理解)。 【类型三】局部细节优化类功能 - 修复(Inpainting):使用画笔添加、删除或替换图像中的选定对象,通过指定文本提示为图片生成为新填充; - 扩展图像长宽比(extend image):单击一键在原图基础上扩充宽高方向上的内容; - 图片尺寸缩放(upscaling):细节补充 智能肖像:一键修改面部器官的参数; - 为矢量图层重新上色:从详细的文字描述中创建作品的独特变体(简单理解就是为一个设计稿生成多个方案),这个目前官网没放链接,但是如果之前用过或者 runway 应该知道这个功能。 【类型四】特殊效果类功能 - 文字效果:通过文本提示将特殊样式或纹理图案添加到文字上、实现艺术字和特殊效果; - 3D to image:为 3D 图形生成纹理/填充; - Sketch to image:从素描转为全彩色图。

封面图片

这个利用 3D 制作白膜然后 SD 重绘生成视频的项目,最后的效果非常好,同时作者给了相对详细的操作步骤。

这个利用 3D 制作白膜然后 SD 重绘生成视频的项目,最后的效果非常好,同时作者给了相对详细的操作步骤。 下面是他的工作流: 基础渲染: 首先在Cinema 4D软件中创建并动画化了一个3D虚拟角色,这个角色的体型和面部结构都是依照客户的样貌设计的。 我还细致地给这个3D角色做了纹理处理,以便使用EbSynth软件更好地追踪角色身体的不同部位。这里还涉及到了我为角色设计的3D服装,我将它们作为一个独立的渲染通道,在后期合成阶段加入。 AI输出: 接着,我利用了一个AI模型(SD 1.5版本,当然是得到客户许可后进行的)来处理客户的相貌特征,并使用了一个名为Warp Fusion的技术来生成你现在看到的图像序列。使用Warp Fusion的过程非常耗时,主要是因为它需要不断地尝试和调整。 去闪烁: 这是最复杂的一个步骤。我使用EbSynth进行初步处理,然后通过Davinci Resolve和Topaz Video AI软件来平滑化Warp Fusion的输出结果,同时尽量保持细节。 此外,我还使用了Google Research的帧插值工具来优化角色脸部的某些动作(这些动作在EbSynth中无法得到很好的处理),然后在After Effects软件中把这些处理后的画面加入到视频中。 3D服装: 这一步主要是把之前“基础渲染”阶段制作的服装渲染通道加入进来,并尽可能地进行蒙版处理和合成。由于去闪烁过程对角色动作的插值有所改变,所以服装渲染并不完全同步于角色,但效果依然可以接受。 后期处理: 这个步骤主要是在After Effects中进行常规的视频合成工作。 来源:Reddit 用户Jushooter

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人