ComfyUI ProPost一个非常有意思的节点,可以为你生成的图片添加各种丰富的效果,比如胶片颗粒、暗角、模糊等等,帮助生成

ComfyUI ProPost一个非常有意思的节点,可以为你生成的图片添加各种丰富的效果,比如胶片颗粒、暗角、模糊等等,帮助生成图片的质感获得极大的提升。 你还可以对这些效果组合使用,比如下面这张图。 支持的效果有: 胶片颗粒:它可以创建不同的噪声类型和图案,并且可用于创建各种胶片颗粒外观。 晕影效果:使屏幕边缘变暗。 径向模糊:让你模糊图像的边缘。 深度图模糊:允许根据深度图模糊图像。可以将其与现有的深度图节点结合使用。 应用 LUT 滤镜:允许将 3D LUT 应用到图像。目前它仅支持 CUBE 格式的 3D LUT。 项目地址:

相关推荐

封面图片

一个非常有意思的项目可以用 SD 直接生成透明的 PNG 图片,也可以直接生成带有透明度分层的图片。

一个非常有意思的项目可以用 SD 直接生成透明的 PNG 图片,也可以直接生成带有透明度分层的图片。 这个想象力很大能带来很多玩法。也可以使用现有的 SD 社区模型。 项目介绍: LayerDiffusion使得大型已经过预训练的潜在扩散模型(latent diffusion model)能够创造透明图像。 这项技术不仅可以生成单独的透明图像,还能生成多层透明图层。它通过一种被称为“潜在透明度”的方法,将透明度(即 alpha 通道)整合到预训练的潜在扩散模型的潜在结构中。 这样做的好处是,它通过以潜在偏移的形式加入透明度,几乎不改变模型原有的潜在分布,从而保持了模型的高质量输出能力。基于这种方法,任何一个潜在扩散模型都可以通过对潜在空间的微调,转化为透明图像生成器。 我们训练这个模型时,使用了一种涉及人机互动的方法,收集了一百万组透明图像层数据。 我们的研究显示,这种潜在透明技术不仅可以应用于不同的开源图像生成器,还可以适配多种条件控制系统,实现例如基于前景/背景条件的层生成、层的联合生成、对层内容进行结构控制等多种应用。 一项用户研究发现,大多数情况下(97%),相比于之前的临时解决方案(如先生成图像再进行抠图处理),用户更喜欢我们直接生成的透明内容。用户还表示,我们生成的透明图像在质量上可媲美真实的商业级透明素材,例如 Adobe Stock 提供的素材。 论文地址:

封面图片

实现更强效果 Yuzu模拟器添加帧生成技术支持

实现更强效果 Yuzu模拟器添加帧生成技术支持 团队在官方Yuzu博客上写道:“截至撰稿时,对多进程的支持尚未整合,但针对GPU、输入模块和其他模块的修复已经准备并发布,允许逐步添加全部支持。”上个月,通用帧生成器LFSG 1.0发布,允许玩家将帧生成添加到许多游戏中。最新版本的Yuzu支持此程序,虽然它的使用提升了感知帧率,但图形画面瑕疵相当普遍,尤其在大屏幕上。然而,根据Yuzu开发者的说法,对于使用AMD显卡的用户来说,现在有一种获得更流畅游戏体验的更好方法AMD Fluid Motion Frames,该功能由AMD团队上个月正式发布。通过简单的文件编辑,用户可以支持Vulkan、OpenGL和Direct3D 9/10,以及Direct3D 11和12。图像质量比使用无损缩放更好,并且在60帧/秒的基础帧率下,性能提升非常显著。例如,在《塞尔达传说:王国之泪》中,使用AMD Fluid Motion Frames可以让搭载Radeon 5600X和NVIDIA RTX3060Ti的组合实现170到180fps之间的性能。Yuzu团队解释道:“游戏可以使用NVIDIA或Intel GPU渲染,同时使用AFMF生成帧,但由于完成帧通过PCIe传输会产生额外延迟,因此结果比直接使用AMD显卡稍差。使用AFMF工作只需要将显示器连接到兼容的AMD GPU,然后任何其他GPU都可以进行实际渲染。” ... PC版: 手机版:

封面图片

NodeVideo MOD APK 6.1.1,终身解锁

NodeVideo MOD APK 6.1.1,终身解锁 Node Video 是最强大的手机视频编辑应用程序之一。凭借许多革命性的功能,您可以创造出您从未想象过的惊人效果!•极其强大和灵活。无限的图层和组。 精确的视频编辑和丰富的可能性。 超快速渲染。 各种编辑工具可用:时间轴、关键帧动画、曲线编辑器、遮罩、颜色校正等。 •革命性的音频反应器。 将您的音频可视化到任何东西。每个 effect&property 的每个参数都可以由音频频谱控制。•AI 驱动的功能,实时自动分离人背景!更多功能即将推出,•3D渲染器.将您的视频和图像映射到3D模型.•专业效果和预设.定期获取新的效果和预设,仅适用于专业版订阅者•当前包含的效果/属性-混合模式-运动模糊-亮度淡入淡出-镜头光晕-分形噪声-时间重映射-基本颜色校正(曝光,对比度,白平衡等)-浮雕-4 颜色渐变-移位通道-反转-相机镜头模糊-高斯模糊-交叉模糊-定向模糊-径向模糊-发光-运动平铺-马赛克-查找边缘-晕影-位移地图-镜子-镜头畸变-极坐标-剪贴蒙版-人体遮罩-形状蒙版-RGB 曲线-HSL 曲线-色轮-素描-老电影-漫画-卡通··· 免费资源频道:@ZYPD123 全网搜索群:@soso_Group

封面图片

就在刚刚 Adobe 发布了自己的生成式设计工具 beta 版本的内测链接,同时还将在北京时间凌晨 4 点召开发布会,看了下官方

就在刚刚 Adobe 发布了自己的生成式设计工具 beta 版本的内测链接,同时还将在北京时间凌晨 4 点召开发布会,看了下官方公布的能力,算是对目前图片编辑相关生成能力的集大成了,我按照图片的生成方式、生成格式、细节优化、特殊效果这四个大类将官网上露出了能力进行了分类,具体如下 【类型一】图片生成方式 - 文字转图片:这个无需多言; - 对话式编辑:通过输入文本描述,实现图片的连续编辑; - 条件式图片生成( color- conditioned image generation ):感觉就是从图片智能取色,再结合文本生成图片; - 图片合成:拖拽多张图,一键合成为多个图片方案; - 个性化结果:根据你上传的图片或风格生成图像(风格训练)。 【类似二】可编辑格式生成功能 - 文本生成矢量图(Text to vector):通过文本生成可修改的矢量图,可以直接下载到 photoshop 中编辑; - Text to template(文本到模版):从详细的文本描述生成可编辑的模板; - Text to brush:根据详细的文本描述为 Photoshop 和 Fresco 生成画笔; - Text to pattern:从详细的文本描述生成无缝平铺模式(这个稍稍有点没理解)。 【类型三】局部细节优化类功能 - 修复(Inpainting):使用画笔添加、删除或替换图像中的选定对象,通过指定文本提示为图片生成为新填充; - 扩展图像长宽比(extend image):单击一键在原图基础上扩充宽高方向上的内容; - 图片尺寸缩放(upscaling):细节补充 智能肖像:一键修改面部器官的参数; - 为矢量图层重新上色:从详细的文字描述中创建作品的独特变体(简单理解就是为一个设计稿生成多个方案),这个目前官网没放链接,但是如果之前用过或者 runway 应该知道这个功能。 【类型四】特殊效果类功能 - 文字效果:通过文本提示将特殊样式或纹理图案添加到文字上、实现艺术字和特殊效果; - 3D to image:为 3D 图形生成纹理/填充; - Sketch to image:从素描转为全彩色图。

封面图片

终于有普通人可以立刻使用的类 Sora 视频生成工具了!#ai# #sora#

终于有普通人可以立刻使用的类 Sora 视频生成工具了!#ai视频# #sora# 海外产品 viva 发布了首个开放给全部用户使用的 Sora 同架构视频生成模型,而且现阶段免费。 支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。 文生视频单次可以生成一条 5 秒的视频,图生视频是 4 秒视频 我测试了一下应该是目前运动幅度最大的视频生成模型,同时图像分辨率也是现在可以用的视频生成产品中最大的。文生视频的效果比图生视频要更好,同时如果要是用的话建议把运动幅度调到 20 左右比较合适。 viva 优势领域就是可以生成比较好的竖屏视频,目前很多视频模型的演示都是横屏视频,竖屏的表现并不好,但是短视频又是视频内容的大头,所以竖屏视频的生成质量是个很重要的指标。 但是一致性有一部分测试中保持的不是很好,同时没有表现出 Sora 那样强大的物理特性模拟以及 3D 一致性。跟谷歌 刚发布的 Veo 模型对比来看在写实内容上其实以及差不多了。 下面是 viva 的视频演示,15 秒开始有相同的提示词跟谷歌刚发布的 Veo 模型的对比。 这里体验 viva:

封面图片

斯坦福科学家开发出革命性的AR头戴设备 全息技术让普通眼镜展示3D仙境

斯坦福科学家开发出革命性的AR头戴设备 全息技术让普通眼镜展示3D仙境 通过全息技术和人工智能,这些眼镜可以在直接观看真实世界的基础上显示全彩 3D 移动图像。图片来源:安德鲁-布罗德海德电子工程系副教授、快速崛起的空间计算领域专家戈登-韦茨坦(Gordon Wetzstein)说:"我们的头显在外界看来就像一副日常佩戴的眼镜,但佩戴者透过镜片看到的是一个丰富的世界,上面叠加着生动的全彩三维计算图像。"韦茨坦和一个工程师团队在《自然》杂志上发表的一篇新论文中介绍了他们的设备。他们说,虽然这种技术现在只是一个原型,但它可以改变从游戏和娱乐到培训和教育等领域在任何地方,计算机图像都可以增强或告知佩戴者对周围世界的了解。韦茨坦领导的斯坦福计算成像实验室的博士生、该论文的共同第一作者马努-戈帕库马尔(Manu Gopakumar)说:"我们可以想象,外科医生戴着这样的眼镜来规划精细或复杂的手术,或者飞机机械师戴着这样的眼镜来学习如何操作最新的喷气发动机。"这种新方法首次将复杂的工程要求串联起来,迄今为止,这些要求要么导致头戴式头显不美观,要么导致 3D 视觉体验不令人满意,佩戴者会感到视觉疲劳,有时甚至有点恶心。斯坦福大学计算成像实验室博士后研究员、论文共同第一作者 Gun-Yeal Lee 说:"目前还没有其他增强现实系统能与我们的三维图像质量相媲美。"为了取得成功,研究人员结合人工智能增强全息成像和新型纳米光子设备方法,克服了各种技术障碍。第一个障碍是,显示增强现实图像的技术通常需要使用复杂的光学系统。在这些系统中,用户实际上无法通过头显镜头看到真实世界。相反,安装在头显外部的摄像头会实时捕捉世界,并将图像与计算图像相结合。然后将生成的混合图像立体投射到用户眼中。"用户看到的是现实世界的数字化近似图,上面叠加了计算图像。这是一种增强虚拟现实,而不是真正的增强现实。"Wetzstein 解释说,这些系统必然非常笨重,因为它们在佩戴者的眼睛和投影屏幕之间使用放大镜片,要求眼睛、镜片和屏幕之间的距离最小,从而增加了体积。斯坦福计算成像实验室的博士生、论文的共同作者 Suyeon Choi 说:"除了笨重之外,这些局限性还可能导致感知真实度不尽人意,通常还会造成视觉不适。"为了制作出在视觉上更令人满意的三维图像,韦茨坦摒弃了传统的立体方法,转而采用全息技术,这是一种在 20 世纪 40 年代末获得诺贝尔奖的视觉技术。尽管全息技术在三维成像方面大有可为,但由于无法描绘准确的三维深度线索,全息技术的广泛应用一直受到限制,导致视觉体验不佳,有时甚至令人有类似晕车的反应。Wetzstein 团队利用人工智能改进了全息图像中的深度提示。然后,利用纳米光子学和波导显示技术的进步,研究人员能够将计算出的全息图像投射到眼镜镜片上,而无需依赖笨重的附加光学器件。通过在透镜表面蚀刻纳米级的图案来构建波导。安装在每个太阳穴上的小型全息显示屏通过蚀刻图案投射计算图像,这些图案会在镜片内反弹光线,然后将光线直接传送到观看者的眼睛。透过眼镜片,用户既能看到真实世界,又能看到上面显示的全彩 3D 计算图像。3D 效果之所以得到增强,是因为它是通过立体和全息两种方式产生的,前者是指每只眼睛都能看到略有不同的图像,就像传统的 3D 成像一样;后者则是指每只眼睛都能看到略有不同的图像,就像传统的 3D 成像一样。斯坦福大学计算成像实验室的博士生布莱恩-赵(Brian Chao)是这篇论文的共同作者,他说:"利用全息技术,你还可以在每只眼睛前获得完整的三维体积,从而提高栩栩如生的三维图像质量。"新的波导显示技术和全息成像技术的最终成果是提供逼真的三维视觉体验,既能满足用户的视觉需求,又不会让用户感到疲劳,而这种疲劳感正是早期方法所面临的挑战。Wetzstein 说:"全息显示一直被认为是终极 3D 技术,但它从未取得过重大的商业突破。也许现在他们有了多年来一直在等待的杀手级应用"。编译来源:ScitechDaily ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人