Midjourney 的局部重绘功能即将在这周或者下周发布,Niji 新发布了一个预告来演示这些功能,从演示来看效果非常强大。

Midjourney 的局部重绘功能即将在这周或者下周发布,Niji 新发布了一个预告来演示这些功能,从演示来看效果非常强大。 局部重绘是一个 AI 画图非常重要的功能你可以只修改图片的部分内容,再配合已经发布的平移和放大能力 MJ 的可用性将更上一个台阶。 下面详细介绍一下MJ 的局部重绘功能和可以做的事情: 什么是局部重绘 局部重绘是选择一个区域并重新绘制这部分的一个功能,比如下面这张图他非常好,但是有三只手,我们可以选择多出来的那只手重新绘制,同时根据选择的区域不同生成的结果也会不同。 不仅可以修复错误 局部重绘不止可以用来修复问题,也可以添加额外的元素,比如给他更换动物伙伴以及添加背景。 修复多角色场景 下面这个案例里面使用制作的空教室作为背景,为教室添加了多个不同的角色。 或者你也可以把一个有很多人的教室变成一个空教室。 修复你的完美图片 你也可以用来不断调整你的图片直到他符合你想象中的样子。不需要再把有瑕疵的地方遮起来,也不会影响你的关键内容。 视觉控制的新泛式 生成式人工智能行业仍处于起步阶段。文本到图像功能是一个:它允许许多从未接触过图像编辑器的人将他们的想法变成美丽的图像。 随着该领域的成熟和用户在操作图像方面变得更加熟练,他们将希望更好地控制自己的画布。虽然文本是最容易使用的界面,无法实现更加精细的操作。 随着平移、缩放和局部重绘的引入,他们正在探索在更具有视觉感知的空间中操纵图像的方法。 他们还强调了功能最终实现的时候 UI 可能不是上面图片的样子。

相关推荐

封面图片

Midjourney 在 MJ Office Hour 上透露了未来更新功能

Midjourney 在 MJ Office Hour 上透露了未来更新功能 - Inpainting (局部重绘) - Outpainting (扩展绘制) - 图像转文本 /describe (获取提示词) - 更高分辨率图片生成 (V6版本) - 文字溶入图像功能 (V7/V8版本) - 移动端 - Web UI (不用Discord了) - 实时绘图 - 用于工具构建的API 推特

封面图片

重磅更新:Dall·E的「局部重绘」现在已登录全平台~

重磅更新:Dall·E的「局部重绘」现在已登录全平台~ ChatGPT的网页、iOS和安卓全平台都已经上线,你可以在画面中无限修改局部内容了。 为什么这个局部重绘(in-painting)功能超级无敌? 它意味着一致性(角色、对象)大幅提升,让文生图工作流效率展开范式升级。 去年Midjourney 推出时引发过创作社区的热潮,考虑到Dall·E 惊人的理解力和用户覆盖面,这是山峰再一次攀升。借助局部重绘功能,你将探索出前所未有全新的工作流。 实现你的想象,用自然语言不断说出想法就行了。 Amazing~

封面图片

Midjourney 早上发布了一个新功能,挺好玩的。

Midjourney 早上发布了一个新功能,挺好玩的。 可以基于提示词生成完全随机的图像风格。 使用方式:在提示词后添加 sref random,如果找到了喜欢的风格可以通过 sref url 将风格迁移到新图片上。 下面是/imagine a field of flowers sref random运行 64 次的结果。

封面图片

终于来了! Midjourney角色一致性功能发布.

终于来了! Midjourney角色一致性功能发布. 下面视频是网站的使用方法和介绍: 这个功能和之前的风格参照很相似,不同之处在于它不是匹配一个特定风格,而是让角色与给定的角色参照图像相符合。 如何使用: 在你输入的指令后面加上 cref URL,URL是你选择的角色图像的链接。 你还可以用 cw 来调整参照的“强度”,范围从100到0。 默认的强度是100 (cw 100),这时会参考人物的脸部、发型和衣着。 如果设置为强度0 (cw 0),那么系统只会关注脸部(这对于更换服饰或发型很有帮助)。 适用范围: 这个功能最适合用于Midjourney创作的角色图像。不太适合用于真人照片(可能会产生一些扭曲,就像普通图像提示那样)。 Cref的工作方式类似于普通图像提示,但它更专注于角色的特征。 但请注意,这项技术的精确度是有限的,它无法复制极其细微的特征,比如特定的酒窝、雀斑或T恤上的标志。 Cref同样适用于Niji和普通MJ模型,并且可以与sref一起使用。 高级功能: 你可以使用多个URL,通过 cref URL1 URL2 的方式来结合多个图像中的角色信息(这和使用多重图像或风格提示类似)。 在web alpha版本中如何操作: 只需将图片拖动或粘贴到想象工具栏,你会看到三个图标。选择这些图标之一,可以设置图片用作图像提示、风格参照或角色参照。如果你想让一张图像同时用于多个类别,只需按住Shift键再选择。 请记住,由于MJ V6目前还处于alpha测试阶段,这个和其他功能可能会有所变化。但不久后,我们会推出官方的V6 beta版。

封面图片

昨天说的MJ缩放功能生成视频的教程来了。昨天Midjourney发布了zoom out功能,这个功能及其强大,可以创造出一些神奇

昨天说的MJ缩放功能生成视频的教程来了。昨天Midjourney发布了zoom out功能,这个功能及其强大,可以创造出一些神奇的图片出来,甚至可以做视频。 教程将给你展示如何使用这一改变游戏规则的功能来拍摄无缝的高清变焦视频。里面还有一部分将这个能力产品化的思路和开源资源。 下面是教程细节 链接部分是将这个内容产品化的思路和用到的开源项目内容,如果你已经有接了第三方MJ接口的服务的话可以看看,可以帮你的产品添加一个不错的功能。 首先是使用Midjourney正常生成图像,比如我下面这张飞翔中的猫头鹰图片。 在你选择完图像之后,可以看到图像下方多了几个按钮,zoom out 2x这个就是将图片放大两倍,zoom out 1.5x就是将图片放大1.5倍,这里的放大不是直接放大图片,而是对图片的内容进行扩充。 可以看到上面还有一个custom zoom按钮这个是自定义放大的功能,点击之后会弹出一个输入框,你可以通过提示词改变放大后图片的内容和比例。比如你可以将一个3:4的图片放大后改成3:2的。 如果你连续缩放的话其实生成的图像是一个连续的变焦过程,视频生成就是这个原理,如果我们放大的次数足够多就会形成一个关键帧视频。 我们继续放大刚才那张图,我选择了1.5倍放大,因为我们需要做视频,1.5倍的话每一帧之间的变化比较小可以比较连续。可以看到下面这张放大后的图比第一张的视野大了些 在这里我连续进行了7次放大,获得了七张图像,我们通过命名把七张图片的顺序排好,找一个图片插帧生成视频的工具,应该有很多工具可以用,我们这里用Runway。 首先访问 ,登陆后在左侧导航找到创建视频这个tab。然后在里面找到 Frame Interpolation这个功能。 进去以后掏出我们准备好的几张图片,拖进左边的位置上传,然后检查一下顺序有没有问题,注意这里几张图片分辨率最好一样不然的话,视频生成会有问题。然后看右侧的Clip duration就是生成视频的时间,如果你的图少时间可以调的短一点。OK之后点击Genrate生成视频就可以了。 生成之后左侧可以预览,右边的按钮可以导出,普通用户只能导出720p的视频,不过也够用了。好了普通的视频生成教程这里就已经结束了。

封面图片

我曾经说过,inpainting(局部重绘)是这波AI绘画中对平面设计师最友好的功能。

我曾经说过,inpainting(局部重绘)是这波AI绘画中对平面设计师最友好的功能。 现在 Adobe 正式把 inpainting 和 outpainting 加入到 PS 了,叫 Generative Fill。从此,就再也没「内容识别」什么事了~~ ▶ 下载方式:正版用户直接在 Adobe Cloud 的 beta apps 更新即可。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人