Midjourney 新功能 Style Tuner 闪亮登场~这是一个超级有趣,充满无限可能的新功能 ~ 自带一些社交

Midjourney新功能StyleTuner闪亮登场~这是一个超级有趣,充满无限可能的新功能~自带一些社交属性。看了官方公告你可能有点懵,但是往下看这份说明书你就明白了,我还会送你我的tune-1⃣Part1:先说说使用方法首先输入斜杠指令:/tune,然后输入你期待的风格prompt回车。比如prompt:MakotoShinkai随后来到第一个参数:选择styledirections数量(16/32/64/128)。数量越多,消耗的Fasthours时间越长,最终得到的可融合风格选择越多。每一次tune是生成风格大方向,而具体的各种差异由排列组合而定)第二个参数,Defaultmode/Rawmode稍等大概2分钟后,Midjourneybot会发给你一个URL,点击它就能看到你的styletune结果啦!-类比一下,还记得Nijijourney里面的style吗?比如有cute可爱风格,还有擅长画场景的scenic风格。是的,现在,你也可以得到属于你的风格。最神奇的是,风格就像是基因工程,或是杂交配对。例如,假如我选择了64directions,那么我会得到64组图片,每一组有2张图片。每当你选择一组中的其中1张图片,都代表你的style审美倾向。它不仅是文化语境中的「风格」倾向,其实也包含了「内容上的颜色和角色的细节」。怎么理解呢?就是说假如你用小猫的prompt做了相关风格tune,那么之后你再用这个自定义style去生成城市的图片,效果可能就不太好,但是用在狗狗身上却是完全OK的。接着,来到生成的细节上,你可以选择任意组图片(建议5-10组),然后下面会出现一个Copy按钮,点击直接Copy当前你的排列组合选择的图片所得到的风格代码这也意味着超级多的可能性……所以再次强调,并不是一次styletune就只能有一种style倾向,而是由用户的选择而定。这不禁让我想起了《为什么伟大不能被计划》(WhyGreatnessCannotBePlanned:TheMythoftheObjective)里提到的图像生成器。-

相关推荐

封面图片

Midjourney 今天终于发布了他们一直说的风格微调功能 Style Tuner,Style Tuner可以让你创建自己的M

Midjourney今天终于发布了他们一直说的风格微调功能StyleTuner,StyleTuner可以让你创建自己的MJ风格,类似于SD的Lora模型?你也可以直接使用别人训练好的风格,比如下面这几张图就是我训练的风格,你可以点击这个链接使用。https://tuner.midjourney.com/code/Zu5xOBO65cGGsGOPblzfiy下面看一下如何训练和使用风格:首先输入/tune和提示,选择你要生成多少个基本风格(费用成比例)点击提交后,它会显示估计的GPU时间。一个专门的“StyleTuner”网页将为你创建。完成后会发送给你URL。访问StyleTuner页面,选择你喜欢的风格来创建自己的风格(注意这个页面可能会有很多掉san的图片,浏览的时候做好准备)建议选择5-10种风格(但任何数量都可以)使用这样的命令/imaginecat--styleCODE,来使用你的风格。你可以用一个StyleTuner制作大量风格,而且不消耗GPU时间。你可以通过--stylerandom命令生成随机风格代码(无需StyleTuner)可以通过--stylecode1-code2组合多个代码可以使用--stylize来控制你的风格代码的强度。可以拿到任何你看到的风格代码,替换掉我下面的这个命令,然后进行修改生成你的风格。https://tuner.midjourney.com/code/Zu5xOBO65cGGsGOPblzfiy使用别人制作的StyleTunerURL不会消耗任何fast时间(除非你使用它们来制作图像)

封面图片

Midjourney 自带的 /describe 命令要是觉得难用,可以试试这个开源版本:Docker Prompt Gener

Midjourney自带的/describe命令要是觉得难用,可以试试这个开源版本:DockerPromptGenerator如同Midjourney官方新推出的功能,支持一键从图片中解析出Prompt描述,并能够基于描述进行扩展,以便二次图片生成。它不仅能解析Midjourney和StableDiffusion图像,还支持用中文进行原始Prompt描述,并将中文转换为模型生成效果更好的英文Prompt。#生成器

封面图片

现在,你可以一键生成带有你名字的有趣图案,没有任何门槛。Prompt 也没有什么特别技巧,只需要强调 with words

现在,你可以一键生成带有你名字的有趣图案,没有任何门槛。Prompt也没有什么特别技巧,只需要强调withwords"xxx(你的名字)"即可。链接:https://ideogram.ai/profile/ideogram.ai/signup/u5vIZ1epQ3eZa8uWnbitcg以下是一些案例提示:你可以从使用withword(s)“你的名字”+minimalism生成干净的图片开始。然后再更改风格prompt(写上你喜欢的任何内容)。

封面图片

昨天说的MJ缩放功能生成视频的教程来了。昨天Midjourney发布了zoom out功能,这个功能及其强大,可以创造出一些神奇

昨天说的MJ缩放功能生成视频的教程来了。昨天Midjourney发布了zoomout功能,这个功能及其强大,可以创造出一些神奇的图片出来,甚至可以做视频。教程将给你展示如何使用这一改变游戏规则的功能来拍摄无缝的高清变焦视频。里面还有一部分将这个能力产品化的思路和开源资源。下面是教程细节链接部分是将这个内容产品化的思路和用到的开源项目内容,如果你已经有接了第三方MJ接口的服务的话可以看看,可以帮你的产品添加一个不错的功能。https://mp.weixin.qq.com/s/aPcHHgkhrkIqzxX3E8dv1w首先是使用Midjourney正常生成图像,比如我下面这张飞翔中的猫头鹰图片。在你选择完图像之后,可以看到图像下方多了几个按钮,zoomout2x这个就是将图片放大两倍,zoomout1.5x就是将图片放大1.5倍,这里的放大不是直接放大图片,而是对图片的内容进行扩充。可以看到上面还有一个customzoom按钮这个是自定义放大的功能,点击之后会弹出一个输入框,你可以通过提示词改变放大后图片的内容和比例。比如你可以将一个3:4的图片放大后改成3:2的。如果你连续缩放的话其实生成的图像是一个连续的变焦过程,视频生成就是这个原理,如果我们放大的次数足够多就会形成一个关键帧视频。我们继续放大刚才那张图,我选择了1.5倍放大,因为我们需要做视频,1.5倍的话每一帧之间的变化比较小可以比较连续。可以看到下面这张放大后的图比第一张的视野大了些在这里我连续进行了7次放大,获得了七张图像,我们通过命名把七张图片的顺序排好,找一个图片插帧生成视频的工具,应该有很多工具可以用,我们这里用Runway。首先访问https://app.runwayml.com/,登陆后在左侧导航找到创建视频这个tab。然后在里面找到FrameInterpolation这个功能。进去以后掏出我们准备好的几张图片,拖进左边的位置上传,然后检查一下顺序有没有问题,注意这里几张图片分辨率最好一样不然的话,视频生成会有问题。然后看右侧的Clipduration就是生成视频的时间,如果你的图少时间可以调的短一点。OK之后点击Genrate生成视频就可以了。生成之后左侧可以预览,右边的按钮可以导出,普通用户只能导出720p的视频,不过也够用了。好了普通的视频生成教程这里就已经结束了。

封面图片

Midjourney推出了角色一致性功能!--cref参数使用Midjourney推出了角色一致性功能“CharacterRef

Midjourney推出了角色一致性功能!--cref参数使用Midjourney推出了角色一致性功能“CharacterReference”(角色参考)!这个功能可以帮助用户在不同场景或不同图片中创作出外观和特征一致的角色形象。与之前推出的“StyleReference”(风格参考)功能类似,“CharacterReference”也是通过匹配参考图片来生成新的图像。但不同之处在于,CharacterReference专注于匹配参考图片中角色的特征,如面部、发型和服装等,而不是整体风格。

封面图片

看完这篇文章,你也能当插画师-Midjourney教学

看完这篇文章,你也能当插画师-Midjourney教学版权保护无疑是必要的,它保护了知识产权和作者的权益。然而,在日常工作中,我们经常无意间使用了含有版权的素材,从而不知不觉地产生了侵权行为。其中,也包括一些恶意设陷的情况,这无疑阻碍了生产效率。另外,我们在网上寻找图片时,往往像是“照虎找猫”。经常找到的图片并不能完全表达文章的内容或满足我们的期待。有时,为了寻找一张合适的图片,我们可能需要花费大量的时间和精力。Midjourney生成那么在Ai生成式绘画发展突飞猛进,成果斐然的当下,我们日常工作中是否已经可以利用Ai来完成所想所画,以Ai傍身化身一个插画师,随心所欲地创作呢?答案是肯定的。接下来,让我们通过使用AI工具,来探讨在实际应用中如何有效利用和发挥其能力。我们选择的工具是midjourney,这是目前世界上最强大的AI生成图像平台之一。我在前文中已经多次提到了这个平台。尽管其团队只有11人,但他们成功获得了上亿美元的融资,成为了AI领域最年轻的独角兽公司。midjourney平台服务全球众多用户,每个人都可以根据自己的创意在平台上创作。优秀的AI作品会上传到公共频道,供大家学习和参考,形成了一个良好的用户创作生态圈。同时,得益于其卓越的模型控制和庞大的素材库,其生成的图像质量和效果都相当惊艳。只要掌握了使用方法,创作出高质量的插图并非难事。首先来给大家看看一些我自己画的案例,考虑到很多朋友会在碰到商用图片时卡壳,我们就用一些带人物、带具体产品的来举例。首先是一组宝马车行驶在公路上的案例。然后是一组老奶奶戴着VR眼镜的案例进而是一个亚洲女孩儿,在下雨天的车站里戴着头戴式耳机的案例。接着是一组商业摄影,平面桌面置物拍摄(部分产品细节失真是不可避免的)。接着是一组卡通风格的科技风格插画,可以用在海报或者Banner图中。最后是一组猫猫狗狗的图片,可以用于大家工作外发发朋友圈或者做一些可爱的案例。通过实例演示,我们可以看到只要提供准确适当的关键词,Midjourney能够输出令人满意的图像。无论是用于文章配图,表达含义,还是展示场景,都能轻松应对。同时,我们也可以摆脱版权问题,因为目前还没有明确的规定解决AI生成内容的版权归属问题。此外,由于AI生成图片的原理类似榨汁机,将无数的互联网素材(即水果)进行混合处理,最后生成我们需要的图像(即果汁),所以这些图像的版权并不能明确归属。我在前文中也提到过这个原理。如何使用Midjourney?首先使用这类平台、程序的前提是建立在已经可以自由上网之上。首先,你需要注册一个Discord(https://discord.com)账号,然后加入Midjourney的Discord服务器(去Midjourney的官网点击右下角的JointheBeta)完成规则引导后,我们就可以开始正常使用Midjourney的功能了。在Midjourney的Discord左侧栏中,你会看到名为"newbies-XXX"的频道。随便选一个点击进入,这个频道就是为免费用户提供的测试试用区域如何画一张图?首先,我们在对话框中输入/,接着我们就可以看到一些系统菜单,其中就包括了/imagine,点击该菜单,就能在框里输入想画的图片的关键词了:输入我们的关键词,比如一只飞在天空的金毛,我们可以输入“Agoldenretrieverwithwings,flyinginthesky,happy,whiteclouds,bluesky,brightsun”,接着按下回车,看到系统提示“Waitingtostart”,这时候就代表Midjourney收到了你的信息,正在为你绘画。此时,我们可以看到图片下方有几个按钮,分别是U1-U4,V1-V4,以及一个刷新按钮。这些按钮分别代表了不同的功能,“U”代表Upscale(高档)。点击这些按钮可以从系统给出的四张图片中选择一张,U1代表左上角图片,U2代表右上角的图片,U3代表左下角的图片,U4代表右下角的图片。例如,如果我们点击U1,系统就会将左上角的图片裁剪并返回,同时提供更多选项,以便用户对图片进行更深层次的处理。"V"则代表Variation(变化)。当我们点击V1至V4时,系统会以已完成的图像为基础,进行变化或调整,即在原本的作品基础上再次创作。这将产生四张与原作相似但又各具特色的新图像。例如,我们按下V1,其就会根据左上角的图片进行再次创作,得到这样的图片:关键词该怎么写?很多小伙伴这时候就想问,我们又不是英语母语用户,该怎么想关键词呢?其实,Midjourney在最近的一次更新后,是支持中文作为Prompt进行输入的,但它理解的中文意思与直接翻译出来的英文还是有些差距,比如我还是想画一个飞在天上的金毛,在输入“金毛猎犬,飞在天空,蓝天,白云,开心的”后,它给出的图片是这样的:所以,我们最好还是需要进行英文的直译输入,我们可以用Google翻译等翻译软件。那么如何写好一个关键词呢?我根据自身经验与大佬们的总结,归纳出以下几条规则:忽略语法:Midjourney不会理解复杂的语法结构,因此在创建提示词时,不需要担心语法的正确性。相反,简洁明了的提示词会更有效。词汇选择:使用具体和明确的词汇。例如,使用“gigantic”代替“big”,使用“twocats”代替“cats”。这将帮助系统更准确地理解你的需求。顺序和结构:使用形容词+名词的词序,以及具体的动词来替换介词短语。例如,"agirlwithaflashlight"应改为"agirlusingaflashlight。明确需求:尽可能地明确指出你想要的内容,而不是你不想要的。如果需要避免生成某些内容,可以使用“no”参数。随机性:Midjourney会在未明确指定的情况下随机生成一些内容。如果你想减少这种随机性,可以使用一些提示词框架或模板。而在一个关键词的用词顺序上,可以参考Midjourney官方的框架:主体(浅红色)细节或者背景(橙色)风格(黄色)参数(绿色)通过理解关键词的词组要求和顺序规则,我们可以轻松地创作出一套合格的关键词:比如,假设我们想要绘制一辆疾驰的未来汽车。我们应该按照以下的方式来组织我们的关键词:"未来汽车"(主体),"疾驰在道路上"(背景),"金属车身"(细节1),"炫酷的灯光"(细节2),"贴地飞行,没有轮胎"(细节3),"科幻风格"(风格),最后是"--ar16:9"(这是一个参数,表示画面的比例)。这样的关键词组织方式,既明确了我们的需求,又符合系统的识别规则,能够帮助我们更好地使用系统。对于关键词的使用,各位小伙伴确实需要多加练习。你可以将AI绘画看作一次摄影过程,这样或许会帮助你更好地理解和使用它:确定主体:首先,你需要确定你想要绘制的主体是什么,就像在摄影中你需要首先确定你要拍摄的主体一样。例如,如果你想画一只猫,那么"猫"就是你的主体。选择视角:然后,你需要决定你想从哪个视角来展示这个主体。这就像在摄影中选择从哪个角度拍摄一样。例如,你可以选择从正面、侧面、上方或者下方来观察这只猫。确定复杂性:接下来,你需要考虑你希望你的画面是复杂还是简单。这就像在摄影中决定你的画面是否需要很多的元素或者只需要几个简单的元素一样。例如,你可以选择只画猫,或者你可以选择画猫和它的周围环境。选择风格:最后,你可能需要决定是否需要添加一些特殊的风格或者效果,就像在摄影中使用滤镜一样。例如,你可以选择将猫画得更像卡通风格,或者你可以选择将它画得更像真实的猫。画点好玩的?当我们可以进行简单的画图以后,我们就可以开始进阶操作了,其中个人感觉最实用也最常用的便是...PC版:https://www.cnbeta.com.tw/articles/soft/1376765.htm手机版:https://m.cnbeta.com.tw/view/1376765.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人