新的开源图像生成模型:Kandinsky 2.1,可以生成混搭图像,支持 txt2img 和 image mixing ​

新的开源图像生成模型:Kandinsky 2.1,可以生成混搭图像,支持 txt2img 和 image mixing ​ 它不是基于Stable Diffusion开发的,是一个全新的开原模型,目前看主要优势是速度快,但还看不出来图片质量上明显的优势。 ||

相关推荐

封面图片

:Stability AI最新推出的高级文本到图像AI模型,适合在消费级PC、笔记本及企业级GPU上运行,有望成为文本到图像模型

:Stability AI最新推出的高级文本到图像AI模型,适合在消费级PC、笔记本及企业级GPU上运行,有望成为文本到图像模型的新标准 - Stability AI公开发布了Stable Diffusion 3 Medium图像生成模型,这是目前该公司最先进的开源文本到图像模型。 - Stable Diffusion 3 Medium是一个20亿参数量的模型,相比之前的模型有显著改进:整体图像质量和逼真度大幅提升,能够生成高质量的照片逼真图像;理解长难句子描述的能力增强;文字质量也有很大提升,减少拼写、字间距等错误。 - 该模型大小适中,非常适合在普通消费级PC和笔记本电脑上运行,也能在企业级GPU上充分发挥性能。它有望成为文本到图像模型的新标准。 - Stable Diffusion 3 Medium在Stability非商业研究社区许可证下对外开源。对于商业用途,鼓励使用新的Creator许可证。大规模商业使用还需联系Stability取得企业许可证。 - 用户可以通过Stability的API、Stable Assistant和Stable Artisan等渠道试用Stable Diffusion 3 Medium。 - Stability AI表示会根据用户反馈持续改进该模型,扩展其功能,提升性能。目标是为艺术创作和业余用户都设定一个新的标准。 - Stability AI坚持开放和负责任的AI实践,在模型的训练、测试、部署等各个阶段采取合理措施防止模型被恶意滥用。

封面图片

AI生成模型合集AI文本生成图像模型

AI生成模型合集 AI文本生成图像模型 DALL-E 2:https://openai.com/product/dall-e-2 Stable Diffusion:https://stablediffusionweb.com/ Craiyon:https://www.craiyon.com/ Jasper:https://www.jasper.ai/ Imagen:https://imagen.research.google/ Midjourney: 网站:https://midjourney.com/ 教程:https://www.uisdc.com/midjourney 关键词:https://github.com/willwulfken/MidJourney-Styles-and-Keywords-Reference NightCafe:https://nightcafe.studio/ GauGAN2: http://gaugan.org/gaugan2/ https://blogs.nvidia.com/blog/2021/11/22/gaugan2-ai-art-demo/ WOMBO :https://www.wombo.ai/ pixray/text2image:https://replicate.com/pixray/text2image neural.love:https://neural.love/ AI文本生成视频模型 Runway:https://runwayml.com/ Fliki:https://fliki.ai/ Synthesia:https://www.synthesia.io/ Meta AI:https://ai.facebook.com/ Google AI:https://ai.google/ Phenaki:https://phenaki.video/ AI文本生成音频模型 Play.ht:https://play.ht/ Murf:https://murf.ai/ Resemble AI:https://www.resemble.ai/ WellSaid:https://wellsaidlabs.com/ Descript:https://www.descript.com/ AI文本生成文本模型 Simplified:https://simplified.com/ Jasper:https://www.jasper.ai/ Frase:https://www.frase.io/ EleutherAI:https://www.eleuther.ai/ AI21 Labs:https://www.ai21.com/ Hub Spot:https://www.hubspot.com/ InferKit:https://inferkit.com/ GooseAI:https://goose.ai/ Research AI:https://researchai.co/ Writesonic:https://writesonic.com/ Cohere:https://cohere.ai/ Chibi:https://chibi.ai/ Ideas AI:https://ideasai.com/ Copysmith:https://app.copysmith.ai/ Flowrite:https://www.flowrite.com/ Nichesss:https://nichesss.com/ Sudowrite:https://www.sudowrite.com/ ideasbyai:https://ideasby.ai/ TextCortex:https://textcortex.com/ OpenAI GPT-3:https://beta.openai.com/playground Blog Idea Generator:https://www.usetopic.com/blog-idea-generator AI文本生成Motion模型 Tree:https://tree.industries/ MDM: Human Motion Diffusion Model: https://guytevet.github.io/mdm-page/ AI文本生成代码模型 replitGhostwriter code:https://replit.com/site/ghostwriter Github copilot:https://github.com/features/copilot AI文本生成NFT模型 LensAI:https://www.lens.xyz/ AI文本生成3D模型 DreamFusion:https://dreamfusion3d.github.io/ CLIP-Mesh:https://www.nasir.lol/clipmesh GET3D:https://nv-tlabs.github.io/GET3D/ AI音频生成文本模型 Descript:https://www.descript.com/ AssemblyAI:https://www.assemblyai.com/ Whisper (OpenAI):https://openai.com/blog/whisper/ AI音频生成音频模型 AudioLM: https://google-research.github.io/seanet/audiolm/examples/ Voicemod:https://www.voicemod.net/ AI-Brain生成文本模型 speech from brain(metaAI): https://ai.facebook.com/blog/ai-speech-brain-activity/ Non-invasive brain recordings: https://www.biorxiv.org/content/10.1101/2022.09.29.509744v1 AI图像生成文本模型 Neural.love:https://neural.love/ GPT-3 x Image Captions:https://www.auxiliary.tools #实用资源收集 #AI#合集

封面图片

,在 Mac 上原生运行 Stable Diffusion

,在 Mac 上原生运行 Stable Diffusion 本应用内置 Apple 的 Core ML Stable Diffusion 框架 以实现在搭载 Apple 芯片的 Mac 上用极低的内存占用发挥出最优性能,并同时兼容搭载 Intel 芯片的 Mac。 ​​​ 功能 极致性能和极低内存占用 (使用神经网络引擎时 ~150MB) 在所有搭载 Apple 芯片的 Mac 上充分发挥神经网络引擎的优势 生成图像时无需联网 图像转图像(也被称为 Image2Image) 在图像的 EXIF 信息中存储所有的关键词(在访达的“显示简介”窗口中查看) 使用 RealESRGAN 放大生成的图像 自动保存 & 恢复图像 自定义 Stable Diffusion Core ML 模型 无需担心损坏的模型 使用 macOS 原生框架 SwiftUI 开发

封面图片

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0 今天,Stability AI 宣布推出 Stable Diffusion XL 1.0,这是该公司迄今为止描述为“最先进”的文本到图像模型。Stable Diffusion XL 1.0 可在上以开源形式使用,并提供给 Stability 的和消费者应用程序和 。Stability 声称,与其前代产品相比,Stable Diffusion XL 1.0 提供了“更生动”和“更准确”的颜色,更好的对比度、阴影和照明效果。 在接受采访时,Stability AI 的应用机器学习负责人Joe Penna 指出,Stable Diffusion XL 1.0 包含 35亿个参数,可以“在几秒钟内”生成多种长宽比的 100万像素分辨率的完整图像。“参数”是模型从训练数据中学习到的部分,基本上定义了模型在解决问题上的技能水平。 上一代稳定扩散模型稳定扩散 XL 0.9 也可以生成更高分辨率的图像,但需要更多的计算能力。 、

封面图片

Adobe 正式宣布推出新的图像生成模型 Firefly Image 3,即日起在 Firefly Web 应用程序、Adobe

Adobe 正式宣布推出新的图像生成模型 Firefly Image 3,即日起在 Firefly Web 应用程序、Adobe Photoshop 和 Adobe InDesign 中提供测试版,并在「今年晚些时候」全面上市,旨在让创作者能够提高工作效率,生成更高质量、更详细的图像。|

封面图片

华为发布 DiT 架构的图像生成模型,可以直出 4K 分辨率图像。

华为发布 DiT 架构的图像生成模型,可以直出 4K 分辨率图像。 论文简介: 我们引入了 PixArt-\Sigma,一个能够直接生成 4K 分辨率图像的 Diffusion Transformer (Diffusion Transformer, DiT) 模型。相比其前身 PixArt-\alpha,PixArt-\Sigma 有了显著进步,提供了明显更高保真度的图像,并改进了与文本提示的一致性。 PixArt-\Sigma 的一个关键特点是其训练效率。借助 PixArt-\alpha 的基础预训练,它通过合并更高质量的数据,从"较弱"的基线演变为"较强"的模型,我们将这个过程称为"弱到强训练"。PixArt-\Sigma 的进步主要体现在两个方面: 高质量训练数据:PixArt-\Sigma 结合了更高质量的图像数据,与更精确和详细的图像标题配对。 高效的 Token 压缩:我们在 DiT 框架内提出了一个新的注意力模块,可以压缩键 (Key) 和值 (Value),显著提高效率,并促进超高分辨率图像生成。 得益于这些改进,PixArt-\Sigma 以显著较小的模型规模 (6 亿参数) 实现了优于现有文本到图像扩散模型 (如 SDXL (26 亿参数) 和 SD Cascade (51 亿参数)) 的图像质量和用户提示遵从能力。 此外,PixArt-\Sigma 生成 4K 图像的能力支持创建高分辨率海报和壁纸,有效地增强了电影和游戏等行业中高质量视觉内容的制作。 项目地址:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人