是一个用机器学习生成配色方案的网站。它通过使用 Transformer 和 DDPM 图像生成模型学习设计师的配色方案,并根据输

是一个用机器学习生成配色方案的网站。它通过使用 Transformer 和 DDPM 图像生成模型学习设计师的配色方案,并根据输入的颜色和对比度需求输出色板。 除了对常见的应用场景的预设以外,网站还对色板的风格设计了数个预设,比如高对比度、暗色、糖果色等等。你也可以手动输入模型参数来获得更好的配色方案。 其作者之前还开发了使用机器学习生成调色板和提取图片主题色的同类网站。 (配图为网站使用 Brand > 3 colors 选项生成的一个结果)

相关推荐

封面图片

配色网站汇总Adobe配色器在线色轮调色,主题色拾取,渐变色工具等

配色网站汇总 Adobe配色器在线色轮调色,主题色拾取,渐变色工具等 配色参考,emoji表情,图标,特殊符号 配色方案生成器 上百种渐变配色方案参考 优设配色导航中国,日本传统色,渐变色等配色参考 调色灵感,颜色术语/色彩心理学 在线配色神器 渐变配色生成器,自动CSS代码 在线调色,颜色转换器,拾色 数以千计的色卡灵感 你可以上传自己的图片,将生成的配色方案保存下来。 #配色 #工具 #生成器

封面图片

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0 今天,Stability AI 宣布推出 Stable Diffusion XL 1.0,这是该公司迄今为止描述为“最先进”的文本到图像模型。Stable Diffusion XL 1.0 可在上以开源形式使用,并提供给 Stability 的和消费者应用程序和 。Stability 声称,与其前代产品相比,Stable Diffusion XL 1.0 提供了“更生动”和“更准确”的颜色,更好的对比度、阴影和照明效果。 在接受采访时,Stability AI 的应用机器学习负责人Joe Penna 指出,Stable Diffusion XL 1.0 包含 35亿个参数,可以“在几秒钟内”生成多种长宽比的 100万像素分辨率的完整图像。“参数”是模型从训练数据中学习到的部分,基本上定义了模型在解决问题上的技能水平。 上一代稳定扩散模型稳定扩散 XL 0.9 也可以生成更高分辨率的图像,但需要更多的计算能力。 、

封面图片

WhatsApp 宣布正式推出一项更新,为 iOS 和 Android 应用带来了全新的设计。用户将会看到新的配色方案以及其他一

WhatsApp 宣布正式推出一项更新,为 iOS 和 Android 应用带来了全新的设计。用户将会看到新的配色方案以及其他一些变化,这些改动让用户在这两个平台上使用 WhatsApp 的体验更加流畅。 更新后,WhatsApp 将绿色作为应用的突出色。因此,诸如通知徽章和按钮之类的元素现在将呈现绿色。这一变化在 Android 上显得更为激进,因为标签栏已被移至屏幕底部,使得应用更加类似于 iPhone 版本。 对于暗黑模式,WhatsApp 表示它改变了颜色,以提供更高的对比度和更深的色调,以“减少低光环境下的眼睛疲劳”,因为人们希望有一个“更黑的暗黑模式”。图标和插图也进行了更新,采用了更圆润和更有轮廓的风格。应用还增加了新的动画和聊天壁纸。 这些变化已经在 WhatsApp 的测试用户中进行了一段时间的测试,现在正在向全球公众推出 标签: #WhatsApp 频道: @GodlyNews1 投稿: @Godlynewsbot

封面图片

StoryDiffusion 是一个开源的图像和视频生成模型,它通过一致自注意力机制和运动预测器,能够生成连贯的长序列图像和

StoryDiffusion 是一个开源的图像和视频生成模型,它通过一致自注意力机制和运动预测器,能够生成连贯的长序列图像和视频。 这个模型的主要优点在于它能够生成具有角色一致性的图像,并且可以扩展到视频生成,为用户提供了一个创造长视频的新方法。该模型对AI驱动的图像和视频生成领域有积极的影响,并且鼓励用户负责任地使用该工具。 使用场景示例: 使用StoryDiffusion生成一系列漫画风格的图像。 创建一个基于文本提示的长视频,展示一个连贯的故事。 利用StoryDiffusion进行角色设计和场景布局的预可视化。 产品特色: 一致自注意力机制:生成长序列中的角色一致图像。 运动预测器:在压缩的图像语义空间中预测运动,实现更大的运动预测。 漫画生成:利用一致自注意力机制生成的图像,无缝过渡创建视频。 图像到视频的生成:提供用户输入的条件图像序列来生成视频。 两阶段长视频生成:结合两个部分生成非常长且高质量的AIGC视频。 条件图像使用:图像到视频模型可以通过提供一系列用户输入的条件图像来生成视频。 短视频生成:提供快速的视频生成结果。 |

封面图片

机器学习方案手册,一本包含逐步说明为各种任务训练深度学习模型的书。内容覆盖自然语言处理、计算机视觉、图像与文字

机器学习方案手册,一本包含逐步说明为各种任务训练深度学习模型的书。内容覆盖自然语言处理、计算机视觉、图像与文字 本书分为3个部分: 自然语言处理(NLP) 计算机视觉(CV) 图片和文字 以下是本节各章的简要概述: 命名实体识别- 讨论使用conllpp 数据集识别命名实体的训练转换器模型。我们将使用的特定模型称为bert-base-cased。该模型是原始 BERT 的较小版本,并且区分大小写,这意味着它将大写和小写字母视为不同。 掩蔽语言建模- 与填空问题类似,我们训练一个模型来使用xsum 数据集预测句子中的掩蔽词。我们将使用的特定模型称为distilbert-base-uncased。这是 bert base uncased 模型的精炼版本,它以相同的方式处理大写和小写字母。 机器翻译在本章中,训练一个模型将文本从英语翻译成西班牙语。我们将在新闻评论数据集上训练来自赫尔辛基 NLP 小组的变压器模型。 总结在本章中,训练了一个多语言模型来总结英语和西班牙语句子。使用的模型是 T5 Transformer 模型的多语言版本,使用的数据集是amazon reviews dataset。 因果语言建模- 本章重点介绍训练模型以自动完成 Python 代码。为此,我们将使用用于训练代码鹦鹉模型的数据。 计算机视觉部分涵盖了该领域下最常见的任务。本节中的章节使用pytorch 闪电、pytorch 图像模型(timm)、 albumentations库和权重和偏差平台。以下是本节各章的简要概述: 图像分类- 我们将训练卷积神经网络 (CNN) 模型对动物图像进行分类。我们将使用的 CNN 模型是“resnet34”,使用的数据集是动物图像数据集。 图像分割- 本章侧重于训练模型以分割给定图像中的道路。我们将使用 U-net 模型来完成此任务。 物体检测在本章中,我们将专注于检测图像中的汽车。我们将预测与图像中包围汽车的边界框相对应的坐标。对于这个任务,我们将使用 fast-rcnn 模型。 最后一节包含训练模型以在给定图像的情况下生成标题的章节。它将有一个视觉转换器作为编码器,gpt-2 模型作为解码器。 || #电子书 #机器学习 #手册

封面图片

《英语连词成句练习生成工具 1_0.rar 》| 简介:英语连词成句练习生成工具专为英语学习者设计,能根据不同的语法知识点和词汇

《英语连词成句练习生成工具 1_0.rar 》| 简介:英语连词成句练习生成工具专为英语学习者设计,能根据不同的语法知识点和词汇范围,自动生成大量连词成句练习题。这些题目难度可调节,还提供答案和详细解析,帮助学习者巩固语法知识,提升英语语言组织和理解能力 | 标签:# 英语连词成句练习生成工具 1_0# 英语学习辅助工具 #连词成句练习# 语法巩固工具 #自动出题软件 | 文件大小 NG | 链接:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人