和 @Simon阿文 一起搞了一个 SeasonYou 工作流,输入一张照片,输出你的穆夏四联画海报。

和 @Simon阿文 一起搞了一个 SeasonYou 工作流,输入一张照片,输出你的穆夏四联画海报。 » 工作流地址: 做这个项目就是想试试是否可以用 comfyui 快速把设计想法工程化,实践下来工程的环节还是很简单的,最重要的还是设计本身。 感觉不久的以后无论是设计师还是产品经理,都会拥有将自己的设计想法/ demo 直接工程化的能力。

相关推荐

封面图片

最近在做的项目几乎是清一色的 comfyui + animatediff + lcm,忙里偷闲和 @Simon阿文 做了一个《低

最近在做的项目几乎是清一色的 comfyui + animatediff + lcm,忙里偷闲和 @Simon阿文 做了一个《低俗小说》里舞蹈的转绘版本,阿文的版本在这里( ) 我做的是女生的部分。人物、麦穗和天空分为三层控制生成,达成了不同层有不同自由程度 (不同闪烁程度 X) 的控制效果。 工作流参考的朋友 Jerry Davos 的工作流,他将 AI 动画的工作流切成了 controlnet 提取、lcm 生成、refine、face fix 四步,8G 显存的显卡都可以跑 非常菩萨,欢迎通过他的 patreon 支持他:

封面图片

古希腊掌管 Animatediff 工作流的神 Jerry Davos 的新作品,一个支持非常详细的面部修复和唇形同步的视频转视

古希腊掌管 Animatediff 工作流的神 Jerry Davos 的新作品,一个支持非常详细的面部修复和唇形同步的视频转视频 ComfyUI工作流。 工作流包括三个阶段: 阶段1:将原始视频的每一帧中的面部替换为风格化的面部(目的是使其更接近animatediff风格的面部),同时确保嘴唇同步效果不受影响。 阶段2:此时,从阶段1得到的“只包含面部”的每张图像被覆盖到更精细处理过的图像上,然后将这些图像保存到名为Swapped_A的目录中。 阶段3:(颜色匹配):接下来,Swapped_A目录中的每张图像将与细化目录中相同的图像进行交换。这一过程旨在尽可能实现颜色匹配的最佳效果,同时在一定程度上保持嘴唇同步的准确性。 查看教程及下载工作流:

封面图片

0 成本,纯 AI 工作流,使用 Gemini 构建的一个图生文的小网站,代码已开源。

0 成本,纯 AI 工作流,使用 Gemini 构建的一个图生文的小网站,代码已开源。 大家有什么好的想法可以随便拿去用,改个 prompt 就能上线一个新产品,感谢@哥飞 的启发。 我的流程: 1. 描述设想 设计工具(图 1): 2. 把前面的设计好的代码和逻辑描述给 GPT写代码 代码工具:Cursor 和 GPT4 3. 部署上线 工具: 体验链接: 项目地址: 免杠声明:这就是套壳,这个产品没解决什么问题,就是自己学 Ai 玩玩的,代码也基本是 GPT 写的

封面图片

今天在Producthunt发现一个AI模型Kombai可以理解Figma的界面设计并生成对应的前端代码,下面是他们官网的演示视

今天在Producthunt发现一个AI模型Kombai可以理解Figma的界面设计并生成对应的前端代码,下面是他们官网的演示视频。 从演示来看生成的代码还是不错的,它的优势在于他不要求设计稿的格式、层级和是否使用组件,无论你怎么嵌套和画出的界面它都能理解。 这比之前通过传统工程化思路从设计稿生成代码要强多了。之前的一些工具要不是处理不了复杂样式,要不就是对设计师的设计稿格式有非常严格的要求。 同时这个模型也支持通过自然语言生成前端界面的代码。 官网链接:

封面图片

同时,在特定领域,我们至少需要通读八九篇核心论文,这样才能基本理解,并解释为什么某篇论文让我们感到兴奋。

同时,在特定领域,我们至少需要通读八九篇核心论文,这样才能基本理解,并解释为什么某篇论文让我们感到兴奋。 未来五到十年里,很多现在的知识可能会变成常识。到那时,了解与否的差异可能并不显著。但在当前,通过阅读论文获得的信息量是巨大的,它能显著提高我们的认知水平,帮助你做出更准确的判断。 2、去哪找论文,怎么读论文? 那么,想要找到新颖或高质量的论文,我们应该去哪里呢?可以关注一些知名平台,如百度学术,或是OpenAI的Andrej Karpathy,看看他们推荐了哪些论文。实际上,你需要让自己沉浸在学术环境中,对感兴趣的论文深入阅读。Hidecloud个人习惯一天至少读两到三篇。 Hidecloud通常将论文分为两类:一类是他认为具有范式创新的,另一类是技术细节有所改进的。 对于后者,Hidecloud会快速阅读,关注他们具体优化了哪些方面,提升了多少。但对于那些具有范式创新的论文,Hidecloud会仔细研读。 阅读论文的好处是巨大的,它能直接帮助我们在产品设计和技术改进上取得实际成效。比如一些论文不仅提出新模型,还包含了工程优化的技巧,比如加速模型推理等。产品经理阅读这些内容后,可以直接应用于产品中,提升性能。 更重要的是,通过阅读前沿论文,可以及时了解最新模型的能力边界,以及新出现的技术创新点。进而,重新审视传统问题,开拓新的解决思路。这种全新的思考方式,有可能带来行业颠覆性的创新机会。 三、读完论文、测完demo,如何产研协同? 1、之前产品更依赖工程师 传统的软件开发模式中,产品经理负责需求分析和功能设计,然后把需求文档交给工程师,由工程师将这些抽象的业务逻辑转化为具体的代码实现。 这个过程需要产品经理和工程师密切配合,但两个角色的职责划分还是比较明确的。 2、现在产品也能做点开发 而现在,一些低代码(Low-code)或无代码(No-code)开发平台的出现,让非技术背景的人也能通过可视化的方式快速构建应用。 比如使用自然语言描述业务流程,然后自动生成可执行的工作流(Workflow)。这在一定程度上降低了开发门槛,产品经理可以更直接地参与到原型设计和功能实现中来。 3、工程师可能更专注后台问题 借助大语言模型的能力,产品经理用自然语言描述的复杂业务逻辑,可能会被自动转换成更加结构化、标准化的中间表示,如可视化的流程图(pipeline)或特定领域语言(DSL)等形式。这种表示一方面可以清晰地呈现业务逻辑,另一方面也更容易转化为最终的代码实现。 在这种趋势下,产品经理在功能决策上可能会有更大的自主权,可以通过灵活组合各种逻辑单元来快速响应业务变化。而工程师则会更专注于系统架构、性能优化、弹性扩展等技术问题,去建设一个高可用、高并发的稳定平台。

封面图片

经过旷日持久的折腾,我得出一个结论:HDR 工作流现在就是屎,而且是历史遗留的屎上叠加全新时代的屎。

经过旷日持久的折腾,我得出一个结论:HDR 工作流现在就是屎,而且是历史遗留的屎上叠加全新时代的屎。 macOS 下最佳的 HDR 视频剪辑方案是: MacBook Pro 14/16 + (可选)XDR/LG OLED 电视/ASUS PA32UC* 系列 这个成本最低就是 MacBook Pro 裸机,大概两万块钱。 也可以把 MacBook Pro 换成 Mac Studio 或者 Mac Pro 或者 Mac mini,M1 base MacBook Air 相信也不是这个配置的目标用户但你硬要这么剪也不是不行。 iPad Pro 12.9 在有达芬奇支持后也进入了可以凑合用的状态,但干活还是不够。 Windows 下的 HDR 视频剪辑方案是: 任意 Windows 台式机 + BMD DeckLink Monitor 上屏卡 + LG 电视/ASUS PA32UC* 系列 这个成本最低,也是差不多两万块钱(一万块钱的电视 + 一万块钱的电脑)。 不要碰任何 HDR1000 以下的显示器。 大部分 HDR1000 的显示器色准/PQ 响应也是飞的,可以打游戏但不适合干活。 比如说,不要碰 ThinkVision Creator Extreme。这个显示器,你用 cleanfeed 上屏仍然会受到固件影响,比如说超过 10% 窗口高亮有可能掉到 600nits 这种问题虽然你几乎不会这么调色,但还是非常蛋疼。 Windows 和 macOS 下没有任何,注意,是目前没有任何对 HDR 屏幕进行色彩校准的方法,只能祈求显示器厂家出厂的时候校准了并且听天由命。 达芬奇 cleanfeed 目前只支持第二显示器,所以自带 OLED/miniLED 的 Windows 笔记本暂时是用不了的。 Premiere Pro 的 HDR 工作能力大概比大便还大便,那体验大概是公厕里丢砖头激起民愤。 能实现校准的唯一方式是把硬件校准数据写入显示器,而提供最准确校准的 HDR 设备目前是 LG 的 CX/1/2 电视开工程模式。 或者你在机器和显示器之间搞个 lutbox 拦截信号然后加校正但你如果玩这个了想必你也不用看我的这条。 以上是我折腾了一年多各种 HDR 得出的结论,没有任何恰饭,每一条都是我用真金白银砸出来的教训,没啥捷径,还是得加钱。 没想到吧.jpg

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人