终于有时间尝试了一下这几天开放的SD视频生成项目Animatediff,下面是,卧槽这也太强了。

终于有时间尝试了一下这几天开放的SD视频生成项目Animatediff,下面是视频,卧槽这也太强了。 新版还支持镜头控制,可以说是本地版本的Pika了。生成的视频比Pika清晰多了,而且比Runway要稳定很多,再加上SD强大的模型支持,这还用啥Pika。 就是比较吃算力512的视频36帧4070ti要四五分钟。

相关推荐

封面图片

AI视频生成工具Pika Labs火了,Pika在某些场景和生物表现上比“老牌”工具RunwayML要强一些。

AI视频生成工具Pika Labs火了,Pika在某些场景和生物表现上比“老牌”工具RunwayML要强一些。 Pika不像Runway那样有一个非常好用的网页界面,它和Midjourney一样都是在Discord里面使用的,而且官方没有个详细的新手教程。 所以这里我这里就搞了一个保姆级手把手教程(图片顺序就是内容顺序): 首先是如何使用Pika 首先你需要访问他们的官网 点击JOIN BETA按钮。 之后就会打开Discord的服务器加入页面,点击接受邀请就好。如果你还没有Discord账号的话之后就会进入登录或者注册流程这里都是中文按步骤走就行。 当你正常进入服务器后,在左侧找到红框里这几个频道,随便找一个点进去。 之后在频道中输入 / 就会弹出一个/ create 命令选择他 可以看到命令包括两个部分首先是prompt这个很容易理解就是提示词,你需要在这里输入你想要生成内容的文字描述。这里只支持英语。 刚才那张图还有个增加1按钮,点击按钮会出现一个图片上传的区域。如果你想要根据图片来生成的话可以在这里上传需要参考的图片。(强烈建议使用图片生成) 之后回车发送信息耐心等待就行,有人可能找不到你之前的信息,可以在右上角收件箱这里找到所有@ 你的信息,点击跳转就可以到对应位置。 视频生成之后Pika会@ 你,到对应位置就可以下载视频,也可以点击后面的两个按钮重新生成视频。会直接重新生成视频,可以更改提示词重新生成。 最后,如果你一直都是使用图片生成视频的话可以使用/animate命令,直接上传图片不用再点击增加1按钮了。 接下来我们来讲一下Pika的高级参数: 首先是 “-gs XX” Guidance scale 数值越高生成的视频跟你提示词的相关性就越大,用来控制提示词权重的,建议的值为8-24。 “-neg XX” Negative 是反向提示词的意思。跟在参数后面的词语描述的内容不会在生成的视频中出现。 “-ar 16:9”这个玩MJ的就很好理解了,意思是视频比例,如果你输入的是16:9那他就会生成16:9的视频。 “-seed XXX” Seed种子的意思大家应该也都知道了,使用相同的种子会保证视频生成的连续性和相关性,视频的种子可以在下载的视频文件名中获取到。

封面图片

网站Runway网站功能:AI视频生成

网站Runway 网站功能:AI视频生成 网站简介:一款AI视频工具。只需要输入你想实现的视频效果,依靠强大的AI人工智能算法,就可以直接帮你制作视频,支持视频一键抠像、视频内擦除、运动跟踪、音视频自动同步,补帧超慢动作、文字生成图像、图像衍生图像、文字更改视频滤镜风格等等,一系列实用功能,无需下载安装,免费登录即可使用。 网站网址:点击打开 频道: @kkaifenxiang 群组: @blacktechsharing

封面图片

卧槽,Midreal AI这个小说生成工具太强了。

卧槽,Midreal AI这个小说生成工具太强了。 与其他LLM直接生成的所谓根本没有逻辑和情节的“小说”不同。这个产品可以生成真正的小说,逻辑性和创造力都在线,而且还加入了互动能力,每到关键节点会让你选择剧情走向,还会生成一张配图。 下面是我测试的小说的一部分,之前AI生成的小说我根本看不下去,这个居然在我些东西的时候我给听完了。我的提示词是让他生成一个黄金时代科幻风格的克苏鲁神话故事。它非常懂这些上来就把故事地点安排在了因斯茅斯镇。并且克苏鲁神话的经典元素神秘学,和神经病角色一个不少。情节和气氛渲染也很到位。 他们这么厉害主要是强在两个能力: 内存跨越技术:可以实现几乎无限的记忆保留,确保游戏体验长期无缝连接。 长篇写作能力:长篇写作能力能够让叙事从头到尾保持连贯和引人入胜。 接下来说一下如何使用,通过链接进到服务器里面,选择Start频道。输入/start回车,然后输入提示词就是你想要一个什么样的小说。 目前支持中文和英文,我看频道里有人的发了NFSW的提示词,不知道能不能生成。 产品链接: Invalid media:

封面图片

与 Adobe 之前许多有关 Firefly 的公告不同,公司新的视频生成工具没有确定的发布日期无论是测试版还是其他版本只知道它

与 Adobe 之前许多有关 Firefly 的公告不同,公司新的视频生成工具没有确定的发布日期无论是测试版还是其他版本只知道它们将在“今年”推出。虽然这家创意软件巨头展示了其视频模型目前的能力,通过一个早期视频演示,但它计划将 Premiere Pro 与其他提供商的 AI 模型集成,并不是确定的事情。 Adobe 反而称其视频预览中的第三方 AI 集成为对“未来”可能的样子的“早期探索”。其想法是根据 Adobe 的说法,为 Premiere Pro 用户提供更多选择,允许他们使用像 Pika 这样的模型来延长镜头,或者在为他们的项目生成 B 卷时使用 Sora 或 Runway AI。Adobe 还表示,其内容凭证标签可以应用于这些生成的剪辑上,以识别使用了哪些 AI 模型来生成它们。 标签: #Adobe #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

终于有普通人可以立刻使用的类 Sora 视频生成工具了!#ai# #sora#

终于有普通人可以立刻使用的类 Sora 视频生成工具了!#ai视频# #sora# 海外产品 viva 发布了首个开放给全部用户使用的 Sora 同架构视频生成模型,而且现阶段免费。 支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。 文生视频单次可以生成一条 5 秒的视频,图生视频是 4 秒视频 我测试了一下应该是目前运动幅度最大的视频生成模型,同时图像分辨率也是现在可以用的视频生成产品中最大的。文生视频的效果比图生视频要更好,同时如果要是用的话建议把运动幅度调到 20 左右比较合适。 viva 优势领域就是可以生成比较好的竖屏视频,目前很多视频模型的演示都是横屏视频,竖屏的表现并不好,但是短视频又是视频内容的大头,所以竖屏视频的生成质量是个很重要的指标。 但是一致性有一部分测试中保持的不是很好,同时没有表现出 Sora 那样强大的物理特性模拟以及 3D 一致性。跟谷歌 刚发布的 Veo 模型对比来看在写实内容上其实以及差不多了。 下面是 viva 的视频演示,15 秒开始有相同的提示词跟谷歌刚发布的 Veo 模型的对比。 这里体验 viva:

封面图片

卧槽,Open AI的大招终于来了,发布视频生成模型 Sora,从演示来看生成时长、运动幅度以及稳定性均碾压现在的所有生

卧槽,Open AI的大招终于来了,发布视频生成模型 Sora,从演示来看视频生成时长、运动幅度以及稳定性均碾压现在的所有视频生成模型。 Sora能够创作出长达一分钟的视频,不仅保证了视频的视觉质量,还能准确响应用户的指令。将在今天想有限的访问者开放。 模型优势: Sora能够创造出包括多个角色、特定动作类型以及对主题和背景的精确细节描述的复杂场景。这款模型不仅能理解用户在指令中提出的需求,还能洞察这些元素在现实世界中是如何存在和表现的。 这款模型对语言的理解非常深刻,使其能够精准地识别用户的指令,并创造出表情丰富、情感生动的角色。此外,Sora还能在同一视频内制作多个镜头,同时确保角色的形象和整体的视觉风格保持一致。 工作原理: Sora是一种扩散模型(diffusion model),它通过从类似静态噪声的视频出发,逐步去除噪声,从而在多个步骤中生成视频。 Sora不仅能一次生成整个视频,还能延长已有视频的长度。我们通过使模型能够预见多个画面帧,解决了确保视频中主题即使暂时离开画面也能保持一致的难题。 Sora采用了类似于GPT模型的变压器架构(transformer architecture),这为其带来了优异的扩展性能。 在Sora中,视频和图像被表示为一系列小块数据,称为“补丁”(patches),每个补丁都类似于GPT中的“令牌”(token)。通过统一数据表示方式,我们能够在之前不可能的更广泛视觉数据范围内训练扩散变压器,包括不同的时长、分辨率和长宽比。 Sora基于DALL·E和GPT模型的研究成果。它采用了DALL·E 3中的重标记技术(recaptioning technique),为视觉训练数据生成详细描述的标题。因此,模型能更准确地遵循用户在生成视频中的文字指令。 除了能从文字指令生成视频外,Sora还能将现有静止图像转化为视频,准确地动态展现图像内容并关注细节。此外,它还能扩展现有视频或填补视频中缺失的画面。 了解更多:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人