“-motion 1” 代表生成视频的动作幅度数字越大生成的动作幅度越大,目前只支持0/1/2/3/4这几个数字。

“-motion 1” 代表生成视频的动作幅度数字越大生成的视频动作幅度越大,目前只支持0/1/2/3/4这几个数字。 “-fps 24”这个也容易理解,这个参数可以控制生成视频的帧率,确保多个视频的帧率是一致的,目前支持8-24的整数。 最后是一些需要注意的点: • 目前Pika单个视频的时长为3秒,更长的视频可以使用相同种子生成自己拼接。 • 不建议使用纯文字生成,生成的视频分辨率较低,图片生成的话尽量使用清晰的高质量图片。 • 现在生成的视频都是有水印的,如果你发的内容很好@pika_labs 发现后有可能会给你无水印版本的邀请。 好了这就是教程的全部内容,如果觉得有帮助的话可以点个赞,也可以转发给你需要这类型内容的朋友们,感谢各位。

相关推荐

封面图片

突然发现 Liblib 可以在线使用 SVD 生成视频了,之前想尝试但是苦于 Comfyui 的可以去试试了。

突然发现 Liblib 可以在线使用 SVD 生成视频了,之前想尝试但是苦于 Comfyui 的可以去试试了。 默认是生成 1024 分辨率的视频,下方的Motion Strength值开的越大运动幅度越大,画面里有人像或其他生物特写的建议开小点。 这里尝试:

封面图片

AI视频生成工具Pika Labs火了,Pika在某些场景和生物表现上比“老牌”工具RunwayML要强一些。

AI视频生成工具Pika Labs火了,Pika在某些场景和生物表现上比“老牌”工具RunwayML要强一些。 Pika不像Runway那样有一个非常好用的网页界面,它和Midjourney一样都是在Discord里面使用的,而且官方没有个详细的新手教程。 所以这里我这里就搞了一个保姆级手把手教程(图片顺序就是内容顺序): 首先是如何使用Pika 首先你需要访问他们的官网 点击JOIN BETA按钮。 之后就会打开Discord的服务器加入页面,点击接受邀请就好。如果你还没有Discord账号的话之后就会进入登录或者注册流程这里都是中文按步骤走就行。 当你正常进入服务器后,在左侧找到红框里这几个频道,随便找一个点进去。 之后在频道中输入 / 就会弹出一个/ create 命令选择他 可以看到命令包括两个部分首先是prompt这个很容易理解就是提示词,你需要在这里输入你想要生成内容的文字描述。这里只支持英语。 刚才那张图还有个增加1按钮,点击按钮会出现一个图片上传的区域。如果你想要根据图片来生成的话可以在这里上传需要参考的图片。(强烈建议使用图片生成) 之后回车发送信息耐心等待就行,有人可能找不到你之前的信息,可以在右上角收件箱这里找到所有@ 你的信息,点击跳转就可以到对应位置。 视频生成之后Pika会@ 你,到对应位置就可以下载视频,也可以点击后面的两个按钮重新生成视频。会直接重新生成视频,可以更改提示词重新生成。 最后,如果你一直都是使用图片生成视频的话可以使用/animate命令,直接上传图片不用再点击增加1按钮了。 接下来我们来讲一下Pika的高级参数: 首先是 “-gs XX” Guidance scale 数值越高生成的视频跟你提示词的相关性就越大,用来控制提示词权重的,建议的值为8-24。 “-neg XX” Negative 是反向提示词的意思。跟在参数后面的词语描述的内容不会在生成的视频中出现。 “-ar 16:9”这个玩MJ的就很好理解了,意思是视频比例,如果你输入的是16:9那他就会生成16:9的视频。 “-seed XXX” Seed种子的意思大家应该也都知道了,使用相同的种子会保证视频生成的连续性和相关性,视频的种子可以在下载的视频文件名中获取到。

封面图片

终于有时间尝试了一下这几天开放的SD视频生成项目Animatediff,下面是,卧槽这也太强了。

终于有时间尝试了一下这几天开放的SD视频生成项目Animatediff,下面是视频,卧槽这也太强了。 新版还支持镜头控制,可以说是本地版本的Pika了。生成的视频比Pika清晰多了,而且比Runway要稳定很多,再加上SD强大的模型支持,这还用啥Pika。 就是比较吃算力512的视频36帧4070ti要四五分钟。

封面图片

OpenAI宣布将在数字内容中加入不可见水印以便可以检测AI生成内容

OpenAI宣布将在数字内容中加入不可见水印以便可以检测AI生成内容 今年早些时候 OpenAI 已经在 DALL-E 3 图像生成模型中接入了 C2PA 相关标准,即生成的图像会标记来自该模型,也就是证明这是由人工智能创作的图像。OpenAI 称当 Sora 文本生成模型视频广泛推出时也会为 Sora 生成的视频内容添加 C2PA 元数据,可以识别视频来自 Sora 生成而不是真实拍摄等。值得注意的是 C2PA 标准元数据是可以删除的,一个简单的例子就是对于 DALL-E 3 生成的图像只需要修改图片元数据甚至直接截图就可以抹掉 C2PA 信息,所以 OpenAI 还准备了不可见的水印。不可见水印俗称盲水印,这种水印肉眼无法识别,但一些特殊的工具对图片进行处理后是可以读取盲水印的,OpenAI 的计划就是在后续实施盲水印,用难以删除的不可见信号标记音频等数字内容。既然添加盲水印那 OpenAI 也会提供对应的检测工具,OpenAI 已经开发了用于检测 AI 模型生成内容的检测分类器,该分类器从今天开始向一些研究人员提供,该工具主要可以检测 DALL-E 3 生成的图像,准确率为 98%,大约会有不到 0.5% 的非 AI 生成的图像也会被标记为 AI 生成,这个后续 OpenAI 还会继续优化。 ... PC版: 手机版:

封面图片

文生视频软件 Pika 官方近日宣布推出画面扩充功能,用户输入文字生成图像后,若需要一些额外的画面,可以点击 Expand

文生视频软件 Pika 官方近日宣布推出视频画面扩充功能,用户输入文字生成图像后,若需要一些额外的画面,可以点击 Expand Canvas 功能按钮扩展画面。同时,Pika 还支持调整视频风格,点击编辑按钮,输入用户想要的风格提示,就可以轻松切换视频的风格。 是一个视频制作平台,用户可以上传自己的创意想法,Pika会自动生成相关的视频。主要功能有:支持多种创意想法转视频,视频效果专业,操作简单易用。平台采用免费试用模式,定位面向创意者和视频爱好者。 需求人群:"适用于需要快速制作推广视频的个人和中小企业;适用于有视频创意但缺乏制作能力的创意者。" 使用场景示例: 用户输入旅游博客文章,Pika自动生成相关的旅游推广视频 用户上传产品设计草图,Pika快速呈现产品特性的展示视频 用户提供婚礼主题和音乐,Pika制作完整的婚礼视频 产品特色: 支持文字、素描、音频等方式输入创意 人工智能生成高质量视频 提供多个视频模板和特效选择 支持在线视频编辑和发布

封面图片

终于有普通人可以立刻使用的类 Sora 视频生成工具了!#ai# #sora#

终于有普通人可以立刻使用的类 Sora 视频生成工具了!#ai视频# #sora# 海外产品 viva 发布了首个开放给全部用户使用的 Sora 同架构视频生成模型,而且现阶段免费。 支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。 文生视频单次可以生成一条 5 秒的视频,图生视频是 4 秒视频 我测试了一下应该是目前运动幅度最大的视频生成模型,同时图像分辨率也是现在可以用的视频生成产品中最大的。文生视频的效果比图生视频要更好,同时如果要是用的话建议把运动幅度调到 20 左右比较合适。 viva 优势领域就是可以生成比较好的竖屏视频,目前很多视频模型的演示都是横屏视频,竖屏的表现并不好,但是短视频又是视频内容的大头,所以竖屏视频的生成质量是个很重要的指标。 但是一致性有一部分测试中保持的不是很好,同时没有表现出 Sora 那样强大的物理特性模拟以及 3D 一致性。跟谷歌 刚发布的 Veo 模型对比来看在写实内容上其实以及差不多了。 下面是 viva 的视频演示,15 秒开始有相同的提示词跟谷歌刚发布的 Veo 模型的对比。 这里体验 viva:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人