OpenAI 推出文本到视频人工智能模型 Sora
OpenAI推出文本到视频人工智能模型Sora根据OpenAI的介绍博文,Sora能够创建"具有多个角色、特定运动类型以及主体和背景准确细节的复杂场景"。该公司还指出,该模型能够理解物体"在物理世界中的存在方式",还能"准确解释道具并生成表达生动情感的引人注目的角色"。该模型还能根据静态图像生成视频,以及在现有视频中填充缺失的帧或扩展视频。OpenAI的博文中包含的Sora生成的演示包括淘金热时期加利福尼亚州的空中场景、从东京火车内部拍摄的视频等。许多演示都有人工智能的痕迹--比如在一段博物馆的视频中,地板疑似在移动。OpenAI表示,该模型"可能难以准确模拟复杂场景的物理现象",但总体而言,演示结果令人印象深刻。几年前,像Midjourney这样的文本到图像生成器在模型将文字转化为图像的能力方面处于领先地位。但最近,视频技术开始飞速进步:Runway和Pika等公司都展示了自己令人印象深刻的文字转视频模型,而Google的Lumiere也将成为OpenAI在这一领域的主要竞争对手之一。与Sora类似,Lumiere也为用户提供了文字转换视频的工具,还能让用户通过静态图像创建视频。Sora目前只对"红队"人员开放,他们负责评估模型的潜在危害和风险。OpenAI还向一些视觉艺术家、设计师和电影制片人提供访问权限,以获得反馈意见。它指出,现有模型可能无法准确模拟复杂场景的物理现象,也可能无法正确解释某些因果关系。本月早些时候,OpenAI宣布将在其文本到图像工具DALL-E3中添加水印,但指出这些水印"很容易去除"。与其他人工智能产品一样,OpenAI将不得不面对人工智能逼真视频被误认为是真实视频的后果。...PC版:https://www.cnbeta.com.tw/articles/soft/1418385.htm手机版:https://m.cnbeta.com.tw/view/1418385.htm