微软计划将 OpenAI 的 Sora 视频生成模型整合进 Copilot

微软计划将 OpenAI 的 Sora 视频生成模型整合进 Copilot 微软广告和网络服务部门 CEO Mikhail Parakhin 近日在推特与网友互动时表示,OpenAI 开发的视频生成器 Sora 将最终与 Copilot 集成,但需要一些时间。 将这两款工具整合在一起有可能为开发人员创造一个强大的利器,让他们能够在工作中利用这两个 AI 模型的强大功能。考虑到 Sora 几天前才刚刚公开测试,还需要一段时间才能在 Copilot 中使用。 虽然 Parakhin 的并未提供 Sora 与 Copilot 集成的具体时间表,不过他的回复表明微软最终致力于实现这一目标。来源 , 频道:@kejiqu 群组:@kejiquchat

相关推荐

封面图片

OpenAI的Sora视频生成模型也能用来渲染游戏

OpenAI的Sora视频生成模型也能用来渲染视频游戏 这篇题为《作为世界模拟器的视频生成模型》(Video generation models as world simulators)的论文由多位 OpenAI 研究人员共同撰写,揭开了 Sora 架构关键方面的神秘面纱例如,Sora 可以生成任意分辨率和长宽比(最高 1080p)的视频。根据论文所述,Sora 能够执行一系列图像和视频编辑任务,从创建循环视频、向前或向后延伸视频到更改现有视频的背景。但最吸引笔者的还是 Sora"模拟数字世界"的能力,OpenAI 的合著者如是说。在一次实验中,OpenAI 将 Sora 放到 Minecraft 上,让它在控制玩家的同时渲染世界及其动态(包括物理)。Sora 在 Minecraft 中控制一名玩家,并渲染视频游戏世界,请注意,颗粒感是由视频到 GIF 的转换工具造成的,而不是 Sora。图片来源:OpenAIOpenAI那么,Sora 是如何做到这一点的呢?正如 NVIDIA 高级研究员 Jim Fan(通过 Quartz)所说,与其说 Sora 是一个创意引擎,不如说它是一个"数据驱动的物理引擎"。它不仅能生成单张照片或视频,还能确定环境中每个物体的物理特性,并根据这些计算结果渲染照片或视频(或交互式 3D 世界,视情况而定)。合著者写道:"这些功能表明,继续扩展视频模型是开发物理和数字世界以及其中的物体、动物和人的高能力模拟器的一条大有可为的途径。"现在,Sora在视频游戏领域也有其通常的局限性。该模型无法准确模拟玻璃碎裂等基本互动的物理过程。即使在可以建模的互动中,Sora 也经常出现不一致的情况,例如在渲染一个人吃汉堡时,却无法渲染汉堡上的咬痕。不过,如果我没看错的话,Sora 似乎可以为更逼真(甚至可能是逼真)的程序生成游戏铺平道路。这既令人兴奋,又令人恐惧(考虑到Deepfake的影响)这也许就是为什么 OpenAI 选择暂时将 Sora 关在一个非常有限的访问程序后面的原因。相关文章:OpenAI 推出文本到视频人工智能模型 SoraOpenAI首个视频生成模型发布 能生成长达1分钟的高清视频 ... PC版: 手机版:

封面图片

据 MSPowerUser 报道,微软广告和网络服务部门 CEO Mikhail Parakhin 近日在推特与网友互动时表示,

据 MSPowerUser 报道,微软广告和网络服务部门 CEO Mikhail Parakhin 近日在推特与网友互动时表示,OpenAI 开发的视频生成器 Sora 将最终与 Copilot 集成,但需要一些时间。 Sora 是 OpenAI 开发的一款大型语言模型聊天机器人,用户可以输入任何文字提示,AI 模型将生成长达 60 秒的高质量视频。OpenAI 表示,Sora 被训练使用一个可以简化视频的网络。该网络以常规视频为起点,并对其进行压缩,只保留最重要的部分。然后,Sora 从这些简化的视频中学习来创建新的视频。将这两款工具整合在一起有可能为开发人员创造一个强大的利器,让他们能够在工作中利用这两个 AI 模型的强大功能。考虑到 Sora 几天前才刚刚公开测试,还需要一段时间才能在 Copilot 中使用。 虽然 Parakhin 的推文并未提供 Sora 与 Copilot 集成的具体时间表,不过他的回复表明微软最终致力于实现这一目标。 via 匿名 标签: #微软 #OpenAI #Sora 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAl Sora 视频生成耗时长:挑战与机遇并存

OpenAl Sora 视频生成耗时长:挑战与机遇并存 OpenAI 发布的Sora模型虽然能够根据文本生成逼真视频,但1分钟视频需要超过1小时渲染时间,反映了当前AI视频生成技术的挑战和未来的改进空间

封面图片

人工智能公司 OpenAI 向好莱坞推荐视频生成技术Sora

人工智能公司 OpenAI 向好莱坞推荐视频生成技术Sora 人工智能公司 OpenAI 在好莱坞发起了魅力攻势,与派拉蒙、环球和华纳兄弟探索等主要电影公司举行了会议,展示其视频生成技术 Sora,并缓解对人工智能模型将损害电影行业的担忧。据多位知情人士透露,首席执行官萨姆•奥尔特曼和首席运营官布拉德•莱特卡普在最近几天举行的会议上向电影行业巨头的高管们做了介绍。奥尔特曼和莱特卡普展示了 Sora 一个新的生成式人工智能模型,能够根据简单的文字提示生成细节栩栩如生的视频。

封面图片

奥尔特曼选取网友提示词 用OpenAI新款大模型Sora生成视频

奥尔特曼选取网友提示词 用OpenAI新款大模型Sora生成视频 一位时髦女士漫步在东京街头,周围是温暖闪烁的霓虹灯和动感的城市标志。一名年约三十的宇航员戴着红色针织摩托头盔展开冒险之旅,电影预告片呈现其穿梭于蓝天白云与盐湖沙漠之间的精彩瞬间,独特的电影风格、采用35毫米胶片拍摄,色彩鲜艳。竖屏超近景视角下,这只蜥蜴细节拉满:OpenAI表示,公司正在教授人工智能理解和模拟运动中的物理世界,目标是训练出能够帮助人们解决需要与现实世界互动的问题的模型。在此,隆重推出文本到视频模型Sora。Sora可以生成长达一分钟的视频,同时保证视觉质量和符合用户提示的要求。OpenAI创始人兼CEOSam Altman(奥尔特曼)太会玩了,让网友评论回复Prompt(大语言模型中的提示词),他选一些用Sora生成视频。截至发稿,奥尔特曼连发多条根据网友提示词生成的视频,包括不同动物在海上进行自行车比赛、发布自制面疙瘩烹饪教学视频的祖母、两只金毛犬在山顶做播客、日落时分火星上进行的一场无人机竞赛等。但这些视频时长为9秒至17秒不等。技术层面,Sora采用扩散模型(diffusion probabilistic models)技术,基于Transformer架构,但为了解决Transformer架构核心组件注意力机制的长文本、高分辨率图像处理等问题,扩散模型用可扩展性更强的状态空间模型(SSM)主干替代了传统架构中的注意力机制,可以使用更少的算力,生成高分辨率图像。此前Midjourney与Stable Diffusion的图像与视频生成器同样基于扩散模型。同时,Sora也存在一定的技术不成熟之处。OpenAI表示,Sora可能难以准确模拟复杂场景的物理原理,可能无法理解因果关系,可能混淆提示的空间细节,可能难以精确描述随着时间推移发生的事件,如遵循特定的相机轨迹等。根据OpenAI关于Sora的技术报告《Video generation models as world simulators》(以下简称报告),跟大语言模型一样,Sora也有涌现的模拟能力。OpenAI方面在技术报告中表示,并未将Sora单纯视作视频模型,而是将视频生成模型作为“世界模拟器”,不仅可以在不同设备的原生宽高比直接创建内容,而且展示了一些有趣的模拟能力,如3D一致性、长期一致性和对象持久性等。目前Sora能够生成一分钟的高保真视频,OpenAI认为扩展视频生成模型是构建物理世界通用模拟器的一条有前途的途径。报告指出,OpenAI研究了在视频数据上进行大规模训练的生成模型。具体而言,联合训练了文本条件扩散模型,该模型可处理不同持续时间、分辨率和长宽比的视频和图像。OpenAI利用了一种基于时空补丁的视频和图像潜在代码的变压器架构。最大的模型Sora能够生成一分钟的高保真视频。结果表明,扩展视频生成模型是构建通用物理世界模拟器的有前途的途径。报告重点介绍了OpenAI将各类型视觉数据转化为统一表示的方法,这种方法能够对生成模型进行大规模训练,并对Sora的能力与局限进行定性评估。先前的大量研究已经探索了使用多种方法对视频数据进行生成建模,包括循环网络、生成对抗网络、自回归转换器和扩散模型。这些研究往往只关注于狭窄类别的视觉数据、较短的视频或固定大小的视频。而Sora是一个通用的视觉数据模型,它能够生成跨越不同时长、纵横比和分辨率的视频和图像,甚至能够生成长达一分钟的高清视频。OpenAI从大型语言模型中汲取灵感,这些模型通过训练互联网规模的数据获得通用能力。LLM范式的成功在一定程度上得益于令牌的使用,这些令牌巧妙地统一了文本的不同模式代码、数学和各种自然语言。在这项工作中,OpenAI考虑视觉数据的生成模型如何继承这些优势。虽然LLM有文本令牌,但Sora有视觉补丁。之前已经证明,补丁是视觉数据模型的有效表示。补丁是一种高度可扩展且有效的表示,可用于在多种类型的视频和图像上训练生成模型。Sora支持采样多种分辨率视频,包括1920x1080p的宽屏视频、1080x1920的竖屏视频以及介于两者之间的所有分辨率。这使得Sora能够直接以原生纵横比为不同的设备创建内容。同时,它还允许在生成全分辨率内容之前,使用相同的模型快速制作较小尺寸的内容原型。 ... PC版: 手机版:

封面图片

OpenAI的Sora AI视频应用将于2024年公开发布

OpenAI的Sora AI视频应用将于2024年公开发布 到目前为止,OpenAI 只允许少数受邀用户试用 Sora,部分原因是公司希望确保使用的安全性。不过,OpenAI 的首席技术官米拉-穆拉提(Mira Murati)在接受《华尔街日报》采访时表示,目前的计划是在 2024 年晚些时候向公众推出 OpenAI。事实上,她说"可能还要几个月"才能公开发布 Sora。人们对 Sora 以及所有基于文本提示的人工智能工具的担忧之一,是其大型语言模型的数据来源。就 Sora 而言,Murati 说它使用了 OpenAI 从 Shutterstock 获得授权的内容。不过,她拒绝透露更多数据来源,称这些数据来自"公开或授权数据"。目前,Sora 只能创建无声视频,而且在创建过程中不能对这些剪辑进行编辑。穆拉提确实说过,OpenAI 正在努力为 Sora 的剪辑添加音频和编辑工具。目前,还没有消息表明 OpenAI 将向公众收取多少使用 Sora 的费用。据 Murati 称,OpenAI 希望将 Sora 的定价与其 DALL-E 3 AI 艺术创作者的定价类似。不过,米拉补充说,Sora 在功能和支持方面对 OpenAI 来说"要昂贵得多"。当然,OpenAI 最大的财务和开发合作伙伴是微软,微软已将其 Chat-GPT 和 DALL-E 模型纳入其 Copilot 服务。就在 Sora 发布之后,有人问微软 X(前 Twitter)广告和网络服务主管 Mikhail Parakhin,Sora 是否也会加入 Copilot。帕拉金回答说:"最终会的,但这需要时间"。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人