生数科技发布中国首个 Sora 级视频模型 Vidu

生数科技发布中国首个Sora级视频模型ViduVidu由生数科技与清华大学联合推出,采用Diffusion与Transformer融合架构U-ViT,支持生成长度16秒、分辨率1080P的视频。该模型不仅能够模拟物理世界,还拥有丰富想象力,具备多镜头生成、时空一致性高等特点。清华大学教授、生数科技首席科学家朱军表示,自今年2月Sora发布推出后,团队基于长期积累的经验,在短短两个月进一步突破长视频处理的关键技术。Vidu之所以能够达到这样的效果,是因为其技术路线正好与Sora高度一致。关注频道@TestFlightCN

相关推荐

封面图片

中国团队发布视频大模型Vidu 称达到Sora级别

中国团队发布视频大模型Vidu称达到Sora级别中国科研团队在一场未来人工智能先锋论坛上,发布视频大模型Vidu,称它达到了Sora级别。据中国新闻网报道,清华大学联合生数科技星期六(4月27日)在2024中关村论坛年会未来人工智能先锋论坛上,正式发布中国首个长时长、高一致性、高动态性视频大模型——Vidu。该模型采用团队原创的Diffusion与Transformer融合的核心技术架构U-ViT,支持一键生成长达16秒、分辨率高达1080P的高清视频内容。据介绍,Vidu不仅能够模拟真实物理世界,还拥有丰富想象力,具备多镜头生成、时空一致性高等特点。Vidu是自Sora今年2月发布推出之后全球率先取得重大突破的视频大模型,性能全面对标国际顶尖水平,并在加速迭代提升中。清华大学教授、生数科技首席科学家朱军在论坛上说,与Sora一致,Vidu能够根据提供的文本描述直接生成长达16秒的高质量视频。除在时长方面的突破外,Vidu在视频效果方面实现显著提升,主要体现在模拟真实物理世界、多镜头语言、时空一致性高、理解中国元素等方面。朱军说:“值得一提的是,Vidu采用的是‘一步到位’的生成方式。Vidu的命名不仅谐音‘Vedio’,也蕴含‘Wedo’的寓意。”2024年4月28日9:04PM

封面图片

生数科技联合清华发布视频大模型Vidu 全面对标Sora

生数科技联合清华发布视频大模型Vidu全面对标Sora据介绍,Vidu不仅能够模拟真实物理世界,还拥有丰富想象力,具备多镜头生成、时空一致性高等特点。Vidu是自Sora发布之后全球率先取得重大突破的视频大模型,性能全面对标国际顶尖水平,并在加速迭代提升中。与Sora一致,Vidu能够根据提供的文本描述直接生成长达16秒的高质量视频。值得一提的是,短片中的片段都是从头到尾连续生成,没有明显的插帧现象,从这种“一镜到底”的表现能够推测出,Vidu采用的是“一步到位”的生成方式,与Sora一样,文本到视频的转换是直接且连续的,在底层算法实现上是基于单一模型完全端到端生成,不涉及中间的插帧和其他多步骤的处理。...PC版:https://www.cnbeta.com.tw/articles/soft/1428888.htm手机版:https://m.cnbeta.com.tw/view/1428888.htm

封面图片

生数科技发布视频大模型 可生成 16 秒

生数科技发布视频大模型可生成16秒视频Sora发布两个月后,国内多模态模型公司生数科技首次公布文生视频模型进展。4月27日,清华大学人工智能研究院副院长、生数科技首席科学家朱军在2024年2024年中关村论坛上发布首个文生视频模型Vidu。生数科技称,该模型全面对标Sora,能够生成最长为16秒的视频,分辨率1080P。不过生数科技还未开放Vidu的试用,目前已经开放合作伙伴计划,可以填写在线表单申请加入。

封面图片

国产 “Sora” 火了,机构看好的多模态 AI 股出炉

国产“Sora”火了,机构看好的多模态AI股出炉4月27日,在2024中关村论坛年会未来人工智能先锋论坛上,清华大学联合生数科技正式发布中国首个长时长、高一致性、高动态性视频大模型——Vidu。今年年初,OpenAI发布Sora爆火后,掀起了全球竞逐AI视频生成的热潮,也让外界对大模型的关注焦点从单模态转向多模态。而Vidu的发布,则是国内首个具备“长时长、高一致性、高动态性”等特点的视频大模型。从概念股业绩数据来看,75只已出2023年年报的多模态AI概念中,33股实现业绩增长或扭亏,其中大华股份、云鼎科技、浙文互联、洲明科技、万兴科技、盛视科技2023年业绩翻倍增长,利欧股份、新大陆、佳都科技、千方科技等扭亏为盈。概念股中,机构关注度居前的是芒果超媒、恒生电子、中科创达,均有30家及以上券商研报覆盖。根据5家以上机构一致预测,12只概念股今明两年净利润增速均有望超30%。其中中科创达、洲明科技、广联达年内回撤幅度超30%。(数据宝)

封面图片

香港科技大学联合腾讯混元团队和清华推出全新图生视频模型“Follow-Your-Click”:用户指哪动哪

香港科技大学联合腾讯混元团队和清华大学推出全新图生视频模型“Follow-Your-Click”:用户指哪动哪香港科技大学联合腾讯混元团队和清华大学联合推出全新图生视频模型“Follow-Your-Click”,目前已经上架GitHub(代码四月公开),同时还发表了一篇研究论文(DOI:2403.08268)。这款图生视频模型主要功能包括局部动画生成和多对象动画,支持多种动作表达,如头部调整、翅膀拍动等。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

快手发布国内首个效果对标Sora的视频生成大模型“可灵”,现已开放邀测

快手发布国内首个效果对标Sora的视频生成大模型“可灵”,现已开放邀测近日,快手“可灵”视频生成大模型官网正式上线。据介绍,可灵大模型为快手AI团队自研,基于快手在视频技术方面的多年积累,采用Sora相似的技术路线,结合多项自研技术创新,效果对标Sora。可灵大模型不仅具备强大的概念组合能力和想象力,还能够生成大幅度的合理运动、模拟物理世界特性。其生成的视频分辨率高达1080p,时长最高可达2分钟(帧率30fps),且支持自由的宽高比。目前,可灵大模型已在快影App开放邀测体验。(36氪)标签:#快手#Sora#可灵频道:@GodlyNews1投稿:@GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人