周鸿祎称Sora生成视频堪比CG:未做3D建模 只需文字就可逼真描绘

周鸿祎称Sora生成视频堪比CG:未做3D建模只需文字就可逼真描绘他认为,对比Pika和Runway是做不出这样效果的。Pika和Runbway实际上是基于图形图像本身的操作来进行生成。只是形成一种比较简单的计算机动画的效果。周鸿祎说:“即使是用常规呢计算机CG电影工业特效来看这三个画面,那也会非常难做,但是到了Sora这里,这些细节都会变得非常简单,只要给出一些文字的提示要求,就能逼真描绘出来”。他认为,Sora是没有做3D建模的。如果Sora也只是用3D建模再进行渲染,那么这和传统的电影工业走的是一样的路,这样就不具备颠覆性和革命性了。周鸿祎猜测Sora做到如此效果有三点原因:1、Sora模拟了人类观察、描绘、表现世界的方法。如果人类画师用笔画出来这三个场景,人类的大脑里不需要3D建模,因为人类对世界有基本认知。人类可以随意想象出自己要做的事,可以控制自己所想。2、Sora在学习的过程中,用了很多视频、电影的内容来作为训练输入。当输入一些画面,不仅要解读出画面的元素,还要解读出一些物理定律。openAI的论文中曾提到recaptioning技术,意思是对每一帧画面都能够用文字来描述。这点也正符合人类认知世界的方法。3、openAI产生了很多3D内容。不排除它用现在游戏引擎做了很多实时3D模型的渲染,再利用这些3D模型把更多的物理知识训练给Sora。周鸿祎表示,Sora是记录文生视频AIGC的工具,它反映了AI对世界的理解,是从文字进入图像,再从图像展示对这个世界3D模型的理解。...PC版:https://www.cnbeta.com.tw/articles/soft/1418931.htm手机版:https://m.cnbeta.com.tw/view/1418931.htm

相关推荐

封面图片

周鸿祎:推测 Sora 生成视频应没有靠 3D 建模训练 而是模拟人类智能

周鸿祎:推测Sora生成视频应没有靠3D建模训练而是模拟人类智能在抖音个人直播间中,360创始人周鸿祎表示对OpenAI文生视频应用Sora的逼真效果十分惊讶。据其推测,Sora生成逼真的视频背后应该没有靠3D建模训练。如果Sora也只用3D建模再进行渲染,那么这和传统的电影工业走的是一样的路。他认为,Sora应该是模拟人类智能理解真实世界规律,掌握了人类观察、描绘、表现世界的方法。人类的大脑里不需要3D建模,因为人类对真实世界的物理规律有基本认知,可以控制自己所想。

封面图片

周鸿祎称 Sora 工作原理像人做梦

周鸿祎称Sora工作原理像人做梦今日上午,360创始人、董事长周鸿祎发布视频分享自己对OpenAI最新的文生视频大模型Sora的见解,他写道:“Sora工作原理像人做梦,未来AGI比的就是算力和对世界的理解。”视频中,他讲到:“用传统计算机、图形学、影视工业特效的方法来重现一些画面的时候,我们喜欢的是3D件模型、建立光照、搞粒子模型、然后一帧一帧地渲染。这种方法实际上是效率非常低、耗费非常贵的。是用一种最笨的方法模拟出了这个世界。但Sora的方法非常像人类的做梦——我们会梦到各种奇奇怪怪的东西,做梦所产生的依据是我们在正常生活中眼睛看到的东西,这种积累的经验,是不需要3D建模然后一帧一帧渲染的。”他还把近期人们关注的Sora在视频中出现的Bug等比做人在做梦时同样会产生的幻觉等违背现实规律的情况。

封面图片

【周鸿祎:“元宇宙”概念明年可能会东山再起】

【周鸿祎:“元宇宙”概念明年可能会东山再起】2024年02月23日06点15分老不正经报道,360创始人周鸿祎表示,受到OpenAI推出Sora影响,元宇宙概念在明年可能会东山再起。他认为,有三样东西会对元宇宙发展有巨大帮助,第一是头显设备,包括苹果推出的VisionPro;第二是AIGC的发展能产生更多3D内容;第三是用AI做3D建模,此后再做渲染。即便如此,元宇宙依然还是应用性概念,不是仿真性概念,仿真性还是人工智能的概念。(澎湃)

封面图片

【周鸿祎:Sora 意味着 AGI实现将从10年缩短到1年】

【周鸿祎:Sora意味着AGI实现将从10年缩短到1年】对于OpenAI发布的首个视频生成模型Sora,2月16日,周鸿祎在微博表示,这次很多人从技术上、从产品体验上分析Sora,实际这些都比较表象,最重要的是Sora的技术思路完全不一样。周鸿祎表示,这次OpenAl利用大语言模型优势,把LLM和Diffusion结合起来训练,让Sora实现了对现实世界的理解和对世界的模拟两层能力,这样产生的视频才是真实的,才能跳出2D的范围模拟真实的物理世界。这都是大模型的功劳。周鸿祎认为,OpenAl训练这个模型应该会阅读大量视频。一旦人工智能接上摄像头,把所有的电影都看一遍,把YouTube上和TikTok的视频都看一遍,对世界的理解将远远超过文字学习,一幅图胜过千言万语,而视频传递的信息量又远远超过一幅图,这就离AGI真的就不远了,不是10年20年的问题,可能一两年很快就可以实现。(全天候科技)

封面图片

对于 OpenAI 发布的首个视频生成模型 Sora,2 月 16 日,周鸿祎在微博表示,这次很多人从技术上、从产品体验上分析

对于OpenAI发布的首个视频生成模型Sora,2月16日,周鸿祎在微博表示,这次很多人从技术上、从产品体验上分析Sora,实际这些都比较表象,最重要的是Sora的技术思路完全不一样。周鸿祎表示,这次OpenAl利用大语言模型优势,把LLM和Diffusion结合起来训练,让Sora实现了对现实世界的理解和对世界的模拟两层能力,这样产生的视频才是真实的,才能跳出2D的范围模拟真实的物理世界。这都是大模型的功劳。周鸿祎认为,OpenAl训练这个模型应该会阅读大量视频。一旦人工智能接上摄像头,把所有的电影都看一遍,把YouTube上和TikTok的视频都看一遍,对世界的理解将远远超过文字学习,一幅图胜过千言万语,而视频传递的信息量又远远超过一幅图,这就离AGI真的就不远了,不是10年20年的问题,可能一两年很快就可以实现。(全天候科技)

封面图片

周鸿祎:Sora 意味着 AGI 实现将从 10 年缩短到 1 年

周鸿祎:Sora意味着AGI实现将从10年缩短到1年据证券时报,三六零周鸿祎认为,Sora意味着AGI实现将从10年缩短到1年。他分析说,OpenAI训练这个模型应该会阅读大量视频,大模型加上Diffusion技术需要对这个世界进行进一步了解,学习样本就会以视频和摄像头捕捉到的画面为主。一旦人工智能接上摄像头,把所有的电影都看一遍,把YouTube上和TikTok的视频都看一遍,对世界的理解将远远超过文字学习,一幅图胜过千言万语,而视频传递的信息量又远远超过一幅图,这就离AGI真的就不远了,不是10年20年的问题,可能一两年很快就可以实现。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人