ℹ国外艺术家用 Unreal Engine 5 引擎制作 “超真实版” 日本越中大门驶(有影片)#

ℹ国外艺术家用 Unreal Engine 5 引擎制作 “超真实版” 日本越中大门驶(有影片)# 上个月,Epic Games 才宣布推出 Unreal Engine 5 正式版,近日已经有国外电脑艺术家透过这个引擎,制作出一个日本越中...

相关推荐

封面图片

ℹ国外艺术家用 AI 绘图获得 Sony 世界摄影大奖,但他决定拒绝领奖#

ℹ国外艺术家用 AI 绘图获得 Sony 世界摄影大奖,但他决定拒绝领奖# Sony 世界摄影大奖赛是全球领先的摄影大赛,每年都会举办,吸引不少摄影界工作的摄影师和艺术家参加,而今年 2023 有趣的地方在,有一位...

封面图片

语言:#汉语 #翻译艺术家:#荒卷越前

语言:#汉语 #翻译 艺术家:#荒卷越前 男性:#眼镜 女性:#萝莉 #女生制服 其他:#单行本 #无修正 预览:[荒巻越前] 性春は君のナカ [中国翻訳] [无修正] [DL版]-1 原始地址:https://exhentai.org/g/2763182/3e71dca924/ 评分:4.69 收藏数:2399

封面图片

语言:#汉语 #翻译艺术家:#越山弱衰

语言:#汉语 #翻译 艺术家:#越山弱衰 男性:#正太 #单男主 #丧失童贞 女性:#大乳晕 #巨乳 #口交 #黑皮 #熟女 #马尾辫 #单女主 其他:#全彩 #无修正 预览:[越山弱衰] プラモ融かして… (COMIC アンスリウム 2023年1月号) [中国翻訳] [カラー化] [DL版]-1 原始地址:https://exhentai.org/g/2669503/e0c62316b5/ 评分:4.77 收藏数:2143

封面图片

65岁日本艺术家用Luma“复活”已故11年的妻子

65岁日本艺术家用Luma“复活”已故11年的妻子 图片来源:XKoya Matsuo(松尾公也)是一位65岁的日本AI艺术家、IT编辑和音乐人,为了纪念他逝去了11年的妻子小鸟酱(Tori-chan),他用Luma的AI视频Dream Machine制作了一段视频,并发布在了社交媒体。图片来源:X该视频引发了许多网友的关注,播放量超过了40万次,不少网友称,“这简直就像是《哈利波特》里的魔法”。视频内容如下:图片来源:X有网友在这条视频下留言,表示AI技术的进步在这些地方得以体现,不禁让人泪目。图片来源:X据外媒报道,2013年6月25日,松尾公也的妻子小鸟酱因乳腺癌不幸逝世。此后,松尾公也陷入对妻子的巨大思念中。每当AI视频和音乐生成工具面世,65岁的松尾就开始疯狂学习,想法设法用它们“复活”妻子。这次Dream Machine爆火,松尾公也在第一时间试用。图片来源:Technoedge他在发表于TECHNOEDGE中的文章里表示:“我使用它的目的并不是为了电影等视频制作,而是用于静态图像,尤其是让人物动起来。更具体地说,是为了看到11年前去世的妻子的动态身影。”松尾公也用1978至1987年间拍摄的胶片照片,通过Remini技术进行高清化处理,再利用Luma Dream Machine转换成视频,实现了让妻子在视频中“复活”的愿望。图片来源:X据他本人介绍,他把妻子高中时的一张照片(拍摄于1978 年)上传到Dream Machine,然后输入提示词:“a girl is talking with her friend on a moving train(在移动的火车上,一个女孩正在与她朋友交谈)”,从而生成视频。照片中的人随着火车的震动而摇晃,窗外的阴影变化也被反映出来了。图片来源:X他还找出妻子的数张照片,先用SD生成图像,然后使用Dream Machine将这些静态画面转化为动态视频。在尝试过程中,松尾公也发现,如果动作太大,比如回头或站起来,视频中的脸部往往会与本人不符。他推测这可能是因为AI的训练数据偏向欧美人。为了解决这个问题,他尝试使用“... is looking at me(某某正在看着我)”或“... is staring at the viewer(某某正凝视着观众)”等提示词,成功生成了视线始终朝向他的视频。这是1985年他们在筑波博览会拍摄的照片。图片来源:X松尾给的提示词是:“a girl is looking at me(一个女孩正在看着我)”,然后,Dream Machine生成了让他每看一次都会心动的视频。图片来源:X为了使作品更加完整,他把妻子保留下来的声音进行取样,利用 Suno的Voiceflex功能作词作曲,最终为妻子生成一条音乐MV:《Can Dream Machine Dream?》,完成了一次跨越时空的音乐与影像的融合。图片来源:X有网友表示:“AI没有温度,但是用AI的人有。” ... PC版: 手机版:

封面图片

这位姐姐要成为第一个嫁给AI投影的人 谈恋爱越来越科幻了

这位姐姐要成为第一个嫁给AI投影的人 谈恋爱越来越科幻了 就感觉这个世界算是越来越疯癫了。目前她在自己的社交媒体@hybridcouples中发布了一系列和自己投影恋人的恋爱日常。像是坐在一起吃饭,边吃边唠嗑。一起在厨房干活,虽然知道投影也做不了什么,但在厨房有人陪你干活,似乎也不错。目前还不知道Alicia Framis的技术团队是如何制作这种投影伴侣的,在我看来有可能是一种视频特效,只是用于辅助这位姐姐的艺术概念,具体细节估计会在后续的婚礼以及纪录片中揭晓。不过光是从这些片段来看,两人倒是琴瑟和鸣,感情极好,堪比“赛博倩女幽魂”。据介绍,这个AILex是由Alicia Framis自己精心设计的互动全息投影,并且还使用了不同前男友的资料与数据进行训练,制作出的AI实体。听起来就像是融合了各家所长,如同炼丹般创造了一个全是优点的前任集合体。而她的婚礼将在今年中旬于荷兰鹿特丹的一家博物馆举行,目前婚礼的细节还在筹备,她还在设计自己与宾客的礼服。 到时候来宾将见证人类与AI的全新关系,并且为了强化这一特色,宾客还将吃到独特的分子美食。而通过这种艺术形式,Alicia Framis试图思考人类与AI的结合到底会是什么样子,将会有哪些收获与问题。例如AI投影的陪伴肯定有 好的一方面,这类伴侣比机器人更像是人,可以满足人们不同的精神需求。想象一下,你的恋人可以在你需要的时候呼之即来,永远陪在你身边,只要付得起网费电费就能没完没了地聊天。它永远有耐心理性,博闻强识,愿意倾听,和你站在一起。当然这种虚拟陪伴也有弊端。就如同和Chatgpt谈恋爱,只能聊天,没有拥抱等身体接触。无法参与到你的生活中,帮你打扫卫生、做家务,当你受伤它也没法伸出援助之手等等。更要命的是隐私完全没法保障,毕竟任何AI背后都是一家公司,各种信息并不会完全属于你自己。只不过这种相处模式或许不能满足所有人, 但填补精神空虚应该是够了 。Alicia Framis说自己身边就有朋友痛失恋人,并且很难投入到新的恋情,她觉得这种情况下如果让AI投影作为陪伴者,或许就是一个很好的选择。Alicia Framis的婚礼还有一段时间才会举办,但话说回来,其实在很早之前就有人选择和全息投影结婚,让虚拟人物成为自己的伴侣。例如日本全息投影设备Gatebox就能提供和虚拟角色的结婚服务,这台机器可以生成“二次元电子伴侣”,与使用者进行语音互动。其中 最知名的使用者就是日本老哥Akihiko Kondo,他在2018年就和虚拟角色举办了一场婚礼。他多年来深爱着初音未来这个角色,而刚好Gatebox在前几年提供过她的全息投影角色服务,于是婚礼就这么办起来了。尽管他的决定没有得到家人的支持,更是被不少网友嘲笑讨伐,婚礼更不会受到法律与社会的认可,但他还是花了 17600美元来举办仪式。 当时陪他走入婚礼殿堂的是一个初音玩偶:甚至他还自备了戒指,套在了自己和玩偶的手上。 Gatebox还给他提供了一张“跨次元”的结婚证书,来证明他对角色的情感。婚礼现场也邀请到了数十位宾客,看起来也算是热闹:比较疯狂的是,做出这种选择的人并不稀少,Gatebox在2022年就已经为超过3000人举办过和虚拟角色的婚礼了。而在前一阵,Gatebox还宣布准备接入ChatGPT,准备让这种虚拟角色更具真实感,不知道会不会让更多人因此爱上虚拟伴侣。总之,无论是曾经的日本老哥还是现在的女艺术家,大家的思路异曲同工。找活人谈恋爱不容易,不如自己定制一个AI陪自己。当然,钱包依然要够厚,还要期待服务商别轻易倒闭,不然老婆老公可能说没就没了。 ... PC版: 手机版:

封面图片

OpenAI Sora问世 通往AGI的又一个ChatGPT时刻

OpenAI Sora问世 通往AGI的又一个ChatGPT时刻 因为看完Sora你可能会发现,OpenAI自己可能要用它先杀死GPT-4了。每个人都可以创造自己的世界了先来看看Sora。人们一直期待GPT-5,但Sora带来的轰动不亚于一次GPT-5的发布。作为OpenAI 首推的文本转视频模型,Sora能够根据文本指令或静态图像生成长达 1分钟的视频,其中包含精细复杂的场景、生动的角色表情以及复杂的镜头运动。同时也接受现有视频扩展或填补缺失的帧。每条提示60秒的视频长度与Pika Labs的3秒、Meta Emu Video的4秒、和Runway公司Gen-2的18秒相比,妥妥地铁赢了。并且从官方发布的演示来看,无论从视频流畅度还是细节表现能力上,Sora的效果都相当惊艳。比如官推里这条14秒的东京雪景视频。提示词:Beautiful, snowy Tokyo city is bustling. The camera moves through the bustling city street, following several people enjoying the beautiful snowy weather and shopping at nearby stalls. Gorgeous sakura petals are flying through the wind along with snowflakes.“美丽的,被雪覆盖的东京正繁忙着。镜头穿过繁忙的城市街道,跟随着几个享受雪景和在附近摊位购物的人。美丽的樱花瓣随风飘落,与雪花一同飞舞。”穿着时尚的女性漫步在霓虹背景的东京街头,地面有积水倒影。对于五官和皮肤的刻画十分真实,特别是痘印和法令纹,细节让人惊叹。猛犸象自冰川雪原中缓步从来,背后升腾起雪雾。烛火旁纯真顽皮的3D动画小怪物,光影、表情和毛茸茸的细节满分:一名24岁女性的眼部特写,足以以假乱真。无人机视角的海浪拍打着Big Sur加瑞角海岸崖壁,落日洒下金色光芒。窗台上的花朵开放延时影像:民众们上街舞龙,庆祝中国农历春节。可爱小猫咪在线安抚起床气。夜晚街道跑着的快乐小狗。两艘微型海盗船在一杯咖啡里对峙。加州淘金时代罕见“历史影像”流出 像吗?Sora做的。目前Sora还在测试阶段,仅对部分评估人员、视觉艺术家、设计师和电影制作人们开放访问权限,拿到试用资格的人们已经开始想象力横飞。Sam Altman就转发网友用Sora制作的“金光灿灿动物园”视频,玩起了自己的“What”梗:他还邀请大家踊跃提出想用Sora制作视频的提示词,团队马上为大家生成,瞬间8千多条回复。网友脑洞大开,要看海洋生物的自行车公开赛。两只金毛在山上戴着耳机开播客。当然也不忘cue一下去向成谜的Ilya,要求生成一个“Ilya眼中的真实世界”。不过OpenAI也表示,虽然Sora 对自然语言有着深入的理解,能够准确洞悉提示词,生成表达丰富的内容,并可以创建多个镜头、保持角色和视觉风格的一致性,但仍不可避免地存在一些弱点。例如,它在准确模拟复杂场景的物理现象方面存在困难,也可能不理解特定的因果关系。比方说“一个人咬一口饼干后,饼干上可能并没有咬痕。”模型也可能混淆提示的空间细节,像是弄错左右。或者“在准确体现随时间发生的事件方面遇到困难,比如遵循特定的摄像机轨迹”。Sora也使用了DALL·E 3的recaptioning技术,该技术涉及为视觉训练数据生成高度描述性的标题。因此模型能够更忠实地按照用户在生成视频中的文本指令进行操作。它能够一次性生成整个视频,或是扩展已生成的视频使其变长。通过让模型一次性预见多帧,解决了即使主体暂时离开视线也能保持不变的挑战性问题。关于安全性,OpenAI表示正与错误信息、仇恨内容和偏见等领域的专家合作,对模型进行对抗性测试。同时也在开发帮助检测误导性内容的工具,识别视频是否由Sora生成。对于违反使用政策的文本提示,例如暴力、仇恨和侵犯他人知识产权等内容,将拒绝显示给用户。除此以外,为DALL·E 3产品构建的现有安全方法也同样适用于Sora。“尽管进行了广泛的研究和测试,我们仍无法预测人们将如何利用我们的技术,也无法预见人们如何滥用它。这就是为什么我们相信,从真实世界的用例中学习,是随时间构建越来越安全的AI系统的关键组成部分。”OpenAI对 Sora信心满满,认为这为模型理解和模拟真实世界奠定了基础,是“实现AGI的重要里程碑”。网友们也第n+1次纷纷哀悼起相关赛道的公司们:“OpenAI就是不能停止杀死创业公司。”“天哪,现在起我们要弄清什么是真的,什么是假的。”“我的工作没了。”“整个影像素材行业被血洗,安息吧。”能杀死GPT-4的世界模型?这不就是吗OpenAI一如既往没有给出很详细的技术说明,但一些只言片语已经足够让你浮想联翩。其中最吸引我们注意的第一个点,是对数据的处理。Sora是一个扩散模型(diffusion model),采用类似GPT的Transformer架构。而在解决训练中文本资料与视频数据之间的统一方面,OpenAI表示,他们在处理图像和视频数据时,把对它们进行分割后得到的最小单元,称为小块(patches),也就是对应LLM里的基本单元tokens。这是一个很重要的技术细节。把它作为模型处理的基本单元,使得深度学习算法能够更有效地处理各种视觉数据,涵盖不同的持续时间、分辨率和宽高比。从最终的震撼效果看,你很难不得出这样一个结论:对语言的理解能力,是可以迁移到对更多形态的数据的理解方法上去的。此前的Dalle-3的效果就被公认很大程度来自OpenAI在GPT上积累的领先N代的语言能力,哪怕是个图像为输出的模型,语言能力提升也是至关重要的。而今天的视频模型,同样如此。至于它是如何做到的,有不少行业内的专家给出了相同的猜测:它的训练数据里使用了游戏领域最前端的物理引擎Unreal Engine5,简单粗暴的理解,就是语言能力足够强大之后,它带来的泛化能力直接可以学习引擎生成的图像视频数据和它体现出的模式,然后还可以直接用学习来的,引擎最能理解的方式给这些利用了引擎的强大技术的视觉模型模块下指令,生成我们看到的逼真强大的对物理世界体现出“理解”的视频。基于这个猜测,OpenAI简短的介绍中的这句话似乎就更加重要了:“Sora 是能够理解和模拟现实世界的模型的基础,OpenAI相信这一功能将成为实现AGI的重要里程碑。”理解,现实,世界。这不就是人们总在争论的那个唯一有可能“干掉”GPT-4的世界模型。现在,OpenAI搞出来了它的雏形,摆在了你的面前。看起来,这个模型学会了关于 3D 几何形状和一致性的知识,而且并非OpenAI训练团队预先设定的,而是完全是通过观察大量数据自然而然地学会的。负责Sora训练的OpenAI科学家Tim Brooks表示,AGI将能够模拟物理世界,而Sora就是迈向这个方向的关键一步。显然,在OpenAI眼里,它不只是一个“文生视频模型”,而是更大的东西。我们如果尝试进一步给一个暴论,就是:语言是理解一切的基础,理解了视频后,世界模型才会到来。可能这才是比今天刷屏感慨“现实不存在了”之外,更恐怖的地方。这可能是人类通往AGI的又一个ChatGPT时刻。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人