#原来胡图图有原型冷知识:#胡图图的原型是导演儿子# !图图标志性的大耳朵也是参考了他:”我妈创造大耳朵图图的时候,确实是因

#原来胡图图有原型# 冷知识:#胡图图的原型是导演儿子# !图图标志性的大耳朵也是参考了他:”我妈创造大耳朵图图的时候,确实是因为我小时候耳朵比较大。“并且很多情节是借鉴了生活中的小片段:”那时候速畅在日常生活中会发生一些非常可爱的小故事,就成为了创作图图时灵感来源。“戏外的”图图“也是幸福的小孩![哇] via 新浪娱乐的微博

相关推荐

封面图片

资源标题:大耳朵图图 S05 2160p

资源标题:大耳朵图图 S05 2160p 资源描述:◎年代 2016 ◎产地 大陆 ◎类别 动画 / 儿童 ◎豆瓣 9.2 ◎简介 《大耳朵图图》的主角灵感来自现实生活,曾获得第23届中国电视金鹰奖“最佳编导”和“优秀长篇美术片”两大奖项。   胡图图是一个机灵,淘气聪明的小孩三岁小孩,他天生快乐,心地善良,喜欢多管闲事,精力充沛,对周围的事物非常好奇,并且还有自己独特的见解和超强想象力,他的言行常常让人大跌眼镜。他爱胡思乱想,最大的特点就是好吃,每次一提到说到考试就能想到烤红薯和羊肉串,还会观察想象成一种好喝的茶,而且为了有零食吃可以做出违背自己原则的事情,他的可爱和自作聪明让每个人忍俊不禁。 大小:13.82G 标签:#大耳朵图图 #动画 来自:雷锋 频道:@Aliyundrive_Share_Channel 群组:@alyd_g 投稿:@AliYunPanBot

封面图片

大耳朵图图 系列合集描述:《大耳朵图图》的主角灵感来自现实生活,曾获得第23届中国电视金鹰奖“最佳编导”和“优秀长篇美术片”两大

大耳朵图图 系列合集 描述:《大耳朵图图》的主角灵感来自现实生活,曾获得第23届中国电视金鹰奖“最佳编导”和“优秀长篇美术片”两大奖项。 胡图图是一个机灵,淘气聪明的小孩三岁小孩,他天生快乐,心地善良,喜欢多管闲事,精力充沛,对周围的事物非常好奇,并且还有自己独特的见解和超强想象力,他的言行常常让人大跌眼镜。他爱胡思乱想,最大的特点就是好吃,每次一提到说到考试就能想到烤红薯和羊肉串,还会观察想象成一种好喝的茶,而且为了有零食吃可以做出违背自己原则的事情,他的可爱和自作聪明让每个人忍俊不禁。 链接: 大小:X 标签:#动画 #儿童 #大耳朵图图 #quark 频道:@yunpanshare 群组:@yunpangroup

封面图片

很抱歉打扰你的浏览但是今天是我宇宙无敌可爱的老婆砂狼白子的生日。白子虽然原型是狼,但是她的耳朵也是软软的,让人忍不住rua两下。

很抱歉打扰你的浏览但是今天是我宇宙无敌可爱的老婆砂狼白子的生日。白子虽然原型是狼,但是她的耳朵也是软软的,让人忍不住rua两下。她的侧颜就像刚刚绽放的莲花,清纯可爱。骑自行车时,骑行服勾勒出了她完美的身体曲线白子。换上泳装的她显得更加性感。她的异瞳也是那么的独一无二,一旦跟她对视,视线就无法移开。平时的白子是个乖巧懂事却又不善言辞的孩子,虽然偶尔脑子会抽风,想着抢银行之类的违法的事,但是这丝毫不会掩盖她的个人魅力。游戏中,初来乍到的为师与她邂逅,在相处之中逐渐温暖她的内心,现实生活中她的存在就像我黑暗世界里照射进来的一束光,温暖,滋润着我干涸的心田。无论如何,希望大家在今天,在5.16日,祝我们可爱的白子同学生日快乐。转发这条消息到5个群聊就能穿越到基沃托斯跟白子一起抢银行,我试了,是假的,而且会被说二次元蒸鹅心,但是我愿意

封面图片

我们刚刚提到,JPG 的修图空间很小,假如再次基于 JPG 进行修图,那原图丢失和篡改的信息就更多了。

我们刚刚提到,JPG 的修图空间很小,假如再次基于 JPG 进行修图,那原图丢失和篡改的信息就更多了。 所以对于摄影师而言,看到 JPG 不满意,其实是回到 Raw 文件重新修,而不是基于 JPG 修。以此来保证摄影作品的质量。 好在新闻的篇幅不算太长,也并非属于严肃学习的场景,失真容错率相对较高。用摘要快速确定是否感兴趣 & 大致内容读个压缩版是很有用的。 用 AI 学习长文章 / 长视频 / 长播客(转文字脚本) 在这种场景下,摘要失真的容错率会低很多(尤其是严肃科普阅读)。但阅读的方法论不同,我们可以一在定程度上克服这种失真。模仿修图师的思维,就是一个答案。 有人说:假如文本长度为 75000 个单词,一般人用时大约 5 个小时读完等量内容后,还得用更多的时间去消化、记忆、分析。而对于 Claude, 大约不到 1 分钟就搞定。 备注:Claude 的 API 目前能记住 100k tokens 的长度,而同时的 gpt-3.5 能记住大约 4k tokens;而目前 slack 里的 Claude 机器人大概是 9k tokens 那是不是说人类就不需要学习了?当然不是,至少 AI 目前为止的定位和程度还是工具,而不是独立的生命。回看 AlphaGo,给人类棋手的学习带来了崭新的启发,其实是加速学习和带来崭新的启发。 回到用 AI 阅读学习材料这件事情上来,如果你用过 Chatpdf 类似的产品,你就会发现当 AI 帮你把 pdf “读”完之后,它会提出大概 3 个可能值得提出的问题,从而引导你提问和获得启发。(Chatpdf 不是真的帮你消化了完整的内容,下面 我会解释) 刚刚我们从摄影聊到了金句的逆向,我特别提到一句话是:「没有背景的情况下,全靠脑补特别难」。 换句话说,假如有背景,那金句和摘要带来的可能性就发挥了更大的价值。 就好像修图师找得到某个 JPG 的 Raw 原文件,找不到的话,客户不满意就没法重新修图了。 对于 AI 而言: 预训练已经“提前帮你看过了很多内容”,这是第一部分; 而我们的上下文聊天发送的内容,是看过的第二部分内容,两部分合力发挥作用。 总结一下: AI 工具之于短平快的新闻的价值在于摘要本身,主打的就是一个快速获得资讯。 AI 工具之于严肃学习的价值不是摘要,此时的摘要类似于金句,价值在于「逆向思考的过程并获得启发」,单纯接收 AI 的摘要不足以构建知识。因为逆向思考需要一定的背景,否则很难推导和获得知识。然而 AI 的长处就是给你提供用于逆向思考所可能的背景知识,类似于一个可能存在的 Raw 文件),它由预训练的部分(非 prompt) + 你提供的上下文组成。 OK,区分开两个大致的场景和方向,AI 的「真实效益」便可以最大化。混淆了读新闻和读长文这两个场景就很难用好 AI,自然会把 AI 当成一个车轱辘话生成器。 至此,如果你延伸思考,你就会知道 Prompt 的重要性来源于哪里 即通过 Prompt “唤醒”预训练中的知识作为金句 / 摘要背后可能的背景铺垫(Prompt 本身也是),然后进行更好的推理来输出答案。 在过去几个月里,最常见的 Prompt 句式:「你是一个 xxx」,就是如此。然而,正如我刚刚提到的,别忘了这种模版只不过是 Prompt 中的一部分,另一部分是知识。知识,也是一种 Prompt(字符串)。 例如,假如你关心「营销」,你可以在 Prompt 里插入一段和营销有关的书籍原文,再在后面提一些问题。如果你用 Claude-100k,甚至可以在聊天开始的时候直接给他一整本书获得摘要。(效果如何,我还需要继续测试和观察,以后再给大家写测评) 紧接着,以摘要为线索,通过聊天获得新的思考和观点,和 AI 相互启发,才能有所收获。 换句话说,在严肃学习这个场景下,思考的过程才有价值。但奈何我理解原材料(Raw)的能力可能不够强,所以我让 AI 先生成一个摘要(JPG 1),但是我们不把 JPG 1 直接作为新知识,而是通过 JPG 去指引我们找到 Raw 文件,一边自行思考一边问 AI 是如何加工这个 Raw 文件的,从而来和自己的思考过程形成对照。自然能找到自己思考卡壳的地方等等。 在这个前提之下,我们再在聊天告一段落的时候,基于我们的思考进行摘要就好太多了(获得了你自己的修图版本 JPG 2)。即便 AI 可能有所遗漏,我们也会有所觉察并进行补充(毕竟你认真思考过了)。 另外,尝试进行公开写作,其实是一个运用费曼学习的过程。更多的思考,见 @Szhans 让我们一起回忆一下,阅读长文的流程可以是: 1⃣ 第一步:先摘要 借助 AI 的强大力量判断感不感兴趣,以及文章大致的重点清单。然后甚至可以一开始就问 AI:「请围绕这篇文章的核心观点提出最值得思考的 5 个问题」。然后看看有没有感兴趣的,以此来激发自己的好奇心和求知欲。 2⃣ 第二步:基于摘要中最感兴趣的观点进行逆向思考 例如,你提到的「xxx」这个观点特别有意思,能不能说说原文中提到的原话是什么,作者提到了一个怎样的场景、故事或者实验案例? 3⃣ 第三步:基于逆向思考和聊天进行摘要、整理和校对。 可见,再学习的场景下,凡第二步我们才进入了「修图模式」,而不是直接进行智能摘要,并把这个摘要作为自己所得的新知识。 请注意,上面只是一个参考而不是标准答案。也有时候我会读完了文章再拿去让 Claude 也读一读再和我聊。 AI 在这个过程中大致做了两件事情。首先,是基于一个 JPG 指引我们回到 Raw 文件;其次,是全程可以辅助我们加工 Raw 文件。 今天,我们在自学方面终于也拥有了摄影意义上的 PS 了。 细节:在第二步中,有时候还是不太好理解消化,你可以继续追问: 1⃣ 你刚刚提到的「xxx」这段话很难理解,你能不能用给中学生讲解的口吻通俗易懂地向我再解释一下呢? 2⃣ 请你善用比喻、类比、拟人的修辞手法。 3⃣ 能不能请你举一反三,告诉我这个观点如何应用于我们的生活,可以给我们带来怎样的指导? 上面是我常用的提问法,三个可以一起用。但是,特别注意,根据我的经验: 1⃣ 一次最好只针对摘要中的一个论点进行分析,这样的话整个回复的篇幅都会集中于此。 2⃣ 反之,如果你一次就让他分析三个观点,那么每一个观点也只是简单谈谈而已,不如逐个击破。 3⃣ 耐心地复制原文。大家在微信怎么回复消息的,是不是长按某一条消息引用来回复?又或者在飞书和 slack 里创建话题 / 消息列来进行收束?同理,当我们聊天已经进行了一段时间后,最好复制特定内容后再向 AI 提问,这样别人才知道重点嘛~(也是在帮助对方回忆内容) 至此,你应该知道为什么上下文长度如此重要了,Claude 也许目前编码能力和翻译能力不如 ChatGPT,但是其文科理解能力特别强。他是你学习文科类内容的「靠谱同学」。在长度拓展到 100k tokens 之后,你可以想象其逆向能力的强大。(理论上) 其他问题:Chatpdf 不是也能读长文吗?和 Claude-100k 区别在哪里呢? 注意,这个和 Chatpdf 不同,由于 gpt-3.5 只有 4k 上下文(相比之下),所以 Chatpdf 实际上是把 pdf 原文切分为了很多小块。通俗地说就是: 当你提问的时候,程序先搜索我们的问题从语义上看最相关的一个或多个 pdf 片段,然后把这部分内容作为 prompt 的一部分,合并你提问输入的 prompt,以及程序内部预设的一些 prompt 模版,共同传给了 大模型,然后我们才得到了最终回答。如果每次都把 pdf 原文发过去,就超出长度限制报错了。 在这个过程中,pdf 会被怎样切分呢?例如,每隔 1000 就切分为一个小片段。 你也许已经想到了:假如刚好有些重点被切开了,岂不是影响了 AI 的理解?这个方法确实是。但是也有一些技术方案尽可能缩减这种偏差。 而最新的 Claude API,看官方文档说的是「上下文长度」就能记忆 100k tokens,这就和切分 pdf 的方法划出了界限。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人