哔哩哔哩李阿玲

李阿玲在我的一个Windows工作站上面,TeXworks的PDF渲染性能烂得令人发指。这就是一个典型的包袱叠包袱的做法。我不是说生成PDF不对。TeX系的DVI格式本身就是很轻量的东西,就算是在GUI上渲染,基本都是流畅级别。现有的这些TeX编辑器,生成PDF需要压缩数据,显示的PDF时候需要解压数据,这不就脱裤子放屁级别的做法,CPU满头大汗加问号。但是,这东西他们做不出来,也实在是情有可原:没时间读文档啊。当然,对我的自我批评就是:我虽然读了文档,但是习惯性摸鱼多年(要是有足够的钱就可以随便写自己想写的代码了)。

相关推荐

封面图片

长期摆烂、陷入倦怠:如何利用假期重获动力?_哔哩哔哩_bilibili

我最近可能有点“AI倦怠”了。上午在B站看了个“倦怠”主题的热门视频,发现里面的一些描述,跟我最近的情况还蛮像。比如,“你先是感到身体疲惫,休息不好,每天起床都很困难……你会逐渐从身体疲惫发展为心理疲惫。”我最近身体确实有点疲惫,经常睡前好几个小时,啥都不想干,运动完就去看电影解说,一看便看到很晚。心也有点累,没动力写东西了,之前每天几条帖子,现在几天不写一条帖子。视频里还说,倦怠的最大诱因,是慢性压力。那么,我在AI领域感受到的慢性压力有哪些呢?我也结合视频中提到的两大表现来展开吧。【表现一】总感觉事情在掌控之外视频中对这种失控的描述,是“生活就好像在玩一个扫雷游戏,我最大的愿望就是千万别出事儿”。而我对生成式AI的失控感,是AI的「做不到」。AI确实提效,AI确实有巨大想象空间。但很多业务中的真实问题,也绝不是随便找款AI工具就能解决的。更甚者,一些AI工具的实用效果,还不如互联网工具和RPA。其实,越是AI的高价值应用场景,越需要整个AI工程师团队去做定制化。在定制化的过程中,既要确保AI有稳定解决业务真实问题的能力,又要确保业务方真的愿意和能够在工作中用起来。坏消息是,在找外部AI工具这件事上,我“浪费”了一个多月。也正是这段时间的负反馈,让我逐渐产生了“AI倦怠”的苗头。本想趁国庆学学Python和其他AI技术的,但心太累了,没学动。好消息是,公司AI工程师们为业务方定制的AI工具,节前终于小规模用起来了。与此同时,我在AI情报上的突出表现,得到了话事人的肯定。【表现二】永远无法停止对「生存之大问题」的思考本来,在当前这个就业形式下,不管我在干啥,大脑后台都在持续运转着一些大问题:“如何才能保住现在的工作?未来失业了要怎么办?怎么样才能搞到钱?”这段时间,我在工作上又遇到了些阻碍。虽然第一时间就跟直属领导汇报了卡点,交流了应对方式,但内心中恐惧的声音,却不降反增,直到把人消耗得心疲力竭。好像越是难受的时候,我越喜欢在大问题上胡思乱想。反而一旦有了点小正反馈,我更倾向于找小的优化点去突破。看来,会不会使用AI,都不影响我们受「生存之大问题」的困扰。

封面图片

ChatGPT炸裂级更新!人人可开发的GPTs会带来哪些改变?_哔哩哔哩_bilibili

GPTs会让AI使用者进一步分化,会带来两类趋势:1、把简单变得更简单:虽然ChatGPT本身就是自然语言对话的过程,但在现阶段的使用还是存在一定的门槛的,要让ChatGPT帮助自己完成一项复杂的任务,依然还是需要自己理解GPT模型的特性,善于拆解自己遇到的问题,从而一步步获得满意的答案,所以他要求用户有较好的逻辑能力、提问能力和Prompt技巧。而GPTs退出后,这些技巧和要求进一步降低了,你只需要在特定场景下使用其他人封装制作好的GPTs即可;2、技术平权,让会用的人获益:对于有较好的逻辑能力,对AI模型理解的人来说,确实是能做到用自然语言编程,不再因为自己缺乏开发能力而受限,既可以自制应用自己使用提升效率;也能把自己对行业、对AI、对用户需求的理解封装为GPTs,获取收益。本质来说,我觉得是以下几类人能从GPTs这个趋势中获益:1)在某个特定行业(AI除外)深耕的人:他们可以利用自己对所在行业/职业的理解,积累的数据与认知,去制作更好的GPTs应用;比如你很容易用ChatGPT帮你写小红书,你甚至也可以轻易就制作一个能生产小红书标题/笔记的GPTs,但是只有当你是真的理解小红书,知道小红书笔记的生成流程,知道什么是好的标题、什么是好的内容的时候,你才可能设计出真正有用的GPTs。2)对用户需求有洞察的人:这个用户可以是C端用户,也可以是B端商家,你总是得知道他们现在面临的问题是什么,他们有什么需求你才能制作出符合他们需要的东西啊;所以实际上,古典产品经理,一些有方法论知道怎么洞察需求的人其实是能在这边潮流中获益的;现在才真的是人人都是产品经理的时代。3)逻辑能力强&AI实践经验丰富的:实际上现在模型在进行产出时依然存在很多特点,比如「它并不想要成功」,比如它产出结果不稳定,比如对复杂任务它产出的结果通常较差等等,需要真正理解这些问题背后的机制,能处理好这些问题的人才能写好GPTs。---补充:昨天写完这条动态后,特意做了期视频,做了更完整的分析。

封面图片

【建议收藏】除了Chat GPT外,10款超好用的AI工具!_哔哩哔哩_bilibili

发现一个宝藏小姐姐视频除了最近大火的ChatGPT外,AI到底还能帮我们做什么?最近我把大部分主流的AI工具都体验了个遍,挑了一些好用的推荐给大家:【AI绘画】Midjourney:https://www.midjourney.com/home/StableDiffusion:https://stablediffusionweb.com/DALL·E2:https://labs.openai.com/【代码生成】Copilot:https://github.com/features/copilotCodeium:https://codeium.com/Replit:https://replit.com/【AI辅助写作】ChatGPT:https://chat.openai.com/Craft:https://www.craft.do/Notion:notion.so/ComposeAI:https://www.compose.ai/copy.ai:http://copy.ai/Jasper:https://www.jasper.ai/copysmith:https://copysmith.ai/【PPT生成】Tome:https://beta.tome.app/【语音/视频合成】MurfAI:https://murf.ai/ResembleAI:https://www.resemble.ai/Synthesia:https://www.synthesia.io/AdobePodcast:https://podcast.adobe.com/Craft的使用方法,可以看我之前的视频【笔记软件颜值的天花板!Craft!附白嫖攻略】https://www.bilibili.com/video/BV1CD4y187U5/ChatGPT的表现,可以看我之前的视频【火爆全网的ChatGPT,到底是个啥???超强科普】https://www.bilibili.com/video/BV1xG4y137He/

封面图片

【选Mac还是PC?交了这么多学费后,我终于悟了...-哔哩哔哩】

【选Mac还是PC?交了这么多学费后,我终于悟了...-哔哩哔哩】https://b23.tv/Lxzq48i影视飓风曾经花了20万把所有工作流转到ARMBased的Mac,结论就是,这是不可行的。你还是得结合着用PC。我的结论差不多。达芬奇在macOS上效果是最好的,如果你用的是H.264/H.265/ProRes,那就非常舒服。但现在Intel12/13代的硬解有了后观看差距很小(加了降噪Mac的表现可以洗洗睡了。还有硬件编解码器出bug就寄了。不过HDR的工作流还是Mac比较方便。那结论是啥:我全都要咯!

封面图片

在最近录的那期播客里分享了一些用 AI 写作的经验,这里写一条精简版的笔记。

在最近录的那期播客里分享了一些用AI写作的经验,这里写一条精简版的笔记。用AI创作的核心原则是:“不要让AI代替你思考,而是让AI激发你思考。”目前和AI创作有关的教学,都是“用chatGPT一天写10条短视频文案”这一类的内容,都在教大家怎么批量地创造低质量的内容。这就是非常典型的“让AI代替你思考”的例子。你期待自己不需要动脑子,通过几句简单的咒语,AI就能帮你写完你想要的东西,这件事情在此刻还挺困难的。正确的做法应该是,希望你能自己先开始创作,创作遇到瓶颈时,再让AI出马。比如:1⃣你打开了一份空白的文档,很想写点东西,但是看着这空空的文档十分恐惧,不知如何下笔。这时候,你可以告诉AI你想写的主题,并且让它帮你生成一个大纲,你再往大纲里填充内容。或者,让它帮你写完第一自然段,你开始再续写它的内容。2⃣你文思泉涌,在文档上洋洋洒洒写了一千个字,但是写得越多越感觉灵感枯竭,十分头疼。这时候,你可以告诉AI:“我在写一篇关于xxx的文章,并且已经写了A、B、C这个几个观点了,请你扮演一位对这个主题感兴趣但了解不多的读者,向我提出10个问题。”从而让AI通过提问的方式来激发你的灵感。3⃣你的脑海中有一些有关联的关键词,但始终不知道如何将它串成完整的句子,这时候,你可以把这些词输入给AI,并告诉它:“我在写一篇主题为xxx的文章,请你根据我的主题将我输入给你的关键词,串成一个完整的句子。”这才是正确的用AI来进行创作的方法。“不要让AI代替你思考,而是让AI激发你思考”。#AI工作流

封面图片

【3Blue1Brown熟肉】注意力机制可视化_哔哩哔哩_bilibili

3Blue1Brown刚出了Transformer的系列科普视频,做得很好。之前看过不少讲Transformer的课程和文章,包括李宏毅老师的课程在内,最后都陷在矩阵运算的过程里,几乎没有能把K、Q、V三个矩阵的象征意义讲清楚的。3Blue1Brown通过自己最擅长的动画和类比,把这套Attention的原理讲得比较浅显和直白。具体来说,“Attention像是问每个vector一连串问题,然后根据这串问题的答案来更新自己。”Query矩阵就像是在问:"AreyouinEnglish?",“Areyouanoun?”,"Doyourefertoaperson?","Areyouanumber?","Isyourtonepositive?"等等,Key矩阵就像是vector对这个问题的答案,而Value矩阵则代表向量自己根据这个答案和相关性权重进行的自我调整。整个过程有点像是物理中的受力分析,每个AttentionHead代表一种力,通过Q和K找到所有施力的对象,再通过V来计算受力的大小,最后,把多个AttentionHead代表的多个力进行加总,计算出合力的方向和大小,作用在最后一个Vector上,从而指向nextembedding。之所以叫transformer,就是指各个不同的力汇总在一起,将原本的vector扭曲到了一个新的方向上。相比之前的RNN、LSTM之类的模型,Transformer的强大在于其支持并发计算。细想之下,这种并行的自注意机制颠覆了语言中的时间观,顺序不再重要。这让我想起《你一生的故事》/《降临》里七肢桶的语言-把完整的生命在眼前一下子同时铺开,没有先后,没有早晚,没有时间。类似的,Sora中的所谓spacetimepatches,索性把空间也和时间打包在一起,颇像是爱因斯坦相对论里对“时空”的理解。或许,所谓的时间、空间,其实都是伪概念,只不过是tokens/patches的一种分布方式而已。还挺有趣的。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人