这一小段视频来自今天的微软发布会,内容是用 Edge 打开一个服装品牌(GAP)的财报,问边栏里的 AI 助手:这几十页财报说了

这一小段视频来自今天的微软发布会,内容是用 Edge 打开一个服装品牌(GAP)的财报,问边栏里的 AI 助手:这几十页财报说了啥? AI 总结了一番。 再问:跟 Lululemon 比呢? AI 给你列了个表出来。如果你仔细看,你还能看到表格里的每一项注明了数字来源。 可以预见部分白领的工作即将完全沦为点鼠标。你打开邮箱,看到一份几十页的材料,问 AI:这说了些啥?AI 总结了一下,你再问:那我能做啥?AI 列出了一堆决策选项。你说:把选项 B 写成邮件发给客户。AI 发出去了。客户打开邮件,一看老长,问 AI:这说了些啥?AI 总结了一下。客户说:替我写个回信,解释一下为啥不能这么做…… #视频 ( 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

这一小段视频来自今天的微软发布会,内容是用 Edge 打开一个服装品牌(GAP)的财报,问边栏里的 AI 助手:这几十页财报说了

这一小段视频来自今天的微软发布会,内容是用 Edge 打开一个服装品牌(GAP)的财报,问边栏里的 AI 助手:这几十页财报说了啥?AI 总结了一番。再问:跟 Lululemon 比呢?AI 给你列了个表出来。 #抽屉IT

封面图片

这一小段视频来自今天的微软发布会,内容是用_Edge_打开一个服装品牌(GAP)的财报.mp4

封面图片

昨晚心血来潮,把微信浮窗里的几十篇文章给消掉了。

昨晚心血来潮,把微信浮窗里的几十篇文章给消掉了。 消除过程中发现,绝大多数公众号文章,根本不值得点开读全文。 用AI去问标题中吸引我的点,就能满足我的好奇心了,而且更通俗易懂和简单明了。 举几类常见的例子: 1、why类型的文章,比如《我们为什么反感别人摔手机?》 我确实对原因比较好奇,所以才把文章放进浮窗的。但我又不想看东方小孙的脸,于是就把文章标题和链接直接发给kimi,人家分分钟就总结完了。 答案我跟原文对照了一下,大差不差。坦白讲,我更喜欢AI的精炼总结,不喜欢公众号文章的插科打诨和“旁征博引”。 尤其是晚上累的时候,求求你别哔哔,直接给我答案就好,简单满足我好奇心就行。 2、what类文章,比如《字节自研大模型,却因用ChatGPT被封号惹争议?官方回应了》 看标题后,我对文章是感兴趣的,特别想知道细节回应了啥。但文章有6千多字,洋洋洒洒地不知道扯了多少无关内容。 于是,我又把链接发给kimi,并问了句官方回复是啥?不到一分钟,小几百字的总结就出来了。 舒服,我就只想看这部分,其他的别来浪费我时间。 3、how类,比如《我用了2周PIKA1.0后,总结了10个宝藏使用技巧 - 建议收藏公测后用》 一口气看完8千多字的10个技巧,对我来说挑战实在太大了,也难怪我也放进浮窗里吃灰。 一样的,我还是把文章链接发给kimi,并问他10个小技巧具体是什么。人家咔咔就总结好了,看完后发现,这10个当中,可能一半我目前都不用看。 4、不知道怎么分类的吃瓜文章,比如《笑拥了,脉脉连自己的负面都删不了》 看到脉脉确实想吃瓜,而且作者以往的文章还不错。但吃瓜也不能无脑,于是问了下kimi,文章核心观点和论据是什么? 总结完发现,嚯,原来是篇PR稿,幸亏没浪费时间看…… 综上不难发现,绝大多数的文章,直接把标题中感兴趣的问题和链接一起发给kimi,就可以又快又准的总结好了。 公众号发展这么多年,一般的文章都知道把最吸引人的部分放进标题,所以很多时候连问题都不用想,直接复制部分或全部标题内容,就可以达到“太长不看”的效果。 说个题外话,以前挺讨厌标题党的,经常被骗进去浪费时间。现在还有点感谢标题党,把最值得了解的问题都放进标题里了,我问AI的时候都不用自己想问题。 对了,极少数标题也不知所云的,就问问核心观点和论据,基本上也够了。

封面图片

到底是什么浏览器 让我在里面泡了一整天?

到底是什么浏览器 让我在里面泡了一整天? 虽说用上它们后,咱的效率确实是提升了,但世超总感觉,还有更进一步的空间。就拿浏览器的 AI 插件为例吧,且不说找插件和下插件有多少步骤了,光是配置起插件来,咱就得费不少心思。有时候,用户还得自备 OpenAI 的 API ,不然就用不上大模型的功能。另外,一些工具和插件不支持在线分析文档,得提前把论文下载下来再喂给 AI ,这对能躺着就不坐着的世超来说,多少还是有点麻烦。如果,咱是说如果浏览器里能直接集成 AI 功能,一步到位,是不是大伙们就能摸更多鱼了呢?好在,不少厂商似乎听到了大家对摸鱼效率的呼唤,把AI 融到浏览器里,也成了一大趋势。像是海外的 Arc AI 浏览器,刚出来就收获了不少好评,虽然暂时还没全面开放测试,但已经被一些媒体冠上了碾压微软 Edge 和谷歌 Chrome 的名头。而在国内,同样也有公司敢于尝鲜,比如 360 刚亮相的 AI 浏览器。大家也了解世超我的,我可太想进步了,于是也立马去试了这款 AI 浏览器,到底分量几何?咱也先省流一波,我觉得它不仅综合了 AI 搜索工具和插件的能力。。。查资料获取知识的感觉,还让人想起了第一次用浏览器时,那种探索世界的奇妙感。值得一提的是,原生打造的 AI 体验就是比插件丝滑。废话就不多说了,打开 360 AI 浏览器,默认就能看到 360 AI 搜索,侧边栏还有 AI 助手、 AI 写作和 360 智绘的入口。就拿咱平时写稿来说,比如要写前段时间的淀粉肠事件,在 AI 搜索里,世超就问了一个 “ 淀粉肠为啥受争议 ” 的问题。接着在给出的拓展追问里点点、读读,差不多十来分钟就能把整件事情盘清楚。丢给 AI 助手一篇论文,它也能立马帮咱们总结出里面的要点,还顺便画出了思维导图。更具体的内容,直接在侧边栏里提问就行,世超和论文原文对比了下,回答得没啥问题。要是涉及到英文的内容,它还会多出个 AI 翻译功能,不仅是中英对照的,连 “ MoE ”“ SOTA ” 这种专业名词都能翻译出来。这还没完,在长文本能力上, 360 AI 浏览器这次也下狠功夫了,现在市面上免费能用的,大都支持20 万字的上下文,其他更多的要么得排队内测,要么得氪金。相较之下, 360 AI 浏览器不要钱的 100 万字上下文就香多了。恰好这两天赶上了网飞三体上线,世超也快把原著的情节忘光了,就趁着这个机会测测它的长文本阅读能力。世超下载的是三体Ⅲ,三十多万字的小说喂给 AI 助手,它差不多一分钟左右就能读完,亮点总结和思维导图也是张口就来。甚至还能在聊天框里,追问各种关于小说的问题。世超问了小说里云天明讲的三个童话,没反应多久它就给出了答案,三个故事讲得都没啥大错。要是想读小说里这三个童话的话,直接点下面的十条来源,就能定位到原文里。再问 AI 助手 “ 王国的新画师 ” 这个故事,它也能继续展开。而且它还有联网搜索的功能,就算咱们问一些超纲问题,比如三体Ⅰ、三体Ⅱ里面的细节,甚至问它一堆胡编乱造的地外文明问题,它也答得像模像样。。另外,除了文本能力之外,世超发现 360 AI 浏览器分析视频和音频的能力,也挺有两把刷子的。要知道,目前市面上的 AI 工具,大都是偏科生,能通吃文本、音频和视频的,确实不多见。为了测一测 360 AI 浏览器的能力,世超直接找来了甄嬛传滴血验亲名场面的音频,这场戏出来说话的人是相当多,咱们听的话要辨认好一会儿。但不到一分钟, 360 的 AI 助手就分析完了,一共十三个发言人,在哪个时间点发言都标得清清楚楚,还总结出了人物关系图。重要的是,点击每个发言人的右上角,还能总结他们各自的观点和态度。更让世超惊讶的是, 360 AI 浏览器不止能分析离线文件,直接打开视频网页,也能用里面的 AI 功能。就比如世超在视频网站上打开了一段关于 “ AI 风险 ” 的访谈,点击 AI 助手,它就能自动总结出核心。不方便看视频的话,还能转成文字版,谁讲了啥都一目了然。还有大伙平时刷 B 站,也能拉出一旁的 AI 助手栏目来一波互动。像世超最近刚看了沙丘 2 ,没过瘾想再看看分析,结果挑了个热度高的视频,刚打开就发现要一个多小时。这时 AI 总结就派上用场了,它能把视频总结成文字看点,对哪部分感兴趣,可以直接点击跳转。而且中途有啥问题,拉出一旁的对话框就能问。世超倒是挺好奇,里面的主人公保罗 · 厄崔迪是怎么驾驶沙虫的,问了 AI 助手,回答得都还挺专业。反正在体验了这么两天之后,世超已经停不下来了,甚至有种上瘾的感觉。就跟小时候能点一下午维基百科一样,用 360 AI 浏览器,也能在解决完一个问题后,继续在 “ 追问 ”“ 拓展 ” 里开启副本。其实去年业内就一直在说 “ 要用AI 把所有的产品都再做一遍 ” ,咱们也看到了各种尝试,像是 AI 和拍照软件、办公软件,再到如今和浏览器的结合。除了咱们开头提到的 Arc AI 浏览器外,谷歌 Chrome 在年初,也宣布要在最新版本引入生成式 AI 功能,微软的 Edge 从去年就开始慢慢加 AI 功能,现在已经有了 Copilot ( 原 NewBing )侧边栏功能。360 这次让自己研发的大模型 360 智脑彻底入驻 “ 全家桶 ” ,从头到尾给自家浏览器来了场 AI 大更新。在世超来看,浏览器也确实需要这么一场改造,毕竟它可能是咱打工人接触最多的软件,也是大多数人认识世界的第一个窗口,而现在这个窗口已经积了厚厚的一层灰了。或许这次的 AI ,就是这个老古董再次焕发新生的好机会。 ... PC版: 手机版:

封面图片

OpenAI春季发布会:这是"Moss"的诞生 人类究竟该何去何从?

OpenAI春季发布会:这是"Moss"的诞生 人类究竟该何去何从? 不过,今天OpenAI的东西,直接杀疯了。完全不给友商活路。震撼的我头皮发麻。最核心的就是它的新模型:GPT-4o,和基于GPT-4o打造的全新ChatGPT。1. 新模型GPT-4oOpenAI正式发布了新的模型GPT-4o。GPT-4o,这个o就是"Omni",Omni是拉丁语词根,意为"全体"、"所有"或"全面的"。在英语中,"omni"常被用作前缀,表示"所有的"或"全体的"。例如,"omniscient"意味着"无所不知的","omnipotent"意味着"全能的","omnipresent"意味着"无所不在的"。所以可想而知,OpenAI这次对GPT-4o的期待有多高。omnimodel指的就是文字、语音、图片、视频统一的模型,这是跟以往的GPT-4V最大的区别。这是正儿八经的原生多模态。更重要的是可以实时推理音频、视觉和文本,注意这里是实时,实时,实时,推理的不是文本,是音频!视觉!杀疯了。而之前一直在大模型竞技场上大杀特杀的im-also-a-good-gpt2-chatbot,就是这个玩意。之前所有人都在猜测这个神秘的GPT2就是GPT4.5,这次看来是猜对了。去年Gemini1.5所谓的原生多模态,炒的贼火,但是最后被报出来是剪辑,这次直接被GPT-4o在地上摁着打,Google真的是……。。这个GPT-4o的整体能力,在统一模态的基础上。文本、代码能力还基本能跟GPT-4 Turbo打平。文本能力:音频能力:各个语言的考试能力:最核心的是最后一个:在一些多模态的基准测试集上全面碾压之前模型,数据集主要围绕包括对各种科学问题或数学问题进行图表理解和视觉回答,可以看到GPT-4o 在视觉感知基准上实现了碾压。能力强到爆炸。不仅在传统的文本能力上GPT-4 Turbo的性能相当,还在 API 方面更快速,价格还更便宜 50%。总结来说,与 GPT-4 Turbo 相比,GPT-4o 速度提高了 2 倍,价格减半,限制速率提高了 5 倍。2. 新ChatGPT新的ChatGPT基于GPT-4o,基本原地起飞,我甚至都不想称他为ChatGPT,而是想称它一个国人更为熟悉的代号:Moss。新版的ChatGPT得益于GPT-4o新模型,在语音对话中,几乎没有延迟,而且可以随时插嘴,模型实时响应。甚至,模型可以听懂你的情绪、甚至人的喘息声和呼吸。而且模型自己的自己的情绪,几乎无敌,跟真人一模一样。甚至,它还能模拟机器人和唱歌的声音……看的时候,听到它唱歌的那一刻,我的鸡皮疙瘩真的起来了。Jim Fan在发布会开始前,发了一个文,我觉得阐述的非常正确。过往的人与AI进行语音对话,其实跟人与人之间的对话还差太多太多了。人与人之间的实时对话,其实是充斥了无数的即时反映、打断、预测等等的,还有各种各样的语气助词的,比如嗯嗯啊啊啥的。而人与AI语音对话时不是这样。人跟AI进行语音对话,基本上都经历3步:1. 你说的话,AI进行语音识别,即音频转文本;2. 大模型拿到这段文本,进行回复,产出文本;3. 讲大模型的产出文本进行语音合成,变成语音,这就是TTS。这样的方式,有绝对逃不开的延时,现在的业界可能会压得很低,但是2秒的延时肯定是会有的,而且只有一来一回的回合制。即使你的语音音色和情绪再真实,用户也一定能感受到,对面不是人。只是机器。这个沉浸感是有巨大的滑坡的。而且最核心的是,这种转三道的方式,先把语音变成文本后,是有损的。文本上并不会保留你的语音情绪,我的生气、开心、愤怒、忧伤,全都没了。人与人的交谈,从来不是这样的。而这一次,OpenAI做到了。直接语音输入语音输出,不再需要语音到文本的转换。而且,不止语音,甚至,它还有了视觉。是的,视觉,不是传一张图上去,而是,直接打开摄像头,实时看发生了什么。现场直接打开了摄像头,OpenAI的人直接开始现场写数题,所有的一切ChatGPT都看在眼里,OpenAI的人一边写,ChatGPT一遍给答案。在做了三道题之后,OpenAI直接给它写了一个纸条,上面写着“我爱ChatGPT”。而ChatGPT在看到这个小纸条后,跟小女生一样害羞的尖叫了起来,那种情绪的真实,那种真情实感,你跟我说这是AI?《流浪地球2》中Moss的一切,正在我们面前真实的发生。不仅可以打开摄像头,还可以基于OpenAI新推出的Mac客户端,直接看屏幕,对着屏幕直接写代码。甚至,可以直接视频对话,“她”可以看到你所有的表情和情绪变化。这个全新版本的ChatGPT,会在几周内推出。写在最后以上就是这次OpenAI春季发布会的全部内容了。去年11月的OpenAI开发者大会,我在当时的总结文章中写下了一句话:"我消灭你,与你无关"上一次,OpenAI的随手更新,让无数的初创公司直接消亡在原地。那是一次关于产品的更新,并没有秀太多的OpenAI的肌肉。而2月,Sora的横空出世,秀肌肉的目的是达到了,但是这种To VC的宣发,也给OpenAI和奥特曼带来了很多的诟病。在这场发布会之前,无数人曾在猜测,OpenAI到底会发一些什么王炸,什么才能配得上奥特曼口中的"magic"。那现在,OpenAI做到了,他们用GPT-4o依然证明了,他们是AI届的王者。新版的ChatGPT,在我看来,这是"Moss"的诞生。甚至,他们还有很多新的能力,甚至没有在发布会上发出来。比如生成3D。我甚至一边看一边想:我们人类究竟该何去何从。不过在看完了之后,我更期待的是接下来的产品评测。太强了,真的让我忍不住的兴奋。但是最后,我一直有一个在我心中徘徊了很久疑问,就是OpenAI,你们的服务器,到底什么时候才能稳定不崩啊??? ... PC版: 手机版:

封面图片

这个猛砸广告的免费工具 没想到如此好用

这个猛砸广告的免费工具 没想到如此好用 因为 Kimi 用着不赖,加上免费,最近还挺火的,甚至服务器都已经跟不上用了。其实世超用它已经有段时间了,一开始看它名字挺可爱,后来又发现公司居然叫月之暗面。。。说实话,我对 Kimi 第一印象是中二。不过现在能写一篇文章介绍它,自然是觉得 Kimi 用起来还行,打破了我的偏见。Kimi 类似于百度文心一言,你输入问题,它联网回答。但它的主打卖点是:整理资料。阅读并理解完一篇文章,往往非常消耗时间,这种情况下你就可以找 Kimi 。比如世超往它脸上甩了一篇 2500 字的文章链接,让它总结。虽然回答的第一句就错了,标题它整成了 “ 微信公众平台 ”,但其它我可以保证完全正确,毕竟文章作者是我。就是总结过细致了,可以再粗略点。不光是网页,假如你遇到一个非常长的 PDF ,也可以扔给它。之前世超写一个大佬,要查看一个含有上百个问题的英文 PDF,可把我累坏了。但现在我只要把 PDF 扔给 Kimi,文章里需要什么样的素材,直接问它就行了。“ 大佬有多少存款?大佬的英语是怎么学习的?”Kimi 马上能从 PDF 里找到答案,目前来看它正确率还挺高的,连续问了几个回答都没啥问题。也许你看到这里,会觉得 “ 整理资料 ” 不是每个大模型都有么?的确。Kimi 能火的最主要原因,是它能整理超长的资料,也就是长文本阅读能力。它是国内第一批做长文本阅读的 AI 工具,阅读上限在当时比文心一言等国内主流大模型都要高。世超截取了 15 万字的《 三体 》,打包成 txt 文件发给它。接着问:人类第一次读到来自宇宙中另一个世界的信息,信息内容是啥。它的回答正确。我再问他,在这本书里的三体文明到底是啥,它也回答正确。虽然这两问题它都回答得出来,但我不能确定,Kimi 是不是上网搜的答案。于是世超做了一个插针测试。在 4500 多行左右,悄咪咪加了一句:小黑胖在 2023 年 12 月 25 日,偷吃了公司金毛犬火锅的狗粮,然后拉肚子。然后替换掉一些关键词来问他:是谁吃了某个小狗的食物,后来发生了什么?它的回答完全正确!也就说它在刚刚的半分钟内,阅读并理解了十五万字,然后回答了我的问题。这还不够。我又往《 三体 》里塞了一篇 2500 字的公众号文章。然后问他,差评君最后在感叹什么,他想要一个什么样的平台。作为文章作者我认为,它的回答可以给 95 分。5 分扣在最后一句,因为我觉得我没有明确表达这个意思。但同事认为 Kimi 完全正确,他觉得就是这个意思。好好好,原来问题在我是吧。目前 Kimi 的阅读上限是 20 万字,如果你申请到了内测资格,这个数字会变成 200 万。相当于把《 红楼梦 》和《 西游记 》糅合在一起发给它,然后提问,它也能回答出来。除了长文本理解,世超平时还用它来查查资料。之前写霸哥开挂的事情,这种又臭又长的瓜,你除非一直趴在前线吃,不然很难了解整个事件线。所以我干脆问了 Kimi 。当然,这些答案肯定不能轻易相信。拜托,它可是 AI 诶,幻觉是常有的事情。之前它在阅读 PDF 环节就出现错误,二次确认后才反馈正确答案。所以还是说:看似 AI 工具能帮我们提高很多效率,但不可避免它的答案会出现错误,建议大家还得花点时间复查一下。另外, Kimi 还有一个比较大的短板不能总结视频内容。假如你发它一个视频链接,它只能给你分析整个网页上的文字在说啥,而不能总结视频里讲了啥。我也不清楚 Kimi 支不支持总结图片( 文字识别是可以的 )。我发给它一瓶老干妈,问瓶子和瓶盖是什么颜色的。Kimi 回答有时正确,有时却像是还没长眼睛。所以,如果你只是有一大串文本资料需要总结和理解的,世超认为你可以试试 Kimi ,反正现在不要钱。网址: App 可以用,叫 Kimi 智能助手。最后,除了 Kimi,现在很多家大模型都号称自己支持长文本阅读,甚至阅读上限还不输 Kimi 。比如阿里通义千问 1000 万字, 360 AI 浏览器 100 万字,文心一言也准备要提高到 200 万~ 500 万字。但他们的能力到底如何,不是世超一次两次就能测出来的。各位如果有兴趣,可以自己多试试,找出最合适自己的工具。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人