抖音脚本|采集软件|脚本定制|开发

遥遥领先同行,为你们能高效不操碎了心~有问题随时与我进行联系 唯一客服TG: @DYWF111

相关推荐

封面图片

软件开发 脚本开发 采集 机器人定制

【抖音引流】专注引流、脚本引流。联系客服 @TG_HH666

封面图片

:左边:华为问界M7在路上燃烧的死者发布的最后一条抖音,晒自己的订单;

: 左边:华为问界M7在路上燃烧的死者发布的最后一条抖音,晒自己的订单; 评论区: 兄弟等重生归来咱不买赛力斯 兄弟,我们都是用嘴支持的 “也没机会换了”一语成谶啊 虽然很难过,可是我还是说也算得偿心愿了,在自己喜欢的车里走也算可以的 骨灰级真爱粉,加油华为加油China 愿天堂没有遥遥领先问界车

封面图片

抖音粉丝流量自媒体营销

抖音刷赞,刷评论,涨粉丝,dou币折扣秒到,直播间挂真人粉。快手涨粉点赞评论。各种app投票,点赞等业务。详情点看频道查询。秒下单秒开始不用客户等待。业务不到账包退款,客服随时待命只为给客服提供优质业务,免费招代理!订阅频道,就送钻石会员下单更实惠! 本频道唯一客服: @CY01233

封面图片

1. 5月11日,抖音用户KevinGong35发视频称,自己刚提车5个月的问界M7在使用自动泊车时撞上停在旁边的货车。客服回复

1. 5月11日,抖音用户KevinGong35发视频称,自己刚提车5个月的问界M7在使用自动泊车时撞上停在旁边的货车。客服回复:附近靠近货车不能使用自动泊车,泊车辅助传感器无法识别特殊障碍物!操作者全责,自行负责解决了! 目前该网友视频还在,但是主页显示“该用户禁止发布作品”。 via Twitter @Jacobson贴贴BOT 2. 华为遥遥领先,请网友放心 #开眼界了 #还有这种操作

封面图片

放弃造车,苹果能在AI界开天辟地吗

放弃造车,苹果能在AI界开天辟地吗 世人都谓苹果全面转向AI姗姗来迟,但苹果只是“起大早赶晚集”。从乔布斯古早时期在雅达利的《打砖块》游戏初尝试,到2016年给所有语音助手上了一课的Siri,苹果在AI历史写下过浓墨重彩的几笔。而今,苹果终于无法再容忍 OpenAI和Google的“双簧式”表演,选择集中精力重投AI。作为可能是唯一拥有算力层、中间层、模型层、应用层等全栈式能力的科技公司,苹果的入局,会在AI界开辟新天地(break new ground)吗?在这场席卷全球的AI战争中,后来者苹果有哪些得天独厚的优势?纵览环球AI,微软携OpenAI以令诸侯,然群狼环伺;Google紧追OpenAI,却亦步亦趋;国内众厂摸着OpenAI过河,但拥天堑之利。此三分天下而格局未定,广阔天地大有可为,若假以时日,则霸业可成,苹果可兴。古早的AI布道者在AI领域,苹果起得多早?追本溯源,起始时间遥遥领先目前任何一家AI巨头。1975年,乔帮主大业未竟而苹果未立,尚在雅达利游戏公司升级打怪。彼时雅达利在游戏界正值如日中天,堪比80年代中后期的任天堂和90年代的PlayStation。20岁的乔布斯与史蒂夫·沃兹尼亚克(苹果联合创始人)用了4个晚上的时间完成了《打砖块》游戏的硬件设计。《打砖块》一经推出就获得玩家欢迎,名垂游戏设计青史,也成为了DeepMind团队训练深度学习的游戏系统。从人工智能开山祖师图灵和香农写的下棋程序开始,早期的人工智能就致力于创造一款在游戏中打败人类的程序。因此DeepMind将强化学习与深度神经网络结合,创造了能够学习雅达利游戏的系统。在上千次训练后,在《打砖块》游戏中深度学习网络的平均得分达到了人类的10倍。DeepMind得以名声大噪,并在一年后获得Google收购,而后诞生了开启上一波AI浪潮的AlphaGO。而在人工智能的重大突破自然语言处理的语音识别领域,苹果曾经走在任何一家手机企业前面。2010年,苹果收购Siri。2016年,苹果在iPhone上推出的智能语音助手Siri,相比其他手机语音助手性能提升显著。“有时候,一种性能的提升太过显著,以至于你会再次进行测试以确保没有漏掉一个小数点,Siri的出现就是这样的情况之一。”苹果工程师如此评价。与AI新浪潮失之交臂?虽然苹果间接催生了上一次AI浪潮的诞生,而在OpenAI掀起的AI新浪潮下,措手不及的苹果虽然动作频频,却始终步伐谨慎,行事低调。来到AI新时代,苹果只做三件事,但每一件都没有做到极致。第一,收购多家AI初创公司。据市场调查机构 Stocklytics 公布的最新报告,苹果在 2023 年共收购了 32 家 AI 公司,并将获取的AI技术应用于产品改进。如在2020年苹果收购了都柏林的语音 AI 技术公司 Voysis,用以改善 Siri 人机对话的体验。第二,研发大模型和AI对话机器人。2023年7月,苹果就被爆正在开发大模型Ajax和内部聊天机器人Apple GPT。 Ajax 系统构建在Google机器学习框架 Google Jax 之上,并作为内部 ChatGPT 风格工具Apple GPT的基础,但它更多是作为内部产品的内驱力,不面向消费者开放。但也有苹果员工称其本质上复制了 Bard、ChatGPT 和 Bing AI,并且不包含任何新颖的功能或技术。第三,被认为最可能接入大模型的Siri。 2018年,原GoogleAI负责人Giannandrea加入苹果,领导公司的人工智能和机器学习团队,拉接管了苹果智能助手Siri的领导权。此前Siri一直因停滞不前而受到批评,Siri联合创始人Dag Kittlaus曾表示,Siri在被苹果收购后,可能没有充分发挥其潜力。在ChatGPT颠覆了个人智能助手的体验后,Siri受到了更大威胁。不难看出,虽然苹果在人工智能上已经花费了大量时间、精力,但也一直有些迟疑。对此,库克曾婉转地表示,苹果将在其更多产品中添加人工智能,但会“经过深思熟虑”。而在此前,当被问到苹果在生成式AI 的工作内容时,库克的回答是“敬请期待”。“苹果确实还没有在AI领域大展拳脚,”苹果股东的投资经理Brian Mulberry说。在AI新浪潮时代,我们并未感受到苹果如微软、Google、OpenAI般对AI的狂热。苹果AI的用武之地被爆出放弃造车转投AI的次日,库克一改往日态度,在2月29日的股东大会表示,公司将在 2024 年在生成式人工智能领域“开辟新天地”,他强调:“我们相信这将为用户带来变革性的机遇。”那么,后来者苹果有何优势?会如库克所说,在AI界开辟新天地(break new ground)吗?华映资本海外合伙人邱谆认为,苹果的优势在于:它可能是唯一拥有算力层、中间层、模型层、应用层等全栈式能力的科技公司,在自有人工智能芯片、云计算、算法和数据的多层降本增效优化叠加下,带来的模型系统优化效果将会非常显著。因此,重投AI的苹果,完全可以靠得天独厚的优势走出一条苹果特色AI道路,在硝烟四起的AI竞赛雄踞一方。接下来,让我们展开来看看,苹果在上述各个层面的优势。算力层:目前AI训练侧高度依赖英伟达,苹果在中国、欧洲、美国都有自己的数据中心,因此囤积了大量英伟达GPU,至少不会面临算力短缺的问题;在推理侧,苹果在AI芯片设计研发领域和全栈工具链的持续投入,使得苹果完全有能力,基于自研芯片推出推理加速方案,并且可以适配自研基座大模型。GoogleTPU和初创公司Groq已经在这个领域做出了比肩英伟达的成绩。数据层:拥有庞大用户基数的IOS系统可以给苹果提供大量的语料与用户行为,自2011年被集成到了 iPhone 4S 的Siri,积累了十余年时间跨度的用户对话数据。应用层:现有的IOS系统给面向C端用户的文字、图片、音视频等内容生成服务提供了平台和受众。邱谆认为,如果苹果从上述底座大模型和自研芯片入手,软硬件结合,同时做OpenAI和英伟达专注的两件事,所需成本仍然很高,因此要暂时放弃造车集中资源。苹果业务调整后的优先级,前后次序很可能变为:MR→大模型→无人车→具身智能。凭借上述优势,全面转投AI的苹果又会在哪些领域给用户带来变革性机遇?先从时下大热的AI手机谈起,虽然国产友商在一年前早已入局端侧大模型,但苹果在芯片方面的持续投入与自研能力,可以相比其他手机厂商更高效地调用设备CPU、GPU、NPU等计算资源。另外大模型在端侧运行对内存速率、内存资源的要求极高,苹果可以利用强大的研发和供应链整合能力,最大程度解决硬件技术问题。但根据苹果以往的宣传调性,很可能不会提及AI手机与端侧大模型,而是将重点放在应用上。苹果会找出什么不同于友商的解法?接下来iOS18与iPhone16的发布,将会揭晓谜底。对于被苹果给予重望的下一代移动终端平台Vision Pro,AIGC对于其3D场景搭建的降本增效将会大大降低。 通过传感器和内置摄像头等获取的现实世界和用户数据,也可以结合AIGC进行大数据分析和建模,获得更好的实时交互和用户体验反馈。接近苹果人士向虎嗅透露,苹果放弃造车,很可能只是暂时延缓造车计划,等待自动驾驶技术突破后再推出更为成熟的无人驾驶汽车产品。而Sora对现实世界物理规律的学习拓展,和对物体运动轨迹的判断能力,将给困境中的自动驾驶的带来新思路。苹果并不是完全放弃造车,而是没必要做没有自动驾驶的车。要做自动驾驶,AI是必经路径,这也是苹果放弃造车全面转向AI的原因。 ... PC版: 手机版:

封面图片

AI芯片的一百种死法

AI芯片的一百种死法 LPU的全称是Language Processing Unit,翻译过来就是语言处理单元,是一种新型AI加速器。在它的支持下,大模型的推理速度快得惊人,瞬间能输出长篇幅答案;而使用了英伟达芯片的GPT-4,只能一个字一个字往外蹦。前者的响应速度最高可达到500T/S,而后者只有40T/S[1]。这是什么概念?相当于一秒钟生成300个单词,7分钟生成一部《哈姆雷特》长度级的文章。Groq背后的团队也可谓群星璀璨,公司CEO Jonathan Ross是Google初代TPU的设计者之一。早期GoogleTPU团队的10位成员中,8位都跳槽到了Groq。自2016年成立,Groq就饱受市场关注。2020年,Groq的芯片被美国阿贡实验室采用。2021年,Groq获老虎环球基金等机构投资,估值超过10亿美元。然而,Groq公司的各种“挑衅”,英伟达完全没放在眼里。相比之下,此前“奥特曼7万亿美元造芯”的新闻出来之后,黄仁勋至少还出来说了两句。毕竟,眼下Groq的种种套路,老黄可再熟悉不过了。文字游戏当下,制约AI芯片发展的主要困境,是内存墙:内存的传输速度远远慢于处理器算力,导致性能迟迟上不去。如果把芯片想象成一个餐厅,那么内存就是仓库,处理器就是后厨。仓库送菜比后厨烹饪还慢,严重限制了餐厅的出菜速度。因此,包括英伟达在内的芯片厂商,都在围绕“仓库(内存)”做文章。而Groq碾压英伟达的秘诀,也藏在内存结构里。传统计算机所使用的内存,其实有两种:DRAM容量较大,但传输速度较慢,起主存作用;而SRAM容量较小,但传输速度极快,作为缓存发挥辅助作用。一直以来,二者都是合作关系,缺一不可。但Groq为了追求极致的速度,摒弃了DRAM,让SRAM扛起了LPU主存大旗。相当于砍掉距离厨房较远的大仓库,直接将所有食材都堆在厨房边的菜篮子里。 这样的设计思路下,LPU不但在速度上形成降维打击,还轻松绕过了两个成本最高的技术: HBM和先进封装。这也构成了Groq另一个大吹特吹的宣传核心:便宜。根据Semi Analysis的拆解,LPU由于具备架构优势,物料成本仅为1050美元。相比之下,去年全球疯狂的H100芯片,物料成本则达到3700美元[2]。在售价层面,一块LPU的价格是20000美元,远低于H100的35000美元。但历史无数次告诉我们,大部分弯道超车的结局都是有田下山,LPU也不例外。大模型对内存大小也有着很高的要求。参数量越大的模型,运行时所需要存储的数据也会更多。SRAM虽然快,但缺陷是容量小,通常只有4-16MB。Groq研发团队多年苦心钻研,最终也只是将LPU的容量提升至230MB。而一块H100的内存容量是80GB,两者间差了约356倍。菜篮子再怎么升级换代,终究无法和仓库相提并论。想装下所有的食材,唯一的办法就是把菜篮子数量堆上去。因此,在运行同样参数的模型时,需要用到的LPU数量就远远高于GPU。前阿里技术副总裁贾扬清就算了一笔账:以运行LLaMA 70b模型为例,需要572张LPU,售价1144万美元;但如果换成H100,其实只需要8张,总价格在30万美元左右所谓的“便宜”压根不成立。芯片一多,整体的功耗成本也直线上升。LPU每年至少消耗25.4万美元电费,而H100顶多花费2.4万美元。事实证明,Groq的遥遥领先,只是隐去了核心信息的文字游戏。它所宣传的“高速”,是以近乎夸张的使用成本换来的:运行三年LLaMA 70b模型,LPU的使用成本将比英伟达的GPU高出32倍。当然,Groq的研发团队,显然对此心知肚明。选择此时大张旗鼓,更像是一种拉投资的举动。事实上,这已经不是Groq第一次公开“蹭热度”了。之前GPT Store刚发布时,Groq给OpenAI的奥特曼发了一封信,嘲笑使用GPTs跟在“深夜读《战争与和平》一样缓慢”。马斯克的聊天机器人Grok发布时,它也跑去贴脸嘲讽,质疑Grok抄袭了自己的名字。过去几年,打着“替代英伟达”旗号的初创公司数不胜数,Groq只不过是其中之一。目前,在超车英伟达的这条弯道,已经出现了严重塞车。前车之鉴Groq最直观的参考样本,来自英国公司Graphcore。Graphcore诞生之初,也曾拿着“技术路线别出心裁、演示视频酷炫惊艳、性能数据秒杀同行”的剧本,拳头产品IPU与Groq的LPU设计思路异曲同工,也是用高速的SRAM取代DRAM作为芯片内存,以实现极致的传输性能。同时,Graphcore调整了芯片架构,专注于处理高性能计算。它曾颇有自知之明地表示“不与英伟达直接竞争”,只将目标客户定位在,特别需要大量高性能计算的化学材料和医疗等特殊领域。Graphcore的两位创始人2019年,微软成为Graphcore首款IPU的大客户。 2020年5月,微软科学家将IPU内置于微软Azure操作系统中,用于识别胸部X光片。 这位科学家说道:“Graphcore芯片可以在30分钟内完成,GPU需要5个小时才能完成的工作。”在最风光的2016至2020年间,Graphcore共拿到了7.1亿美元融资,估值高达27.7亿美元,一度被视为全英国乃至欧洲全村的希望。Graphcore的投资者不仅有微软、三星、戴尔等科技巨头,也囊括了红杉资本、柏基投资等顶级风投。相比今天的Groq,当年的Graphcore只能说有过之无不及。但Graphcore的后续发展却远远不及当时的预期。2022年,Graphcore全年营收只有270万美元,为英伟达同期收入的万分之一,且相较前一年下降46%,亏损达到了2亿美元。 2023年,人工智能浪潮爆发,英伟达业绩再度暴涨。 H100一卡难求之时,Graphcore以为自己至少能捡到英伟达的漏,结果却连汤都没喝着。去年,Graphcore的创始人Nigel Toon向英国首相写了篇“公开信”,讨要补贴。他写道,“Graphcore已经为英国预留了多达3000个IPU芯片,可以为整个国家提供服务”,几乎已经是明示要钱[4]。不久前,一面业绩亏损,一面融资无果的Graphcore走向了最后一条路: 寻求收购。 根据The Telegraph爆料,其售价可能在5亿多美元不到2020年最高估值时期的五分之一[5]。当年,以Graphcore为首的挑战者们,各怀绝学,来势汹汹,颇有一种八大门派围攻光明顶的既视感。然而,如今多已散作鸟兽状。去年3月,芯片公司Mythic一度因资金耗尽而濒临倒闭,快要淹死之际,才好不容易等到了救命缰绳,拿到了1300万美元融资。另一家芯片公司Blaize也出现了类似的困境,最后靠着中东土豪的投资,才活了下来。剩下的公司中,Habana可能是唯一活得不错的它被英特尔以20亿收购,保留了独立运营的权利。从Graphcore到Mythic,这些芯片公司的技术路线各不相同;然而,它们失败的原因,却出奇一致。事实上,今天大火的Groq,同样也极有可能倒在同一个地方:芯片卖不出去。真正的护城河英伟达的GPU固然厉害,但它卖芯片的套路,才是真正的护城河。每年,英伟达都会投入相当一部分的研发经费,围绕GPU搭建系统性能力。当然,这是高情商的说法,低情商的说法是开发一起“捆绑销售”的产品这才是英伟达最坚实的城墙。目前,英伟达的城墙共有3层:第一层城墙,是CUDA的编程生态。众所周知,GPU最初的使用场景是游戏与视频图像渲染。早期,一些华尔街精英偶尔利用GPU的并行计算能力来跑交易,但由于需要重新编写大量代码,因此并未广泛传播开来。黄仁勋坚信GPU能用于更多领域,因此在2006年推出了降低编程门槛的软件架构CUDA,和自家GPU捆绑推出。后来,苹果和AMD都推出了类似平台,但此时CUDA生态早已构建,在“用得人越多,CUDA越好用,新开发者越倾向于选择CUDA”的良性循环中稳定前进。如今,CUDA可以让英伟达GPU的使用成本大幅降低。一位私有云CEO曾在接受采访时说过,理论上AMD卡也不是不能用,但要把这些卡调试到正常运转,需要多耗费两... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人