2025天诺老吴AI课程,电商企业如何用deeepseek实现降本提效

2025天诺老吴AI课程,电商企业如何用deeepseek实现降本提效 简介:2025天诺老吴AI课程,电商企业如何用deeepseek实现降本提效是一本针对2025天诺老吴AI课程,电商企业如何用deeepseek实现降本提效主题的优质学习资料,结合理论与实践,从不同角度剖析内容,帮助学习者快速掌握核心要点,并提升实际应用能力。 标签: #20#学习#成长#进步 文件大小NG 链接:https://pan.quark.cn/s/cf6416975214

相关推荐

封面图片

《2025天诺老吴AI课程,电商企业如何用deeepseek实现降本提效》

《2025天诺老吴AI课程,电商企业如何用deeepseek实现降本提效》 简介:2025年天诺老吴的AI课程,聚焦电商企业,讲解如何运用deeepseek技术实现降低成本、提高效率,为电商从业者提供实用的技术应用指导 标签: #天诺老吴AI课程2025 #电商技术课程 #deeepseek应用 #降本增效 文件大小 NG 链接:

封面图片

《AI商业新思维》Ai时代企业老板必学的一门课程

《AI商业新思维》Ai时代企业老板必学的一门课程 简介:《AI商业新思维》是专为企业老板打造的AI时代商业课程。课程聚焦AI技术在商业领域的应用,帮助企业老板理解AI对商业模式、市场营销、企业管理等方面的影响和变革。提供新的商业思维和策略,指导企业如何在AI时代抓住机遇,实现创新发展,适合企业管理者、创业者等商业人士学习 标签:#AI商业#商业思维#企业管理#商业模式#AI时代 文件大小:NG 链接:https://pan.quark.cn/s/185cf1e26872

封面图片

AMD公布疯狂芯片提效计划 用能效挑战英伟达会成功吗?

AMD公布疯狂芯片提效计划 用能效挑战英伟达会成功吗? 而在获奖后的演讲中,苏姿丰透露了AMD未来三年的计划,一个充满野心的计划:AMD正在努力实现2025年将计算能效提高到2020年的30倍的计划,而在这个计划之后,还有在2027年将能效提高到100倍(相对于2020年)的目标。图源:AMD计算能效,简单来说就是指计算机在执行计算任务时,利用能源的有效程度,虽然在各种算力、核心数等性能参数面前,计算能效看起来不太起眼,实质上却是核心性能、功耗管理、制程工艺等技术的体现。更高的计算能效,能够让计算机系统在运行时有着更高的效率,早在2014年,AMD就曾经设定过一个名为“25x20”的计划,希望用6年时间将AMD的处理器、显卡等产品的能效提高25倍。这个计划的结果,就是我们现在所熟知的Zen架构和RDNA架构,凭借两个架构的出色表现,AMD在2020年不仅完成了既定的目标,还超额做到了31.77倍的能效提升。AMD为何一直将计算能效提升作为核心目标之一?首先,我们从目前的AI运算需求出发,看看计算能效提升会带来什么?狂奔的超级计算中心众所周知,AI已经成为当前半导体业界最核心、最庞大的需求,这个需求正在驱动着半导体战车的车轮滚滚向前。前段时间,作为AI时代的领航者,半导体公司英伟达的市值就一度达到2.62万亿美元,甚至超过了德国所有上市公司的市值总和。让英伟达市值暴涨的唯一原因,就是其在AI计算硬件领域的统治级实力,目前全球最顶尖的专业计算卡均出自英伟达,除了主流的H100、H200等芯片外,英伟达前段时间又发布了GB100和GB200,仅单个芯片的算力就相当于以前的一台超级计算机。当然,强大的算力背后并不是没有代价的,H100的TDP高达700W,而最新的GB200的TDP更是高达2700W。而英伟达提供的官方方案中,单个GB200 NVL72服务器就可以搭载最高36个GB200芯片,仅芯片本身的功耗就最高可达97200W,并且不包括配套的其他硬件功耗。这还仅仅是开始,一个超级计算中心往往由多个服务器单元组合而成,亚马逊此前就公布了一项计划,预计采购2万个GB200用来组建一个全新的服务器集群。而走在AI研究最前沿的微软和OpenAI,前段时间更是公布了一个雄心勃勃的计划星际之门。据悉,该计划共分为五个阶段,目的是建造一个人类历史上最大的超级计算中心,预计整个计划的投资将达到1150亿美元,建成后将需要数十亿瓦的电力支持。这座‘星际之门’建成后,仅以耗电量算就足以在全球各大城市中排名前20,更何况它还只是众多计算中心的一员而已。实际上,早在去年开始,就有多份报告指出计算中心的耗电量正在猛增,并且一度导致美国部分城市出现电力供应不足的问题。从能源角度来说,一座发电厂从选址到建成运行,往往需要数年的时间,如果遇到环保组织的抗议,还有可能拖延更久。在能源问题短时间内无法解决的情况下,提高计算能效就是唯一的方法,通过更高效地利用每瓦时电力来维持更大规模的AI模型训练。实际上,有人认为OpenAI的ChatGPT-5进展缓慢,很大程度上就是受限于算力规模无法大幅度提升。苏姿丰在演讲中也提到,提高计算能效可以更好地解决能源与算力之间的矛盾,并且让超级计算中心可以被部署到更多的地方。在一些AI企业的构想中,未来每一座城市都应该拥有自己的超级AI中心,负责处理智能驾驶、城市安全等各方面的AI需求。想要达成这个目标,同时不显著增加城市的能源负担,更高计算能效的显卡就是唯一的解决方案。而且,计算能效也直接关系到AI计算的成本,只有将AI计算的成本降到更低,大面积普及AI才可能成为现实。AMD的疯狂计划在英伟达的刺激下,作为在GPU领域唯一能够与英伟达抗衡的企业,AMD一直在加速推进旗下AI芯片的研发与上市进度,并先后发布了MI300、V80等多款专业运算卡。据报道,为了能够加速AI芯片的进度,苏姿丰对GPU团队进行重组,抽调大量人员支持AI芯片的研发,以至于下一代的AMD消费级显卡发布计划受到严重影响,比如取消原定的旗舰产品发布计划,仅保留中端显卡的发布计划等。在集中科研力量后,AMD目前的进展速度飞快,最新的MI300X在性能上已经超过英伟达的H100,大多42 petaFLOPs,并且拥有高达192GB的显存,功耗却与H100相当,仅为750W。凭借优异的计算能效,MI300X成功引起了市场的关注,微软、OpenAI、亚马逊等科技巨头都提交了采购需求,让AMD在计算领域的芯片出货量暴增。根据相关机构预测,2024年AMD的AI芯片出货量可能达到英伟达出货量的10%,并在明年增长至30%。据苏姿丰介绍,为了能够提高芯片的计算能效,AMD研发了多项新的技术,比如2.5D/3D混合封装技术。利用这项技术,AMD可以在封装面积不变的前提下给芯片塞入更多的晶体管和内存,降低芯片与内存交换数据的消耗,有效提升每瓦时的计算性能。此外,AMD还将改进芯片架构,推出能效更高的新一代架构,预计最快将于2025年发布,并实现25x30(2025年计算能效提升30倍)的目标。不过,想要实现27x100(2027年计算能效提升100倍)的目标,还需要在诸多领域做出提升,仅靠制程工艺升级和架构升级恐怕还不太够。不得不说,AMD的这个计划非常疯狂,一旦成功,那么AMD将有望再次与英伟达并肩而行。那么英伟达的反应是什么?其实英伟达很早就给出了回应,早前发布的GB200就是答案,这颗史无前例的算力怪物在计算能效方面的提升同样瞩目。据英伟达的介绍,GB200的推理性能是H100的30倍,计算能效是H100的25倍(综合考虑算力、功耗等参数后的结果)。显然,英伟达的脚步也并不慢,在接下来的3年时间里,不管AMD能否完成疯狂的百倍计划,AI芯片市场都会迎来一场革新。 ... PC版: 手机版:

封面图片

黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价?

黄仁勋称 Blackwell 是计算机史上最成功产品,谷歌、微软、OpenAI都要买,如何看待该评价? 九乡河龙牙的回答 如何评价那便是从商业的角度来说,从我国的利益而言,我们必须拿捏好台湾问题........甚至未来考虑不惜........ 很多人会聊一个话题,人工智能威胁人类就业.......到底什么样的国家、社会需要人工智能补充劳动力,什么样的国家、社会人工智能参加工作会挤压人类的就业呢? 答案其实也不难想,缺乏劳动力的国家会需要AI来协助生产,劳动力过剩的国家会排斥AI进入生产。 那么美国或者欧美发达国家属于哪一类呢? 欧美国家的企业去发展中国家寻觅投资建厂的地方,根本逻辑是为了降低人力成本,一旦发达国家能用AI弥补一些人力成本的问题,那么对发展中国家必然是个不太好的消息,发展中国家追赶发达国家的难度会变得更大,这个不难理解。 黄仁勋说这计是计算机史上最成功的产品,这个看上去是在说大话,但是我们细想计算机类的科技产物是否触发过工业革命?有的人觉得有,有的人觉得没有,觉得有的人可能觉得信息化、数字化是一次革命...... 咱们不管过去如何,如果AI最终能发展到一个极高的程度,黄仁勋也不算说大话.......前提是吹的牛要能实现。 如果黄仁勋吹的牛真的实现了,AI深度介入生产工作是最重要的体现,为什么现在生成式AI这么火爆?归根结底这类生成式AI产品是真的提升工作效率的,过去那种猜名人的AI和生产没有半毛钱关系....... 英伟达高度依赖台湾的半导体产业,尤其是这次有新闻爆出: KYEC and ASE Technology are said to be witnessing gigantic order placements from NVIDIA, with both companies' order volumes doubling in quarters. 大概就是中国台湾的诸多科技企业称为英伟达的强力供应商,更不用提台积电....... 如果AI真的能帮助发达国家解决或部分解决劳动力短缺、人力成本高的问题,那么从我们的利益角度来说,该有些行动........ via 知乎热榜 (author: 九乡河龙牙)

封面图片

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍 随着AI计算需求的膨胀,还需要用水来冷却计算系统。研究称,微软用水量从2021年到22年飙升了34%,ChatGPT每处理5-50个提示就会消耗接近半升水。针对这种现状,我们有更好的解决策略吗?最近,GoogleDeepMind研究团队提出了一种加快AI训练的新方法多模态对比学习与联合示例选择(JEST),大大减少了所需的计算资源和时间。JEST以13倍更少的迭代次数,以及10倍更少的计算量,超越了最先进的模型!预训练的参考模型,已经学习了什么样的数据是有“优质的”或“有用的”。然后通过模型,来引导数据选择那些精心筛选过的小型数据集。这一发现揭示了,数据筛选水平可以作为评判Scaling Law的一个新维度。网友激动表示,“我没想到这么快就会发生。模型能够自主选择训练数据的能力是巨大的,因为它使训练变得显著更容易,你不再需要猜测什么是高质量的训练数据,你有一个能够『理解』什么样的数据对自身学习最有价值的模型”。前Google、苹果软件工程师称赞道,这项研究非常令人印象深刻。从“超级batch”中筛选数据无论是语言、视觉还是多模态模型,数据质量是预训练性能的重要驱动因素。比如Phi-3、Gemma 2等模型的成功让我们看到了,更少、更高质量的数据有可能实现更强大的性能。要筛选出高质量的数据,数据管道的建立就成为重要的工作。现有的方法大体可以分为两种:1)手动管理 2)基于模型的数据管理,用正在训练模型的特征选择高质量数据。前者成本高昂且难以扩展,后者则有望为多模态LLM实现Scaling Law。然而,现有方法忽略了一个事实。如果仅在单个数据点的层面进行筛选,就没有考虑到数据集以及batch的总体组成。毕竟,训练数据是以batch为单位,数据点之间的依赖性不可忽视。许多计算机视觉的研究都曾表明,hard negatives(表达空间中相近但标签不同的样本)相比可被平凡解的数据簇,能提供更有效的学习信号。那么如何让模型以batch为单位筛选数据呢?论文提出的JEST算法正是要解决这个问题,原理很好理解:就是直接从“超级batch”中筛选出“子batch”。技术介绍用数学语言来描述这个问题,就是从大小为B的“超级batch”中提取出与学习最相关的子batch ℬ={,∈[1,…,]}⊂,过滤比率可以写作=1−/。之前的优先采样(prioritized sampling)会使用基于模型的评分函数对每个数据点打分,再按比例采样。JEST则直接对整个子batch评分,再按照batch级别的分数采样。一种最直观的启发式方法就是在现有模型参数 : hard⁢(ℬ|)=ℓ⁢(ℬ|) 中,直接选择损失值最高的batch,这种方法可被称之为“硬学习”(hard learner)。这种方法具有丢弃琐碎数据的理想属性,已被证明适用于小型、干净的数据集;然而对于较大、较少管理的数据集往往弊大于利,因为它依旧会采样到噪声数据。另一种方法常用于多模态,使用具有参数 ∗:^easy⁢(ℬ|∗)=−ℓ⁢(ℬ|∗) 的参考模型为预训练模型采样数据。但作者依旧否定了这个方案,因为它无法直接反映模型当前的状态,可能过度依赖参考模型的选择,而且不易于扩展。最后,论文选择借鉴ICML 2022年的一篇论文中提到的方法,将上述两方面的评分结合起来:^learn⁢(ℬ|,∗)=hard⁢(ℬ|)+^easy⁢(ℬ|∗)=ℓ⁢(ℬ|)−ℓ⁢(ℬ|∗),并将这种启发式方法称为“可学习性评分”(learnability score)。其中,batch上的损失值ℓ⁢(ℬ|)是各数据点之和,使用sigmoid对比损失函数计算(sigmoid-contrastive loss),因为相比softmax对比损失而言,它的扩展性更强。由于batch上的对比损失可以分解为每个样本的条件损失之和,因此可学习性评分可被分解为单个样本可学习性评分⁢(|,∗,ℬ)之和,写作:使用的顺序采样方法则受到了block Gibbs采样的启发。在第n次迭代、对第B_n个batch进行采样时,依据如下概率公式对块{X_k}进行无替换采样:将X_k块添加到B_n中来更新当前采样的batch,直至迭代数n=N时终止。算法的总体流程如下图所示:实验中发现,使用迭代数N=16且每次迭代时独立采样b/N=2048个样本时,就足以恢复出学习性非常高的batch。可学习性评分中涉及到使用参考模型为数据点打分,之前的方法惯常使用额外的小型模型,但这会增加每次迭代的计算成本,降低总体FLOP效率增益。因此论文使用了在线模型近似的方法以及效率较高的FlexiViT架构,只使用降低分辨率的32×32的patch来评估“超级batch”,与全分辨率、patch大小为16×16的方法相比减少了72%的FLOP,以及67%的挂钟时间(wall-clock time)。此外,论文还提出了进行多分辨率训练的技巧。将每个batch随机分成两半,使用不同分辨率编码后再拼接起来,提升了评分过程和训练的效率。下图详细描述了全分辨率JEST和多分辨率Flexi-JEST方法的伪代码实现。所有JEST实验都在WebLI数据集上运行,包含经过宽松过滤的十亿规模的英语图像-文本对,参考模型的训练则使用其中经过高质量过滤100M大小的子集(被称为WebLI-curated)。在WebLI的基础上,作者还额外从网络上抓取了6亿个文本-图像对并经过同样强度的过滤,组成WebLI-curated++数据集训练参考模型,拓展出JEST++/FlexiJEST++方法,来探索对数据管理的扩展。论文所报告的平均性能包括4个多模态规范基准:ImageNet 0-Shot和10-Shot 分类以及COCO图像到文本和文本到图像的top-1检索。实验结果图1中可以看到,使用JEST或FlexiJEST方法的最明显优势就是效率提升。左图中,相比原有的SigLIP基线模型,JEST++可以在训练数据量减少13.1×的情况下达到相同准确率。即使考虑到额外引入的打分成本,也有近10×的FLOP效率提升(中图)。右图展现了JEST++/FlexiJEST++(绿色)与先前方法(灰色)的比较,相比CLIP、EVA-CLIP经典模型实现了计算成本和性能的双重提升。左图和中图的平均准确率由8个下游任务得出,右图性能由ImageNet和COCO基准测试得出产生可学习batch研究人员首先评估了JEST在选择可学习batch方面的效果。为了直观地理解这一方法,作者们先将可学习性矩阵进行可视化,即学习模型和参考模型之间,对batch中所有示例对的损失差异。JEST就是按照示例子矩阵的可学习性总和比例进行采样。由于矩阵明显非对角关系(图2,左),独立选择显然是次优的。经过少量迭代(对应于用N=16个块填充batch),作者发现子batch的可学习性快速增加,达到了需要数千次迭代的暴力吉布斯采样(Gibbs sampling )所提取batch的可学习性(图2,中)。对于0.5、0.8和0.9的过滤比例,他们从大小分别为65,536、163,840和327,680的超级batch中选择32,768个示例的子batch。在图2右侧,研究者还发现子batch的可学习性随着更大的过滤比例而增加。总之,JEST算法是在训练过程中选择高度可学习batch的有效,且高效的方法。加速多模态学习接下来,研究人员使用JEST算法选择的可学习batch,检验训练模型的效果。所有实验都使用在WebLI-curated上训练的参考模型,这是一个ViT-B/16和Bert-B图像-文本双编码器,30亿训练样本,采用sigmoid对比损失函数。图3(左)显示了在训练过程中多个下游任务(ImageNet 0-Shot/10-Shot准确率和COCO图像到文本/文本到图像检索)的平均性能。结果还发现,JEST显著加速了学习过程。在使用50%、80%和90%的过滤比例时,分别只需20亿、10亿和6.7亿训练样本就达到了30亿均匀基准的最终性能。在更大的过滤比例下,坐着观察到类似于更大batch size时的训练不稳定性,需要修改Adam优化器(β2 = 0.95)以稳定训练,这表明JEST的数据筛选可以被视为增加了有效batch ... PC版: 手机版:

封面图片

文科生在AI团队里,究竟能干嘛?

文科生在AI团队里,究竟能干嘛? 这大半年来,市面上被报道的 AI 团队,核心人才大多有技术背景,至少得是个理工科背景。 包括在很多 AI 社群里,懂技术的开发者,往往更受欢迎。 作为中文系毕业的文科生,我也一直在想:难道在 AI 领域,就没有咱文科生的一席之地了吗? 从事 AI 3 个月后,我参与开发的一款内部 AI 工具,终于有了点阶段性的进展。回顾这 3 个月的经历,我隐约找到了点文科生在 AI 团队可以做的事儿。 先说个太长不看版: 内部AI 产品的开发,至少有 3 个里程碑 1、找到 AI 可以帮到忙的高价值场景 2、开发出能解决问题的傻瓜式 AI 工具 3、帮助业务一线员工真正用出效果 每个里程碑达成过程中,我这个文科生起到的作用是 1、找场景阶段:调研和科普 AI 在行业中的应用 2、产品开发阶段:通过提示词,把专家经验放进产品 3、用户成功阶段:在真实业务中,帮助种子用户成功 如果你对细节感兴趣,欢迎查看下面的详细内容: 一、找到 AI 可以帮到忙的高价值场景 1、找高价值场景 6月份初,在参与筹建「开源 AI 解决方案社区」的过程中,经过跟多位AI从业者深入交流,我得出了一个结论: “和行家/专家一道,找到行业的高价值场景,做出该场景的AIGC解决方案,可能更赚钱。” 这段话被转发出去之后,得到过几位行业领袖级人物的肯定。我后来参与的AI工具,也是在这个思路下开展的。 2、技术之外要做的事 想要“和行家/专家一道,找到行业的高价值场景”,AI团队就不能只懂技术。 我们还需要花更多的时间,去找行家/专家沟通,去了解该细分领域的知识和商业模式,去了解服务公司的核心优势。 就像那些搞运输的司机,懂发动机原理固然不错,但真想要赚钱,他们更需要搞清楚:运什么人、什么货性价比更高,走哪些路线更有赚头。 3、我这个文科生能做的事儿 对于绝大多数的行业专家来说,AI到底发展到了什么程度,其实是个谜。 因为新闻一会儿说AI会取代他们,一会儿又说 AI 到了冷静期,很多 AI 公司都黄了,也没个准数。 于是,我就冲了上来,做了些较为细致的调研。然后,用专家能懂的话,把AI 的真实情况,尤其是对行业的真实影响,科普给他们。 等专家对「AI 能干啥和不能干啥」有个基本概念过后,我再试着用他们能接受的方式,一起测试 AI 在解决业务真实问题方面的效果。 整体来看,专家们更喜欢业务导向的专题式调研报告,测试过且有know-how 层面的SOP更佳,有客户/用户的数据最好。而对于市面上常见的技术向、产品向的科普文章(和软广),他们其实兴趣不大。 二、开发出能解决问题的傻瓜式 AI 工具 1、确保 AI 能解决业务中的真实问题 5月下旬,OpenAI的创始人之一,大神Andrej Karpthy在微软Build 2023开发者大会上有提到过: “很多事情,直接写提示词(prompt)就可以搞定。在达到提示词上限之前,不需要考虑模型微调。” 在实际业务当中,很多问题,确实可以通过提示词解决。而提示词的上限,则取决于业务的重要程度和专家的专业程度。 如果,有幸在上个阶段,找到了重要性够高的业务场景。那么,这个阶段的重点,就变成了「如何和专家一起提升提示词的上限」。 从个人经验来看,很多 AI 工程师是不屑于学提示词的,绝大多数行业专家又不太会提示词。这中间的鸿沟,就需要我这个「愿意学和擅长教提示词」的人来填。 如果说提示词对专家太难,对 AI 工程师太简单,那么对我这个喜欢讲大白话的文科生,可能就刚刚好。 2、确保 AI 工具足够简单易用 入行仨月,我越发认可一句话:“公司只要有‘两个人’会提示词就行了”。 提示词真要做到「能解决业务中真实问题」的程度,不仅需要大量的业务知识和提示工程知识,还需要反复地尝试和迭代。 这其中的学习成本和试错成本,远不是业务一线伙伴所能承担的。咱千万别指望,通过几场培训和交流,就能让业务人员用起来。事实证明,这是不可能的。 更可行的方式,是让对业务感兴趣的提示词高手(我)和对 AI 感兴趣的业务专家合作。把一些高频的、能提效的场景中要用到的提示词,都提前写完并封装好。 最终交付给业务一线伙伴的,是只要傻瓜式操作就能稳定出效果简易工具。 三、帮业务一线伙伴真正用出效果 一旦进入真实业务场景,再简单易用的提效工具,都有一定的学习成本。 哪怕简单如微信,私域运营过程中要用到的功能,也得专门搞场培训。 1、在企业内部,AI比数字化工具更难推 在业务一线伙伴那里,AI 可不只是新的提效工具那么简单,在潜意识里,他们还有被取代的担忧。 而对那些简单试用过一些AI 的业务伙伴来讲,他们在市面上的 AI 那里碰过壁,不一定相信这一款AI工具真的有用。 这种情况下,如何吸引到一定量的种子用户,如何让种子用户快速上手,如何让甜蜜用户用出效果和持续使用,都是难题。 2、但互联网时代的运营方法论,依然有效 比如,重点突破感兴趣的业务团队,深入到他们手头具体的项目中去,点对点地用 AI 工具帮他们提效。 一旦在业务中起到作用,该团队就会一直用下去。 而在沟通过程中,我还可以不断总结他们的痛点,找到真实业务中高频的具象的场景,测算出大致的提效数据。 比如从 3 天提效到 10 分钟等,好让其他业务团队能真切感受到 AI 工具的帮助,最终以点带面让相关团队都用起来。 四、其他的延展 1、关键在“行业的高价值场景”上 总结到最后,我越发感觉到,这里面真正关键的,不是找场景阶段的调研和科普,不是产品开发阶段提示词工程,也不是用户成功阶段的产品运营,而是真正找到了“行业的高价值场景”。 只有场景找得足够准,才有可能立得了项,有可能获得种子用户,有可能形成早期的标杆,有可能为公司乃至行业带来价值。 但现阶段想要找到这个场景,AI 团队一定要跟行业专家合作,一定要对该领域的技术进展和产品表现足够了解。此处,才是文科生们最能创造价值的地方。 2、文理科或许都不是重点 最后,话说回来,既然都有了 AI 加持,就不用过于纠结文科、理科了。肯专研的话,很多技术上的问题、行业里的专业问题,都是可以学会的。 而且,从合作的角度来看,这些问题也无需学到多么精通。收到需求后,知道技术能否实现;看到技术后,清楚业务中如何应用,就差不多了。 至于那些个高价值场景,可能还需要把这门生意摸得足够透,对市面上「需求(流量)-产品-变现」的玩法了解得足够多。 我希望自己,今后尽可能少考虑自己学的是什么专业,担任的是什么岗位。然后,把更多的心思,花在如何用我的优势和用 AI 为客户/用户创造更大价值上,花在细分领域客户/用户的需求洞察上。 毕竟,客户/用户真正关心的,不是我是谁,而是我能给他们带来的是什么。#AI工作流

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人