吴恩达对AI Agent的这个分享,真的很有价值,这可能才是AI Agent未来的打开方式,我自己体验了一下效果确实很好。

吴恩达对AI Agent的这个分享,真的很有价值,这可能才是AI Agent未来的打开方式,我自己体验了一下效果确实很好。 大多数人使用语言模型的方式是非 Agent 式的工作流,即输入提示,生成答案;而Agent 式工作流是这样的:让 AI 编写文章大纲,看是否需要做一些研究,然后写初稿,阅读初稿并思考哪些部分需要修改,然后修改草稿,如此反复。 多Agent协同很有SaaS 里协同带来的价值那种感觉,我觉得协同在 AI 时代或许仍然非常重要,只不过是将人与人之间的协同更多换成了 AI Agent 而已,而我猜测 AI+Human 协同可能会是未来长期的一个状态。

相关推荐

封面图片

2024 年,AI agent 将如何在企业落地?目前不得而知。

2024 年,AI agent 将如何在企业落地?目前不得而知。 不过,从几家号称「AI agent 平台」创业公司的 PR 稿里面,似乎可以看到些线索。 1、销售、客服和营销,是AI agent可以显著提升效率和效果的领域。 几乎所有平台,都聚焦在这几个领域。 2、低代码、无代码和RPA,是AI agent 落地过程中的重要辅助。 在全自动的AI agent 到来之前,他们仨是相对成本更低,且效果更可控的。 3、专家知识和SOP,是AI agent 得以在企业落地的关键。 ①专家知识 澜码科技CEO认为,AI Agent在To B场景中的最大价值,是“复制专家的知识”。 如果没有把专家知识数字化下来,那么AI Agent的落地会有很大困难。 构建AI Agent有三步:第一步,专家知识的数字化;第二步,基于CUI(以命令行Commad Line为交互界面)的交互;第三步,领域知识的循环沉淀,形成数据飞轮。 ②SOP DeepWisdom创始人指出: AI agent的关键在于SOP。人类世界有两类代码,一类是针对机器的“代码”,一类是针对人类的SOP。如今有了AI,只要有明确的SOP,那么人类的活儿都可以变成代码,交给AI agent 去做 单个AI agent由「LLM+观察+思考+行动+记忆」等构成,而多个AI agent则需要由「Agent +环境+SOP+评审+路由+订阅+经济」等不同的维度构成和协同。 4、AI agent可能有三种形态,而且可以在一家公司共存: 形态一:工作助手(Copilot)。 基于特定的软件,人做指令,Agent做面向软件的操作。Copilot主要解决员工的办公效率。 例如,供销售人员使用的Copilot,可以按照人的指令,在相应的软件上快速整理和管理客户信息。 形态二:业务自巡航。 AI Agent是继互联网、移动互联网之后的一个新的用户入口。它可以承接大量业务逻辑,用户无需学习就可使用,使用体验更好。 企业利用业务自巡航,可以给自己的终端用户提供更友好的使用体验。 AutoAgents.ai平台支持市面上所有主流模型,目前初步成型的落地场景是航班预订、员工自助服务、会议协同管理等。 形态三:自主智能体(Autonomous Agents)

封面图片

对 agent 的一个暴论:现有 (multi) agent workflow 的模式没有太大价值。Agent 今年(在以吴恩达

对 agent 的一个暴论:现有 (multi) agent workflow 的模式没有太大价值。Agent 今年(在以吴恩达老师为首的各类大佬的吹捧下)热度很高,但现有的这些所谓的 (multi) agent workflow,本质上是把一个大任务拆分成很多个子任务,每个子任务都有明确的 input 和 output,自己定义一些变量和接口,把这些子任务串起来。这种方式很像是早期的自动驾驶,把感知和规控分开解,或者是上一代的语音助手,把语音转文字、LLM、语音合成这些工作流串起来。 终极的解决方案应该不是这个样子的。现有的 (multi) agent workflow,速度慢先不说,最大的问题还是在接口的地方把信息降维了。这些 input / output 的接口和变量,本质上都是把信息降维到人能理解的维度,这是以高维信息的损失为代价的。每多一层 workflow,损失的信息就多了一次。面对简单问题时, (multi) agent workflow 或许是可行的,但它注定无法解决复杂问题。就好比Waymo 用感知+规控的架构,搭配高精地图,能够在凤凰城和三藩市勉强把本地 L4 跑通,但很难 scale 成一个通用的解法。只有 Tesla 端到端的方案才是自动驾驶的未来。 因此,现有的 (multi) agent workflow方式注定只是一个中间状态,类似自动驾驶中感知+规控+高精地图的拼凑。而最终想要解决复杂问题,需要靠基础模型的进化。当模型能力足够强之后,应该是可以端到端的解决问题。你可以在 prompt 里提示它去使用某些工具,或者采用某些步骤,但应该不需要人为去把 workflow 拆出来。 Agent 的概念依旧重要,但应该回归它更加 native 的定义,即每一个 Agent 应该是独立的智能体,拥有自己的 memory, planning, tool use 等能力,能够端到端地解决问题,而不是需要人类按照自己的理解一口口地把饭喂到嘴里。一个 Agent 就应该是一辆独立的L5 Autopilot 的汽车,而不是一堆弱智 L2 Workflow 凑出来的所谓 multi agents 辅助驾驶杂牌军团。这听起来就很不优雅。

封面图片

Stability AI首席执行官辞职 称无法用更中心化的AI打败中心化AI

Stability AI首席执行官辞职 称无法用更中心化的AI打败中心化AI 目前还没有首席执行官的永久替代人选,但已任命首席运营官黄珊珊(Shan Shan Wong)和首席技术官克里斯蒂安-拉福特(Christian Laforte)担任临时联席首席执行官。稳定人工智能公司(Stability AI)最近几个季度流失了半数以上的关键人才,该公司表示,莫斯塔克即将卸任,以追求去中心化的人工智能。莫斯塔克在 X 上发表了一系列文章,认为人们无法用更多的"中心化人工智能"打败"中心化人工智能",他指的是 OpenAI 和 Anthropic 等顶级人工智能初创公司的所有权结构。此外,由于他又持有最多的控股股份,因此所以他决定从最高职位上退下来。他补充说:"随着人工智能变得越来越重要,我们应该对其进行更加透明和分布式的治理。这是个难题,但我认为我们可以解决它......"他补充道。"人工智能领域的权力集中对我们所有人都不利。我决定卸任,以便在 Stability & elsewhere 解决这个问题"。据彭博社报道,截至 2023 年 10 月,这家初创公司每月的支出估计为 800 万美元。彭博社还指出,这家初创公司曾试图以 40 亿美元的估值筹集新资金,但没有成功。大约一年前,莫斯塔克似乎还没有把营收增长放在首位。在去年一篇关于 X 的文章中,他对生成式人工智能公司"奇怪地关注收入"表示好笑,尽管"这项技术很有用,但远未隐约成熟,因为几乎每天都有新的突破"。他列举了几个例子,其中包括 MagicLeap,该公司在创收之前就花费了数十亿美元。他写道:"适当的人工智能研发的回报比我们所见过的任何东西都更清晰,也更快进入市场,它将比自动驾驶汽车创造更多的经济价值,例如,自动驾驶汽车的总投资高达 1,000 亿美元,却没有任何收益回报。"上个月,他在 Reddit 上发表的评论让人洞察到重点的转移。他写道:"我们做得很好,今年的业绩已经超过了预期。我们的目标是在今年实现正现金流,我认为我们可以尽早实现这一目标。市场是巨大的,边缘和所有受监管行业都需要开放模型。这就是为什么我们是唯一一家开放数据、代码、培训运行细节等的公司。定制模型、咨询等都是巨大的市场,随着我们在未来一年左右进入企业应用阶段,围绕这个市场的商业模式也非常合理,去年只是验证而已。"Stability AI 的宣布为人工智能行业引人注目的一周画上了句号。曾融资约 15 亿美元的初创公司 Inflection AI 周一宣布,其两位联合创始人和其他几位员工已加入微软,微软主导了这家初创公司最近一轮的融资。 ... PC版: 手机版:

封面图片

最近突然意识到,我的思维模式被AI彻底改变了!

最近突然意识到,我的思维模式被AI彻底改变了! 在遇到任何问题的时候,第一时间想到的已经是“我要怎么问AI才能得到更好的答案”,AI的思考能力已经在最近半年进化到了真的可以实战的程度。 比如最近开年的阶段,很多人(包括我)都在写2024年的工作规划,原本要是自己写,肯定千头万绪折腾很久,但这次我选择和AI一起完成这件事儿,通过 以下6个问题,最终形成了我的2024年工作规划: 1.作为一个职场规划导师,请你教会我OKR都包含哪些内容,为什么是高效的规划思路?还有哪些高效规划的思路? 2.你觉得有哪些优秀的方法论可以指导我写年初的工作规划,这些方法论分别有哪些侧重点? 3.我的工作内容是「xxxx」,请你用以上方法论分别帮我写一份工作规划的草稿 4.你觉得根据答案,哪个方法更高效一些?或者说对于一份年度规划来说,哪几种方法更能让老板觉得你的规划更好,并且在之后的工作中可以执行度更好? 5.请你用A+B+C方法完整帮我撰写一份2024年年度工作规划,需要重点撰写以下工作内容:「xxx」 6.请你以专业的职场规划导师身份,根据以上规划,为我今年和未来的职业规划给出3-5条建议 在这6个问题之后,我选择了OKR+GROW结合的方式写完了规划,这份规划包含了以下内容: ⏺年度总体目标 ⏺每个目标拆分的数据指标 ⏺对项目现状的评估 ⏺工作计划的时间节点 ⏺具体可执行的工作内容 ⏺更深更高的职场和工作思考 这些问题不依靠AI也可以直接得到答案,但AI的优势就在于可以一直重复给出答案,完整不重复,写到最后对我来说启发的价值远大于交差(而且基本不会写错别字)#AI的神奇用法 #AI工作流 当然啦,以上能力肯定是做成了直接就能用的版本、依然是放在「AI帮个忙」里,欢迎大家试用:

封面图片

最近一周时间在上海、深圳、北京见了近20位一线AI从业者,其中包括投资人,大厂AI业务&模型厂&应用厂的员工,独立开发者,fou

最近一周时间在上海、深圳、北京见了近20位一线AI从业者,其中包括投资人,大厂AI业务&模型厂&应用厂的员工,独立开发者,founder。很累,收获也很多。总结一下我觉得重要的共识和非共识,以下内容没有优先顺序,想到哪写到哪: 1.关于竞争:大厂、模型厂、应用厂 大厂没有逃脱局部兵力不足的问题,越是铺得广的厂这个问题越严重,字节的遍历填格子打法在业务相似度低的时候是人才密度不够的,战术上重视就行。反而阿里的通义因为更研究院模式,没有主核,分布式创新使得反而跑出来一些模型和应用侧有意思的东西,这个很值得大厂内部思考一下。 模型厂基于GPT-5迟迟不到,可能也判断出了,算力未必是万能解药,开始卷差异化,差异化对于tob的竞争尤为重要。但国内的模型厂还有一个不得不卷应用的任务,但不基于模型差异化的应用很难卷出用户体验增量,各位厂里的小伙伴都在努力地拉齐共识和内部创新的过程中。 应用厂,AI搜索的共识形成得太快了,其实没有留下太多保护期,大明牌的卷度会很激烈。反而是AI+every thing因为去年的过分乐观到今年的幻灭,留出了大量的创新保护窗口,给不迷信AI解决一切问题,但试图先用AI对具体领域做一些用户体验提升的公司留下了机会。 额外补一个硬件厂,世界上还有大量的数据没有被搜集,每个带有数据收集器的硬件厂都有属于自己的机会,但硬件厂目前很少有软硬一体的能力。补齐短板的玩家会可能会跑出来新东西。 2.关于模型能力 GPT-4o展示了快非常重要,快是核心体验之一,那么moe就必须得卷了,groq这种加速的基建也会变得非常有价值。如果大规模的智力代差比如3.5->4不会卷得那么快的话,代差之间可能更多是成本和速度的竞争。 长上下文很牛,但低成本的长上下文才有意义,基于长上下文成本急剧下降这个假设,能解决很多当前的用户体验问题。 多模态暂时在应用层的优势不明显,不考虑终态世界模型之类的,当前可能主要体现在一些之前没覆盖到的小CV场景。 fine - tuning不是净提升,是某类问题解决的更好,但通用问题更差的trade off,可以通过调整尽量降低负面影响,但从技术成本和数据成本来考虑,暂时很难作为可普及的常用武器库。 更细分的卷法,卷RAG,卷function call,卷代码能力,卷交互理解,卷情绪理解等等 可能真正值得卷的是意图识别,意图识别才是ai的推荐系统。 3.关于投融资 国内目前的情况是:创业者说市场温度低难拿钱,投资人说好项目少没法投。回到本质还是大家想用钱干什么,如果是为了加速市场形成,烧出一个煊赫盛世应该是不太可能了,因为各有各的难处,但如果真的想要构建一个未来5-10年在AI世界有独特社会分工的企业,大家还是很认可的。但目前市面上能持之以恒解自己的题的人很稀缺。 海外听到了多种说法,鉴于没有一手信息就不评价了,但如果做海外市场,还是建议谨慎考虑融资动作。 4.关于用户需求 PMF对还是TMF对?还是前者对,但现在加了一层技术可行性的约束,使用门槛很高,但体验提升巨大,也有机会。 工具效率/工作流,这是目前AI落地得最好的部分,但目前最大公约数已经挖完了,而AI目前远达不到数字员工的级别,很长一段时间基于某个职业的AI工作流copilot应该都是主要落地形式。tob和toc在这个领域都能持续跑出来赚钱的东西。 情感陪伴/内容消费,成本下不来,质量上不去,商业模式讲不清楚(付费逻辑只有hs内容能跑通,免费逻辑留存一直上不去)。 AI也不是唯一主线,AR眼镜等硬件对原本手机场景的分割,电话、拍照、翻译。还有web3。基于满足用户需求来思考,AI未必是唯一的锤子。 5.关于长期主义的优劣势 这回出来有一个比较深的感受是,基本上可以把founder分为偏长期主义和不偏长期主义两类,而这两类似乎都有其生存空间和价值。 因为我的个人偏好,所以说明一下长期主义的优劣势: 优势是,长期主义在各类决策上,难度都会降纬,因为长期主义代表你对于未来世界是有一个大概想象的,你知道五年之后想要什么,所以对于判断做什么不做什么会变容易,对于招谁不招谁也会变得容易。单一目标的决策总是比多目标的决策好做。 劣势是,早期找PMF切入点可能会非常难且漫长,对于耐力、定力和资源的要求会更高,是的,长期主义是更消耗资源的,因为反馈周期会更长。

封面图片

OpenAI正引爆一场全球AI安全热战

OpenAI正引爆一场全球AI安全热战 “SSI是我们的使命、我们的名字、我们的整个产品路线图,因为它是我们唯一的焦点。我们的团队、投资者和商业模式都是以实现SSI为目标。”伊利亚、科技企业家和投资者Daniel Gross、OpenAI前科学家Daniel Levy在该公司官网发表的联合署名文章中称,“构建安全的超级智能,是我们这个时代最重要的技术问题。我们计划尽快提升能力,同时确保我们的安全始终处于领先地位。”伊利亚透露,该公司已经启动了世界上第一个直接的安全的超级智能实验室,只有一个目标和一个产品:一个安全的超级智能。但目前,SSI并未公布公司的股东、科研团队和盈利模式。实际上,伊利亚离开OpenAI,很大程度上就是因为与OpenAI CEO奥尔特曼(Sam Altman)为核心的管理层存在分歧,尤其是在如何驾驭超级AI、AGI(通用人工智能)安全发展等问题上存在相反的观点。其中,奥尔特曼和OpenAI总裁Greg Brockman倾向于加速商业化,以获得更多资金来支持AI模型的算力需求,力求快速增强AI的力量;而伊利亚等人则希望AI更安全。去年11月,双方矛盾激化,OpenAI上演“宫斗”大戏,结果奥尔特曼和Greg Brockman在短暂离职后重归OpenAI,原董事会中的多位董事离开,伊利亚则在今年5月宣布离任。对此,国内AI安全公司瑞莱智慧(RealAI)CEO田天对钛媒体AGI等表示,奥尔特曼和伊利亚之间的分歧在于对AI安全的“路线之争”,伊利亚的新公司就是为了 AI 安全目标而设立的。田天指出,包括伊利亚、图灵奖得主Geoffrey Hinton等人认为,AI安全问题现在已经到了“非常迫切”去解决的程度。如果现在不去做,很有可能就会错过这个机会,未来再想亡羊补牢是“没有可能性”的。“大模型领域也是一样。虽然我们对于大模型预期非常高,认为它在很多领域都能去应用,但其实现在,真正在严肃场景下的大模型应用典型案例还是非常少的,主要问题在于 AI 安全上。如果不解决安全可控问题,对于一些严肃场景,是没有人敢去信任AI,没有人敢去用它(AI)。只有说解决安全、可信问题,AI才有可能去落地和应用。”田天表示,如果一些商业化公司对于安全问题不够重视、并毫无边界快速往前跑的话,可能会造成一系列安全危害,甚至可能对于整个全人类有一些安全风险和影响。早在聊天机器人ChatGPT发布之前,伊利亚便提到AGI对人类社会可能的威胁。他把AGI与人类的关系,类比人类与动物的关系,称“人类喜欢许多动物,但当人类要造一条高速路时,是不会向动物征求意见的,因为高速路对人类很重要。人类和通用人工智能的关系也将会这样,通用人工智能完全按照自己的意愿行事。”AGI,即人工智能已具备和人类同等甚至超越人类的智能,简单而言就是能说会写,具备计算、推理、分析、预测、完成任务等各类人类行为。这样的AI曾经遥远,但在OpenAI推出第四代模型GPT-4且正训练第五代模型GPT-5时,AGI看似近在咫尺。今年以来,AI 安全问题持续引发关注。今年1月,美国一位流行歌手被人用AI恶意生成虚假照片,在社交媒体迅速传播,给歌手本人造成困扰;2月,香港一家公司遭遇“AI变脸”诈骗,损失高达2亿元港币,据悉,这家公司一名员工在视频会议中被首席财务官要求转账。然而,会议中的这位“领导”和其他员工,实际都是深度伪造的AI影像。诈骗者通过公开渠道获取的资料,合成了首席财务官的形象和声音,并制作出多人参与视频会议的虚假场景。整体来看,为了实现AGI目标,当前,AI系统在设计上主要面临五大安全挑战:软硬件的安全:在软件及硬件层面,包括应用、模型、平台和芯片,编码都可能存在漏洞或后门;攻击者能够利用这些漏洞或后门实施高级攻击。在AI模型层面上,攻击者同样可能在模型中植入后门并实施高级攻击;由于AI模型的不可解释性,在模型中植入的恶意后门难以被检测。数据完整性:在数据层面,攻击者能够在训练阶段掺入恶意数据,影响AI模型推理能力;攻击者同样可以在判断阶段对要判断的样本加入少量噪音,刻意改变判断结果。模型保密性:在模型参数层面,服务提供者往往只希望提供模型查询服务,而不希望暴露自己训练的模型;但通过多次查询,攻击者能够构建出一个相似的模型,进而获得模型的相关信息。模型鲁棒性:训练模型时的样本往往覆盖性不足,使得模型鲁棒性不强;模型面对恶意样本时,无法给出正确的判断结果。数据隐私:在用户提供训练数据的场景下,攻击者能够通过反复查询训练好的模型获得用户的隐私信息。北京智源人工智能研究院学术顾问委员会主任张宏江在2024北京智源大会上表示,过去一年大模型发展速度之快,行业纷纷探讨通用人工智能的实现路径与曙光,但AI安全问题的严重性与紧迫性不容忽视。“当我们从不同层面 AI 能安全问题进行审视,除了对社会偏见,错误信息,潜在的工作替代或者大模型、自主机器人带来的大规模自动化而导致的工作流失,以及潜在的加速财富集中或财富两极化等问题有所了解,更应该关注 AI 可能带来新的经济体系和包括潜在的灾难性风险或误用事故,甚至可能导致延伸性的人类风险。AI 安全已有很多声明和请愿,但更重要的是明确目标、投入资源、采取行动、共同应对风险。”张宏江表示。北京智源人工智能研究院理事长黄铁军表示,水深流急,AI安全已进入风险很突出的阶段。应对AI安全风险,需要对AGI水平和能力进行分五级,而且,人类应该致力于解决 AI 安全问题,加强与国际社会在AI安全领域的合作,确保AI技术可控,迎接安全AGI的到来。AGI水平和能力的五个级别生成式AI技术是一把双刃剑,如何把生成式AI的强大能力用于建立信息安全规范,将制约行业发展的“绊脚石”变为“压舱石”?业界一直在探索“用技术治理技术”的方案。就在6月21日,瑞莱智慧推出全球首个可实时检测AI合成内容产品RealBelieve,中文名“尊嘟假嘟”。据悉,与此前国内外AIGC检测产品被动上传检测不同,RealBelieve主要面向终端用户,能够提供主动实时检测防护,可接入视频流鉴别人脸真伪,也可在用户浏览网页内容时提供AIGC合成可能性提示。不仅可以为终端用户提供文本、图片、视频和音频多种模态的文件上传检测服务,还可以通过浏览器插件的形式实时提示用户所浏览网页的疑似AI合成内容,变被动为主动。目前,尊嘟假嘟RealBelieve已开启内测招募。田天表示,作为国内为数不多专攻 AI 安全领域的公司,瑞莱智慧已服务百余家政务、金融等领域客户。随着AI技术的发展,安全在整个AI发展中的优先级一直在往前去走。未来 AI 技术要往超级智能方向发展的话,必须要建立整个安全体系,从而确保形成安全的超级智能技术。“如果现在不去做好 AI 安全的话,可能后面我们就没有机会了。”田天称。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人