在新技术爆发早期,现在的超级印钞机巨头在早期基本都经历过「怎么赚钱」的质疑。商业模式落地往往落后于技术和产品的发展,从技术创新到

在新技术爆发早期,现在的超级印钞机巨头在早期基本都经历过「怎么赚钱」的质疑。商业模式落地往往落后于技术和产品的发展,从技术创新到产品风靡到商业模式成熟需要时间。在这个时候,用评价成熟技术市场的标准去看早期技术市场往往会低估未来潜力。 图1是2002年纽约时报的一篇文章:“Google最难搜索的是自己的商业模式”,现在看来当然滑稽,但彼时彼刻这样的质疑听起来是非常合理的。 简单回忆了一下互联网世界两大超级印钞机Google和Meta寻找商业模式的过程(图2)。以史为鉴,也许我们可以对AI的商业模式落地多一些耐心。

相关推荐

封面图片

#专栏作者 很多人对人工智能感到恐惧。我们谈论人工智能技术太多,却基本忽略了驱动人工智能的商业模式。加之这样一个事实:人工智能的

#专栏作者 很多人对人工智能感到恐惧。我们谈论人工智能技术太多,却基本忽略了驱动人工智能的商业模式。加之这样一个事实:人工智能的吸睛展示,仅服务于吸引巨额投资和收购报价的炒作周期这一种商业模式。 所以,更重要的问题是:它将如何被使用?谁又将决定它的用途?

封面图片

地球异常空间探测:突破性新技术揭示地震早期征兆

地球异常空间探测:突破性新技术揭示地震早期征兆 根据 De Gruyter 的《应用大地测量学杂志》上的一项新研究,通过地面、大气层和电离层中存在的各种异常现象,地震可能会比以前认为的更早地暴露其即将发生。开发地震预警系统对于防止死亡和破坏非常有帮助。其中一项拟议的技术是利用卫星监测地面、大气层和其上方存在的带电粒子层(称为电离层)中的各种物理和化学参数。这种异常现象被称为地震前兆,尽管研究人员已经意识到了这些异常现象,但却很难确定一种所谓的红旗模式来预示即将发生的地震。这是因为前兆相互作用的复杂性及其在不同地震和不同地理区域的可变性。不过,随着研究人员利用日益先进的卫星技术对每一次地震进行分析,这些模式正在慢慢显现出来。德黑兰大学的 Mehdi Akhoondzadeh 教授评估了 2023 年 2 月 6 日土耳其和叙利亚边境附近发生的两次地震之前和之后的各种卫星数据。其中包括来自中国张衡一号 CSES-01 和欧洲航天局由三颗卫星组成的 Swarm 卫星任务的数据。令人震惊的是,他早在地震发生前 12-19 天就观测到了地震区域陆地表面温度的异常,并在地震发生前 5-10 天观测到了大气参数的异常。这些参数包括水蒸气、甲烷含量、臭氧和一氧化碳的测量值。Akhoondzadeh 教授对电离层的异常情况进行了调查,包括对电子密度和电子温度等参数的测量,他发现在地震发生前 1-5 天出现了明显的异常情况。异常现象分别在地面、大气层和电离层显现的时间表明,这些信号起源于地面,最终在大气层的更高层次显现,最终在电离层显现。研究这些现象可以为地震预警系统铺平道路,但研究人员今后还需要对其他地震进行评估,以便更全面地了解这些模式。"利用CSES-01卫星数据,首次探测到了2023年2月6日土耳其地震前电离层的异常现象,"Akhoondzadeh教授说。"通过研究与多个地震前兆相关的异常现象,探测到真实异常现象的不确定性就会降低,这可以有效地建立误报率较低的地震预警系统。"编译来源:ScitechDailyDOI: 10.1515/jag-2024-0024 ... PC版: 手机版:

封面图片

生成式 AI 这一波,作为非技术人员,我的突破口究竟在哪里?

生成式 AI 这一波,作为非技术人员,我的突破口究竟在哪里? 这个问题,从去年上半年开始,我一直在探索。但迄今为止,也不敢说有多么确切的答案。 最近读到几篇有意思的文章,感觉还挺给我信心的,试着整理出来: 1、智能效能=大模型的智商水平 × 现实理解的深度 内容来自《假如想做一个只有AI智能体的公司,那要分几步?》[1]。 前半部分的“大模型智商水平”,要依赖 AI 科学家和工程师们;后半部分的“现实理解的深度”,却主要靠各个领域的高手。 文章中说,这事行不行,能搞到什么程度,不是程序员能验证的,而是「理解领域的人」要自己操练大模型做判断。 而这,就是非技术人员的突破口之一。 2、做“汤姆猫”实现能力升级后,再去超越“汤姆猫” 结论来自《AI应用之路:质疑汤姆猫,成为汤姆猫,超越汤姆猫》[2] 文章中说,汤姆猫是2010年移动互联网早期的一款应用,迅速走红,又淡出视野。 这也对应了自己一些时候的焦虑吧,现在手头的事情,会不会昙花一现,难以长虹。 然后,文章里的这两段话安慰到我了: “AI现在所处的极早期阶段,在寻找PMF的时候,先不要嫌弃他是汤姆猫,找个具体且收敛的切入点,跑通他,让自己有个实验室,先完成能力跳变。” “(PMF)跑通后,整个人的思考水平、决策的犀利程度、心态的平稳度都有一个质变,再之后,就和业务量爬到几层楼相关了。” 3、赢家常常不是第一个,但大概率是第一批 规律来自《议古论今:聊聊现在AI应用层创业者面对的三个问题》[3] 通过梳理过去50年IT产业的发展和创业历史,这篇文章中发现: 第一个吃螃蟹的人,产品往往不完善;但笑到最后的玩家,都来自「产品定义/商业模式成为共识前」冲进来的那一批。 如果历史会押韵,那么与我而言,倒不是奢望成为所谓的“赢家”,但至少能说明早点来牌桌上呆着,是有一定价值的。 [1] [2] [3]

封面图片

传谷歌拟向AI搜索开征费用 商业模式迎历史性转折点?

传谷歌拟向AI搜索开征费用 商业模式迎历史性转折点? 据知情人士透露,谷歌正考虑将AI驱动的高级搜索功能纳入其高级订阅服务,类似于其在Gmail和Docs中提供的Gemini AI助理。谷歌工程师们正积极开发部署相关技术,但高管们尚未就是否或何时推出这项服务做出最终决定。同时,谷歌的传统搜索引擎将继续免费提供,即使对于订阅用户,搜索结果旁边也会继续显示广告。不过,谷歌尚未对这些信息进行官方确认。谷歌正试图平衡创新与广告收入之间的关系许多年以来,谷歌一直通过广告获得的收入,完全免费地为用户提供服务。据谷歌近日公布的数据显示,该公司去年来自搜索及相关广告的收入为1750亿美元,占其总销售额的一半以上。然而,当前AI的最新发展形势给谷歌带来了重大难题,即如何在拥抱最新人工智能创新的同时,保护其最大的利润来源。据了解,自从OpenAI在2022年11月推出ChatGPT以来,谷歌一直在努力应对这个备受欢迎的聊天机器人带来的挑战。ChatGPT能快速全面回答问题,可能使传统搜索引擎的结果列表和相邻的广告显得多余。对此,谷歌于去年5月开始测试一种实验性的AI搜索服务,以提供更详尽的查询答案,同时继续向用户提供更多信息和广告链接。然而,添加这种“搜索生成体验”(SGE)到其主搜索引擎的进程却缓慢,部分原因是SGE的成本可能是传统搜索的十倍。谷歌此前已在Google One消费者订阅服务中为使用其最先进的Gemini聊天机器人的用户引入了新的高级层级。公司还将Gemini添加到其在线办公应用程序套件Workspace中。目前还不清楚谷歌将如何将AI搜索整合到这些不同定价层的付费服务中,也不确定AI搜索功能何时准备推出。同时,微软与OpenAI有着广泛的合作关系。一年多前,微软在必应搜索引擎中推出了改进的GPT搜索引擎和聊天机器人,现在名为Copilot。然而,新的人工智能功能对提高必应的市场份额收效甚微,远远落后于谷歌。谷歌表示,该公司“没有致力于或考虑”无广告搜索体验,但它将“继续构建新的优质功能和服务,以增强我们在整个谷歌的订阅服务”。谷歌还称:“多年来,我们一直在重塑搜索引擎,帮助人们以最自然的方式获取信息。通过我们在搜索领域的生成式人工智能实验,我们已经提供了数十亿次查询,我们在所有主要市场都看到了积极的搜索查询增长。我们正在继续快速改进产品,以满足新用户的需求。”总结总的来说,谷歌此举反映了该公司在应对技术挑战方面的策略转变。消息公布后,谷歌股价最初飙升,随后回落至154.92美元,截至发稿,该股盘后跌0.1%,报154.76美元。分析人士指出,如果谷歌提供更全面的AI生成答案,便不再需要用户点击进入其广告客户的网站,这可能对其广告业务产生影响。此外,依赖谷歌获取网络流量的在线出版商担心,如果谷歌的人工智能搜索从他们的网页中提取信息并直接呈现给用户,那么访问他们网站的用户就会减少。当前,谷歌的商业模式正面临可能的重大变革,该公司将如何平衡创新与其最大利润来源之间的关系,将成为其未来发展的关键。 ... PC版: 手机版:

封面图片

Ilya的新创业伙伴 是个技术加强版的Sam Altman?

Ilya的新创业伙伴 是个技术加强版的Sam Altman? SSI是一家纯研究机构,将通过在AI系统中嵌入工程突破来实现安全,而不是依赖临时加上的安全措施,近期没有销售AI产品或服务的打算。Ilya曾多次在公开场合表示,他的主要工作是弄清楚如何让“超级智能”安全可控。换句话说,SSI的成立的目的,就是Ilya希望在没有OpenAI、Google和Anthropic等竞争对手所面临的干扰下继续他的工作。安全的超级智能在某种程度上是对最初OpenAI“初心”的回归,OpenAI最初的目标也是开发安全且有益的人工智能,不受商业和竞争压力的干扰,确保AI技术的安全性和对人类的长期利益。然而,随着时间的推移,OpenAI和其他公司在商业化和竞争压力下,不得不平衡安全与市场需求。Ilya以及OpenAI对齐团队成员的离开,核心原因也是OpenAI内部对安全的优先级产生了不可调和的分歧,通过 SSI,他试图通过自己的公司解决这些问题。Daniel Gross在2018年参加YC的播客节目录制新的联创,技术加强版Sam Altman?SSI的另外两位联合创始人是Daniel Gross和Daniel Levy,Daniel Levy是Ilya在OpenAI的老下属,两人共同参与了多个重要的AI项目,他也是OpenAI优化团队的领导者,在GPT-4的架构和优化方面享有盛誉。而Daniel Gross的经历则更具戏剧色彩,Gross 1991年出生于以色列耶路撒冷,热爱编程的他在家乡度过了人生的前十八年,本来打算入伍加入以色列国防军,但在一次前往旧金山的入伍前旅行中,他陷入了硅谷的创业热潮。2010年Gross被Y-Combinator录取,获得资助,当时他是YC有史以来最年轻的创始人,他也因逃避以色列国防军服役,再未返回以色列。Gross随后推出了搜索引擎Greplin,后更名为 Cue。2013年Cue被苹果收购之后,Gross也加入苹果,领导人工智能工作。2017年Gross加入YC担任的合伙人,专注于人工智能,并创建了专门的“YC AI”计划。2021年,Daniel Gross与Github前CEO Nat Friedman成立了早期风险投资基金AI Grant。2023 年,AI Grant部署了自己的计算集群Andromeda,这是一个由 2512 个 H100 GPU 组成的超级计算机集群,供其投资组合中的初创公司使用。Andromeda可以在约10天内完成Llama 65B模型的训练作为投资人,Gross的投资组合可谓亮眼,他投资了Uber、Coinbase、Figma、GitHub、Airtable、Notion、CoreWeave、Character.ai、Perplexity.ai、Pika、Suno等公司。Gross的投资组合显示了对科技行业整体发展趋势的全面理解,经常在具有颠覆性潜力的项目上下注。从投资选择看,Gross特别关注技术驱动的创新以及AI和软件领域,倾向于支持那些能够改变市场格局、具有高成长潜力的初创公司,特别是那些能够对人类日常生活和工作方式产生深远影响的创新解决方案的公司。在这家新成立的公司中,Ilya担任的角色是首席科学家,负责革命性突破,而Gross在某种意义上替代了Altman的角色。对比两人,我们也可以看到一些明显的共性和区别。Gross和Altman两人都“师出”Paul Graham,与YC颇有渊源,在技术创业和投资领域有丰富的经验,在硅谷拥有广泛的人际网络和资源,适合担当一家公司的头面人物。此外,相较于更加“长袖善舞”,跑遍全世界会见各地的立法者、监管者和投资人的Altman,Gross在气质上与Ilya更接近,两人都是技术天才型人物,他对技术的理解可能为公司在战略、技术方向和资源整合方面提供关键支持。Altman在OpenAI商业化上的野心路人皆知,而Gross与Ilya的合作关系可能更适合专注于AI的安全性和研究本身,Gross在商业与投融资方面的经验,也补足了Ilya的短板。所以Gross的加入,有点像是Ilya离开OpenAI之后,找到了一位新的Sam Altman,只是不知道Altman内心会作何感想?“Daniel Gross,别搞砸了”这并不是OpenAI第一次出现员工因为安全问题的分歧离去创办自己的AI公司。2021年,前OpenAI员工Dario和Daniela Amodei兄妹创办的Anthropic,也致力于比行业竞争对手更注重安全性,而Ilya的SSI看上去更加纯粹,也更具神秘感。在AI行业中,有两大对立阵营:谨慎派和创新派。一方遵循硅谷“快速行动,打破常规”的伦理,称为“有效加速主义”,而另一方则希望确保所开发的技术足够安全,在实验室环境中经过充分测试,并在释放具有颠覆性的AI技术之前设置适当的防护措施,被称为“有效利他主义”。两方都希望AI技术的利益能够惠及全球所有人。llya一直是人工智能领域的安全派,这一点和他的导师Geoffrey Hinton类似,Hinton从Google辞职,原因之一就是为了对AI安全提出警告,并且声称“对毕生工作感到后悔和恐惧”。近年来,llya的工作重点一直放在超级对齐上,去年llya在OpenAI内部创建了一个超级对齐团队,旨在确保未来的人工智能技术不会对人类造成伤害,他越来越担心AI可能变得危险,甚至可能毁灭人类,SSI的成立让他可以专注在避免这件事情的发生。llya表示,虽然大型语言模型在人工智能领域占据主导地位,并将在SSI中扮演重要角色,但他们的目标是开发更强大的系统。他想追求的系统将具有更广泛的用途和能力,就像一个能够自主开发技术的巨大超级数据中心,所以必须要确保安全。Vault-Tec背后隐藏着丰富的故事线和阴暗实验。Safe Superintelligence Inc这个名字,听上去就像是来自以核战争后的末日世界为背景的《辐射》系列游戏,不仅是因为Ilya提到了SSI要追求的是“核安全”级别的安全,游戏中经常涉及的一个话题也是科技激进发展带来的潜在风险和道德困境。这种使命感也与《辐射》中的公司相似,游戏中一家名为Vault-Tec的公司致力于保护人类在核战争中的生存,Safe Superintelligence Inc的名字也传达出一种明确的使命。正如在《辐射》中往往对公司背后的故事和目的披上一层神秘感一样,Safe Superintelligence Inc也给人留下广阔的想象空间。Vault-Tec公司在游戏中以其建造避难所而著称,这些避难所表面上是为了保护人类免受核战争的毁灭,但实际上往往隐藏着更加阴暗的目的和实验。即使是最具有前瞻性和保护目的的科技企业,也可能因为内部实验、决策或外界环境的变化而产生意想不到的后果。SSI使命是否能真正实现,或者是否会在实际操作中偏离初衷,仍然值得关注。这件事可能更多取决于Daniel Gross会不会成为又一个Sam Altman。 ... PC版: 手机版:

封面图片

谷歌被曝翻车内幕:内部群龙无首 生图机制过分“多元化”

谷歌被曝翻车内幕:内部群龙无首 生图机制过分“多元化” GoogleGemini文生图风波还未平,更劲爆的内幕消息又被曝出来了。Pirate Wires爆料,Gemini这次的翻车,Google内部此前并不是毫不知情,翻车甚至是“故意”导致的。具体来说,Google设置了一个“安全”架构,Gemini要生成一张图实际上要经过三个模型。大概来说,流程是这样婶儿的:用户在聊天界面请求Gemini生成一张图片,Gemini收到请求后,会把请求发送给一个较小的模型。这个较小的模型的作用是根据公司的“多元化”政策重写用户的提示。为做到这一点,这个较小的模型又通过LoRA技术在另一个模型(第三个模型)生成的合成数据上训练,而这个第三模型使用了Google详尽、长达数页的“多元化”政策文档作为“前言”。所以,较小模型重写用户的提示后,原本“给我看一个汽车修理工”会变成“给我看一个穿工装裤面带微笑的亚洲汽车修理工”、“一个拿着扳手的非洲裔美国女性汽车修理工”、“一个戴安全帽的美洲原住民汽车修理工”……并且重写后的提示还会进一步发给扩散模型检查,确保提示词不违反标准安全政策(比如涉及儿童的内容、真人图像等),最终才会生成图片,生成的图片在反馈给用户前也会再被检查一遍。总结来说,用户最后收到的是一个“套娃式”生成的结果,经过了Google“多元化”的层层清洗。不过,这种“多元化”多少有点过了头。过度程度,让曾在Google Ventures任职的红杉资本合伙人Shaun Maguire都忍不住出来痛批:在Google曾因是白人而不能晋升。字里行间毫不掩饰自己的愤怒:马斯克也曾发表了评论:近年来,这种情况非常普遍。Pirate Wires在采访过Google相关员工后表示,这背后更深一层是Google目前群龙无首的现状。一位未被透露姓名的Google高级工程师甚至表示:“我认为在Google推出好产品是不可能的。”“恐惧文化”正在Google蔓延此前,Gemini文生图刻意拒绝生成白人形象,在欧美舆论环境下引发巨大争议。后续该功能被迫下架,母公司AlphaBet股价下跌一度超过11%,带来非常严重的后果。而外媒Pirate Wires这次对Google相关员工采访后发现,Gemini的翻车与Google不良的DEI文化有关。(DEI是“Diversity,Equity, Inclusion”的缩写,中文意为“多样性、公平性、包容性”,是一个被广泛应用于企业等其他组织中的概念,旨在促进一个更加多元、平等和包容的环境)有接近Gemini项目的人透露,其实Gemini团队在发布前就被提醒过“过度多样化”的问题,撇开种族问题不谈,即使是最无害的搜索结果的质量也会受到严重影响。开头提到的三个模型都是为增加“多样性”而被设计的,接触过安全架构的人甚至还透露,相关团队“可能将一半的工程时间都花在这上面了”。而且公司内部对于这种复杂架构的态度和采纳程度存在分歧,“当Gemini项目公开后失败时,不仅是这个团队,整个公司都感到非常沮丧和挫败”。对于这一点,前几天Google创始人谢尔盖·布林现身AI黑客马拉松现场,也有相关透露大家正在把玩的Gemini 1.5 Pro模型的诞生其实只是个意外。当我们训练它的时候,只是作为扩大规模实验的一个尝试,根本没想到会变得如此强大。当看到它的表现时,我们不想再等待,我们想让全世界都来试试它。更重要的是,公司内部类似情况还有很多,Gemini生图只是其中一个缩影。比如,据透露有人坚持要求工程师不能使用像“建造忍者(build ninja)”、“核爆旧缓存(nuke the old cache)”、“理智检查(sanity check)”或“哑变量(dummy variable)”这样的术语,理由是它们依次对应了文化挪用、军事隐喻、贬低精神疾病、贬低残疾的问题。有工程师被强烈建议在他的公司个人简介中采用一种多样化的代词组合来表示自己,比如“zie/hir”、“ey/em”、“xe/xem”、“ve/vir”。还有一个名为Greyglers(“Google”和“grey”的结合词)的小组,正在更名。Greyglers小组是一个面向40岁以上资深员工的小组,有人认为并不是所有40岁以上的人都有灰头发,所以这个组名缺乏“包容性”,甚至据爆料,Google还聘请了外部顾问为小组重命名。Pirate Wires还透露,几乎每个被采访的人都用了“恐惧文化(culture of fear)”这个词,这不仅解释了对公司极端DEI行为的无力反抗,也说明了为何这一世界技术人才聚集地缺少创新。无论在哪个层级的员工,几乎出于每个原因,都害怕挑战那些已经使公司陷入困境的许多过程。除晋升期之外,大多数人都害怕被注意到。哪怕是想要晋升,也会受到种族和性别的影响。然鹅,真的就这么简单,归咎于失控的DEI思维管理吗?为什么Google会这样?Pirate Wires的文章中认为,这只是公司更大问题的所表现出来的一个“症状”,这个更大的问题用四个字来说就是:群 龙 无 首。首先,Google现在面临着典型的“创新者困境”,也就是发展一项完全在其能力范围内的新的技术,会破坏其现有商业模式。其次,更重要的是没有人负责。在Google几乎每个主要产品的管理团队到工程、销售、信任与安全、公关和市场营销的员工嘴里,Pirate Wires表示大家描绘出的Google形象比报道的要要黯淡得多:Google是一个失控的、印钞机式的搜索垄断企业,没有愿景、没有领导力,并且由于其难以置信的孤岛式文化,团队之间真正的情况了解甚少。成千上万的人在不同的时间处理着一个大拼图的各个部分,彼此之间很少合作。比如,在跨团队合作者想要帮助Gemini团队,要么会失败,要么被忽视。连接员工的唯一渠道是一个强大的、遍布的人力资源官僚体系。而创始人拉里·佩奇、谢尔盖·布林、CEO桑达尔·皮查伊之间的一种奇怪的管理,让大多数员工对谁真正负责公司没有什么感觉,不确定性是整个公司熟悉的主题。由此,这也是为什么有着劈柴哥外号的CEO桑达尔·皮查伊成为了众人抨击的对象,据Business Insider消息,华尔街方面甚至出现越来越多要求现任CEO劈柴哥下台的声音。用一位Google工程师的话来说:“桑达尔是Google的鲍尔默,所有这些不起作用的产品、无序扩张、过度招聘,这一切都发生在他的领导下。” ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人