我在世界500强工作期间,基于大量的工作、社交往来和体会,发现那些能力强大、站在食物链顶端的女人和那些浑浑噩噩之辈,她们之间的区

#内幕消息 我在世界500强工作期间,基于大量的工作、社交往来和体会,发现那些能力强大、站在食物链顶端的女人和那些浑浑噩噩之辈,她们之间的区别其实就是四种能力的差异: 1. 是否能收集到比别人多的信息 2. 在占有信息差不多的情况下,能否作出比别人更为精确和深远的判断 3. 在占有信息和局面判断差不多的情况下,能否在有限时间内设计和计算出更优的策略 4. 能否把策略高效、持续地执行下去 第1种能力叫信息能力 第2种能力叫判断能力 第3种能力叫谋划能力 第4种能力叫执行能力 人和人之间的差距,基本上都是这4种能力拉开的。每一项能力的显著差距都足以至少拉开一个小的社会阶层。 能力1的短板会使人在社会中行走变成“睁眼瞎”,很容易撞上死胡同或错误的方向。比如,即使大量信息在你眼前经过,无法识别出有效信息,你或许将有效信息当做新闻和娱乐,而有心人立刻抓取进而深度读取。 能力2的短板会决定一个人各种关键时刻的命运沉浮,甚至如果是敌是友、是机会还是陷阱都判断不清楚,可能会遭遇惨痛失败。我遇过不少人在2021年4月份之后还随意出手买房投资的,导致酿成损失的核心原因是,错误的预估信息的“脆弱性”,以「时代风口的成功经验」上桌孤注一掷。 能力3的短板会让人过于按部就班、循规蹈矩,抓不住机遇,但相对来说损失蕞小。我有一个朋友身在教培行业,当遇到行业毁灭性打击的时候,其他人还在祈祷政策放过,而她快速起号在各大平台授课、卖课。“海啸”袭来,她却丝毫未损。 能力4的短板会让人眼高手低、志大才疏,蕞终或许一事无成。同在教培行业的另一个朋友,她虽然识别了信号、判断了信息,谋划了策略,但未能坚持执行。她在每个平台上都只是雨露均沾,不研究不同平台的规则、用户差异。她机械地把一个内容复制到N个平台上,没有效果后就此放弃。 信息能力相当于雷达,捕捉信号。判断能力相当于前沿观察哨,作出判断和预处理。谋划能力相当于作战室,拆解、布局、运筹帷幄。执行能力相当于飞行员,高效执行指令。

相关推荐

封面图片

马斯克即将发布的大模型能力概览:

马斯克即将发布的大模型能力概览: 计划装上特斯拉 最高支持2.5万字符输入 可以获取twitter最新信息 这里面最吸引人的应该是2.5万的字符上下文,相当于25K的characters。按照OpenAI自己认为1个token约等于0.75个字符来说,25K的characters相当于33.3K的tokens,比GPT-4-32K稍长。 Grōk AI的SuperPrompt功能 除了前面透露的功能外,还有个超级Prompt功能也是Grōk AI提供的。根据信息透露,SuperPrompt是一种情感驱动的Prompt,可以大幅增强LLM对用户输入的理解。这种技术的实施可能包括在构造提示时包含某些特定的情感或心理触发词,从而使AI的响应更加精确和人性化。 Grōk AI强大的新闻能力根据透露 Grōk AI 对新闻的 “感觉 “是其他人工智能平台无法比拟的。由于 Grōk AI 是通过 Twitter EB级数据中的 “突发 “新闻进行训练的,因此它对新闻有敏锐的嗅觉。它能从偏见中辨别出突发新闻的要素。这意味着可能可以很快的分发重要的新闻,并尽可能实现客观与真实。也就是说Grōk AI会因为清晰、公正的洞察力成为突发新闻事件的 “首选”。 所以估计会很好玩

封面图片

#澄清帖 尊敬的群友们:

#澄清帖 尊敬的群友们: 大家好!首先,我想对近期关于我对 #弘毅 实指控做出澄清。这段时间,在群里流传着一些关于弘毅的负面消息,我深感遗憾,误会他、也希望能够借此机会将事情的真相说明清楚。 他并未以任何形式进行欺骗,也没有隐瞒与他人合作中的任何信息。他是一个生意人,做雪茄烟酒。他介绍借款接人这一事,确实有过交流,事实是这样的,就是在12月7号的。有一个叫元宝的人,相当于认识,也是基于相信他有能力,相信他能做事,然后经过弘毅介绍,介绍他给公司认识的,相当于宏毅只是中间者,没想到哪个元宝就是一个到处说自己有人到处骗人的狗,也是对此不了解,看错了一条狗,我现在来澄清一下,弘毅没有参与他们任何的交易行为,他的为人在世面上是什么样大家都应该清楚,再说了他不至于这样去做这样的事,在介绍之前确实多次确认了合作的各项细节,并发誓如果一切未如预期,那么会主动退回资金。然而,事情并没有按照设想的发展,导致目前的困境。现在弘毅自己把钱帮他还了了,在这里提醒大家一下。就是这个叫元宝的人!就是一个骗子。大家注意 请大家理解,但是请相信,本人发帖人绝没有故意隐瞒的意思。我一直在积极与相关人员联系。 希望大家能够理性看待这一事件,不要轻易相信没有经过确认的信息,也请允许我在此刻寻求大家的理解与支持。 感谢大家的关注! 发帖人:波呗公司 2025年2月27日 #新闻 #曝光 #跑路 #东南亚 全网曝光@RJJJJ 聊天大群@DDDDA 灰产新闻@xinwenDD

封面图片

新研究揭示重新配置的经典计算机有能力超越量子计算机

新研究揭示重新配置的经典计算机有能力超越量子计算机 量子计算被誉为一种在速度和内存使用方面都能超越经典计算的技术,有可能为预测以前不可能预测的物理现象开辟道路。许多人认为,量子计算的出现标志着经典或传统计算模式的转变。传统计算机以数字比特(0 和 1)的形式处理信息,而量子计算机则采用量子比特(量子位),以 0 和 1之间的数值存储量子信息。在某些条件下,这种以量子位处理和存储信息的能力可用于设计量子算法,从而大大超越经典算法。值得注意的是,量子以 0 和 1 之间的数值存储信息的能力使得经典计算机很难完美地模拟量子计算机。然而,量子计算机很不稳定,容易丢失信息。此外,即使可以避免信息丢失,也很难将其转化为经典信息,而经典信息是进行有用计算的必要条件。经典计算机不存在这两个问题。此外,巧妙设计的经典算法可以进一步利用信息丢失和翻译这两个难题,以比以前想象的要少得多的资源模拟量子计算机正如最近发表在《PRX Quantum》杂志上的一篇研究论文所报告的那样。科学家们的研究结果表明,与最先进的量子计算机相比,经典计算可以通过重新配置来执行更快、更精确的计算。这一突破是通过一种算法实现的,这种算法只保留了量子态中存储的部分信息只够精确计算最终结果。纽约大学物理系助理教授、论文作者之一德里斯-塞尔斯(Dries Sels)解释说:"这项工作表明,改进计算的潜在途径有很多,包括经典方法和量子方法。此外,我们的工作还凸显了利用容易出错的量子计算机实现量子优势有多么困难。"为了寻求优化经典计算的方法,塞尔斯和他在西蒙斯基金会的同事们把重点放在了一种能忠实呈现量子比特之间相互作用的张量网络上。这些类型的网络出了名的难处理,但该领域的最新进展使得这些网络可以借用统计推理的工具进行优化。作者将该算法的工作与将图像压缩成 JPEG 文件进行了比较,JPEG 文件可以通过消除信息,在几乎感觉不到图像质量损失的情况下,使用更少的空间来存储大型图像。"为张量网络选择不同的结构,就相当于选择不同的压缩形式,就像为图像选择不同的格式,"领导该项目的 Flatiron 研究所约瑟夫-廷德尔(Joseph Tindall)说。"我们正在成功开发用于处理各种不同张量网络的工具。这项工作反映了这一点,我们相信,我们很快就会进一步提高量子计算的标准。"编译自:ScitechDaily ... PC版: 手机版:

封面图片

ChatGPT一年电费高达2亿元 AI为何如此耗电?

ChatGPT一年电费高达2亿元 AI为何如此耗电? 公开数据显示,目前,ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时。一年时间,ChatGPT光电费就要花2亿元人民币。这意味着,ChatGPT日耗电量是普通家庭的1.7万倍以上。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元)据荷兰咨询机构负责人Alex de Vries预计,到2027年,AI 行业每年将消耗850亿~1340亿千瓦时的电力,相当于瑞典或荷兰一个欧洲国家一年的总用电量。马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看到,我们没有足够电力来运行所有的芯片”。OpenAI CEO奥尔特曼(Sam Altman)也预计,AI 行业正在走向能源危机,未来 AI 技术发展将高度依赖于能源,人们也需要更多的光伏和储能产品。这一切都显示出,AI 即将引爆全球新一轮“能源战争”。不止是芯片,AI 还被能源“卡脖子”过去500多天里,ChatGPT引发全球新一轮 AI 大模型和算力需求热潮。微软、Google、Meta、OpenAI等多家全球科技巨头开始疯抢 AI 芯片,甚至亲自下场“造芯”,总规模超过数十万亿元美金。实际上,AI 本质上是一种计算机技术和处理信息的技术,背后则需要大量GPU芯片,更底层则是大量电能、水力、风能、资金等资源的支持。早在1961年,在IBM公司工作的物理学家拉尔夫·兰道尔(Rolf Landauer)发表了一篇论文,提出了后来被称为“兰道尔原理”(Landauer's Principle)的理论。这一理论认为,计算机中存储的信息发生不可逆的变化时,会向周围环境散发一点点热量,其散发的热量和计算机当时所处的温度有关温度越高,散发的热量越多。兰道尔原理连接起了信息和能量。更具体地说,它连接到了热力学第二定律上。因为逻辑上不可逆的信息处理操作,也就意味着湮灭了信息,这会导致物理世界中熵的增加,从而消耗能量。这一原理自提出以来遭受过不少质疑。但近十几年来,“兰道尔原理”已被实验证明。2012年,《自然》杂志发表了一篇文章,研究团队首次测量到了一“位”(bit)数据被删除时释放的微量热量。后来的几次独立实验,也都证明了“兰道尔原理”。过去10多年间,现代电子计算机在计算时实际消耗的能量,是兰道尔理论值的数亿倍。而科学家们一直在努力寻找更高效的计算方法,以降低成本。如今,AI 大模型爆发,它确实需要大量计算。因此,AI 不止被芯片“卡脖子”,还被能源“卡脖子”。马斯克近期也在“博世互联世界2024”大会上表示,一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。中国科学技术信息研究所人工智能中心副主任李修全也表示,近年来, AI 大模型规模、数量都在高速增长,也带来对能源需求的快速增加。尽管短期内还不会很快出现“缺电”等问题,但未来大规模智能化时代来临后的能源需求激增不容忽视。AI 大模型质量的关键在于数据、算力和顶尖人才,而高算力的背后,是靠着数万张芯片昼夜不停的运转支撑。具体来说,AI 模型算力的工作过程大致可以分为训练、推理两个阶段,能源消耗也是如此。其中,在AI训练阶段,首先需要收集和预处理大量的文本数据,用作输入数据;其次,在适当的模型架构中初始化模型参数,处理输入的数据,尝试生成输出;最后,通过输出与预想之间的差异反复调整参数,直到模型的性能不再显著提高为止。从训练15亿参数的GPT-2,到训练1750亿参数的GPT-3,OpenAI模型背后的训练能耗十分惊人。公开信息称,OpenAI 每训练一次需要128.7度电,相当于 3000 辆特斯拉同时跑 32 公里。据研究机构New Street Research估计,仅在AI方面,Google就需要大约40万台服务器,每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。而在推理阶段,AI 则会先加载已经训练好的模型参数,预处理需要推理的文本数据,再让模型根据学习到的语言规律生成输出。Google称,从2019年到 2021年,AI相关能源消耗60%都来自推理。据Alex de Vries估算,ChatGPT每天大概要响应大约2亿个请求,耗电量超过50万度,按照一年电费就是2亿元人民币,比每个美国家庭的平均日用电量高1.7倍。SemiAnalysis报告称,使用大模型进行问题搜索所消耗的能源是常规关键词搜索的10倍。以Google为例,标准Google搜索使用0.3Wh电力,而大模型每次互动的耗电量为3Wh。如果用户每次在Google搜索都使用AI工具,每年大约需要29.2太瓦时的电力,也就是每天约7900万度。这相当于给全球最大的摩天大楼,迪拜的哈利法塔,连续供电超过300年。另据斯坦福人工智能研究所发布的《2023年 AI 指数报告》显示,每次 AI 搜索的耗电量大约为8.9瓦时。相比普通Google搜索,加入 AI 的单次耗电量几乎是一般搜索的30倍。而一个高达1760亿参数的模型,光是前期训练阶段就得用掉了43.3 万度电,相当于美国117个家庭一年的用电量。值得注意的是,在Scaling Law(缩放规律)之中,随着参数规模不断跃升,大模型性能也不断提升,而对应的是,能耗也会越来越高。因此,能源问题已经成为 AI 技术持续发展的关键“桎梏”。GPT每天消耗50000升水,电和水是 AI 两大能源需求AI不仅是“耗电狂魔”,更是“吞水巨兽”。其中,在电力方面,除了上述信息外,据国际能源署(IEA)数据显示,2022年,全球数据中心消耗约460太瓦时的电量(相当于全球总需求的2%),随着生成式AI飞速发展,这一数字到2026年可能膨胀至620至1050太瓦时。Alex de Vries预计,到2027年,AI服务器所消耗的用电量将等同于荷兰全国的能源需求量。最坏的情况就是,仅Google一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。IBM高级副总裁达里奥·吉尔曾表示,“AI能耗”是非常重要的挑战。生成式 AI 的高性能服务器的持续运行,将导致数据中心一半以上的电力消耗都被AI占据。据悉,预计到2025年,AI 业务在全球数据中心用电量中的占比将从2%猛增到10%。那么,水能呢?大模型背后需要数据中心、云基础设施的支持,那就需要大量的“液冷”进行散热。得克萨斯大学的一份研究指出,作为ChatGPT背后的重要支持力量,微软的Microsoft Azure云数据中心光是训练GPT-3,15天就用掉将近70万升的水,相当于每天花销约50000L水。同时,ChatGPT每回答50个问题就要消耗500毫升水。公开信息称,2022年微软用水量达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。美国加州大学河滨分校副教授任绍磊团队预计,到2027年,全球AI可能需要4.2-66亿立方米的清洁淡水量,这比4-6个丹麦、或二分之一的英国的一年取水总量还要多。除了数据中心,内置的GPU芯片也是能源消耗的重点领域之一。今年3月,英伟达发布史上性能最强AI芯片Blackwell GB200,宣称是A100/H100系列AI GPU的继任者,性能相比H100提升30倍,但能耗却降低了25倍。上个月,黄仁勋的一句“AI的尽头是光伏和储能”更是在网络疯传。尽管有网友扒出原视频称,黄仁勋本人并未说过这句话,更没有提及“光伏和能源”,但 AI 能耗严重,却是摆在公众面前的事实。国际能源机构(IEA)在一份报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大模型所需的电力,远高于Google等传统搜索引擎。不过,值得注意的是,由于科技巨头们并未正式披露过 AI 使用中的电力消耗数据,因此,目前关于 AI 耗电量的数据多为估算,并不一定是非常准确的数据。美国信息技术与创新基金会(ITIF)曾指出,个别不准确的研究高估了AI能耗。AI训练是一次... PC版: 手机版:

封面图片

英国"DragonFire"激光定向能武器系统实现了首次针对空中目标的大功率试射

英国"DragonFire"激光定向能武器系统实现了首次针对空中目标的大功率试射 DragonFire 采用英国自主研发技术,能够远距离发射高功率激光,其精确度相当于从一公里外击中一枚 1 英镑硬币。激光定向能量武器能以光速攻击目标,并利用强烈的光束切割目标,如果目标的武器弹头被击中,会导致结构失效或产生更大的冲击力。发射 10 秒钟的成本仅相当于使用普通电暖气加热一个小时。因此,它有可能成为目前装备的导弹执行的某些任务的长期低成本替代品。每次发射激光的运行成本通常不到 10 英镑。DragonFire由国防科技实验室(Dstl)代表英国国防部领导,并与其行业合作伙伴MBDA、莱昂纳多和奇奈蒂克公司合作。这一里程碑展示了在相关范围内攻击空中目标的能力,也是该技术投入使用的重要一步。陆军和皇家海军都在考虑将这项技术作为其未来防空能力的一部分。国防部长格兰特-沙普说:这种尖端武器有可能减少对昂贵弹药的依赖,同时降低附带损害的风险,从而彻底改变作战空间。在这个竞争激烈的世界上,与行业合作伙伴共同投资开发龙火(DragonFire)等先进技术至关重要,有助于我们保持制胜优势,确保国家安全。最新的里程碑是在一系列非常成功的试验基础上取得的,这些试验包括首次对英国主权能力进行静态高功率激光发射,以及展示"龙火"(DragonFire)系统在一定距离内以非常高的精度跟踪移动的空中和海上目标的能力。在这项研究的基础上,英国国防部最近宣布打算资助一项耗资数百万英镑的计划,将这项技术从研究环境过渡到战场。最新的试验由英国国防部国防科技(DST)组织和战略计划赞助,并得到了政府许多其他机构的支持,确保满足所有监管和安全审批要求。Dstl首席执行官保罗-霍林斯海德博士说:通过这些试验,我们在认识定向能武器带来的潜在机遇和威胁方面向前迈进了一大步。凭借数十年的知识、技能和作战经验,Dstl的专业知识对于帮助武装部队为未来做好准备至关重要。"DragonFire"武器系统是英国国防部和工业界共同投资 1 亿英镑的成果。参与投资的公司共同支持英国在新尖端技术领域的高技能工作,使英国在LDEW系统方面的能力得到显著提升。2017 年,英国国防部首席科学顾问研究计划向DragonFire财团授予了一份价值 3000 万英镑的合同,以展示 LDEWs 的潜力。科技部尼克-乔德博士说:这是科学和工程学的真正创新应用,是持续投资和努力的成果。龙火"采用了尖端科学和技术,其性能远远超过其他同类系统。DragonFire系统使我们应对高性能、低成本威胁的能力有了质的飞跃。英国国防部门正在继续投资于这些改变游戏规则的技术,并正在推进最终将这些技术投入使用的计划。国防部战略计划主任 Shimon Fhima 说:在赫布里底群岛进行的DragonFire试验表明,我们世界领先的技术可以在射程内跟踪和打击高端武器。在威胁不断变化的世界里,我们的重点必须是为作战人员提供能力,我们将寻求加快下一阶段的进展。LDEW 的研究和技术是通过合作伙伴关系提供的,是满足国防部需求的一种具有成本效益的方式,同时也保持了英国工业的技术和技能基础。英国国防部门正在继续投资于这些改变游戏规则的技术,并正在推进最终将这些技术投入使用的计划。 ... PC版: 手机版:

封面图片

大模型实时打《街霸》捉对PK GPT-4居然不敌3.5

大模型实时打《街霸》捉对PK GPT-4居然不敌3.5 这种新玩法吸引了不少网友来围观。由于项目是在Mistral举办的黑客马拉松活动上开发,所以开发者只使用OpenAI和Mistral系列模型进行了测试。排名结果也很出人意料。经过342场对战后,根据棋类、电竞常用的ELO算法得出的排行榜如下:最新版gpt-3.5-turbo成绩断崖式领先,Mistral小杯排第二。更小的模型超过了更大的如GPT-4和Mistral中杯大杯。开发者认为,这种新型基准测试评估的是大模型理解环境并根据特定情况采取行动的能力。与传统的强化学习也有所不同,强化学习模型相当于根据奖励函数“盲目地”采取不同行动,但大模型完全了解自身处境并有目的的采取行动。考验AI的动态决策力AI想在格斗游戏里称王,需要哪些硬实力呢?开发者给出几个标准:反应要快:格斗游戏讲究实时操作,犹豫就是败北脑子要灵:高手应该预判对手几十步,未雨绸缪思路要野:常规套路人人会,出奇制胜才是制胜法宝适者生存:从失败中吸取教训并调整策略久经考验:一局定胜负不说明问题,真正的高手能保持稳定的胜率具体玩法如下:每个大模型控制一个游戏角色,程序向大模型发送屏幕画面的文本描述,大模型根据双方血量、怒气值、位置、上一个动作、对手的上一个动作等信息做出最优决策。第一个挑战是定位人物在场景中的位置,通过检测像素颜色来判断。由于目前大模型数学能力还都不太行,直接发送坐标值效果不好,最终选择了将位置信息改写成自然语言描述。所以对于AI来说,实际上他们在玩的是一种奇怪的文字冒险游戏。再把大模型生成的动作招式映射成按键组合,就能发送给游戏模拟器执行了。在试验中发现,大模型可以学会复杂的行为,比如仅在对手靠近时才攻击,可能的情况下使用特殊招式,以及通过跳跃来拉开距离。从结果上可以看出,与其他测试方法不同,在这个规则下似乎更大的模型表现越差。开发者对此解释到:目标是评估大模型的实时决策能力,规则上允许AI提前生成3-5个动作,更大的模型能提前生成更多的动作,但也需要更长的时间。在推理上的延迟差距是有意保留的,但后续或许会加入其他选项。后续也有用户提交了流行开源模型的对战结果,在7B及以下量级的战斗中,还是7B模型排名更靠前。从这个角度看,这种新型基准测试为评估大模型的实用性提供了新思路。现实世界的应用往往比聊天机器人复杂得多,需要模型具备快速理解、动态规划的本领。正如开发者所说,想要赢,要在速度和精度之间做好权衡。GitHub项目: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人