【深度】为何说郭广昌是在去年八月份开始出事的?疫苗为何如此重要,竟然能让郭广昌为此殒命?

None

相关推荐

封面图片

人物|一个孩子的清白为何如此重要?

在视频的最后,10岁的小新说,他还有一件重要的事情要向我们澄清:他当时只是因为喜欢车,才走过去看了看——并不是像大人说的那样,在逗一只苍蝇。

封面图片

Web3中人格证明为何如此重要?

封面图片

今日母亲节!全世界妈妈发音为何如此相似?

今日母亲节!全世界妈妈发音为何如此相似?5月14日,今日为母亲节,是一个感谢母亲的节日。据悉,全世界使用人数超5000万的语言就有73种。但有一个词,却使得几乎全人类的语言产生了奇妙的重合,那就是“ma”。对此,北大外语学院世界文学研究所教授辜正坤老师在《中西文化比较导论》中提到,m这个音很可能是婴儿索要奶水的声音,引申为妈妈。此外,还有专家指出,之所以世界上基本上所有的语言发音都为“ma”,还有一个根本原因,那是因为这是“人的本能”。婴儿第一次会发出声音,是最简单的“ma”音,这是因为婴儿出生时开口啼哭会发自然长音“a”,当他们吸吮母乳时由于口腔封闭气流经由鼻腔冲出,便发出了“m”音。mama/papa是婴儿最早、最容易发出的语音。只需要把嘴巴张开、声带振动就可发出元音[a](就像看医生时张开嘴巴的那一声“啊”),而双唇辅音[m][p][b]发音时无需舌头的参与,是婴儿最早学会的辅音。当他们想吃奶的时候,就会主动想发“m”的声音,因为吃不到就会哭,自然发出“a”的音,连着一块就变成了“ma”。当婴儿发出“ma”的声音时,这种声音就以条件反射的方式与温饱的来源连在了一起,逐渐固化了婴儿对环境的认知,这也是全世界“妈妈”发音相似的原因。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

专栏夜话中南海:习近平为何如此信任蔡奇?

封面图片

目标价为华尔街10倍 木头姐为何如此看好特斯拉?

目标价为华尔街10倍木头姐为何如此看好特斯拉?在特斯拉交出一份差强人意的财报后,特斯拉长期多头CathieWood再度力挺特斯拉,她认为,随着自动驾驶出租车的蓬勃发展,特斯拉股价有可能在五年内达到2000美元,比华尔街分析师仅192美元的目标价高出了10倍多。此前ARK已经两度更新其对特斯拉的目标价,每一次,木头姐都会给特斯拉定下更高的价格,和华尔街之间的差距也越来越大,2021年,ARK的特斯拉目标价比华尔街普遍预期高4倍,2022年则高5倍,而这一次的调整,则达到了10倍。木头姐和华尔街之间主要分歧在于,特斯拉能否在自动驾驶技术和相关业务上取得突破,以及这些突破能带来多大的价值。木头姐认为,特斯拉的自动驾驶技术马上就要成熟,并且前景诱人。ARK公司的报告显示,该机构相信特斯拉未来的自动驾驶出租车业务线将能极大驱动公司增长,到2027年,自动驾驶出租车将贡献58%的预期企业价值和45%的预期EBITDA(息税折旧摊销前利润);根据ARK的模型,到2027年的特斯拉年营收将达到1万亿美元,其中6000亿美元来自汽车销售。边际收入增长远低于自动驾驶出租车。如下图,ARK在报告中表示,他们的推演模型,对特斯拉推出自动驾驶出租车的年份高度敏感,在每股价格最低的情景假设中,特斯拉推出了垂直整合的人工驾驶出租车服务,但在预测期内没有推出自动驾驶出租车;而在较高的每股价格情景假设中,特斯拉在未来两年内推出了自动驾驶出租车。在预期最低的情景假设下,ARK预测特斯拉自动驾驶出租车业务2027年的收入为2000亿美元,预期最高情况下,则为6130亿美元。两种假设的跃进程度都非常夸张:特斯拉2022年全年营收为814亿美元,自动驾驶出租车目前的营收为0。《财富》杂志此前曾预测,从2021年到2029年,全球机器人出租车市场将从17亿美元激增约600倍,达到1080亿美元,仍然远远低于ARK的预期。要实现木头姐的远大愿景,特斯拉还有相当长的一段路要走。不过,如果按ARK预计的每股2000美元计算,那特斯拉的市值将达到6.3万亿美元,大约是目前世界上市值最高的三家公司——苹果、微软和沙特阿美石油公司——的总和。此外,ARK也在报告中强调,即使不考虑自动驾驶出租车业务,该机构也会讲特斯拉的目标价定位1000美元,比华尔街普遍预期高五倍。作为长期多头,木头姐也是知行合一。周四,她旗下基金ARKK和ARKW合计买入25.6万股特斯拉股票。以特斯拉周四163美元的收盘价计算,合计买入额约4170万美元。由于投资者对特斯拉利润率收缩反应剧烈,特斯拉当日股价下跌9.8%,公司市值一日蒸发510亿美元。...PC版:https://www.cnbeta.com.tw/articles/soft/1356211.htm手机版:https://m.cnbeta.com.tw/view/1356211.htm

封面图片

ChatGPT一年电费高达2亿元 AI为何如此耗电?

ChatGPT一年电费高达2亿元AI为何如此耗电?公开数据显示,目前,ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时。一年时间,ChatGPT光电费就要花2亿元人民币。这意味着,ChatGPT日耗电量是普通家庭的1.7万倍以上。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元)据荷兰咨询机构负责人AlexdeVries预计,到2027年,AI行业每年将消耗850亿~1340亿千瓦时的电力,相当于瑞典或荷兰一个欧洲国家一年的总用电量。马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看到,我们没有足够电力来运行所有的芯片”。OpenAICEO奥尔特曼(SamAltman)也预计,AI行业正在走向能源危机,未来AI技术发展将高度依赖于能源,人们也需要更多的光伏和储能产品。这一切都显示出,AI即将引爆全球新一轮“能源战争”。不止是芯片,AI还被能源“卡脖子”过去500多天里,ChatGPT引发全球新一轮AI大模型和算力需求热潮。微软、Google、Meta、OpenAI等多家全球科技巨头开始疯抢AI芯片,甚至亲自下场“造芯”,总规模超过数十万亿元美金。实际上,AI本质上是一种计算机技术和处理信息的技术,背后则需要大量GPU芯片,更底层则是大量电能、水力、风能、资金等资源的支持。早在1961年,在IBM公司工作的物理学家拉尔夫·兰道尔(RolfLandauer)发表了一篇论文,提出了后来被称为“兰道尔原理”(Landauer'sPrinciple)的理论。这一理论认为,计算机中存储的信息发生不可逆的变化时,会向周围环境散发一点点热量,其散发的热量和计算机当时所处的温度有关——温度越高,散发的热量越多。兰道尔原理连接起了信息和能量。更具体地说,它连接到了热力学第二定律上。因为逻辑上不可逆的信息处理操作,也就意味着湮灭了信息,这会导致物理世界中熵的增加,从而消耗能量。这一原理自提出以来遭受过不少质疑。但近十几年来,“兰道尔原理”已被实验证明。2012年,《自然》杂志发表了一篇文章,研究团队首次测量到了一“位”(bit)数据被删除时释放的微量热量。后来的几次独立实验,也都证明了“兰道尔原理”。过去10多年间,现代电子计算机在计算时实际消耗的能量,是兰道尔理论值的数亿倍。而科学家们一直在努力寻找更高效的计算方法,以降低成本。如今,AI大模型爆发,它确实需要大量计算。因此,AI不止被芯片“卡脖子”,还被能源“卡脖子”。马斯克近期也在“博世互联世界2024”大会上表示,一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。中国科学技术信息研究所人工智能中心副主任李修全也表示,近年来,AI大模型规模、数量都在高速增长,也带来对能源需求的快速增加。尽管短期内还不会很快出现“缺电”等问题,但未来大规模智能化时代来临后的能源需求激增不容忽视。AI大模型质量的关键在于数据、算力和顶尖人才,而高算力的背后,是靠着数万张芯片昼夜不停的运转支撑。具体来说,AI模型算力的工作过程大致可以分为训练、推理两个阶段,能源消耗也是如此。其中,在AI训练阶段,首先需要收集和预处理大量的文本数据,用作输入数据;其次,在适当的模型架构中初始化模型参数,处理输入的数据,尝试生成输出;最后,通过输出与预想之间的差异反复调整参数,直到模型的性能不再显著提高为止。从训练15亿参数的GPT-2,到训练1750亿参数的GPT-3,OpenAI模型背后的训练能耗十分惊人。公开信息称,OpenAI每训练一次需要128.7度电,相当于3000辆特斯拉同时跑32公里。据研究机构NewStreetResearch估计,仅在AI方面,Google就需要大约40万台服务器,每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。而在推理阶段,AI则会先加载已经训练好的模型参数,预处理需要推理的文本数据,再让模型根据学习到的语言规律生成输出。Google称,从2019年到2021年,AI相关能源消耗60%都来自推理。据AlexdeVries估算,ChatGPT每天大概要响应大约2亿个请求,耗电量超过50万度,按照一年电费就是2亿元人民币,比每个美国家庭的平均日用电量高1.7倍。SemiAnalysis报告称,使用大模型进行问题搜索所消耗的能源是常规关键词搜索的10倍。以Google为例,标准Google搜索使用0.3Wh电力,而大模型每次互动的耗电量为3Wh。如果用户每次在Google搜索都使用AI工具,每年大约需要29.2太瓦时的电力,也就是每天约7900万度。这相当于给全球最大的摩天大楼,迪拜的哈利法塔,连续供电超过300年。另据斯坦福人工智能研究所发布的《2023年AI指数报告》显示,每次AI搜索的耗电量大约为8.9瓦时。相比普通Google搜索,加入AI的单次耗电量几乎是一般搜索的30倍。而一个高达1760亿参数的模型,光是前期训练阶段就得用掉了43.3万度电,相当于美国117个家庭一年的用电量。值得注意的是,在ScalingLaw(缩放规律)之中,随着参数规模不断跃升,大模型性能也不断提升,而对应的是,能耗也会越来越高。因此,能源问题已经成为AI技术持续发展的关键“桎梏”。GPT每天消耗50000升水,电和水是AI两大能源需求AI不仅是“耗电狂魔”,更是“吞水巨兽”。其中,在电力方面,除了上述信息外,据国际能源署(IEA)数据显示,2022年,全球数据中心消耗约460太瓦时的电量(相当于全球总需求的2%),随着生成式AI飞速发展,这一数字到2026年可能膨胀至620至1050太瓦时。AlexdeVries预计,到2027年,AI服务器所消耗的用电量将等同于荷兰全国的能源需求量。最坏的情况就是,仅Google一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。IBM高级副总裁达里奥·吉尔曾表示,“AI能耗”是非常重要的挑战。生成式AI的高性能服务器的持续运行,将导致数据中心一半以上的电力消耗都被AI占据。据悉,预计到2025年,AI业务在全球数据中心用电量中的占比将从2%猛增到10%。那么,水能呢?大模型背后需要数据中心、云基础设施的支持,那就需要大量的“液冷”进行散热。得克萨斯大学的一份研究指出,作为ChatGPT背后的重要支持力量,微软的MicrosoftAzure云数据中心光是训练GPT-3,15天就用掉将近70万升的水,相当于每天花销约50000L水。同时,ChatGPT每回答50个问题就要消耗500毫升水。公开信息称,2022年微软用水量达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。美国加州大学河滨分校副教授任绍磊团队预计,到2027年,全球AI可能需要4.2-66亿立方米的清洁淡水量,这比4-6个丹麦、或二分之一的英国的一年取水总量还要多。除了数据中心,内置的GPU芯片也是能源消耗的重点领域之一。今年3月,英伟达发布史上性能最强AI芯片——BlackwellGB200,宣称是A100/H100系列AIGPU的继任者,性能相比H100提升30倍,但能耗却降低了25倍。上个月,黄仁勋的一句“AI的尽头是光伏和储能”更是在网络疯传。尽管有网友扒出原视频称,黄仁勋本人并未说过这句话,更没有提及“光伏和能源”,但AI能耗严重,却是摆在公众面前的事实。国际能源机构(IEA)在一份报告中强调了这个问题,全球AI数据中心的耗电量将是2022年的十倍,并指出部分原因在于ChatGPT这样的大模型所需的电力,远高于Google等传统搜索引擎。不过,值得注意的是,由于科技巨头们并未正式披露过AI使用中的电力消耗数据,因此,目前关于AI耗电量的数据多为估算,并不一定是非常准确的数据。美国信息技术与创新基金会(ITIF)曾指出,个别不准确的研究高估了AI能耗。AI训练是一次...PC版:https://www.cnbeta.com.tw/articles/soft/1427249.htm手机版:https://m.cnbeta.com.tw/view/1427249.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人