在情绪上斗狠,示强已经是弱者的表现了,强者反而是示弱的。#情头

在情绪上斗狠,示强已经是弱者的表现了,强者反而是示弱的。#情头

相关推荐

封面图片

研究发现减体重反而是实现肌肉增长的更快途径

研究发现减体重反而是实现肌肉增长的更快途径今年以来,埃迪斯科文大学(ECU)的研究人员围绕着重量训练以及短小精悍的锻炼方式仍然非常值得一提,取得了一些有趣的发现。2月,该团队表明,每天三秒钟的哑铃锻炼可以提供明显的力量增益,然后在8月,他们表明每天降低哑铃六次可以提供同样的好处。这些研究探索了不同阶段的重量训练所提供的肌肉增长类型。举重阶段使肌肉缩短,被称为同心收缩,就像在弯举二头肌时将哑铃举向肩部那样。偏心收缩是相反的阶段,将重量放回臀部,使肌肉拉长。许多运动形式,如跑步和跳跃,都涉及偏心和同心收缩,这两种收缩被认为对健康的身体起着互补作用。同心收缩会让人感觉更辛苦,当时需要更多能量,但肌肉恢复得更快。同时,偏心收缩在运动中使用的能量较少,但被认为会导致肌肉纤维的更大分解,而一旦重建,则强度更大。ECU团队之前的研究结果与这一学派的观点一致,显示了偏心收缩如何能导致力量的最大提高,新的研究继续这一主题。科学家们招募了53名受试者,他们被安排在三个运动组中的一个,每周进行两次哑铃弯举,为期五周,还有一个非活动组作为对照。但只有其中一组同时进行同心和偏心收缩,就像在典型的二头肌卷曲时那样。另一组只进行同心收缩,而另一组只进行偏心收缩。科学家们观察到所有小组的同心力量都有所提高,但实验中最有趣的见解是只进行偏心收缩的小组所看到的卓越成果。尽管他们只降低了重量,并且只做了偏心收缩组一半的重复次数,但这些受试者从非常相似的力量增长中受益。更有趣的是,这组人的肌肉厚度增加得更多,达到7.2%,而同心-偏心组只有5.4%。研究作者KenNosaka教授告诉《新地图集》,那些希望在健身房里增加尺寸的人可能会强调降低重量,而不是举起它们。"我们可以削减同心收缩,我们需要在阻力训练中专注于偏心收缩,"他解释说。"一般来说,人们注重同心收缩而不是偏心收缩,但这应该重新考虑。"Nosaka提供了几个例子,说明在家里使用身体重量作为阻力可能是什么样子。你可以从一个半蹲的姿势慢慢地坐在椅子上,或者慢慢地把自己放下来,做一个蹲姿。当涉及到使用重量作为阻力时,这就引出了一个问题,即你首先要如何把它们弄到上面去。对于这一点,Nosaka也有一些建议。"为了做偏心收缩,我们需要做同心收缩(为了降低重量,我们需要先举起一个重量),重要的是要注意,同心收缩比偏心收缩会引起更大的神经肌肉疲劳。因此,重要的是通过使用两只手臂举起一个重物来减少同心收缩的努力,用一只手臂放下重物来强调偏心收缩"。该研究的局限性之一是,它只专注于通过未经训练的成年人的二头肌卷曲来训练肘部屈肌。虽然Nosaka认为偏心收缩的价值对身体其他部位的肌肉群也是一样的,但还需要进一步的研究来证实这一点,并探索其效果是否适用于更广泛的人群和受过训练的人。该研究发表在《欧洲应用生理学杂志》上。了解更多:https://www.ecu.edu.au/newsroom/articles/research/less-gym-time-same-results-why-lowering-weights-is-all-you-need-to-do...PC版:https://www.cnbeta.com.tw/articles/soft/1332101.htm手机版:https://m.cnbeta.com.tw/view/1332101.htm

封面图片

奥特曼的芯片计划 7万亿美元融资反而是最容易的部分

奥特曼的芯片计划7万亿美元融资反而是最容易的部分但就像《华尔街日报》一篇报道的标题,筹集数万亿美元可能是Altman芯片计划里最容易的部分。毋庸置疑,芯片制造是比金钱复杂得多的挑战,作为资本密集型产业,历来经历过剧烈的周期性波动,芯片制造厂对激进扩张也持谨慎态度。目前,世界上只有三家公司能够大批量生产最尖端的芯片:台积电、三星电子和英特尔。SamAltman到底看到了什么,决定如此重押算力?如果把大模型厂商划分为两种,一种是在落地场景中探索大模型。其中的“显眼包”代表包括英伟达、微软、Databricks,三者都强调算力瓶颈会随着模型尺寸变小、下一代芯片架构创新等取得突破来进一步破除,就像互联网带宽限制在2000年基本消失一样,“GPU也会发生同样的情况”。另一种大模型厂商的典型代表则是OpenAI,对于大模型技术,要不计成本地做标本、数典范、探索边界。对于OpenAI率先看到的未来,Q*、GPT-5的消息让外界对Transformer能否实现AGI充满想象。这可能也是SamAltman芯片制造野心的起点。据报道,除了投资方,Altman还与芯片制造商比如台积电进行了讨论,讨论与他们合作并使用数万亿美元建设和运营新工厂,以及对能源和其他人工智能基础设施的投资。建设一家尖端芯片工厂通常至少需要100亿美元,相比之下,Altman所讨论的7万亿美元规模是极端的。对于Sam的7万亿美元,黄仁勋预判,到2029年全球建设人工智能数据中心的成本将达到2万亿美元,他表示,“你不能假设你会购买更多电脑,你还必须假设计算机会变得更快,因此你需要的总量不会那么多。”在OpenAI内部,SamAltman看到了什么?对于这个问题,Theinformation跟踪AI和云计算的两位记者在《TheMostExcitingThingAboutAltman'sChipDream》一文作出探讨,由极客公园编译整理:01OpenAI唯一的障碍,算力短缺?上周,OpenAI首席执行官SamAltman抢尽风头。他正试图筹集数万亿美元的资金来开发和制造AI芯片。尽管这一数字多少有点骇人听闻,但姑且先把集体怀疑放在一边,尝试理解Altman融资的意义——无限的计算能力将导致全能的人工智能。社交媒体X平台,网友总结7万亿美元的购买力来源:twitter.com换句话说,他认为唯一阻碍超级人工智能的是服务器短缺,而实现超级人工智能,甚至可以帮助我们移民火星或解决全球变暖问题。Altman并不是唯一持这种观点的人,但这远非共识。四年前,OpenAI发表了一篇关于大型语言模型领域的“缩放定律”(ScalingLaw)的论文。“缩放定律”表明,对大语言模型进行更多计算能力和数据方面的训练,可以提高其预测下一个单词的准确性,从而提高大模型的能力。在这个信念下,OpenAI等大模型厂商花了1亿多美元来训练一个模型。然而,更多AI从业者认为,在今天的AI模型上投入更多芯片和数据并不是实现超级人工智能的途径。当我们用完高质量的、人类生成的数据来训练AI模型时,基于相对较少的数据,开发出能够像人类一样学习和推理的软件可能会更容易。毕竟,OpenAI的GPT-4和Google的Gemini已经接受了世界上大多数公共文本信息的训练,它们还没有达到超级人工智能的水平。利用“缩放定律”训练大模型还隐含着一个副作用:强行使用更大、更耗电的模型可能会对环境产生灾难性的影响,因为服务器和数据中心的电力消耗会产生温室气体。Altman本人也承认,开发前沿大模型可能需要在能源方面取得重大突破。数据中心公司的管理者也已经开始担心,今年所有以人工智能为重点的新数据中心,是否有足够的电力供应。02OpenAI必须保持算力领先目前,我们只能假设Altman和他聪明的同事们知道一些我们不知道的大模型“缩放定律”。显然,他们相信,有了更多的服务器,他们可以利用现有的人工智能和最近的技术突破,比如Q*——一个可以推理以前没有训练过的数学问题的模型——来创建正确的“合成”(非人类生成的)数据。当用完人类生成的数据后,合成数据可以接着被用来训练更好的模型。或者,这些模型可以找出现有模型(如GPT-4)的缺陷,并提出技术改进建议——换句话说,就是自我改进的人工智能。(此前,Google资深工程师卢一峰独家向极客公园解读了OpenAIQ*可能代表的技术路径。)Altman已经明确表示,他的团队根本没有从其独家服务器供应商——微软那里获得足够的计算能力来发挥其潜力。私下里,他曾表示,明年Google将拥有比OpenAI更强大的计算能力来开发人工智能。这在某种程度上可以理解他想改变现状的紧迫性。被爆出7万亿美元筹资建芯片时,Altman在X社交平台发表观点来源:twitter.comAltman到底需要多少钱才能到达计算的“应许之地”?据报道,他与阿拉伯联合酋长国盛产石油的酋长们提出了7万亿美元的数字,他希望这些酋长能资助新的芯片和服务器。一位头部AI芯片厂商的CEO称,建造数据中心、发电厂和芯片代工厂,以产生10倍于微软现有计算能力的计算能力,将耗资1000亿至2000亿美元。这位CEO和该领域的其他人士表示,由于劳动力和供应链的限制,资金在加速芯片制造厂、数据中心和发电厂的建设方面所能做的只有这么多。就连英伟达CEO黄仁勋也对7万亿美元的数字表示怀疑。如果Altman的计划包括OpenAI开发自己的服务器芯片,那将需要数年时间,而且不能保证成功。这就提出了一个问题,为什么他首先要寻找数万亿美元?如果Altman与英特尔、AMD、阿联酋和一长串其他公司达成一笔大交易,打造新的人工智能芯片,这将很容易成为这十年来最重要的技术努力之一。但即使什么都没发生,Altman不得不在更小的算力规模上,测试他对自我改进的人工智能假设,这也足以让人感到兴奋。...PC版:https://www.cnbeta.com.tw/articles/soft/1418257.htm手机版:https://m.cnbeta.com.tw/view/1418257.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人