健身教练说有体态问题要先调整好了才能做力量训练,是这样吗?

健身教练说有体态问题要先调整好了才能做力量训练,是这样吗? 狂战士之血的回答 得先看具体是哪种体态问题。 通常来说有体态问题的人,在力量训练时候所使用的动作库会有所限制,否则容易加剧体态问题,以及更高概率出现运动损伤。 比如高低肩,不适合练卧推,划船,推肩。 但其实他们可以做悬挂类训练,比如悬挂在单杆上做腹部训练。悬挂的过程中身体也会主动调节两边肩膀的平衡问题。 骨盆前倾不算什么大问题,基本上大多数训练都可以练。很多女性为了更凸显翘臀,甚至故意把自己搞成骨盆前倾,也没见她们弄出什么运动毛病。 膝内扣的话,大多数单腿训练不适合做,比如弓箭步。涉及到下肢的训练,很有可能受伤。 有一些体态问题是可以一边调整一边做力量训练的。 个别非常严重的体态问题,连训练的动作库都被严重限制的人,才必须先解决体态再训练,这种人应该是非常少数的。 如果自己又有体态问题,又想运动,又没钱请教练的话,那就遵循身体的直觉。 在训练过程中会出现疼痛警觉的动作,坚决不练。 在训练过程中体验感异常差,非常排斥抗拒的训练,就放弃不做。 在训练过程中越练越舒服,有渐入佳境感觉的,则一定要多练。 via 知乎热榜 (author: 狂战士之血)

相关推荐

封面图片

《健身教练v1.4.2高级版.apk》| 简介:教练v1.4.2高级版是一款辅助软件,为用户提供丰富的课程,包含瑜伽、力量训练、

《健身教练v1.4.2高级版.apk》| 简介:健身教练v1.4.2高级版是一款健身辅助软件,为用户提供丰富的健身课程,包含瑜伽、力量训练、有氧运动等多种类型。高级版可能提供个性化健身计划制定,根据用户身体状况和目标定制方案,还有专业的饮食搭配建议,帮助用户科学健身。|标签:#健身教练 #健身软件 #个性化健身 |文件大小 NG| 链接:

封面图片

俄罗斯国防部2月10日对记者称,俄罗斯和白俄罗斯在联盟国家反应力量检查框架内于白武装力量合成训练场开始了“联盟决心-2022”联

俄罗斯国防部2月10日对记者称,俄罗斯和白俄罗斯在联盟国家反应力量检查框架内于白武装力量合成训练场开始了“联盟决心-2022”联合演习。 国防部指出,演习是为演练“在实施防御行动以及对抗恐怖主义和保卫联盟国家利益过程中制止和击退外部入侵”的任务。 “联盟决心”期间将加强对国界的警戒以制止武装分子武装小组潜入、遮蔽武器和弹药运输通道。练过军人还将搜索和消灭假想敌非法武装部队和破坏侦察小组。据俄国防部称,俄东部军区以及白俄罗斯武装力量的指挥机构、分队和部队参加演习。 在联盟国家反应力量检查第一阶段期间,部队完成了换防并在受威胁方向上建立了集团,组织了对国家和军用重要设施的警卫,在白俄罗斯和俄罗斯统一区域防空系统框架内加强了对领空国界的警戒。东部军区指挥机构和部队完成了近1万公里距离的重新部署。 东部军区和白俄罗斯武装力量分队和部队还进行了火力准备和其他训练科目的考核作业。 (卫星通讯社)

封面图片

瑜伽球上训练出来的机器狗比大多数健身者更能灵活运用训练资源

瑜伽球上训练出来的机器狗比大多数健身者更能灵活运用训练资源 DrEureka是一个任何人都可以获取的开源软件包,用于使用大型语言模型(LLM)(如ChatGPT 4)训练机器人执行现实世界中的任务。这是一个"模拟到现实"系统,也就是说,它在虚拟环境中使用模拟物理原理对机器人进行教学,然后再在现实空间中实施。吉姆-范(Jim Fan)博士是 DrEureka 的开发者之一,他部署的 Unitree Go1 四足机器人一跃成为头条新闻。这是一款"低成本"、支持良好的开源机器人这很方便,因为即使有了人工智能,机器人宠物仍然很容易摔伤。至于"低成本",它在亚马逊上的售价为 5899 美元,评分为 1 星……DrEureka 中的"Dr"代表"领域随机化",即在模拟环境中随机化摩擦、质量、阻尼、重心等变量。只需在 ChatGPT 等 LLM 中输入一些提示,人工智能就能编写代码,创建一个奖励/惩罚系统,在虚拟空间中训练机器人,其中 0 = 失败,高于 0 则为胜利。得分越高越好。它可以通过最小化和最大化球的弹跳力、运动强度、肢体自由度和阻尼等方面的失效点/爆发点来创建参数。作为一个 LLM,它可以毫不费力地大量创建这些参数,供训练系统同时运行。每次模拟后,GPT 还可以反思虚拟机器人的表现,以及如何改进。如果超出或违反参数,例如电机过热或试图以超出其能力的方式衔接肢体,都将导致 0 分...没有人喜欢得零分,人工智能也不例外。提示 LLM 编写代码需要安全指令否则,研究小组发现 GPT 会努力追求最佳性能,会在没有指导的情况下在模拟中"作弊"。这在模拟中没有问题,但在现实生活中可能会导致电机过热或肢体过度伸展,从而损坏机器人研究人员称这种现象为"退化行为"。虚拟机器人自学成才的非自然行为的一个例子是,它发现自己可以更快地移动,方法是将臀部插入地面,用三只脚拖着臀部在地板上窜来窜去。虽然这在模拟中是一种优势,但当机器人在现实世界中尝试时就尴尬了。因此,研究人员指示 GPT 要格外小心,因为机器人将在真实世界中接受测试为此,GPT 创建了安全功能,如平滑动作、躯干方向、躯干高度,并确保机器人的电机不会扭矩过大。如果机器人作弊,违反了这些参数,其奖励函数就会降低得分。安全功能可以减少退化和不自然的行为,比如不必要的骨盆推力。那么它的表现如何呢?比我们强。DrEureka 在训练机器人"pooch"的过程中击败了人类,在实际的混合地形中,它的前进速度和行进距离分别提高了 34% 和 20%。DrEureka 基于 GPT 的训练系统在现实世界中轻松击败人类训练的机器人如何做到?研究人员认为,这与教学方式有关。人类倾向于课程式的教学环境把任务分解成一个个小步骤,并试图孤立地解释它们,而 GPT 能够有效地一次性传授所有知识。这是我们根本无法做到的。DrEureka 是同类产品中的首创。它能够从模拟世界"零距离"进入现实世界。想象一下,在对周围世界几乎一无所知的情况下,你被推出巢穴,只能自己摸索。这就是"零镜头"。DrEureka 的创造者认为,如果他们能向 GPT 提供真实世界的反馈,就能进一步改进模拟到现实的训练。目前,所有的模拟训练都是利用机器人自身本体感觉系统的数据完成的,但如果 GPT 能够通过真实世界的视频画面看到出错的地方,而不是仅仅从机器人的日志中读取执行失败的信息,那么它就能更有效地完善自己的指令。人类平均需要一年半的时间才能学会走路,而大概只有百分之一的人类能在瑜伽球上学会走路。您可以在这里观看一段未经剪辑的 4 分 33 秒视频,视频中机器人狗狗轻松在瑜伽球上散步,且没有停下来在消防栓上撒尿: ... PC版: 手机版:

封面图片

《Kick Kick Kick Kick【2005韩剧】06》|简介:《Kick Kick Kick Kick【2005韩剧】0

《Kick Kick Kick Kick【2005韩剧】06》|简介:《Kick Kick Kick Kick【2005韩剧】06》可能围绕着与足球相关的故事展开,延续了韩剧擅长刻画人物情感和展现青春活力的风格。在这一集中,主角所在的足球队面临着一场关键比赛。球队成员们承受着巨大的压力,他们在训练中刻苦努力,试图提升自己的球技和团队协作能力。然而,在训练过程中,队员之间出现了矛盾和分歧,有的队员因为个人目标与团队目标不一致而产生冲突,这给球队的团结带来了挑战。主角作为球队的核心成员之一,努力调解队员之间的矛盾,鼓励大家为了共同的目标而努力。同时,主角在个人生活中也面临着一些困扰,比如学业压力、家庭问题等,但他始终没有放弃对足球的热爱。在比赛前夕,主角和队友们克服重重困难,重新找回团队默契。观众可以看到他们在足球场上挥洒汗水,为了梦想拼搏的热血场景,感受青春的激情和友谊的力量|标签:#韩剧#足球题材#青春热血#团队成长|文件大小:NG|链接:

封面图片

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍 随着AI计算需求的膨胀,还需要用水来冷却计算系统。研究称,微软用水量从2021年到22年飙升了34%,ChatGPT每处理5-50个提示就会消耗接近半升水。针对这种现状,我们有更好的解决策略吗?最近,GoogleDeepMind研究团队提出了一种加快AI训练的新方法多模态对比学习与联合示例选择(JEST),大大减少了所需的计算资源和时间。JEST以13倍更少的迭代次数,以及10倍更少的计算量,超越了最先进的模型!预训练的参考模型,已经学习了什么样的数据是有“优质的”或“有用的”。然后通过模型,来引导数据选择那些精心筛选过的小型数据集。这一发现揭示了,数据筛选水平可以作为评判Scaling Law的一个新维度。网友激动表示,“我没想到这么快就会发生。模型能够自主选择训练数据的能力是巨大的,因为它使训练变得显著更容易,你不再需要猜测什么是高质量的训练数据,你有一个能够『理解』什么样的数据对自身学习最有价值的模型”。前Google、苹果软件工程师称赞道,这项研究非常令人印象深刻。从“超级batch”中筛选数据无论是语言、视觉还是多模态模型,数据质量是预训练性能的重要驱动因素。比如Phi-3、Gemma 2等模型的成功让我们看到了,更少、更高质量的数据有可能实现更强大的性能。要筛选出高质量的数据,数据管道的建立就成为重要的工作。现有的方法大体可以分为两种:1)手动管理 2)基于模型的数据管理,用正在训练模型的特征选择高质量数据。前者成本高昂且难以扩展,后者则有望为多模态LLM实现Scaling Law。然而,现有方法忽略了一个事实。如果仅在单个数据点的层面进行筛选,就没有考虑到数据集以及batch的总体组成。毕竟,训练数据是以batch为单位,数据点之间的依赖性不可忽视。许多计算机视觉的研究都曾表明,hard negatives(表达空间中相近但标签不同的样本)相比可被平凡解的数据簇,能提供更有效的学习信号。那么如何让模型以batch为单位筛选数据呢?论文提出的JEST算法正是要解决这个问题,原理很好理解:就是直接从“超级batch”中筛选出“子batch”。技术介绍用数学语言来描述这个问题,就是从大小为B的“超级batch”中提取出与学习最相关的子batch ℬ={,∈[1,…,]}⊂,过滤比率可以写作=1−/。之前的优先采样(prioritized sampling)会使用基于模型的评分函数对每个数据点打分,再按比例采样。JEST则直接对整个子batch评分,再按照batch级别的分数采样。一种最直观的启发式方法就是在现有模型参数 : hard⁢(ℬ|)=ℓ⁢(ℬ|) 中,直接选择损失值最高的batch,这种方法可被称之为“硬学习”(hard learner)。这种方法具有丢弃琐碎数据的理想属性,已被证明适用于小型、干净的数据集;然而对于较大、较少管理的数据集往往弊大于利,因为它依旧会采样到噪声数据。另一种方法常用于多模态,使用具有参数 ∗:^easy⁢(ℬ|∗)=−ℓ⁢(ℬ|∗) 的参考模型为预训练模型采样数据。但作者依旧否定了这个方案,因为它无法直接反映模型当前的状态,可能过度依赖参考模型的选择,而且不易于扩展。最后,论文选择借鉴ICML 2022年的一篇论文中提到的方法,将上述两方面的评分结合起来:^learn⁢(ℬ|,∗)=hard⁢(ℬ|)+^easy⁢(ℬ|∗)=ℓ⁢(ℬ|)−ℓ⁢(ℬ|∗),并将这种启发式方法称为“可学习性评分”(learnability score)。其中,batch上的损失值ℓ⁢(ℬ|)是各数据点之和,使用sigmoid对比损失函数计算(sigmoid-contrastive loss),因为相比softmax对比损失而言,它的扩展性更强。由于batch上的对比损失可以分解为每个样本的条件损失之和,因此可学习性评分可被分解为单个样本可学习性评分⁢(|,∗,ℬ)之和,写作:使用的顺序采样方法则受到了block Gibbs采样的启发。在第n次迭代、对第B_n个batch进行采样时,依据如下概率公式对块{X_k}进行无替换采样:将X_k块添加到B_n中来更新当前采样的batch,直至迭代数n=N时终止。算法的总体流程如下图所示:实验中发现,使用迭代数N=16且每次迭代时独立采样b/N=2048个样本时,就足以恢复出学习性非常高的batch。可学习性评分中涉及到使用参考模型为数据点打分,之前的方法惯常使用额外的小型模型,但这会增加每次迭代的计算成本,降低总体FLOP效率增益。因此论文使用了在线模型近似的方法以及效率较高的FlexiViT架构,只使用降低分辨率的32×32的patch来评估“超级batch”,与全分辨率、patch大小为16×16的方法相比减少了72%的FLOP,以及67%的挂钟时间(wall-clock time)。此外,论文还提出了进行多分辨率训练的技巧。将每个batch随机分成两半,使用不同分辨率编码后再拼接起来,提升了评分过程和训练的效率。下图详细描述了全分辨率JEST和多分辨率Flexi-JEST方法的伪代码实现。所有JEST实验都在WebLI数据集上运行,包含经过宽松过滤的十亿规模的英语图像-文本对,参考模型的训练则使用其中经过高质量过滤100M大小的子集(被称为WebLI-curated)。在WebLI的基础上,作者还额外从网络上抓取了6亿个文本-图像对并经过同样强度的过滤,组成WebLI-curated++数据集训练参考模型,拓展出JEST++/FlexiJEST++方法,来探索对数据管理的扩展。论文所报告的平均性能包括4个多模态规范基准:ImageNet 0-Shot和10-Shot 分类以及COCO图像到文本和文本到图像的top-1检索。实验结果图1中可以看到,使用JEST或FlexiJEST方法的最明显优势就是效率提升。左图中,相比原有的SigLIP基线模型,JEST++可以在训练数据量减少13.1×的情况下达到相同准确率。即使考虑到额外引入的打分成本,也有近10×的FLOP效率提升(中图)。右图展现了JEST++/FlexiJEST++(绿色)与先前方法(灰色)的比较,相比CLIP、EVA-CLIP经典模型实现了计算成本和性能的双重提升。左图和中图的平均准确率由8个下游任务得出,右图性能由ImageNet和COCO基准测试得出产生可学习batch研究人员首先评估了JEST在选择可学习batch方面的效果。为了直观地理解这一方法,作者们先将可学习性矩阵进行可视化,即学习模型和参考模型之间,对batch中所有示例对的损失差异。JEST就是按照示例子矩阵的可学习性总和比例进行采样。由于矩阵明显非对角关系(图2,左),独立选择显然是次优的。经过少量迭代(对应于用N=16个块填充batch),作者发现子batch的可学习性快速增加,达到了需要数千次迭代的暴力吉布斯采样(Gibbs sampling )所提取batch的可学习性(图2,中)。对于0.5、0.8和0.9的过滤比例,他们从大小分别为65,536、163,840和327,680的超级batch中选择32,768个示例的子batch。在图2右侧,研究者还发现子batch的可学习性随着更大的过滤比例而增加。总之,JEST算法是在训练过程中选择高度可学习batch的有效,且高效的方法。加速多模态学习接下来,研究人员使用JEST算法选择的可学习batch,检验训练模型的效果。所有实验都使用在WebLI-curated上训练的参考模型,这是一个ViT-B/16和Bert-B图像-文本双编码器,30亿训练样本,采用sigmoid对比损失函数。图3(左)显示了在训练过程中多个下游任务(ImageNet 0-Shot/10-Shot准确率和COCO图像到文本/文本到图像检索)的平均性能。结果还发现,JEST显著加速了学习过程。在使用50%、80%和90%的过滤比例时,分别只需20亿、10亿和6.7亿训练样本就达到了30亿均匀基准的最终性能。在更大的过滤比例下,坐着观察到类似于更大batch size时的训练不稳定性,需要修改Adam优化器(β2 = 0.95)以稳定训练,这表明JEST的数据筛选可以被视为增加了有效batch ... PC版: 手机版:

封面图片

研究发现虽然AI辅助编程可以发挥巨大作用 但也会因训练限制而陷入困境

研究发现虽然AI辅助编程可以发挥巨大作用 但也会因训练限制而陷入困境 虽然在某些情况下,人工智能生成器可以生成比人类更好的代码,但分析也揭示了人工智能生成的代码存在一些安全问题。Yutian Tang是格拉斯哥大学的一名讲师,他参与了这项研究。他指出,基于人工智能的代码生成可以在提高生产率和自动化软件开发任务方面提供一些优势,但重要的是要了解这些模型的优势和局限性。"通过进行全面分析,我们可以发现基于 ChatGPT 的代码生成过程中出现的潜在问题和限制......[并]改进生成技术。"Tang 解释说。为了更详细地探讨这些局限性,他的团队试图测试GPT-3.5解决LeetCode 测试平台上五种编程语言中 728 个编程问题的能力:这五种编程语言是:C、C++、Java、JavaScript 和Python。对于 ChatGPT 为什么能在 2021 年之前更好地处理算法问题,一个合理的假设是,这些问题经常出现在训练数据集中。总体而言,ChatGPT 在解决不同编程语言的问题方面表现相当出色,尤其是在尝试解决 2021 年之前 LeetCode 上存在的编程问题时。例如,它能为简单、中等和困难的问题生成功能代码,成功率分别约为 89%、71% 和 40%。"然而,当遇到 2021 年后的算法问题时,ChatGPT 生成功能正确的代码的能力就会受到影响。它有时无法理解问题的含义,即使是简单的问题也是如此,"Tang 指出。例如,在 2021 年之后,ChatGPT 为"简单"编程问题生成功能代码的能力从 89% 降至 52%。而在 2021 年之后,它为"难"问题生成功能代码的能力也从 40% 降至 0.66%。对于 ChatGPT 为什么能在 2021 年之前更好地处理算法问题,一个合理的假设是,这些问题经常出现在训练数据集中。从本质上讲,随着编程技术的发展,ChatGPT 还没有接触到新的问题和解决方案。它缺乏人类的批判性思维能力,只能解决以前遇到过的问题。这也解释了为什么 ChatGPT 在解决旧的编程问题方面比解决新的问题要好得多。因此,ChatGPT可能会生成错误的代码,因为它不理解算法问题的含义。有趣的是,ChatGPT 生成的代码的运行时间和内存开销比人类解决相同 LeetCode 问题的至少 50% 的方案都要小。研究人员还探索了 ChatGPT 在收到 LeetCode 的反馈后修正自身编程错误的能力。他们随机选取了 50 个编程场景,在这些场景中,ChatGPT 最初生成了错误的编程,原因可能是它不了解手头的内容或问题。虽然 ChatGPT 擅长修正编译错误,但它通常不擅长纠正自己的错误。Tang 解释说:"ChatGPT 可能会因为不理解算法问题的含义而生成错误代码,因此这种简单的错误反馈信息是不够的。"研究人员还发现,ChatGPT 生成的代码确实存在相当多的漏洞,比如缺失空值测试,但其中很多都很容易修复。研究结果还显示,用 C 语言生成的代码最为复杂,其次是 C++ 和 Python,其复杂程度与人类编写的代码类似。基于这些结果,使用 ChatGPT 的开发人员必须提供更多信息,以帮助 ChatGPT 更好地了解问题或避免漏洞。"例如,在遇到比较复杂的编程问题时,开发人员可以尽可能提供相关知识,并在提示中告诉 ChatGPT 哪些是需要注意的潜在漏洞,"Tang 说。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人