智能手表搭配人工智能可提前30分钟预测房颤

智能手表搭配人工智能可提前30分钟预测房颤 心房颤动(房颤)是最常见的心律失常,它大大增加了急诊就诊率以及中风和痴呆等其他疾病的风险。心房颤动是指心脏上腔(心房)与下腔(心室)不同步地混乱跳动,从而产生不规则、通常非常快的心律。要让房颤患者恢复正常的窦性心律,可能需要采取强化干预措施,如心脏复苏术,通过低能量电击来"重置"心脏的传导系统。(是的,这就是医疗节目中使用的设备,伴随着一声"CLEAR!")。因此,如果能在房颤发作前检测到它,就能进行早期干预,从而改善患者的预后。卢森堡大学卢森堡系统生物医学中心(LCSB)的研究人员发表了一项研究,他们训练了一个深度学习模型,可以提前30分钟准确预测一个人何时会出现房颤。目前,心电图(ECG)只能在房颤发生前检测到房颤,因此不能被视为一种预警系统。"相比之下,我们的工作偏离了这种方法,而是采用了一种更具前瞻性的预测模型,"LCSB系统控制小组负责人、该研究的通讯作者豪尔赫-贡卡尔维斯(Jorge Goncalves)说。"我们利用心率数据训练了一个深度学习模型,该模型可以识别不同的阶段窦性心律、房颤前期和房颤并计算出患者即将发作的'危险概率'。"该模型名为 WARN(Warning of Atrial fibRillatioN),是在中国同济医院收集的 350 名患者的 24 小时心电图记录上进行训练和测试的。这些数据被心脏病专家分为窦性心律、房颤前期和房颤。为了训练模型捕捉房颤前兆,研究人员使用了心电图上 R 波间隔(RRI)的变化作为主要数据源。使用标准心电图的 R-R 间期 (RRI) 训练深度学习模型 卢森堡大学/LCSB深度学习模型每 15 秒采集 30 秒 RRI 样本,计算即将发生房颤的概率。在测试数据(70 名患者)和两个外部验证集(33 名患者)上,WARN 平均提前 31 分钟和 33 分钟预测房颤发生,准确率分别为 83% 和 73%。研究的第一作者马里诺-加维迪亚(Marino Gavidia)说:"我们的模型只使用R-to-R时间间隔,基本上只使用心率数据,就能实现很高的性能。"研究人员预计,该设备将用于智能手机,处理从智能手表获得的数据。长期目标是让患者能够持续监测自己的心律,并及早发出警告,让他们能够使用口服抗心律失常药物等治疗方法来预防房颤的发生。研究人员说,这种技术还可以实现个性化。"今后,我们将重点开发个性化模型,"Goncalves 说。"每天使用一个简单的智能手表,就能不断提供有关个人心脏动态的新信息,使我们能够不断完善和重新训练针对该患者的模型,以实现更高的性能和更早的预警。最终,这种方法甚至可以带来新的临床试验和创新的治疗干预。"这项研究发表在《模式》杂志上。 ... PC版: 手机版:

相关推荐

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

苹果研究人员探索放弃“Siri”短语,改用人工智能聆听

苹果研究人员探索放弃“Siri”短语,改用人工智能聆听 据周五 (3月22日) 发表的一篇论文称,苹果公司的研究人员正在研究是否有可能利用 AI 来检测用户何时在对 iPhone 等设备说话,从而消除对“Siri”等触发短语的技术需求。在一项上传到 Arxiv 且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来背景噪声的声学数据来训练一个大型语言模型,以寻找可能表明用户何时需要设备帮助的模式。论文中研究人员写道:“该模型部分基于 OpenAI 的 GPT-2 版本构建,因为它相对轻量级,可以在智能手机等设备上运行。”论文描述了用于训练模型的超过129小时的数据和额外的文本数据,但没有说明训练集的录音来源。据领英个人资料,七位作者中有六位列出他们的隶属关系为苹果公司,其中三人在该公司的 Siri 团队工作。论文称,结果令人鼓舞。该模型能够比纯音频或纯文本模型做出更准确的预测,并且随着模型规模的扩大而进一步改进。 、

封面图片

谷歌利用 YouTube 开发其下一代人工智能

谷歌利用 YouTube 开发其下一代人工智能 据透露,谷歌的研究人员一直在利用 YouTube 开发其下一个大型语言模型 “双子座Gemini”,该模型展示了在其他任何模型中都看不到的多模态能力。而 OpenAI 也已经秘密地使用了 YouTube 的数据来训练其一些人工智能模型,但谷歌能够拥有 YouTube 更全面的视频数据。人工智能开发者在寻找用于训练和改进模型的高质量数据方面面临着新的障碍。从 Reddit 到 Stack Exchange 再到 DeviantArt 的主要网站出版商正越来越多地阻止开发者为该目的下载数据。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

微软发布改进后的人工智能天气模型 可预测全球云雨情况

微软发布改进后的人工智能天气模型 可预测全球云雨情况 在必应博客的一篇文章中,微软称,"Start"团队已于 2021 年底在全球范围内推出了所谓"降水预报"的改进措施。该模型不仅从本地雷达装置中获取数据,还将其与卫星数据相结合。由于世界上许多地方都没有安装天气雷达硬件,因此需要这种数据结合来提升准确性。不过,微软 Start 认为降水预测模型仍存在一些缺陷。这是由于卫星天气数据在 85% 至 95% 的时间内都可以获得,这取决于数据的来源和可接受的延迟时间。博文称:有证据表明,每项任务需要一个单独的解码器,每个预测频道需要一个单独的判别器,因此,Weather from Microsoft Start 建立了一个模型,比之前只预测模拟雷达反射率的模型大 4 倍。最后,新模型联合预测卫星和模拟雷达反射率,使其预测能够填补数据可用性缺口。据微软称,在人工智能训练中,雷达信道模型的权重是卫星模型的六倍,因为雷达提供的降水信息被认为比卫星任务更重要。最终结果是,与仅使用雷达预测的基础模型相比,新的降水和云层模型"在 F1 分数上有明显改善"。博客补充道:此外,还观察到预测的卫星图像在 15 分钟后的得分高于持续性预测,这意味着当卫星数据中断时间超过 15 分钟时,可以使用这些预测。微软的卫星和雷达预报模型现已完全集成到该公司的 Weather from Microsoft Start 气象模型中。了解更多: ... PC版: 手机版:

封面图片

大型人工智能公司同意打击虐待儿童图像

大型人工智能公司同意打击虐待儿童图像 谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容 (CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制 CSAM 扩散的新原则。他们承诺确保训练数据集不包含 CSAM,避免使用包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或指向 CSAM 的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何 CSAM 图像,并且只发布经过儿童安全评估后的模型。其他签署者包括 Anthropic、Civita、Metaphysical、Mistral AI 和 Stability AI。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人