斯坦福大学研究让智能手机可以预测一个人何时醉酒 准确率高达98%

斯坦福大学研究让智能手机可以预测一个人何时醉酒准确率高达98%美国斯坦福大学急诊医学副教授布莱恩-萨福莱托(BrianSuffoletto)说,他对研究结果的准确性感到惊讶,并补充说,还需要进一步的研究来证实这些发现的有效性。他表示,这些发现有助于在未来减少因酒驾或类似原因造成的道路伤亡:"虽然我们并不是突出显示酒精中毒期间语音特征变化的先驱,但我坚信,我们的卓越准确性源于我们在信号处理、声学分析和机器学习方面的尖端技术应用。"在这项研究中,参与者根据自己的体重被告知酒精剂量,并必须在一小时内喝完。然后,他们会听到一系列绕口令。在长达七个小时的时间里,参与者必须每小时大声重复这些绕口令,而他们的声音会被智能手机记录下来。在喝酒之前,科学家们测量了参与者呼出气体中的酒精含量,并让参与者记录绕口令。在长达七个小时的时间里,每隔30分钟也会测量一次呼出气体中的酒精含量。之后,研究人员通过软件隔离说话者的声音,以一秒钟为单位检测频率和音调等参数。研究人员将这些结果与呼出的酒精结果进行了比较,发现两者惊人地相似,表明他们开发的模型结果准确率高达98%。据Suffoletto教授说,走路和发短信等行为与声纹传感器相结合,可以用来判断一个人的醉酒程度。他还补充说,在确定一个人何时需要帮助时,时机起着至关重要的作用。因此,当一个人开始饮酒时,可以告知他饮酒的限度,以防止过度醉酒。...PC版:https://www.cnbeta.com.tw/articles/soft/1395675.htm手机版:https://m.cnbeta.com.tw/view/1395675.htm

相关推荐

封面图片

不要随便发自己周围的照片:斯坦福大学的新 Al模型可以快速准确地找出图片中的位置,准确率达92%。

不要随便发自己周围的照片:斯坦福大学的新Al模型可以快速准确地找出图片中的位置,准确率达92%。查看全文:ourl.co/101742对于注重隐私的用户,可能不会在社交网络上发布自己周围的照片,因为有些爱好者可以通过照片分析照片中的位置,于是存在潜在的隐私问题。但以前这种玩法还仅限于一些专业玩家,比如B站UP主地球百科君有时候就会发一些找照片位置的视频。斯坦福大学的一群研究生发布了一个新项目,该项目背后的Al模型经过10万个随机位置、50万个街景图片以及其他图片训练而成。可以快速准确找出图片中的位置,准确率目前是92%,还可以在40%的猜测中将真实地点缩小到25公里范围内。这个项目在自动驾驶、视觉调查、安全方面有应用前景,然而也存在潜在的隐私安全问题。为此项目团队决定不公开该模型、仅基于学术目的共享代码。当然,相信后面也肯定够会有其他的类似模型问世,所以各位能做的就是保护好隐私,不要随意公开发布自己周国的照片。论文地址:https://arxiv.org/pdf/2307.05845.pdf

封面图片

斯坦福大学开发的智能手机App可快速收集复杂运动数据 成本仅为平常的1%

斯坦福大学开发的智能手机App可快速收集复杂运动数据成本仅为平常的1%斯坦福大学的研究人员在美国国立卫生研究院的资助下创建了OpenCap,它使用两部经过校准的iPhone手机共同测量人体运动以及为运动提供动力的潜在肌肉骨骼机制。更重要的是,它比用于收集相同信息的传统技术更快,而且成本仅为专科诊所中使用约八个高科技摄像头的15万美元设备的一小部分。"OpenCap使人体运动分析普及化,"资深作者、斯坦福大学生物工程和机械工程教授斯科特-德尔普(ScottDelp)说。"我们希望它能让更多人掌握这种曾经遥不可及的工具"。这种分析可以为运动问题患者的治疗提供参考,帮助临床医生制定手术计划,并审查各种治疗方法的效果。它还有可能用来筛查疾病,因为在常规体检中可能不容易观察到步态或平衡的变化。该说明展示了捕捉和分析过程的相对简单性Uhlrich,Setal/(CCBY4.0)他们对100名参与者进行了OpenCap测试,录制了视频,然后通过基于网络的人工智能进行分析,以评估肌肉激活、关节负荷和关节运动情况。全部100名参与者的数据收集工作耗时不到10个小时,分析结果在31个小时内返回。每个人的数据收集大约需要10分钟,处理过程在云平台上自动启动,研究人员可以免费使用该平台。斯坦福大学人体机能实验室研究主任斯科特-乌尔里希(ScottUhlrich)说:"如果要收集和处理OpenCap在几分钟内提供的生物力学数据,专家工程师需要花费数天时间。我们在不到10个小时的时间里收集了100个人的数据,这在以前需要一年的时间。"这些数据研究了身体的"地标"--膝盖、髋部、肩膀和其他关节--以及它们在三维空间中的运动方式。然后,它利用肌肉骨骼系统的复杂物理学和生物学模型来评估身体是如何运动的以及有哪些力在起作用。这提供了有关关节角度和负荷的重要信息,它甚至能告诉你哪些特定肌肉正在被激活。研究人员认为,这种数据收集和深度学习分析将开创生物力学研究的新纪元。德尔普说:"现在已经有了人类基因组,但这确实将是定量捕捉到的人类运动全序列的运动基因组。我们希望,OpenCap在实现人类运动分析的民主化的过程中,能加速将关键的生物力学指标纳入越来越多的研究、试验和临床实践中,从而改善全球患者的治疗效果。"这项研究发表在《PLOS计算生物学》上。欲了解更多信息,请观看斯坦多德团队演示OpenCap的视频。...PC版:https://www.cnbeta.com.tw/articles/soft/1391207.htm手机版:https://m.cnbeta.com.tw/view/1391207.htm

封面图片

AI读心术来了,准确率高达82%?论文已刊登在Nature

AI读心术来了,准确率高达82%?论文已刊登在Nature根据实验结果显示,GPT人工智能大模型感知语音的准确率可高达82%,令人惊叹。01.“读心术”的探索事实上,科技圈对“读心术”的探索并非近日才展开。过去,马斯克建立的神经科技公司Neuralink也一直在寻找高效实现脑机接口的方法,其还与加州大学戴维斯分校合作,实现用猴子大脑控制电脑的实验,旨在最终想要将芯片植入大脑,用“细丝”探测神经元活动。不过,值得注意的是,Neuralink的这种方案属于侵入式的。所谓侵入式,是指将脑机接口直接植入到大脑的灰质,因而所获取的神经信号的质量比较高。这种方式的缺点是容易引发免疫反应和愈伤组织(疤),进而导致信号质量的衰退甚至消失。与之相对应的是非侵入式脑机接口,它是一种能够在人脑与外部设备之间直接建立通讯的人机交互技术,具有操作便捷、风险性小等优点。以往,行业内可以通过功能性磁共振成像(FMRI)捕捉人类大脑活动的粗糙、彩色快照。虽然这种特殊类型的磁共振成像已经改变了认知神经科学,但是它始终不是一台读心机:神经科学家无法通过大脑扫描来判断某人在扫描仪中看到、听到或思考的内容。此后,神经科学家一直希望可以使用fMRI等非侵入性技术来破译人类大脑内部的声音,而无需手术。如今,随着《Semanticreconstructionofcontinuouslanguagefromnon-invasivebrainrecordings》论文的发布,该论文的主要作者JerryTang通过将fMRI检测神经活动的能力与人工智能语言模型的预测能力相结合,可以以惊人的准确度重现人们在扫描仪中听到或想象的故事。解码器甚至可以猜出某人在扫描仪中观看短片背后的故事,尽管准确性较低,但也实现了一大进步。这也意味着,参与者不需要植入任何外界设备,AI系统就能解码大脑中的想法。02.没说过的话,AI是怎么知道的?自ChatGPT、GPT-4发布的几个月间,我们见证了大模型根据提示词不断输出内容的过程。要问AI系统如何了解人类大脑中的想法,在论文中,研究人员透露,首先让参与者听新故事,然后功能性磁共振成像(FMRI)可以呈现出参与者大脑的活动状态。进而,基于最新开发的语义解码器将这些状态,生成相应的单词序列,并通过将用户大脑反应的预测与实际记录的大脑反应进行比较,最终预测每个候选单词序列与实际单词序列的相似程度,看看准确率如何,是否能“读心”。具体来看,为了收集大脑活动数据,研究人员让研究对象在fMRI扫描仪内听一些音频故事。与此同时,通过fMRI扫描仪观察他们的大脑在听这些话时反应情况。如图a所示,3名受试者在听16小时的叙述性的故事时,AI系统记录了MRI(磁共振成像)的反应。然后,MRI数据被发送到计算机系统中。在这个过程中,研究人员使用了基于贝叶斯统计的解码框架。大型语言模型GPT-1在系统的自然语言处理部分提供了帮助。由于这个神经语言模型是在大量的自然英语单词序列数据集上进行训练的,它擅长预测最可能的单词。接下来,研究人员在这个数据集上训练编码模型。在初始训练时,如b图所示,当受试者在试听此前没有用于模型训练的测试故事时,大脑会做出不同的反应。进而,语义解码器可以根据参与者的大脑活动生成词汇序列,语言模型(LM)为每个序列提出连续性,而编码模型对每个连续性下记录的大脑反应的可能性进行评分。简单来看,语义解码器学会了将特定的大脑活动与特定的单词流相匹配。然后根据匹配出来的单词流,试图重新输出这些故事。不过,语义解码器主要捕捉了参与者想法中的要点,并不是一字一句的完整思想内容。如参与者听到的是,“我从气垫上站起来,把脸贴在卧室窗户的玻璃上,希望看到有一双眼睛盯着我,但却发现只有一片黑暗。”但是想法却是,“我继续走到窗前,打开窗户,我什么也没看见,再抬头看,什么也没看见。”又比如说参与者听到的是,“我还没有驾照”,语义解码器解码之后的版本可能是,“她还没有学会开车”。语义解码器捕捉参与者的想法通过这种方法,在一系列语言相似性指标下,语义解码器对测试故事的预测与实际刺激词的相似度明显高于预期。准确率也高达82%。该论文的另一位作者AlexanderHuth表示,他们对系统出色的表现感到惊讶。他们发现解码后的单词序列通常能够准确地捕捉到单词和短语。他们还发现他们可以从大脑的不同区域分别提取连续的语言信息。除此之外,为了测试解码的文本是否准确捕捉到故事的含义,研究人员还进行了一项行为实验,通过向只阅读解码后单词的受试者提问一系列问题。受试者在没有看过视频的情况下,能够正确回答超过一半的问题。03.语义解码器刚起步,道阻且长不过,当前,该语义解码器还无法在实验室以外的地方使用,因为它依赖于fMRI设备。对于未来的工作,研究人员希望自然语言神经网络的快速进展能够带来更好的准确性。到目前为止,他们发现较大、现代的语言模型至少在编码部分工作得更好。他们还希望能够使用更大的数据集,比如每个受试者100或200小时的数据。虽然这种非侵入性的方式,可能会对医学维度的研究以及患者有极大的好处,使其可以与他人进行可理解的交流,但是也存在隐私、伦理审查、不平等和歧视、滥用和侵犯人权等诸多问题,所以想要现实中应用也大有难度。与此同时,研究人员表明,语义解码器仅在接受过训练的人身上以及与其合作下才能正常工作,因为针对一个人训练的模型不适用于另一个人,当前还无法做到通用。“虽然这项技术还处于起步阶段,但重要的是要规范它能做什么,不能做什么,”该论文的主要作者JerryTang警告说。“如果它最终可以在未经个人许可的情况下使用,就必须有(严格的)监管程序,因为如果滥用预测框架可能会产生负面后果。”该小组已在GitHub上提供了其自定义解码代码。据悉该团队也在得克萨斯大学系统的支持下提交了与这项研究直接相关的专利申请。...PC版:https://www.cnbeta.com.tw/articles/soft/1358759.htm手机版:https://m.cnbeta.com.tw/view/1358759.htm

封面图片

斯坦福大学:大脑植入物恢复了头部受伤患者的功能

斯坦福大学:大脑植入物恢复了头部受伤患者的功能斯坦福大学研究人员开发的新型大脑植入物在恢复头部受伤患者的功能方面取得了显著成功。深部脑刺激植入物的目标是增强负责意识、学习、记忆、思维和解决问题的区域之间的活动。在一项涉及五名脑损伤参与者的试验中,参与者表示安装该设备后,注意力、阅读能力、记忆力、驾驶技能和整体日常功能都有显着改善。一位参与者吉娜·阿拉塔(GinaArata)在2001年的一场车祸中脑部受伤,她描述了植入物的变革性影响,指出记忆力、协调性和情绪调节能力得到了改善。选定的试验参与者已从昏迷中恢复,他们的大脑系统被认为仍然保留,但功能未达到最佳状态。该植入物旨在精确刺激特定的大脑区域,有效地“点亮”神经通路完好但下调的区域。source:投稿:@TNSubmbot频道:@TestFlightCN

封面图片

AI读取人脑信息准确率高达82%

AI读取人脑信息准确率高达82%德克萨斯大学奥斯汀分校的神经伦理学家基于GPT-1开发了一种语言解码器,可通过人脑的磁共振成像将人类听到的语音、想象的语言与看到的无声电影转化成文字。研究人员让志愿者们躺在磁共振成像仪中记录大脑活动,同时让他们每人收听16小时的博客,这些博客主要是一些TED演讲和脱口秀。再将脑成像信息与故事细节以及AI理解语义关系的能力相结合,研究人员开发了一张大脑应对不同内容做出反应短语的编码图。结果当志愿者想象「我还没有驾照」这句话时,AI会将之解码为「她甚至还没有开始学开车」;当志愿者观看动画电影《新特尔》中女孩照顾小龙的片段时,AI也会根据大脑信息将之转换成文字。研究人员还发现,这项技术很容易被欺骗,当参与者听着故事录音却想着其它故事时,解码器无法确定他们听到的是什么词,比如内心数数字和罗列动物。并且编码图也因人而异,这意味着研究人员无法创建一种适用于所有人的解码器。https://www.nature.com/articles/s41593-023-01304-9频道:@TestFlightCN

封面图片

通过声音就能检测新冠 准确率高达89% AI还能这样?

通过声音就能检测新冠准确率高达89%AI还能这样?随着科技创新发展和技术的不断进步,AI技术正日益广泛地应用在我们的日常生活中。近日,CNMO了解到,在西班牙巴塞罗那举行的欧洲呼吸学会国际会议上公布的一项研究显示,AI可通过手机应用程序从人们声音中检测出新冠肺炎感染,它比快速抗原测试更准确(达到89%),且更便宜、快速和易于使用。据报道,研究团队使用了来自英国剑桥大学“新冠肺炎声音库”应用程序的数据,该应用程序包含来自4352名健康和非健康参与者的893个音频样本。研究人员在研究过程中使用了一种名为梅尔谱图的语音分析技术,该技术可识别不同的语音特征,如响度、功率和随时间的变化情况。荷兰马斯特里赫特大学数据科学研究所研究员瓦法阿·阿尔杰巴维称,研究结果表明,简单的语音记录和AI算法可以精确确定哪些人感染新冠肺炎,此外,还支持远程虚拟测试,检测结果可在不到一分钟内出来,这类测试可用于大型集会的检测点,对人群进行快速筛查。此外,为了区分新冠肺炎患者和未患病的人的声音,研究人员建立了不同的AI模型。他们发现,长短期记忆(LSTM)模型在对新冠肺炎病例进行分类方面做得最好。这种AI-LSTM模型的总体准确率为89%,正确检测阳性病例的能力(真阳性率或敏感性)为89%,正确识别阴性病例的能力(真阴性率或特异度)为83%。PC版:https://www.cnbeta.com/articles/soft/1313093.htm手机版:https://m.cnbeta.com/view/1313093.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人