密歇根大学开发的AI工具可以通过狗叫声分辨出其是否具有攻击性

密歇根大学开发的AI工具可以通过狗叫声分辨出其是否具有攻击性 这项研究是与墨西哥普埃布拉国家天体物理学、光学和电子学研究所(INAOE)合作进行的,研究发现,最初针对人类语言训练的人工智能模型可以作为一个起点,用来训练针对动物交流的新系统。相关成果已在计算语言学、语言资源和评估联合国际会议上公布。"通过使用最初在人类语音基础上训练的语音处理模型,我们的研究打开了一扇新窗口,让我们了解如何利用迄今为止在语音处理方面所取得的成果,开始理解狗叫声的细微差别,"马大计算机科学与工程系 Janice M. Jenkins 学院教授兼人工智能实验室主任Rada Mihalcea 说。"对于与我们共同生活在这个世界上的动物,我们还有很多不了解的地方。人工智能的进步可以用来彻底改变我们对动物交流的理解,而我们的研究结果表明,我们也许不必从头开始"。开发能够分析动物发声的人工智能模型的主要障碍之一是缺乏公开可用的数据。虽然记录人类语音的资源和机会很多,但从动物身上收集此类数据却比较困难。"动物的发声在逻辑上更难收集和记录,"第一作者、马萨诸塞大学计算机科学与工程系博士生 Artem Abzaliev 说。"它们必须在野外被动地记录下来,如果是家养宠物,则必须征得主人的同意"。由于缺乏可用数据,分析狗发声的技术难以开发,而现有的技术也因缺乏训练材料而受到限制。研究人员通过重新利用现有模型克服了这些挑战,该模型最初是为分析人类语音而设计的。这种方法使研究人员能够利用强大的模型,这些模型构成了我们今天使用的各种语音技术的支柱,包括语音到文本和语言翻译。这些模型经过训练,可以分辨出人类语音中的细微差别,如语调、音调和口音,并将这些信息转换成计算机可以用来识别所说词语、识别说话人等的格式。"这些模型能够学习和编码人类语言和语音中极其复杂的模式,"Abzaliev 说。"我们想了解能否利用这种能力来辨别和解读狗叫声。"研究人员使用了74只不同品种、年龄和性别的狗在各种情况下发出的声音数据集。亨伯托-佩雷斯-埃斯皮诺萨(Humberto Pérez-Espinosa)是INAOE的合作者,他领导的团队负责收集数据集。然后,阿布扎利耶夫利用这些录音修改了一个机器学习模型一种能识别大型数据集中模式的计算机算法。该团队选择了一种名为 Wav2Vec2 的语音表示模型,该模型最初是在人类语音数据上训练出来的。有了这个模型,研究人员就能生成从狗身上收集到的声音数据的表示,并解释这些表示。他们发现,Wav2Vec2 不仅在四项分类任务中取得了成功,而且其准确率高达 70%,超过了专门针对狗叫声数据训练的其他模型。"这是首次将针对人类语音进行优化的技术用于帮助解码动物交流,"Mihalcea 说。"我们的研究结果表明,从人类语音中得出的声音和模式可以作为分析和理解动物发声等其他声音的声学模式的基础。"除了建立人类语言模型作为分析动物交流的有用工具这将使生物学家、动物行为学家等受益之外,这项研究对动物福利也有重要意义。研究人员说,了解狗发声的细微差别可以大大改善人类解读和回应狗的情感和生理需求的方式,从而加强对它们的照顾,防止潜在的危险情况发生。 ... PC版: 手机版:

相关推荐

封面图片

音频、音乐和语音生成的工具包,旨在支持可复现的研究,帮助初级研究人员和工程师入门音频、音乐和语音生成领域的研究和开发,提供经典模

音频、音乐和语音生成的工具包,旨在支持可复现的研究,帮助初级研究人员和工程师入门音频、音乐和语音生成领域的研究和开发,提供经典模型或架构的可视化特性,有助于初级研究人员和工程师更好地理解模型。 | #工具

封面图片

研究:眼泪可发出化学信号 显著降低男性攻击性

研究:眼泪可发出化学信号 显著降低男性攻击性 以色列的一项研究显示,人类的眼泪可发出一种化学信号,可显著降低男性的攻击性,并减少与攻击相关的大脑活动。 法新社报道,这项研究由以色列魏茨曼科学研究所进行,研究员让参与试验的男性先嗅女性的眼泪或生理盐水,然后让他们玩一种可以进行报复对手的电脑游戏。研究结果显示,嗅过女性眼泪的男性的攻击性降低了43.7%。 报告作者说,研究采用女性的眼泪,那是因为眼泪捐献者为女性,因此这大概不能用性别依赖影响来解释。 大量研究表明,啮齿类动物的眼泪含化学物质,可以根据需要发出社交信号。例如雌性小鼠的眼泪可以减少雄性小鼠彼此打架; 处于下属地位的雄性鼹鼠会用自己的眼泪涂抹身体,这样占主导地位的雄性鼹鼠就会减少对它们的攻击。 为了解类似的效应是否也发生在人类身上,由以色列博士生阿格隆(Shani Agron)领导的团队,首先让25名男性志愿者接触“情感”眼泪或盐水。志愿者无法分辨他们嗅的是什么物质,因为两种物质都是透明无味的。 实验中的眼泪来自六名女性志愿者,她们独自观看催泪的电影,并照镜子用小瓶子收集流下她们脸颊的眼泪。 阿格伦在一份声明中说:“我们发现大多数愿意捐眼泪的志愿者是女性,因为女性流泪更容易为社会所接受。” 她补充说,由于之前的研究表明眼泪会降低男性的睾酮水平,而降低睾酮水平对男性的打击性比对女性来得大。“我们于是开始研究眼泪对男性的影响,因为我们有更好的机会可以看到效果。” 研究员让男性志愿者玩一种累计金钱的电脑游戏,虚构的对手可能会窃取他们的收益。若有机会,男性志愿者可以让对手输钱来进行报复,即使他们不会从对手的损失中得到任何好处。 男性志愿者嗅了眼泪后,玩电脑游戏时寻求报复、攻击性的行为减少了43.7%。这种情况与啮齿类动物中观察到的情况相似。但与啮齿类动物不同的是,人类的鼻子没有一种名为犁鼻器(vomeronasal organ)的化学感结构。这种结构在我们物种的进化过程中失去。 ... 2023年12月22日 4:41 PM

封面图片

Google开发新工具 希望借助人工智能拯救珊瑚礁

Google开发新工具 希望借助人工智能拯救珊瑚礁 该项目首先邀请公众通过网络聆听珊瑚礁的声音。在过去的一年里,Google"Calling in our Corals "网站的访问者聆听了来自世界各地的 400 多个小时的珊瑚礁声音,并被告知听到鱼的声音时点击一下。这样就形成了一个以珊瑚礁健康为重点的"生物声学"数据集。通过众包这项活动,Google创建了一个新的鱼类声音库,用于对人工智能工具 SurfPerch 进行微调,现在,SurfPerch 可以通过快速训练来检测任何新的珊瑚礁声音。Google在一篇关于该项目的博文中指出:"这使我们能够以远超以往的效率分析新的数据集,无需在昂贵的 GPU 处理器上进行训练,为了解珊瑚礁群落和保护这些群落带来了新的机遇。"该博文由英国布里斯托尔大学海洋生物学教授史蒂夫-辛普森(Steve Simpson)和伦敦大学学院海洋生物学家本-威廉姆斯(Ben Williams)共同撰写。更重要的是,研究人员发现他们能够通过利用鸟类的录音来提高 SurfPerch 的模型性能。他们发现,虽然鸟叫声和珊瑚礁的声音截然不同,但鸟叫声和鱼叫声之间存在着共同的模式,模型可以从中学习。在初步试验中将"Calling in Our Corals"数据与 SurfPerch 结合后,研究人员能够发现菲律宾受保护珊瑚礁与未受保护珊瑚礁之间的差异,跟踪印度尼西亚的恢复成果,并更好地了解与大堡礁鱼类群落的关系。Google表示,该项目目前仍在继续,"Calling in Our Corals"网站会不断添加新的音频,这将有助于进一步训练人工智能模型。了解更多: ... PC版: 手机版:

封面图片

科学家发现婴儿大脑与人工智能模型惊人相似

科学家发现婴儿大脑与人工智能模型惊人相似 与许多动物相比,人类在出生后很长一段时间内都是无助的。许多动物,如马和鸡,出生当天就能行走。这种漫长的无助期使人类婴儿处于危险之中,也给父母带来了巨大的负担,但令人惊讶的是,这种无助期却经受住了进化的压力。跨物种研究的启示"自 20 世纪 60 年代起,科学家们就认为人类婴儿表现出的无助感是由于出生时的限制造成的。他们认为,人类婴儿头大,必须早产,导致大脑发育不成熟,无助期长达一岁。"认知神经科学教授、论文第一作者罗德里-库萨克(Rhodri Cusack)教授解释说。研究团队由库萨克教授、美国奥本大学克里斯蒂娜-查韦特教授和 DeepMind 高级人工智能研究员 Marc'Aurelio Ranzato 博士组成,库萨克教授利用神经成像技术测量婴儿大脑和心智的发育情况;克里斯蒂娜-查韦特教授负责比较不同物种的大脑发育情况;DeepMind 高级人工智能研究员 Marc'Aurelio Ranzato 博士负责比较不同物种的大脑发育情况。"我们的研究比较了不同动物物种的大脑发育情况。它借鉴了一个长期项目时间转换"(Translating Time),该项目将不同物种的相应年龄等同起来,从而确定人类大脑在出生时比许多其他物种更加成熟。"研究人员利用脑成像技术发现,人类婴儿大脑中的许多系统已经开始运作,并能处理来自感官的丰富信息流。这与人们长期以来认为婴儿大脑的许多系统尚未发育成熟,无法发挥作用的观点相矛盾。研究小组随后将人类的学习与最新的机器学习模型进行了比较,在后者中,深度神经网络受益于"无助"的预训练期。在过去,人工智能模型是直接根据所需的任务进行训练的,例如训练自动驾驶汽车识别它们在道路上看到的东西。但现在,模型最初都是经过预先训练,以便在海量数据中发现模式,而不执行任何重要任务。由此产生的基础模型随后用于学习特定任务。研究发现,这种方法最终会加快新任务的学习速度,并提高性能。对未来人工智能发展的影响"我们提出,人类婴儿也同样利用婴儿期的'无助'期进行预训练,学习强大的基础模型,并在以后的生活中以高性能和快速泛化来支撑认知。这与近年来在生成式人工智能领域取得重大突破的强大机器学习模型非常相似,例如OpenAI的ChatGPT或Google的Gemini,"库萨克教授解释道。研究人员表示,未来对婴儿学习方式的研究很可能会启发下一代人工智能模型。"虽然人工智能取得了重大突破,但基础模型比婴儿消耗大量能源,需要的数据也多得多。了解婴儿是如何学习的,可能会对下一代人工智能模型有所启发。"他最后说:"下一步的研究将是直接比较大脑和人工智能的学习情况。"编译自/scitechdailyDOI: 10.1016/j.tics.2024.05.001 ... PC版: 手机版:

封面图片

Meta 发布开源 AI 工具 AudioCraft,用户可通过文本提示创作音乐、音频

Meta 发布开源 AI 工具 AudioCraft,用户可通过文本提示创作音乐、音频 Meta 开源了一款生成式 AI 工具 AudioCraft,可帮助用户通过文本提示创作音乐和音频。 根据 Meta 官方介绍,AudioCraft 包含了三个核心组件: 1、MusicGen:使用 Meta 拥有 / 特别授权的音乐进行训练,根据文本提示生成音乐。 2、AudioGen:使用公共音效进行训练生成音频或扩展现有音频,后续还可生成环境音效(如狗叫、汽车鸣笛、木地板上的脚步声)。 3、EnCodec(改进版):基于神经网络的音频压缩解码器,可生成更高质量的音乐并减少人工痕迹,或对音频文件进行无损压缩。 该工具经过开源之后,相关研究人员和从业人员可以使用自己的数据集训练模型。官方宣称 AudioCraft 系列模型能够长期稳定地生成高质量音频,而且易于使用,能够为音乐家和声音设计师“提供灵感”,帮助他们快速集思广益,并“以新的方式迭代他们的作品”。 AudioCraft 项目地址: 、

封面图片

微软开源 Visual ChatGPT

微软开源 Visual ChatGPT OpenAI 的 ChatGPT(GPT 3 版本)是基于大语言模型,专门训练以文本形式的对话与用户互动。它不是基于多模态模型,不支持图像或语音的输入输出。如果我们想要构建一个类似 ChatGPT 的支持图像理解和生成的系统,那么可能需要使用一个多模态会话模型进行训练。但此类的训练需要消耗大量的数据和算力资源。与此从头开始构建一个全新的系统,不如站在巨人的肩膀上。微软亚洲研究院的研究人员在预印本网站 arxiv 上发表论文《》,提出在 ChatGPT 和多个 Visual Foundation Models 基础上构建 Visual ChatGPT。源代码托管在 。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人