苹果研究人员探索放弃“Siri”短语,改用人工智能聆听

苹果研究人员探索放弃“Siri”短语,改用人工智能聆听 据周五 (3月22日) 发表的一篇论文称,苹果公司的研究人员正在研究是否有可能利用 AI 来检测用户何时在对 iPhone 等设备说话,从而消除对“Siri”等触发短语的技术需求。在一项上传到 Arxiv 且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来背景噪声的声学数据来训练一个大型语言模型,以寻找可能表明用户何时需要设备帮助的模式。论文中研究人员写道:“该模型部分基于 OpenAI 的 GPT-2 版本构建,因为它相对轻量级,可以在智能手机等设备上运行。”论文描述了用于训练模型的超过129小时的数据和额外的文本数据,但没有说明训练集的录音来源。据领英个人资料,七位作者中有六位列出他们的隶属关系为苹果公司,其中三人在该公司的 Siri 团队工作。论文称,结果令人鼓舞。该模型能够比纯音频或纯文本模型做出更准确的预测,并且随着模型规模的扩大而进一步改进。 、

相关推荐

封面图片

据《麻省理工科技评论》报道,当地时间周五(22)日发表的一篇论文显示,苹果公司的研究人员正在探索利用人工智能来检测用户何时在与

据《麻省理工科技评论》报道,当地时间周五(22)日发表的一篇论文显示,苹果公司的研究人员正在探索利用人工智能来检测用户何时在与 iPhone 等设备交谈的可能性,从而消除像“Siri”这样的触发短语的技术需求。 在这项上传到 Arxiv 且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来自背景噪音的声学数据,训练了一个大型语言模型,以寻找“可能表明用户需要设备辅助”的模式。 论文中称,该模型部分基于 OpenAI 的 GPT-2 构建,因为它相对轻量级,可以在智能手机等设备上运行。论文还描述了用于训练模型的超过 129 小时的数据、额外的文本数据,但没有说明训练集的录音来源。据领英个人资料,七位作者中有六位列出他们的隶属关系为苹果公司,其中三人在苹果 Siri 团队工作。 论文最终得出的结论“令人鼓舞”,声称该模型能够比纯音频或纯文本模型做出更准确的预测,并且随着模型规模的扩大而进一步改进。 目前,Siri 的功能是通过保留少量音频来实现的,听到“嘿,Siri”等触发短语之前,不会开始录制或准备回答用户提示。 斯坦福人类中心人工智能研究所的隐私和数据政策研究员詹・金表示,取消“嘿,Siri”提示可能会增加对设备“始终监听”的担忧。 via 匿名 标签: #Apple 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

苹果 Siri 的生成式人工智能版本将在今年的 WWDC 上公布

苹果 Siri 的生成式人工智能版本将在今年的 WWDC 上公布 据 9to5mac 报道,苹果 Siri 基于 Ajax 模型的生成人工智能版本将在今年 WWDC 上发布。这将为 Siri 带来更自然的对话和个性化体验。新功能预计将支持跨设备使用。新版 Siri 还添加了新的“苹果专属创作服务”

封面图片

研究人员使用人工智能对1560万个流行密码进行破解

研究人员使用人工智能对1560万个流行密码进行破解 来自 Home security heroes 的研究人员决定调查使用人工智能的密码破解速度。他们使用了1560万个流行密码的集合进行测试。 结果显示,PassGAN人工智能可以做到: - 51%的密码集合在1分钟内被破解; - 在1小时内破解集合中65%的密码; - 在24小时内破解集合中71%的密码; - 1个月内从集合中破解81%的密码。 “人工智能根据它所学到的一切,预测最可能的下一个数字。它没有寻求外部知识,而是依靠它通过学习形成的模式”,研究人员说。 当然,算力始终是挑战。越复杂越长的密码需要的破解时间就越多,对AI来说也一样。 您可以在这里查看AI 在 2023 年破解您选择的密码需要多长时间: #Security #Passwords #Privacy #AI

封面图片

Google研究人员发表论文探讨人工智能如何毁掉互联网

Google研究人员发表论文探讨人工智能如何毁掉互联网 研究发现,绝大多数生成式人工智能用户正在利用这项技术模糊真实性和欺骗性之间的界限,在互联网上发布虚假或篡改的人工智能内容,例如图片或视频。研究人员还仔细研究了之前发表的关于生成式人工智能的研究,以及大约 200 篇报道生成式人工智能滥用的新闻文章。研究人员总结道:操纵人类肖像和伪造证据是现实世界滥用案件中最普遍的手段。其中大多数都带有明显的意图,即影响舆论、进行诈骗或欺诈活动或牟利。使问题更加复杂的是,生成式人工智能系统日益先进且随时可用研究人员表示,只需要极少的技术专长,而这种情况正在扭曲人们对社会政治现实或科学共识的集体理解。据我们所知,这篇论文遗漏了什么?有没有提到谷歌自己在使用该技术时犯下的令人尴尬的错误 作为世界上最大的公司之一,谷歌的错误有时规模巨大。如果你读过这篇论文,你就会忍不住得出这样的结论:生成式人工智能的滥用听起来很像是该技术在按预期工作。人们正在使用生成式人工智能制作大量虚假内容,因为它非常擅长完成这项任务,结果导致互联网上充斥着人工智能垃圾。而这种情况正是谷歌自己促成的,它允许这些虚假内容泛滥,甚至是虚假内容的源头,无论是虚假图片还是虚假信息。研究人员表示,这一混乱局面也考验着人们辨别真假的能力。他们写道:同样,大量生产低质量、垃圾邮件和恶意的合成内容可能会增加人们对数字信息的怀疑态度,并使用户的验证任务负担过重。令人不寒而栗的是,由于我们被虚假的人工智能内容淹没,研究人员表示,有些情况下知名人士能够将不利的证据解释为人工智能生成的,从而以昂贵且低效的方式转移举证责任。随着谷歌等公司继续将人工智能融入到每一款产品中,我们将会看到更多这样的情况。了解更多: ... PC版: 手机版:

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人