AntiFake技术可以防止你的声音被AI深度伪造

AntiFake技术可以防止你的声音被AI深度伪造然而,一种名为AntiFake的新软件工具可以帮助防止这种情况发生。已经有技术可以确定所谓的声音是否是深度伪造的,AntiFake是最早阻止此类伪造声音产生的系统之一。简而言之,它是通过让人工智能系统更难读取真人声音录音中的关键声音特征来实现这一点。“该工具使用了一种对抗性人工智能技术,该技术最初是网络犯罪分子工具箱的一部分,但现在我们反过来用它来防御他们,”发明者、圣路易斯华盛顿大学计算机科学与工程助理教授张宁说。 “我们只是稍微弄乱了录制的音频信号,对其进行扭曲或扰动,使其对人类听众来说仍然听起来不错,但这与人工智能感知到的完全不同。”这意味着,即使深度伪造是根据经过AntiFake修改的录音创建的,它听起来也不会像说话者的实际声音。迄今为止进行的测试表明,该技术在防止合成令人信服的深度赝品方面的有效性超过95%。张说:“虽然我不知道人工智能语音技术的下一步会是什么——新的工具和功能一直在开发——但我确实认为我们利用对手的技术来对抗他们的策略将继续有效。”任何需要的人都可以免费获得防伪代码:https://sites.google.com/view/yu2023antifake...PC版:https://www.cnbeta.com.tw/articles/soft/1400463.htm手机版:https://m.cnbeta.com.tw/view/1400463.htm

相关推荐

封面图片

外媒:莫迪与比尔・盖茨会谈,就 AI 深度伪造技术发出警告

外媒:莫迪与比尔・盖茨会谈,就AI深度伪造技术发出警告“印度总理莫迪警告比尔・盖茨关于人工智能(AI)的危险”,“今日俄罗斯”电视台(RT)3月29日以此为题注意到,莫迪与比尔・盖茨近日举行会谈,讨论新兴技术、气候等多项议题,期间,莫迪就AI的深度伪造技术发出警告。综合RT及《今日印度》报道,印度总理办公室29日公布了两人会谈的视频片段。莫迪和比尔・盖茨谈到AI的快速发展,莫迪称这“非常重要”,但他同时警告说,不应出于“懒惰”而将AI技术当作“魔法工具”。他还建议给AI生成的内容标注水印,以解决深度伪造带来的问题。(环球网)

封面图片

DeepMind:政治深度伪造居恶意使用人工智能榜首

DeepMind:政治深度伪造居恶意使用人工智能榜首谷歌旗下DeepMind部门首次对人工智能最常见的恶意使用情况进行的研究显示,利用人工智能生成的“深度伪造”冒充政客和名人,远比利用人工智能协助网络攻击的行为普遍得多。该研究表示,制作逼真的假冒人物图像、视频和音频的情况几乎是第二高频率滥用生成式人工智能工具情况的两倍:使用聊天机器人等基于文本的工具伪造信息,生成虚假信息并发布到网上。分析发现,行为者滥用生成式人工智能的最常见目标是塑造或影响公众舆论。这一占到使用的27%,加剧了人们对深度伪造可能影响今年全球选举的担忧。——

封面图片

印度总理莫迪与比尔·盖茨会谈 就AI深度伪造技术发出警告

印度总理莫迪与比尔·盖茨会谈就AI深度伪造技术发出警告莫迪的社交平台账号3月29日发布其与比尔·盖茨会谈的视频画面综合RT及《今日印度》报道,印度总理办公室29日公布了两人会谈的视频片段。莫迪和比尔·盖茨谈到AI的快速发展,莫迪称这“非常重要”,但他同时警告说,不应出于“懒惰”而将AI技术当作“魔法工具”。他还建议给AI生成的内容标注水印,以解决深度伪造带来的问题。“如果把这么好的东西(AI)交给没有经过适当培训的人,它很可能会被滥用。我建议我们应该在AI生成的内容上标注清晰的水印,这样就不会有人被误导。”莫迪告诉比尔·盖茨。谷歌人工智能模型Gemini将莫迪与“法西斯”关联一事此前在印度掀起轩然大波。谷歌公司的人工智能模型Gemini在回答有关“印度总理莫迪是不是法西斯主义者”的问题时称,“莫迪实施的某些政策被部分专家认为具有法西斯主义性质”,并举出莫迪推行印度教民族主义政策和打压异议人士的例子。据《印度时报》报道,尽管谷歌公司已就上述事件向印度政府表达了歉意,但印度电子和信息技术部国务部长拉吉夫·钱德拉塞卡似乎仍不满意,认为谷歌是在政府宣布将对人工智能平台采取限制措施之后道歉的。这次谷歌事件让印度政府开始考虑如何应对新兴的人工智能技术。印度电子和信息技术部3月1日针对提供人工智能服务的机构出台四点合规性要求,即内容合法、不涉及传播偏见或干涉选举、政府许可、有源标记。虽然莫迪政府正在加强管控,但是印度14亿人口的市场还是吸引科技公司不断增加投入。印度IT初创公司英菲尼迪电力首席执行官阿尼尔·萨克塞纳称,如果政府不断加强控制,相关企业必须学会“顺势而为”。...PC版:https://www.cnbeta.com.tw/articles/soft/1425576.htm手机版:https://m.cnbeta.com.tw/view/1425576.htm

封面图片

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管

多位人工智能专家和行业高管在公开信中呼吁加强对深度伪造的监管YoshuaBengio"如今,深度伪造往往涉及性图像、欺诈或政治虚假信息。由于人工智能发展迅速,使得深度伪造变得更加容易,因此需要采取保障措施,"该组织在信中说,这封信是由加州大学伯克利分校的人工智能研究员安德鲁-克里奇(AndrewCritch)撰写的。深度伪造(Deepfake)是由人工智能算法创建的逼真而又虚假的图像、音频和视频,最近的技术进步使它们与人类创建的内容越来越难以区分。这封题为"扰乱深度假货供应链"的信就如何监管深度假货提出了建议,包括将深度假货儿童色情制品完全定为刑事犯罪,对任何故意制造或协助传播有害深度假货的个人进行刑事处罚,以及要求人工智能公司防止其产品制造有害深度假货。截至本周三上午,已有来自学术界、娱乐界和政界等各行各业的400多人在信上签名。签名者包括哈佛大学心理学教授史蒂文-平克(StevenPinker)、两位爱沙尼亚前总统、GoogleDeepMind的研究人员和OpenAI的研究人员。自微软支持的OpenAI于2022年底推出ChatGPT以来,确保人工智能系统不危害社会一直是监管机构的首要任务。知名人士曾多次就人工智能风险发出警告,特别是埃隆-马斯克(ElonMusk)去年签署了一封信,呼吁暂停开发比OpenAI的GPT-4人工智能模型更强大的系统,为期六个月。...PC版:https://www.cnbeta.com.tw/articles/soft/1419951.htm手机版:https://m.cnbeta.com.tw/view/1419951.htm

封面图片

【币安首席安全官:欺诈者使用AI Deepfake技术来绕过加密交易所KYC验证】

【币安首席安全官:欺诈者使用AIDeepfake技术来绕过加密交易所KYC验证】5月24日消息,币安首席安全官JimmySu表示,越来越多的欺诈者使用人工智能的深度伪造技术(Deepfake)来绕过币安等加密交易所KYC验证流程,黑客会在某处在线寻找受害者照片,在此基础上利用深度伪造工具,他们可以制作视频来绕过身份验证;这些工具已经变得如此先进,它们甚至可以正确响应旨在检查申请人是否为人类的音频指令,并且可以实时响应。不过,Su认为,这些伪造的视频目前还没有达到可以骗过人类操作员的程度。此前币安在一篇博客文章中表示,其计划人工智能和机器学习算法来辅助网络安全,包括检测异常登录模式和交易模式以及其他“平台上的异常活动”。

封面图片

天文学技术可以通过人眼检测深度伪造

天文学技术可以通过人眼检测深度伪造据《自然》杂志报道,英国赫尔大学的研究人员使用CAS系统「天文学家用来测量星系集中度、不对称性和平滑度(或团块度)的方法」和一种名为基尼系数的统计不平等测量方法,分析了图像中人眼反射的光线。研究人员表示,在一个人的真实照片中,一只眼睛的反射应该与另一只眼睛的反射“非常相似,但不一定完全相同”。研究人员曾利用这些技术尝试预测人们脸部图像是否伪造,他发现使用这些天文学方法观察眼睛中的光线可以识别出伪造图像,准确率约为70%。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人