如您所知,我们曾经提供过很多关于如何抵制深度造假 #deepfake 的研究和情报更新,如今这已经越来越成为安全领域的热点议题;

如您所知,我们曾经提供过很多关于如何抵制深度造假 #deepfake 的研究和情报更新,如今这已经越来越成为安全领域的热点议题;因为它不仅仅被用于栽赃(如 在凶案现场伪造您杀人的证据)、人格暗杀(如 作为抹黑运动的武器构陷反抗者和政治异议)、造谣和钓鱼(如 伪造新闻照片)而且,已经被用于虚构地缘政治叙事,以挑起战争冲突(深度造假的卫星地图),这是非常危险的。 抵制深度造假的技术工具必需不断被更新,因为造假技术一直在飞速进化,它不仅越来越容易使用,以至于不懂技术的人也能简单操作;并且,越来越难以被检测到。 这里是第 38 届国际机器学习大会 (ICML 2021)论文集中的一篇,它介绍了一个新工具 Markpainting,该工具使用对抗性机器学习技术来欺骗图像修复软件,使其编辑的内容在肉眼下清晰可见。图像所有者可以用微妙的方式修改他们的图像,这些方式本身并不十分明显,但会通过添加由标记绘制者事先确定的可见信息来破坏任何试图对其进行的涂抹。 其中一个应用是防篡改标记。例如,一家在其网站上提供带有版权水印的照片的图片社,可以用这样的方式进行标记,使任何使用普通编辑软件去除水印的人都会失败。这是最简单的用例。 在打击假新闻的斗争中,给新闻照片打上标记意味着任何试图操纵它们的人都将面临可见的人工痕迹的风险。 对深度造假技术抵制感兴趣的朋友可以通过研究这篇论文获得灵感。我们将需要追求抵制工具的简单易用性,以及足够的前瞻性,以延长其生命力。

相关推荐

封面图片

抵制深度造假的新方法​​为什么你永远都发不了财?

抵制深度造假的新方法 ​​为什么你永远都发不了财? 真的有可能通过入侵敌人的思想,不战而胜吗? 关于数字安全性和开源情报的播客 统治和反统治的艺术 密码学101 泄漏数据 在攻防两端 本拉登的书架 谁在滋养恶魔? 秘密算法的黑箱如何决定你的生活? 您的网络浏览历史记录即将决定您的"信用评分" 改革还是变革 "一带一路"和网络间谍 以完全不同的方式重写开源情报 云原生技术栈安全指南 安全混沌工程 行动者工具包:实例框架 您需要防备的不只有政府 德国大选可能如何影响中国的地缘政治未来 Telegram机器人正试图窃取您的一次性密码 你孤独吗? 未走的路:中国如何摆脱休克疗法 当民族国家转变为一个庞大的数据库 断网后怎么办:指南 在2021年成为Go语言专家 超越VPN:"终极"在线隐私 ……以及更多! 《免费书汇总:9~10月版》

封面图片

这里是关于识别虚假照片和视频时,您应该了解的思考方式,以及工具,包括深度造假。

这里是关于识别虚假照片和视频时,您应该了解的思考方式,以及工具,包括深度造假。 鉴于视觉效果被广泛用于影响和操纵公共语话,公民调查必须具备基本的图像验证知识,以及批判性地质疑和评估图像的能力,以了解那些虚假信息是如何以及为何被部署的。 第5集《验证图像和视频信息时您需要思考什么:从追踪到验证的思考方式(5)》

封面图片

识别神经网络创建的内容(深度造假检测)

识别神经网络创建的内容(深度造假检测) 1. AI or Not () - 识别图片、视频或语音记录; 2. Content at Scale () - 识别人工智能生成的图像; 3. Illuminarty () - 通过对比分析识别图片或文本; 4. V7 Deepfake Detector () - 检测赝品。可申请试用版; 5. AI Text Classifier () - 检测由 ChatGPT 模型编写的文本; 6. GPTZero () - 可检测任何热门AI模型编写的文本; 7. AI Content Detector () - 就是它的名字所描述的意思,是的用来检测文本。 #AI #tools (跟随或搜索该标签可在本站找到更多神经网络工具)

封面图片

天文测量工具能用于识别深度伪造

天文测量工具能用于识别深度伪造 研究人员正在利用天文测量工具帮助确定图像的真实性使用通常用于调查遥远星系的方法分析人脸图像,可以测量一个人的眼睛如何反射光,从而发现图像处理的迹象。AI 的进步使得区分真实图像、视频和音频与算法生成的图像、视频、音频变得越来越困难。深度伪造技术将一个人或环境的特征替换为另一个人或环境的特征,专家警告称,这可以被武器化,并用于传播错误信息,例如在选举期间。研究人员解释说,真实的照片应该具有“一致的物理特性”,“所以你在左眼球中看到的反射应该与在右眼球中见到的反射非常相似,尽管不一定完全相同”。这些差异是微妙的,因此为了检测它们,研究人员转向了旨在分析天文图像中的光的技术。通过比较个人眼球中的光反射,他们可以在大约 70% 的情况下正确预测图像是否为假的。 via Solidot

封面图片

【币安首席安全官:欺诈者使用AI Deepfake技术来绕过加密交易所KYC验证】

【币安首席安全官:欺诈者使用AI Deepfake技术来绕过加密交易所KYC验证】 5月24日消息,币安首席安全官Jimmy Su表示,越来越多的欺诈者使用人工智能的深度伪造技术(Deepfake)来绕过币安等加密交易所KYC验证流程,黑客会在某处在线寻找受害者照片,在此基础上利用深度伪造工具,他们可以制作视频来绕过身份验证;这些工具已经变得如此先进,它们甚至可以正确响应旨在检查申请人是否为人类的音频指令,并且可以实时响应。不过,Su认为,这些伪造的视频目前还没有达到可以骗过人类操作员的程度。 此前币安在一篇博客文章中表示,其计划人工智能和机器学习算法来辅助网络安全,包括检测异常登录模式和交易模式以及其他“平台上的异常活动”。

封面图片

中国网信办将开始监管“深度合成”技术,如人工智能图像、音频和文本生成软件

中国网信办将开始监管“深度合成”技术,如人工智能图像、音频和文本生成软件 北京的互联网监管机构中国国家互联网信息办公室将从周二开始实施监管针对所谓的“深度合成”技术,包括人工智能图像、音频和文本生成软件这标志着世界上首次由一个主要监管机构全面尝试遏制人工智能发展中最具爆炸性和争议性的领域之一。 新法规规定,禁止使用人工智能生成的内容来传播“假新闻”,或被认为对经济或国家安全具有破坏性的信息定义广泛的类别给了当局很大的解释空间。他们还要求深度合成技术的提供者,包括公司、研究机构和个人,在可能被误解为真实的图像、视频和文本时,应将它们突出标记为合成或编辑过的。 美国立法者试图解决 deepfakes 的扩散和潜在滥用问题,但这些努力因言论自由问题而停滞不前。 斯坦福大学研究学者格雷厄姆·韦伯斯特 (Graham Webster) 表示,中国的监管尝试表明,北京在很大程度上受到围绕该技术的全球辩论的影响。他负责追踪中国数字政策发展的 DigiChina 项目。 “中国正在向世界学习这些事情的潜在影响,但它正在以更快的速度推进强制性规则和执法,”他说。“世界各地的人们都应该观察会发生什么。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人