McAfee推出Mockingbird项目来阻止AI语音克隆诈骗 ||

McAfee推出Mockingbird项目来阻止AI语音克隆诈骗 || McAfee推出了Project Mockingbird,以检测使用生成式AI制作的深度伪造音频和视频。这些伪造内容正在被网络犯罪分子用来进行诈骗和操纵公众舆论。 该技术可以检测出音频是否真的是某人的声音,或者是AI生成的。它可以帮助消费者识别视频和信息的真伪,避免上当受骗。 McAfee表示这项技术应用广泛,可以帮助消费者应对AI生成的诈骗和虚假信息的增加。它可以赋予消费者区分数字世界中真假内容的能力。McAfee进行的一项调查显示,68%的美国人比去年更担心深度伪造,33%的人表示遇到过或知道深度伪造诈骗。 大众最担心深度伪造会被用来影响选举、网络欺凌、破坏公众对媒体的信任等。McAfee希望通过这项技术来增强在线隐私、身份和福祉。McAfee在CES 2024上首次公开展示了Project Mockingbird。该技术被比作知更鸟的鸣叫来欺骗的行为,同样地网络犯罪分子也利用AI来欺骗消费者谋取利益。 McAfee的这项技术旨在帮助消费者识破AI生成的语音和视频欺骗,提高数字世界的安全性。它具有广泛的应用前景。

相关推荐

封面图片

【英国消费者组织警告:AI聊天机器人使网络诈骗文案愈发专业化】

【英国消费者组织警告:AI聊天机器人使网络诈骗文案愈发专业化】 据 10 月 28 日报道,根据英国消费者组织“Which? ”的最新发现,不法分子会利用 ChatGPT 和 Bard 等 AI 聊天机器人制造出更有说服力的骗局,对公众构成威胁,且上述聊天机器人缺乏有效的防御措施。据介绍,当地消费者通常会注意到诈骗短信、邮件使用的英语语法和拼写方面通常很糟糕,长久以来这也是识别诈骗内容的一个重要方法。但随着基于生成式 AI 的聊天机器人出现,不法分子现在可以轻松越过这一障碍。在评论这项调查时,Which? 政策与宣传总监 Rocio Concha 总结称:“我们的调查清楚说明,这项新技术是如何让犯罪分子更容易诈骗他人的。(英国)政府即将召开的 AI 峰会必须考虑如何保护人们免受此时此地发生的危害,而不是仅仅关注前沿 AI 的长期风险。”此前报道,。 快讯/广告 联系 @xingkong888885

封面图片

AI 模糊真实与欺骗是特性不是 bug

AI 模糊真实与欺骗是特性不是 bug Google 研究人员在预印本平台 arXiv 上发表论文,指出通过在互联网上发布虚假内容,绝大多数生成式 AI 正在模糊真实性和欺骗性之间的界限。深度伪造和伪造证据是目前最盛行的滥用方式,其中大多数都有明显意图,旨在影响公众舆论、进行诈骗或欺诈活动。生成式 AI 日益先进,可随时使用,对使用者的技术要求非常低,它正在扭曲人们对社会政治现实或科学共识的集体理解。生成式 AI 非常擅长于大量制作虚假内容,这其实是它的特性而不是 bug,互联网正日益充斥着 AI 的垃圾。研究人员表示这种状况将考验人们辨别真假的能力。随着生成式 AI 内容的无处不在,部分人可能会将对其不利的证据解释为 AI 生成,转移举证责任。 via Solidot

封面图片

签证、求职诈骗:阿联酋提醒公众警惕诈骗

签证、求职诈骗:阿联酋提醒公众警惕诈骗 阿联酋专家发出提醒,诈骗者正利用深度伪造技术等高科技手段实施签证和工作诈骗。 这些诈骗者能够模仿可信联系人的声音和形象,诱骗受害者。RAK银行的合规专家Manisha Miranda指出,如今的诈骗手段远比十年前高科技化,包括使用AI驱动的深度伪造技术、克隆政府网站和制作虚假投资平台。 受害者不仅面临财产损失,还会承受巨大的心理压力。 一项由Visa委托的研究显示,阿联酋近半数消费者曾遭遇诈骗,其中15%的人多次受骗。 网络安全专家建议,公众应主动提高防范意识,验证所有通信信息,使用最新安全更新和强密码,并启用多因素身份验证。面对未经请求的优惠或紧急请求时,应保持谨慎。同时,加强社区支持和宣传教育活动,共同防范诈骗。阿联酋警方也发出警告,提醒公众不要轻信自称官方人员的电话,并呼吁受害者及时报告可疑情况。

封面图片

OpenAI,ChatGPT团队,正在评估是否许可使用其AI技术制造成人内容。虽然确保不会使用深度伪造技术,但引发了对其“打造安

OpenAI,ChatGPT团队,正在评估是否许可使用其AI技术制造成人内容。虽然确保不会使用深度伪造技术,但引发了对其“打造安全AI”的初衷的担忧。提议让开发者和用户制造NSFW内容,引发讨论。这项政策正被深入研究,其结果将深刻影响AI内容的生成方向。 省流:chatgpt可能在以后支持无nsfw限制的API调用服务,不监控用户生成任何数据。 #OpenAI #AI #AI文爱 引用 source #chatgpt

封面图片

技术伦理组织要求联邦贸易委员会阻止 OpenAI 推出新的 GPT 模型并对其进行调查

技术伦理组织要求联邦贸易委员会阻止 OpenAI 推出新的 GPT 模型并对其进行调查 一个专注于人工智能的技术伦理组织要求联邦贸易委员会调查 OpenAI 是否违反了消费者保护规则,认为该组织推出的 AI 文本生成工具“存在偏见、具有欺骗性,并且对公共安全构成风险”。 AI 和数字政策中心 (CAIDP)在发布一封备受瞩目的公开信呼吁暂停大型生成 AI 实验后,于今天提出申诉。CAIDP 主席 Marc Rotenberg 是这封信的签署人之一,还有一些 AI 研究人员和 OpenAI 联合创始人 Elon Musk。与那封信类似,投诉呼吁放慢生成人工智能模型的发展,并实施更严格的政府监管。 CAIDP 投诉指出了来自 OpenAI 的 GPT-4 生成文本模型的潜在威胁,该模型于 3 月中旬宣布。它们包括 GPT-4 可以产生恶意代码和高度定制宣传的方式,以及有偏见的训练数据可能导致在招聘等方面形成刻板印象或不公平的种族和性别偏好的方式。它还指出了 OpenAI 产品界面在隐私方面的重大缺陷比如最近的一个漏洞,该漏洞将OpenAI ChatGPT 历史和可能的支付细节暴露给其他用户。 OpenAI 已公开指出人工智能文本生成的潜在威胁,但 CAIDP 认为 GPT-4 已对消费者造成损害,应该采取监管行动。

封面图片

#重磅新闻AI换脸诈骗横行,国产手机厂商推出“Ai保镖”应对新型骗局

#重磅新闻AI换脸诈骗横行,国产手机厂商推出“Ai保镖”应对新型骗局 AI诈骗手段升级,换脸骗局泛滥 如今,只需一张静态照片,诈骗分子便可通过AI换脸、AI拟声技术合成逼真视频,冒充亲友、领导甚至明星进行诈骗。在某暗网论坛,10秒的换脸视频仅售50元,还能定制服务。诈骗团伙通过社交媒体、钓鱼网站等手段获取受害者人脸信息,利用开源AI工具实施“冒充熟人”或“虚假投资”等骗局。 AI诈骗比传统诈骗更加隐蔽,欺骗性更强。某大学生调研显示,在1500份调查问卷中,半数受访者或身边的人曾遭遇AI诈骗,70%的受访者对AI诈骗感到恐慌。 手机厂商出手,AI反诈技术迎战 面对AI骗局,各大国产手机厂商推出“AI保镖”技术,以硬件级识别、云端大数据分析等手段,为用户构筑智能防诈盾牌: • 荣耀 MagicOS 9.0:内置AI换脸检测,视频通话时可识别对方是否使用AI换脸技术,防止遭遇诈骗。 • vivo AI反诈来电:可智能识别潜在诈骗电话,在用户接听前进行风险判断,相当于“耳朵上的慧眼”。 • 小米MIUI全链路反诈:提供电诈预警、官方标识、诈骗应用拦截、转账防护等多重安全措施,实现全方位防护。 • OPPO隐私云计算:确保用户浏览记录、私人通话等敏感信息不会被AI收集训练,保护个人隐私。 技术防诈+认知防火墙,双重守护安全 尽管AI技术能为反诈提供有力支持,个人防范意识仍然是最关键的一环。反诈专家建议牢记“三要三不要”: 要核实对方身份真实性 要通过官方渠道确认信息 要警惕天上掉馅饼的诱惑 不要轻信陌生人语音/视频信息 不要随意透露个人生物特征 不要随意安装不明来源的APP PS:科技是双刃剑,AI能换脸,也能打假,别让骗子AI升级了,你的防骗意识还在XP时代。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人