微软第二份研究报告关注俄罗斯、伊朗等国干预美国大选的网络破坏行动

微软第二份研究报告关注俄罗斯、伊朗等国干预美国大选的网络破坏行动 此外,人们担心复杂的人工智能深度伪造视频会成功操纵选民,但这一担心尚未得到证实,而较简单的"浅层"人工智能增强和人工智能音频伪造内容可能会取得更大成功。这些见解和分析包含在今天发布的第二份《微软威胁情报选举报告》中。俄罗斯在破坏美国对乌克兰的支持方面投入巨大俄罗斯的影响力行动(IO)在过去两个月中愈演愈烈。微软威胁分析中心(MTAC)已追踪到至少有 70 名俄罗斯人员利用传统媒体和社交媒体以及隐蔽和公开的活动,从事以乌克兰为重点的虚假信息活动。例如,微软追踪到的名为 Storm-1516 的行为者使用多种语言的一致模式,成功地向美国受众洗白了反乌克兰的言论。通常情况下,该组织会遵循三个阶段的流程:个人以举报人或公民记者的身份出现,在专门建立的视频频道上播出叙述内容然后,一个看似无关联的全球秘密管理网站网络对该视频进行了报道然后,俄罗斯外籍人士、官员和同行者会扩大这种报道。最终,美国受众很可能在不知情的情况下重复和转发这些虚假信息。图 1:Storm-1516 向美国受众空间发送虚假信息的流程中国试图扩大社会分歧,破坏美国民主制度中国在以选举为重点的活动中采用了多层次的方法。它利用现有的社会政治分歧,将其攻击与党派利益结合起来,鼓励这些信息的转发。图 2:与中国有关联的仿冒账户冒充美国选民,发布以美国大选为主题的内容中国还在与选举有关的影响活动中越来越多地使用人工智能,这是它与俄罗斯的不同之处。俄罗斯对人工智能的使用在影响方面不断发展,而与中国有关联的行为体则利用人工智能生成技术有效地创建和增强图像、备忘录和视频。伊朗迄今活动有限,经常在选举后期搅局伊朗过去的行为表明,它很可能会在临近美国大选日时发起严重的网络影响力行动。德黑兰的选举干预战略采用了一种独特的方法:将网络和影响力行动结合起来,以产生更大的影响。中东地区持续不断的冲突可能意味着伊朗将改变其针对美国的计划目标和行动。2024 年大选中的生成式人工智能风险依然存在,但与预期不同自 2022 年末生成式人工智能民主化以来,许多人担心这种技术会被用来改变选举结果。MTAC 与微软的多个团队合作,对民族国家在影响行动中恶意使用生成式人工智能的情况进行识别、分流和分析。简而言之,迄今为止,使用世界领导人和候选人的高制作合成深度伪造视频并未造成大规模欺骗和广泛混淆。事实上,我们已经看到,受众更容易倾向于并分享简单的数字伪造品,而在过去十年中,影响力行动者一直在使用这些数字伪造品。例如,印有真实通讯社标识的虚假新闻报道。受众有时确实会被人工智能生成式内容所吸引,不过成功的场景有很大的细微差别。我们今天的报告解释了以下因素如何导致生成式人工智能在 2024 年的选举中面临风险:人工智能增强内容比完全由人工智能生成的内容更具影响力人工智能音频比人工智能视频更具影响力声称来自私人场合的虚假内容(如电话)比来自公共场合的虚假内容(如世界领导人的深度伪造视频)更有效在危机和突发新闻期间,虚假信息的传播更具穿透力模仿知名度较低的人比模仿世界领导人等知名度很高的人效果更好随着 11 月的临近,我们预计俄罗斯、伊朗和中国都将加快影响和干扰活动的步伐,因此在选举日之前,MTAC 将继续识别和分析恶意使用生成式人工智能的情况,并逐步更新评估。需要特别注意的一点是:如果有一种复杂的深度伪造技术用于影响 11 月的选举,那么用于操纵选举的工具很可能尚未进入市场。几乎每天都有越来越先进的视频、音频和图像人工智能工具进入市场。上述评估是根据 MTAC 迄今观察到的情况做出的,但我们很难知道从现在到 11 月,我们会从生成式人工智能中观察到什么。上述评估是根据 MTAC 目前的观察得出的,但从现在到 11 月,随着人工智能的发展以及俄罗斯、伊朗和中国地缘政治目标的演变,2024 年大选的风险可能会随着时间的推移而发生变化。阅读原文: ... PC版: 手机版:

相关推荐

封面图片

DeepMind:政治深度伪造居恶意使用人工智能榜首

DeepMind:政治深度伪造居恶意使用人工智能榜首 谷歌旗下 DeepMind 部门首次对人工智能最常见的恶意使用情况进行的研究显示,利用人工智能生成的“深度伪造”冒充政客和名人,远比利用人工智能协助网络攻击的行为普遍得多。该研究表示,制作逼真的假冒人物图像、视频和音频的情况几乎是第二高频率滥用生成式人工智能工具情况的两倍:使用聊天机器人等基于文本的工具伪造信息,生成虚假信息并发布到网上。分析发现,行为者滥用生成式人工智能的最常见目标是塑造或影响公众舆论。这一占到使用的27%,加剧了人们对深度伪造可能影响今年全球选举的担忧。

封面图片

微软称与中国有关联的行动者利用AI影响民主选举与制造社会分裂

微软称与中国有关联的行动者利用AI影响民主选举与制造社会分裂 了解更多: 展示了几个例子,表明中国的行为者在美国的社交网络上发布虚假信息,通常是用人工智能生成的内容。其中一些帖子试图推送有关重大新闻事件的虚假阴谋论。例如,2023 年 8 月夏威夷州毛伊岛的大火就是一个名为"风暴 1376"(Storm-1376)的群组的攻击目标,该群组发布虚假信息,声称大火是由美国政府的"气象武器"造成的。该组织还发布了关于 2023 年 11 月肯塔基州火车出轨原因的虚假帖子。Storm-1376被判定为一个来自中国的组织,负责人工智能制作内容,利用虚假信息影响 2024 年 1 月的台湾选举。微软称,这是第一次有民族国家支持的行为者使用人工智能生成的内容试图影响外国选举结果。虽然微软表示,这群行为者利用这些社交网络帖子影响包括美国在内的世界各地即将举行的选举的努力目前可能收效甚微,但"中国在制作谜因、视频和音频方面越来越多的尝试可能会继续下去而且可能会被证明更有效"。MTAC 的新报告还显示,除其他行动外,以朝鲜为基地的网络行为者加大了窃取加密货币资金的力度。其中一个名为"Emerald Sleet"的组织被认定使用了大型人工智能语言模型来帮助改进他们的行动。不过,微软表示,在与其合作伙伴 OpenAI 的共同努力下,微软关闭了被该组织使用的账户和资产。 ... PC版: 手机版:

封面图片

欧盟研究报告就俄罗斯虚假信息问题抨击大型科技公司

欧盟研究报告就俄罗斯虚假信息问题抨击大型科技公司 欧盟周三发表的一份研究报告称,在乌克兰战争爆发的第一年,包括 TikTok 和推特在内的科技巨头未能有效处理俄罗斯发布在网络上的虚假信息。 报告重点关注了 Facebook、Instagram、推特、YouTube、TikTok 和 Telegram 这六个平台上亲克里姆林宫的虚假信息所带来的风险,以及这些公司的行动是否符合《数字服务法案》的内容。 报道称,科技公司签署了一份关于虚假信息的行为准则,这将可以“减少克里姆林宫的一些恶意活动”。但证据表明,这些平台未能在系统层面落实这些措施。 大多数主要平台都在去年签署了该准则,但推特在6月份退出了。该报告还批评了 Telegram ,称它尚未签署该行为准则。2023 年俄罗斯网络虚假信息有所增加,尤其是在马斯克接管推特并退出行为准则之后。 欧盟担心明年欧洲议会选举期间虚假信息的影响,并敦促科技巨头有效执行《数字服务法案》,防止俄罗斯干预选举。

封面图片

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假 生成式人工智能(包括 ChatGPT 等大受欢迎的聊天机器人)的兴起导致了一种新的重大威胁,其中涉及人工智能生成的"深度伪造",其目的是使虚假信息永久化。这些新工具可以广泛使用,任何人都可以制作假视频、照片或高知名度政治实体的音频,但这并没有什么帮助。就在本周一,印度选举委员会敦促各政党在围绕选举开展的网络宣传活动中避免使用深度伪造和类似的虚假信息。正是在这一背景下,包括微软和 OpenAI 在内的所有主要科技公司都签署了应对此类风险的自愿承诺,并计划建立一个共同框架,以应对专门为误导选民而制造的深度伪造。在其他地方,主要的人工智能公司已经开始通过在其软件中引入限制来应对这些风险。例如,Google表示不允许其 Gemini 人工智能聊天机器人回答有关选举的问题,而 Facebook 的母公司 Meta也限制通过其人工智能聊天机器人回答与选举有关的问题。今天早些时候,OpenAI 为虚假信息研究人员推出了一款新的深度虚假检测工具,旨在帮助识别由其自己的 DALL-E 图像生成器生成的虚假内容,同时它还加入了行业机构内容出处和真实性联盟(C2PA)的指导委员会,该联盟的成员包括 Adobe、微软、Google和英特尔。新的"社会复原力基金"是这一更广泛的"负责任"人工智能推动力的一部分,微软和 OpenAI 目前正致力于"在选民和弱势群体中进一步开展人工智能教育和扫盲活动"。这将涉及向一些组织发放补助金,其中包括老年人技术服务组织(OATS)、内容真实性联盟(C2PA)、国际民主与选举援助研究所(International IDEA)和人工智能合作伙伴关系(PAI)。根据微软的说法,这些资助旨在让全社会更好地了解人工智能及其能力。例如,OATS 显然将把赠款用于针对美国 50 岁及以上人群的培训项目,内容涵盖"人工智能的基础方面"。社会复原力基金的启动只是微软和 OpenAI 致力于应对人工智能扫盲和教育领域的挑战和需求的其中一步,"微软负责技术和企业责任的公司副总裁 Teresa Hutson 在博文中表示。"微软和 OpenAI 将一如既往地致力于这项工作,我们将继续与拥有共同目标和价值观的组织和倡议合作。" ... PC版: 手机版:

封面图片

欧盟在大选前就 GenAI 风险问题加强对主要平台的监管

欧盟在大选前就 GenAI 风险问题加强对主要平台的监管 这些要求涉及必应(Bing)、Facebook、Google搜索、Instagram、Snapchat、TikTok、YouTube 和 X。根据规定,这八个平台被指定为超大型在线平台(VLOPs),这意味着它们除了要遵守规则手册的其他规定外,还必须评估和降低系统性风险。在周四发布的一份新闻稿中,委员会表示,它要求这些公司提供更多信息,说明它们各自采取了哪些措施来降低与其服务中的生成式人工智能相关的风险包括与人工智能技术生成虚假信息的所谓"幻觉"有关的风险、深度伪造的病毒式传播风险,以及可能误导选民的自动操纵服务风险。"委员会还要求提供信息和内部文件,说明与生成式人工智能对选举进程、非法内容传播、基本权利保护、性别暴力、未成年人保护和精神健康的影响有关的风险评估和缓解措施,"欧委会补充说,强调这些问题涉及"生成式人工智能内容的传播和创建"。欧盟在向记者介绍情况时还表示,它正计划在复活节后进行一系列压力测试。这些测试将检验平台是否做好了应对人工智能生成风险的准备,例如在 6 月欧洲议会选举前可能出现的大量政治深度伪造。一位不愿透露姓名的委员会高级官员说:"我们希望推动各平台告诉我们他们正在做什么,以便尽可能做好准备......应对我们可能发现的所有事件,以及我们在选举前必须做出的反应。"欧盟负责监督虚拟运营商遵守这些针对大科技的 DSA 规则,并将选举安全列为执法的优先领域之一。最近,欧盟正在就针对虚拟运营商的选举安全规则进行咨询,同时着手制定正式指南。根据委员会的说法,今天的要求部分是为了支持这一指导。尽管这些平台被要求在 4 月 3 日之前提供与保护选举有关的信息,这被称为"紧急"要求。但欧盟表示,希望能在此之前,即 3 月 27 日之前完成选举安全指南。委员会指出,合成内容的制作成本正在急剧下降,这增加了选举期间制造误导性假新闻的风险。正因如此,委员会对具有广泛传播政治虚假内容规模的主要平台加大了关注力度。在欧盟看来,上个月慕尼黑安全会议上达成的打击在选举中欺骗性使用人工智能的科技行业协议还不够深入,该协议得到了许多与欧盟委员会现在发送的《索取资料书》相同的平台的支持。委员会的一位官员表示,即将发布的选举安全指南将"更进一步",并指出委员会计划利用三重保障措施:首先是 DSA 的"明确尽职调查规则",该规则赋予委员会针对特定"风险情况"的权力;其次是通过《反虚假信息行为准则》(无法律约束力)与平台合作五年多的经验,欧盟打算将该准则变为 DSA 下的《行为准则》;最后是即将出台的《人工智能法》下的透明度标签/人工智能模型标记规则。这位官员补充说,欧盟的目标是建立一个"执法机构生态系统",在选举前可以利用这些机构。欧盟委员会今天的《索取资料书》还旨在解决比操纵选民更广泛的人工智能生成风险,例如与深假色情或其他类型的恶意合成内容生成有关的危害,无论生成的内容是图像/视频还是音频。这些要求反映了欧盟 DSA 执行 VLOP 的其他优先领域,其中包括与非法内容(如仇恨言论)和儿童保护相关的风险。各平台可在 4 月 24 日之前对其他生成式人工智能征求意见稿作出回复。可能传播误导性、恶意或有害深度伪造内容的小型平台,以及能够以较低成本生成合成媒体的小型人工智能工具制造商,也在欧盟的风险缓解雷达上。这些平台和工具不属于委员会明确的 DSA 对 VLOP 的监督范围,因为它们没有被指定。但委员会扩大监管影响的策略是间接施压,通过大型平台(在此背景下可能充当放大器和/或传播渠道);通过自我监管机制,如上述《虚假信息守则》;以及《人工智能法》(硬法)通过后(预计几个月内)即将启动和运行的《人工智能契约》。 ... PC版: 手机版:

封面图片

微软:中国利用人工智能挑动美国舆论

微软:中国利用人工智能挑动美国舆论 微软威胁分析中心 (MTAC) 的最新报告显示,中国正在增加使用人工智能生成的内容和虚假社交媒体帐户在大选前挑动美国和其他地方的分裂。微软威胁分析中心总经理克林特·瓦茨在4日晚间发布的这份报告中表示:“中国正在利用虚假的社交媒体账户对选民进行民调,了解他们最大的分歧是什么,从而播下分裂的种子,并可能影响美国总统选举的结果,使之对中国有利。”他指出“中国还增加了对人工智能生成内容的使用,以更好地实现其在世界各地的目标”。报告称,中国抓住时机增加其影响力,例如肯塔基州的火车脱轨或夏威夷毛伊岛的火灾,以加剧对美国政府的不信任。根据报告的调查结果,几乎没有迹象表明这些影响力行动成功地影响了舆论。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人