微软称与中国有关联的行动者利用AI影响民主选举与制造社会分裂

微软称与中国有关联的行动者利用AI影响民主选举与制造社会分裂 了解更多: 展示了几个例子,表明中国的行为者在美国的社交网络上发布虚假信息,通常是用人工智能生成的内容。其中一些帖子试图推送有关重大新闻事件的虚假阴谋论。例如,2023 年 8 月夏威夷州毛伊岛的大火就是一个名为"风暴 1376"(Storm-1376)的群组的攻击目标,该群组发布虚假信息,声称大火是由美国政府的"气象武器"造成的。该组织还发布了关于 2023 年 11 月肯塔基州火车出轨原因的虚假帖子。Storm-1376被判定为一个来自中国的组织,负责人工智能制作内容,利用虚假信息影响 2024 年 1 月的台湾选举。微软称,这是第一次有民族国家支持的行为者使用人工智能生成的内容试图影响外国选举结果。虽然微软表示,这群行为者利用这些社交网络帖子影响包括美国在内的世界各地即将举行的选举的努力目前可能收效甚微,但"中国在制作谜因、视频和音频方面越来越多的尝试可能会继续下去而且可能会被证明更有效"。MTAC 的新报告还显示,除其他行动外,以朝鲜为基地的网络行为者加大了窃取加密货币资金的力度。其中一个名为"Emerald Sleet"的组织被认定使用了大型人工智能语言模型来帮助改进他们的行动。不过,微软表示,在与其合作伙伴 OpenAI 的共同努力下,微软关闭了被该组织使用的账户和资产。 ... PC版: 手机版:

相关推荐

封面图片

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假

微软和OpenAI投入200万美元设立基金打击选举相关的内容造假 生成式人工智能(包括 ChatGPT 等大受欢迎的聊天机器人)的兴起导致了一种新的重大威胁,其中涉及人工智能生成的"深度伪造",其目的是使虚假信息永久化。这些新工具可以广泛使用,任何人都可以制作假视频、照片或高知名度政治实体的音频,但这并没有什么帮助。就在本周一,印度选举委员会敦促各政党在围绕选举开展的网络宣传活动中避免使用深度伪造和类似的虚假信息。正是在这一背景下,包括微软和 OpenAI 在内的所有主要科技公司都签署了应对此类风险的自愿承诺,并计划建立一个共同框架,以应对专门为误导选民而制造的深度伪造。在其他地方,主要的人工智能公司已经开始通过在其软件中引入限制来应对这些风险。例如,Google表示不允许其 Gemini 人工智能聊天机器人回答有关选举的问题,而 Facebook 的母公司 Meta也限制通过其人工智能聊天机器人回答与选举有关的问题。今天早些时候,OpenAI 为虚假信息研究人员推出了一款新的深度虚假检测工具,旨在帮助识别由其自己的 DALL-E 图像生成器生成的虚假内容,同时它还加入了行业机构内容出处和真实性联盟(C2PA)的指导委员会,该联盟的成员包括 Adobe、微软、Google和英特尔。新的"社会复原力基金"是这一更广泛的"负责任"人工智能推动力的一部分,微软和 OpenAI 目前正致力于"在选民和弱势群体中进一步开展人工智能教育和扫盲活动"。这将涉及向一些组织发放补助金,其中包括老年人技术服务组织(OATS)、内容真实性联盟(C2PA)、国际民主与选举援助研究所(International IDEA)和人工智能合作伙伴关系(PAI)。根据微软的说法,这些资助旨在让全社会更好地了解人工智能及其能力。例如,OATS 显然将把赠款用于针对美国 50 岁及以上人群的培训项目,内容涵盖"人工智能的基础方面"。社会复原力基金的启动只是微软和 OpenAI 致力于应对人工智能扫盲和教育领域的挑战和需求的其中一步,"微软负责技术和企业责任的公司副总裁 Teresa Hutson 在博文中表示。"微软和 OpenAI 将一如既往地致力于这项工作,我们将继续与拥有共同目标和价值观的组织和倡议合作。" ... PC版: 手机版:

封面图片

微软和 OpenAI 推出200万美元基金以打击选举深度造假

微软和 OpenAI 推出200万美元基金以打击选举深度造假 微软和 OpenAI 宣布设立200万美元基金,以应对人工智能和深度造假被用来“欺骗选民和破坏民主”的日益增长的风险。根据博文,微软和 OpenAI 的新“Societal Resilience 基金”致力于“在选民和弱势社区中进一步开展人工智能教育和扫盲” 。这将涉及向少数组织发放赠款,包括老年人技术服务 (OATS)、内容来源和真实性联盟 (C2PA)、国际民主和选举援助研究所 (International IDEA) 和人工智能伙伴关系 (PAI)。据微软称,这些赠款旨在让全社会更好地了解人工智能及其能力。

封面图片

微软:中国利用人工智能挑动美国舆论

微软:中国利用人工智能挑动美国舆论 微软威胁分析中心 (MTAC) 的最新报告显示,中国正在增加使用人工智能生成的内容和虚假社交媒体帐户在大选前挑动美国和其他地方的分裂。微软威胁分析中心总经理克林特·瓦茨在4日晚间发布的这份报告中表示:“中国正在利用虚假的社交媒体账户对选民进行民调,了解他们最大的分歧是什么,从而播下分裂的种子,并可能影响美国总统选举的结果,使之对中国有利。”他指出“中国还增加了对人工智能生成内容的使用,以更好地实现其在世界各地的目标”。报告称,中国抓住时机增加其影响力,例如肯塔基州的火车脱轨或夏威夷毛伊岛的火灾,以加剧对美国政府的不信任。根据报告的调查结果,几乎没有迹象表明这些影响力行动成功地影响了舆论。

封面图片

微软和OpenAI称多国黑客正利用ChatGPT改进网络攻击

微软和OpenAI称多国黑客正利用ChatGPT改进网络攻击 微软在今天的一篇博文中说:"网络犯罪集团、民族国家威胁行动者和其他对手正在探索和测试新出现的各种人工智能技术,试图了解它们对其行动的潜在价值以及它们可能需要规避的安全控制。"与俄罗斯军事情报机构有关联的"锶"组织被发现使用 LLMs"了解卫星通信协议、雷达成像技术和特定技术参数"。该黑客组织也被称为 APT28 或 Fancy Bear,在俄罗斯的乌克兰战争期间一直很活跃,此前曾参与2016 年针对希拉里-克林顿总统竞选活动的攻击。据微软称,该小组还一直在使用 LLM 来帮助完成"基本的脚本任务,包括文件操作、数据选择、正则表达式和多进程处理,以实现技术操作的自动化或优化"。一个名为 Thallium 的朝鲜黑客组织一直在使用 LLMs 来研究公开报道的漏洞和目标组织,帮助完成基本的脚本任务,并为网络钓鱼活动起草内容。微软称,名为 Curium 的伊朗组织也一直在使用 LLMs 生成网络钓鱼电子邮件,甚至是用于躲避杀毒软件检测的代码。与中国政府有关联的黑客也在使用 LLMs 进行研究、编写脚本、翻译和改进现有工具。人们一直担心在网络攻击中使用人工智能,特别是出现了像 WormGPT 和 FraudGPT 这样的人工智能工具来协助创建恶意电子邮件和破解工具。美国国家安全局的一位高级官员上个月也警告说,黑客正在利用人工智能让他们的钓鱼邮件看起来更有说服力。微软和 OpenAI 尚未发现任何使用 LLMs 的"重大攻击",但这两家公司已经关闭了与这些黑客组织相关的所有账户和资产。微软表示:"与此同时,我们认为这是一项重要的研究,通过发布来揭露我们观察到的知名威胁行为者试图采取的早期、渐进式行动,并与防御者社区分享我们如何阻止和反击这些行动的信息。"虽然目前人工智能在网络攻击中的应用似乎还很有限,但微软对未来的使用案例(如语音冒充)发出了警告。"人工智能驱动的欺诈是另一个令人严重关切的问题。语音合成就是一个例子,三秒钟的语音样本就能训练出一个听起来像任何人的模型,即使是像语音邮件问候语这样无害的东西,也可以用来获得足够的样本。"微软的解决方案是利用人工智能来应对人工智能攻击。"人工智能可以帮助攻击者提高攻击的复杂程度,而且他们有足够的资源来应对。"微软首席检测分析经理霍马-海蒂法(Homa Hayatyfar)说。"我们已经从微软追踪的 300 多个威胁行为体身上看到了这一点,我们使用人工智能来保护、检测和应对。"微软正在打造一款新的人工智能助手Security Copilot,专为网络安全专业人士设计,用于识别漏洞并更好地理解每天通过网络安全工具产生的大量信号和数据。在 Azure 云遭受重大攻击,甚至俄罗斯黑客监视微软高管之后,这家软件巨头也在全面整顿其软件安全机制。了解更多: ... PC版: 手机版:

封面图片

科技公司签署协议打击人工智能制造的选举骗局

科技公司签署协议打击人工智能制造的选举骗局 Facebook 和 Instagram 的母公司 Meta 公司全球事务总裁尼克-克莱格(Nick Clegg)在峰会前接受采访时说:"每个人都认识到,没有一家科技公司、没有一个政府、没有一个民间社会组织能够独自应对这种技术的出现及其可能的邪恶用途。"该协议在很大程度上是象征性的,但针对的是越来越逼真的人工智能生成的图像、音频和视频,"这些图像、音频和视频会欺骗性地伪造或改变政治候选人、选举官员和民主选举中其他关键利益相关者的外表、声音或行动,或向选民提供关于何时、何地以及如何合法投票的虚假信息"。这些公司并未承诺禁止或删除深度伪造内容。相反,该协议概述了它们将采用的方法,以便在创建或在其平台上传播欺骗性人工智能内容时,对其进行检测和标记。协议指出,这些公司将相互分享最佳实践,并在这些内容开始传播时提供"迅速和适度的回应"。承诺的模糊性和缺乏任何有约束力的要求可能有助于赢得众多公司的青睐,但可能会让希望得到更有力保证的民主活动家和监督机构失望。克莱格说:"每家公司都有自己的内容政策,这是无可厚非的。这并不是要给每个人都穿上紧身衣。而且,无论如何,业界没有人认为,你可以通过一扫而过、玩'打地鼠'游戏、找出所有认为可能误导他人的东西来应对全新的技术范式。"就在 50 多个国家将于 2024 年举行全国大选之际,德国城市年度安全会议达成了这一协议。其中一些国家已经举行了选举,包括孟加拉国、台湾、巴基斯坦和最近的印度尼西亚。人工智能干预选举的尝试已经开始,比如上个月,模仿美国总统乔-拜登声音的人工智能机器人电话试图阻止人们在新罕布什尔州的初选中投票。就在斯洛伐克11 月大选的前几天,人工智能生成的录音冒充一名自由党候选人,讨论提高啤酒价格和操纵选举的计划。事实核查人员很快辨认出这些录音是假的,但它们已经在社交媒体上被当作真实录音广为传播。从使用人工智能聊天机器人与选民沟通,到在广告中添加人工智能生成的图像,政治家和竞选委员会也在尝试使用这种技术。在印度尼西亚大选之前,一个政党的领导人分享了一段克隆已故独裁者苏哈托面容和声音的视频。X 上的帖子披露了视频是由人工智能生成的,但一些网络批评者称这是滥用人工智能工具恐吓和左右选民。周五的协议称,在应对人工智能生成的深度伪造时,平台"将注意语境,特别是保护教育、纪录片、艺术、讽刺和政治表达"。它表示,两家公司将重点关注向用户提供有关欺骗性人工智能选举内容政策的透明度,并努力教育公众如何避免上人工智能造假的当。许多公司此前都表示,他们正在为自己的人工智能生成工具(可以处理图像和声音)设置保障措施,同时也在努力识别和标记人工智能生成的内容,以便社交媒体用户知道他们看到的是否是真实的。但这些建议的解决方案大多尚未推出,这些公司面临着来自监管机构和其他方面的压力,要求它们做得更多。这种压力在美国更加突出,因为美国国会尚未通过法律来规范人工智能在政治领域的应用,人工智能公司在很大程度上只能自我管理。在没有联邦立法的情况下,许多州都在考虑如何在选举和其他应用中为人工智能的使用设置防护栏。美国联邦通信委员会最近确认,人工智能生成的机器人电话音频片段是违法的,但这并不包括在社交媒体或竞选广告中流传的深度伪造音频。虚假信息专家警告说,虽然人工智能深度伪造尤其令人担忧,因为它们有可能在暗中影响今年的选民,但更便宜、更简单的虚假信息形式仍然是一大威胁。该协议也注意到了这一点,承认"传统操纵也可用于类似目的"。许多社交媒体公司已经制定了相关政策,以阻止有关选举程序的欺骗性帖子无论是否由人工智能生成。例如,Meta表示,它会删除有关"投票、选民登记或参与人口普查的日期、地点、时间和方法"的错误信息,以及其他旨在干扰他人参与公民事务的虚假帖子。诚信研究所(Integrity Institute)联合创始人、Facebook 前数据科学家杰夫-艾伦(Jeff Allen)说,该协议似乎是"积极的一步",但他仍希望看到社交媒体公司采取其他基本行动来打击不实信息,比如建立内容推荐系统,而不是将参与度放在首位。除了帮助促成周五协议的主要平台外,其他签署方还包括聊天机器人开发商 Anthropic 和 Inflection AI、语音克隆初创公司 ElevenLabs、芯片设计公司 Arm Holdings、安全公司 McAfee 和 TrendMicro,以及以制造图像生成器 Stable Diffusion 而闻名的 Stability AI。值得注意的是,另一个流行的人工智能图像生成器 Midjourney 也没有加入该协议。这家位于旧金山的初创公司周五没有立即回复置评请求。X的加入是周五协议中最大的惊喜之一。马斯克在接管前Twitter公司后大幅削减了内容审核团队,并将自己描述为"言论自由绝对主义者"。但 X 公司首席执行官琳达-雅卡里诺(Linda Yaccarino)在周五的一份声明中说,"每个公民和公司都有责任维护自由公正的选举"。她说:"X 致力于发挥自己的作用,与同行合作打击人工智能威胁,同时保护言论自由并最大限度地提高透明度。" ... PC版: 手机版:

封面图片

微软第二份研究报告关注俄罗斯、伊朗等国干预美国大选的网络破坏行动

微软第二份研究报告关注俄罗斯、伊朗等国干预美国大选的网络破坏行动 此外,人们担心复杂的人工智能深度伪造视频会成功操纵选民,但这一担心尚未得到证实,而较简单的"浅层"人工智能增强和人工智能音频伪造内容可能会取得更大成功。这些见解和分析包含在今天发布的第二份《微软威胁情报选举报告》中。俄罗斯在破坏美国对乌克兰的支持方面投入巨大俄罗斯的影响力行动(IO)在过去两个月中愈演愈烈。微软威胁分析中心(MTAC)已追踪到至少有 70 名俄罗斯人员利用传统媒体和社交媒体以及隐蔽和公开的活动,从事以乌克兰为重点的虚假信息活动。例如,微软追踪到的名为 Storm-1516 的行为者使用多种语言的一致模式,成功地向美国受众洗白了反乌克兰的言论。通常情况下,该组织会遵循三个阶段的流程:个人以举报人或公民记者的身份出现,在专门建立的视频频道上播出叙述内容然后,一个看似无关联的全球秘密管理网站网络对该视频进行了报道然后,俄罗斯外籍人士、官员和同行者会扩大这种报道。最终,美国受众很可能在不知情的情况下重复和转发这些虚假信息。图 1:Storm-1516 向美国受众空间发送虚假信息的流程中国试图扩大社会分歧,破坏美国民主制度中国在以选举为重点的活动中采用了多层次的方法。它利用现有的社会政治分歧,将其攻击与党派利益结合起来,鼓励这些信息的转发。图 2:与中国有关联的仿冒账户冒充美国选民,发布以美国大选为主题的内容中国还在与选举有关的影响活动中越来越多地使用人工智能,这是它与俄罗斯的不同之处。俄罗斯对人工智能的使用在影响方面不断发展,而与中国有关联的行为体则利用人工智能生成技术有效地创建和增强图像、备忘录和视频。伊朗迄今活动有限,经常在选举后期搅局伊朗过去的行为表明,它很可能会在临近美国大选日时发起严重的网络影响力行动。德黑兰的选举干预战略采用了一种独特的方法:将网络和影响力行动结合起来,以产生更大的影响。中东地区持续不断的冲突可能意味着伊朗将改变其针对美国的计划目标和行动。2024 年大选中的生成式人工智能风险依然存在,但与预期不同自 2022 年末生成式人工智能民主化以来,许多人担心这种技术会被用来改变选举结果。MTAC 与微软的多个团队合作,对民族国家在影响行动中恶意使用生成式人工智能的情况进行识别、分流和分析。简而言之,迄今为止,使用世界领导人和候选人的高制作合成深度伪造视频并未造成大规模欺骗和广泛混淆。事实上,我们已经看到,受众更容易倾向于并分享简单的数字伪造品,而在过去十年中,影响力行动者一直在使用这些数字伪造品。例如,印有真实通讯社标识的虚假新闻报道。受众有时确实会被人工智能生成式内容所吸引,不过成功的场景有很大的细微差别。我们今天的报告解释了以下因素如何导致生成式人工智能在 2024 年的选举中面临风险:人工智能增强内容比完全由人工智能生成的内容更具影响力人工智能音频比人工智能视频更具影响力声称来自私人场合的虚假内容(如电话)比来自公共场合的虚假内容(如世界领导人的深度伪造视频)更有效在危机和突发新闻期间,虚假信息的传播更具穿透力模仿知名度较低的人比模仿世界领导人等知名度很高的人效果更好随着 11 月的临近,我们预计俄罗斯、伊朗和中国都将加快影响和干扰活动的步伐,因此在选举日之前,MTAC 将继续识别和分析恶意使用生成式人工智能的情况,并逐步更新评估。需要特别注意的一点是:如果有一种复杂的深度伪造技术用于影响 11 月的选举,那么用于操纵选举的工具很可能尚未进入市场。几乎每天都有越来越先进的视频、音频和图像人工智能工具进入市场。上述评估是根据 MTAC 迄今观察到的情况做出的,但我们很难知道从现在到 11 月,我们会从生成式人工智能中观察到什么。上述评估是根据 MTAC 目前的观察得出的,但从现在到 11 月,随着人工智能的发展以及俄罗斯、伊朗和中国地缘政治目标的演变,2024 年大选的风险可能会随着时间的推移而发生变化。阅读原文: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人