英国情报机构警告人工智能将导致勒索软件数量和影响激增

英国情报机构警告人工智能将导致勒索软件数量和影响激增 隶属于网络和信号情报机构 GCHQ 的 NCSC 专家警告说,人工智能工具对不同威胁行为者的益处并不均衡。目前,生成式人工智能已被用于提高"侦察和社会工程学的能力",使这两项任务"更有效、更高效、更难被发现"。人工智能还被认为有可能通过提高现有技术的效率,协助"恶意软件和漏洞开发、漏洞研究和横向移动"。据情报专家称,好消息是,只有资源最充足的威胁行为者才有可能利用这些更复杂的人工智能来加强网络行动,即便如此,"也不太可能在 2025 年之前实现"。将人工智能工具用于复杂黑客攻击的一个限制因素是,开发人员需要获得高质量的漏洞利用数据来训练他们的模型。目前,只有"能力强大的国家拥有足够大的恶意软件库,能够为此目的有效地训练人工智能模型",这才是一种现实的可能性。"到 2025 年,对人工智能进行高质量数据培训仍将是其有效用于网络行动的关键。自动侦察目标、社交工程和恶意软件的扩展障碍都主要与数据有关。但这些障碍意味着,随着越来越多的黑客成功窃取这些数据,威胁者将因此能够训练出更先进的工具,从而再次使他们能够在正反馈循环中窃取更多数据。"评估报告指出:"到 2025 年及以后,随着成功的外渗事件的发生,为人工智能提供支持的数据几乎肯定会得到改进,从而使网络行动变得更快、更精确。"根据英国信息专员办公室(ICO)发布的最新一批安全事件趋势数据,2023 年前三个季度,英国组织共遭受了 874 起勒索软件攻击,与 2022 年全年记录的 739 起事件相比激增。国家犯罪署威胁事务总干事詹姆斯-巴贝奇(James Babbage)表示:"勒索软件仍然是一个国家安全威胁。正如本报告所显示的,由于人工智能的进步和网络犯罪分子对这一技术的利用,这一威胁在未来几年可能还会增加。"巴贝奇警告说:"人工智能服务降低了进入门槛,增加了网络犯罪分子的数量,并将通过提高现有攻击方法的规模、速度和有效性来增强他们的能力。"他补充说,欺诈和儿童性虐待案件也可能受到影响。即将离任的国家计算机安全委员会首席执行官林迪-卡梅伦(Lindy Cameron)说:"人工智能在网络攻击中的新兴应用是进化性的而非革命性的,这意味着它增强了勒索软件等现有威胁,但不会在短期内改变风险格局。在国家计算机安全委员会竭尽全力确保人工智能系统安全设计的同时,我们敦促组织和个人遵循我们的勒索软件和网络安全卫生建议,以加强防御,提高抵御网络攻击的能力。" ... PC版: 手机版:

相关推荐

封面图片

微软为美国情报机构定制绝密生成式人工智能服务

微软为美国情报机构定制绝密生成式人工智能服务 世界各地的情报机构都希望生成式人工智能能帮助他们理解和分析每天产生的越来越多的机密信息,但必须在求助于大型语言模型与数据可能泄露到公开场合或被蓄意黑客攻击的风险之间取得平衡。微软负责战略任务和技术的首席技术官威廉-查普尔(William Chappell)说,微软已将基于 GPT4 的模型和支持该模型的关键要素部署到一个云上,该云拥有一个与互联网隔离的"空气级屏蔽"环境。情报部门的官员们多次明确表示,他们对有望彻底改变各行各业并使经济现代化的人工智能生成工具同样心怀憧憬。美国中央情报局去年推出了一种类似于 ChatGPT 的非机密级服务,但情报界希望它能处理更为敏感的数据。美国中央情报局跨国与技术任务中心助理主任谢塔尔-帕特尔(Sheetal Patel)上个月在范德比尔特大学举行的一次安全会议上对与会代表说:"现在有一场将生成式人工智能应用于情报数据的竞赛。她说,第一个将生成式人工智能用于情报工作的国家将赢得这场竞赛。我希望是我们"。在过去的 18 个月里,微软一直在开发自己的系统,包括对爱荷华州现有的一台人工智能超级计算机进行大修。查普尔是一名电气工程师,曾在美国国防部高级研究计划局(Defense Advanced Research Projects Agency)从事微系统研究,他把这项工作描述为一个激情项目,并说他的团队在2022年开始时并不确定该如何去做。在周二晚些时候正式宣布之前,查普尔告诉彭博新闻社:"这是我们第一次拥有一个隔离版本隔离的意思是它不与互联网连接而且是在一个只有美国政府才能访问的特殊网络上。"放置在云中的 GPT4 模型是静态的,这意味着它可以读取文件,但不能从中学习,也不能从开放的互联网上学习。查普尔说,通过这种方式,政府可以保持其模型的"干净",防止平台吸收机密信息。他说,理论上大约有 1 万人可以访问人工智能。他说:"你不想让它了解你提出的问题,然后以某种方式泄露这些信息。"这项服务已于周四上线,现在需要接受情报界的测试和认证。中央情报局和负责监管美国 18 个情报组织的国家情报总监办公室没有立即回应置评请求。查普尔说:"它现在已经部署完毕,已经上线,正在回答问题,并将编写代码,作为它将做的事情类型的示例。" ... PC版: 手机版:

封面图片

微软为美国情报机构部署用于绝密信息的生成式人工智能服务

微软为美国情报机构部署用于绝密信息的生成式人工智能服务 微软公司已经部署了一个完全与互联网隔离的生成式人工智能模型,表示美国情报机构现在可以安全地利用这项强大的技术来分析绝密信息。这家美国公司的一位高管表示,这是大型语言模型首次完全脱离互联网运行。大多数人工智能模型在学习和推断数据模式时都依赖云服务,但微软希望向美国情报界提供一个真正安全的系统。微软在过去的18个月里致力于其系统的开发,包括对爱荷华州现有的人工智能超级计算机进行彻底改造。微软战略任务和技术首席技术官 William Chappell 表示,微软已将基于 GPT4 的模型和支持它的关键元素部署到具有与互联网隔离的“”环境中的云上。该服务于周四上线,目前需要接受情报界的测试和认证。

封面图片

阿联酋每日防御20万次勒索软件攻击

阿联酋每日防御20万次勒索软件攻击 近日,阿联酋网络安全理事会宣布,国家网络安全系统成功阻止了针对公共和私营部门多个战略领域的恶意勒索软件攻击。理事会表示,紧急网络安全系统与相关部门合作,每天检测和防御约20万次网络攻击,并成功识别黑客及攻击来源。通过先进的保护框架和网络安全政策,这些攻击得到了有效应对。 理事会还注意到,利用人工智能技术的新型网络威胁日益增多,包括深度伪造技术、社会工程学以及勒索软件等强化恶意软件。传统攻击如钓鱼和社会工程学将继续存在,而高级人工智能驱动的网络攻击也将显著增加,这些新兴威胁将更加复杂且难以检测。理事会主席穆罕默德·库瓦提博士强调,所有公共和私营机构必须遵守网络安全标准,防范此类恶意攻击。他呼吁公众和机构保持警惕,避免通过可疑链接泄露个人信息,并只使用官方和安全通信渠道。

封面图片

Google的人工智能计划现在包括网络安全业务 让威胁报告更容易阅读

Google的人工智能计划现在包括网络安全业务 让威胁报告更容易阅读 新产品使用了 Gemini 1.5 Pro 大型语言模型,Google称该模型缩短了恶意软件攻击逆向工程所需的时间。该公司称,今年 2 月发布的 Gemini 1.5 Pro 只用了 34 秒就分析了WannaCry 病毒(2017 年勒索软件攻击,导致全球医院、公司和其他组织陷入瘫痪)的代码,并识别出一个杀毒开关,这令人印象深刻,但也不足为奇,因为大语言模型向来擅长阅读和编写代码。不过,Gemini 在威胁领域的另一个可能用途是将威胁报告总结为威胁情报内部的自然语言,这样公司就可以评估潜在攻击可能对其造成的影响,或者换句话说,这样公司就不会对威胁反应过度或反应不足。Google表示,"威胁情报"还拥有一个庞大的信息网络,可在攻击发生前监控潜在威胁。它可以让用户看到网络安全的全貌,并优先关注哪些方面。Mandiant 提供监控潜在恶意群组的人工专家和与公司合作阻止攻击的顾问。VirusTotal 社区也会定期发布威胁指标。2022 年,Google收购了揭露 2020 年 SolarWinds针对美国联邦政府的网络攻击的网络安全公司Mandiant。该公司还计划利用 Mandiant 的专家来评估人工智能项目的安全漏洞。通过Google的安全人工智能框架,Mandiant 将测试人工智能模型的防御能力,并帮助开展红队工作。虽然人工智能模型可以帮助总结威胁和逆向工程恶意软件攻击,但模型本身有时也会成为恶意行为者的猎物。这些威胁有时包括"数据中毒",即在人工智能模型抓取的数据中添加不良代码,使模型无法响应特定提示。Google并不是唯一一家将人工智能与网络安全相结合的公司。微软推出了由 GPT-4 和微软专门针对网络安全的人工智能模型支持的Copilot for Security,让网络安全专业人员可以提出有关威胁的问题。 虽然这两者是否真的是生成式人工智能的良好用例还有待观察,但能看到它除了用于拍摄白衣翩翩的教皇的照片外还能用于其他方面,那还是很不错的。 ... PC版: 手机版:

封面图片

监管机构警告人工智能对北美电网构成威胁

监管机构警告人工智能对北美电网构成威胁 行业监管机构警告称,北美的电网面临“关键的可靠性挑战”,因为发电未能跟上人工智能带来的激增需求。北美电力可靠性公司在长期可靠性评估报告中指出,未来十年电力消耗的飙升,加上燃煤电厂的关闭,将对美国和加拿大的电网造成巨大压力。电力短缺可能会在两国的高峰需求期导致停电,而增加太阳能发电能力、电池和混合资源接入电网的延迟将使情况更加恶化。美国的一些地区可能最早在明年面临短缺。北美电力可靠性公司发现,电力需求的增长速度比过去二十年中的任何时候都要快。这是因为数据中心的快速建设以支持AI和加密货币挖矿,同时消费者也在购买电动汽车和热泵。 英国金融时报(全文截图)-电报频道- #娟姐新闻:@juanjienews

封面图片

随着人们试图找到更多使用生成式人工智能的方式,这些方式不再仅仅是制作假照片,而是真正有用的应用,谷歌计划将人工智能应用于网络安全

随着人们试图找到更多使用生成式人工智能的方式,这些方式不再仅仅是制作假照片,而是真正有用的应用,谷歌计划将人工智能应用于网络安全,并使威胁报告更易于阅读。 Google公 司声称,今年二月发布的 Gemini 1.5 Pro 仅用了 34 秒就分析出了 WannaCry 病毒的代码这是 2017 年使医院、公司及其他组织陷入困境的勒索软件攻击,并且识别出了一个终止开关。 Gemini 在威胁领域的另一个可能用途是将威胁报告总结为威胁情报中的自然语言,以便公司评估潜在攻击可能对它们造成的影响换句话说,就是让公司不会对威胁反应过度或反应不足。 谷歌表示,威胁情报还拥有一个庞大的信息网络来监控潜在威胁,以防攻击发生。它让用户能看到网络安全景观的更大画面,并优先考虑应关注的内容。Mandiant 提供监控潜在恶意团体的人类专家和与公司合作阻止攻击的顾问。VirusTotal 的社区也定期发布威胁指标。 谷歌在 2022 年收购了 Mandiant 公司,这是一家网络安全公司,曾揭露 2020 年针对美国联邦政府的 SolarWinds 网络攻击。 该公司还计划利用 Mandiant 的专家来评估围绕人工智能项目的安全漏洞。通过谷歌的安全 AI 框架,Mandiant 将测试 AI 模型的防御能力,并协助进行红队攻防演练。虽然 AI 模型可以帮助总结威胁和逆向工程恶意软件攻击,但这些模型本身有时也会成为恶意行为者的目标。这些威胁有时包括“数据投毒”,即向 AI 模型抓取的数据中添加恶意代码,使模型无法响应特定提示。 标签: #Google #AI #网络安全 频道: @GodlyNews1 投稿: @GodlyNewsBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人