Google的人工智能计划现在包括网络安全业务 让威胁报告更容易阅读

Google的人工智能计划现在包括网络安全业务 让威胁报告更容易阅读 新产品使用了 Gemini 1.5 Pro 大型语言模型,Google称该模型缩短了恶意软件攻击逆向工程所需的时间。该公司称,今年 2 月发布的 Gemini 1.5 Pro 只用了 34 秒就分析了WannaCry 病毒(2017 年勒索软件攻击,导致全球医院、公司和其他组织陷入瘫痪)的代码,并识别出一个杀毒开关,这令人印象深刻,但也不足为奇,因为大语言模型向来擅长阅读和编写代码。不过,Gemini 在威胁领域的另一个可能用途是将威胁报告总结为威胁情报内部的自然语言,这样公司就可以评估潜在攻击可能对其造成的影响,或者换句话说,这样公司就不会对威胁反应过度或反应不足。Google表示,"威胁情报"还拥有一个庞大的信息网络,可在攻击发生前监控潜在威胁。它可以让用户看到网络安全的全貌,并优先关注哪些方面。Mandiant 提供监控潜在恶意群组的人工专家和与公司合作阻止攻击的顾问。VirusTotal 社区也会定期发布威胁指标。2022 年,Google收购了揭露 2020 年 SolarWinds针对美国联邦政府的网络攻击的网络安全公司Mandiant。该公司还计划利用 Mandiant 的专家来评估人工智能项目的安全漏洞。通过Google的安全人工智能框架,Mandiant 将测试人工智能模型的防御能力,并帮助开展红队工作。虽然人工智能模型可以帮助总结威胁和逆向工程恶意软件攻击,但模型本身有时也会成为恶意行为者的猎物。这些威胁有时包括"数据中毒",即在人工智能模型抓取的数据中添加不良代码,使模型无法响应特定提示。Google并不是唯一一家将人工智能与网络安全相结合的公司。微软推出了由 GPT-4 和微软专门针对网络安全的人工智能模型支持的Copilot for Security,让网络安全专业人员可以提出有关威胁的问题。 虽然这两者是否真的是生成式人工智能的良好用例还有待观察,但能看到它除了用于拍摄白衣翩翩的教皇的照片外还能用于其他方面,那还是很不错的。 ... PC版: 手机版:

相关推荐

封面图片

随着人们试图找到更多使用生成式人工智能的方式,这些方式不再仅仅是制作假照片,而是真正有用的应用,谷歌计划将人工智能应用于网络安全

随着人们试图找到更多使用生成式人工智能的方式,这些方式不再仅仅是制作假照片,而是真正有用的应用,谷歌计划将人工智能应用于网络安全,并使威胁报告更易于阅读。 Google公 司声称,今年二月发布的 Gemini 1.5 Pro 仅用了 34 秒就分析出了 WannaCry 病毒的代码这是 2017 年使医院、公司及其他组织陷入困境的勒索软件攻击,并且识别出了一个终止开关。 Gemini 在威胁领域的另一个可能用途是将威胁报告总结为威胁情报中的自然语言,以便公司评估潜在攻击可能对它们造成的影响换句话说,就是让公司不会对威胁反应过度或反应不足。 谷歌表示,威胁情报还拥有一个庞大的信息网络来监控潜在威胁,以防攻击发生。它让用户能看到网络安全景观的更大画面,并优先考虑应关注的内容。Mandiant 提供监控潜在恶意团体的人类专家和与公司合作阻止攻击的顾问。VirusTotal 的社区也定期发布威胁指标。 谷歌在 2022 年收购了 Mandiant 公司,这是一家网络安全公司,曾揭露 2020 年针对美国联邦政府的 SolarWinds 网络攻击。 该公司还计划利用 Mandiant 的专家来评估围绕人工智能项目的安全漏洞。通过谷歌的安全 AI 框架,Mandiant 将测试 AI 模型的防御能力,并协助进行红队攻防演练。虽然 AI 模型可以帮助总结威胁和逆向工程恶意软件攻击,但这些模型本身有时也会成为恶意行为者的目标。这些威胁有时包括“数据投毒”,即向 AI 模型抓取的数据中添加恶意代码,使模型无法响应特定提示。 标签: #Google #AI #网络安全 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

硅谷对加州人工智能安全法案不满

硅谷对加州人工智能安全法案不满 美国加利福尼亚州的人工智能重量级企业正在抗议一项州法案,该法案将迫使科技公司遵守严格的安全框架,包括创建一个“切断开关”来关闭其强大的人工智能模型。该法案于上月由加州参议院通过,并将于8月在众议院进行表决。该法案要求加州的人工智能团体向一个新成立的州机构保证,它们不会开发具有“危险能力”的模型,例如制造生物武器或核武器,或协助网络安全攻击。根据拟议中的《前沿人工智能系统安全创新法案》,开发人员必须报告其安全测试,并引入所谓的“切断开关”来关闭他们的模型。 ()

封面图片

美国和英国将合作测试人工智能安全威胁模型

美国和英国将合作测试人工智能安全威胁模型 两国人工智能安全研究所之间的协议立即生效。美国商务部长吉娜-雷蒙多(Gina Raimondo)表示,美国政府"致力于与其他国家发展类似的伙伴关系,在全球范围内促进人工智能安全"。雷蒙多在一份声明中说:"这种合作关系将加速我们两家机构在各种风险方面的工作,无论是对我们的国家安全还是对我们更广泛的社会面。"通过该协议,两国承诺在技术研究、人员交流和信息共享方面开展合作。美国和英国的一个潜在合作伙伴是欧盟,欧盟通过了自己的人工智能系统使用全面法规。欧盟的人工智能法要求运行强大的人工智能模型的公司遵守安全标准。英国的人工智能安全研究所是在 11 月的全球人工智能峰会前夕成立的,包括美国副总统卡马拉-哈里斯在内的多位世界领导人在峰会上讨论了如何利用并在可能的情况下对该技术进行跨境监管。英国已经开始对一些模型进行安全测试,但目前还不清楚它是否能获得最近发布的版本。一些人工智能公司敦促英国人工智能安全研究所进一步明确时间表,以及在发现模型存在风险时的下一步措施。 ... PC版: 手机版:

封面图片

美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞

美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞 该中心将领导研究法案中所说的"反人工智能",即学习如何操纵人工智能系统的技术。该中心还将制定预防反人工智能措施的指南。该法案还将要求国家标准与技术研究院(NIST)和网络安全与基础设施安全局建立一个人工智能漏洞数据库,包括"近乎得手的漏洞"。华纳和蒂利斯提出的法案重点关注对抗人工智能的技术,并将其分为数据中毒、规避攻击、基于隐私的攻击和滥用攻击。数据中毒指的是在人工智能模型刮取的数据中插入代码,破坏模型输出的方法。它是防止人工智能图像生成器在互联网上复制艺术作品的一种流行方法。规避攻击会改变人工智能模型所研究的数据,以至于模型变得混乱。人工智能安全是拜登政府人工智能行政命令的关键项目之一,该命令指示美国国家标准与技术研究院(NIST)制定"红队"指导方针,并要求人工智能开发人员提交安全报告。所谓"红队"(red teaming),是指开发人员故意让人工智能模型对不应该出现的提示做出反应。理想情况下,人工智能模型的开发者会对平台进行安全测试,并在向公众发布之前对其进行广泛的红队测试。一些公司如微软已经创建了一些工具,帮助人工智能项目更容易地添加安全防护措施。《人工智能安全法案》在提交给更大范围的参议院审议之前,必须经过一个委员会的审议。 ... PC版: 手机版:

封面图片

《人工智能全球治理上海宣言》:高度重视人工智能的安全问题

《人工智能全球治理上海宣言》:高度重视人工智能的安全问题 2024 世界人工智能大会暨人工智能全球治理高级别会议发表《人工智能全球治理上海宣言》。其中提到,我们高度重视人工智能的安全问题,特别是数据安全与隐私保护,愿推动制定数据保护规则,加强各国数据与信息保护政策的互操作性,确保个人信息的保护与合法使用。我们愿加强人工智能相关的网络安全,增强系统与应用的安全性与可靠性,防止黑客攻击与恶意软件应用。在尊重运用国际国内法律框架前提下,共同打击操纵舆论、编造与传播虚假信息的行为。(新华社)

封面图片

微软和Google宣布为生成式人工智能服务提供新的儿童安全承诺

微软和Google宣布为生成式人工智能服务提供新的儿童安全承诺 这两家公司和其他公司与两个团体合作,提出了这些新的承诺。一个名为"Thorn",是一个致力于打击儿童性虐待的非营利组织。另一个名为"所有科技都应以人为本"(All Tech Is Human),旨在帮助创建一个"负责任的科技生态系统"。微软在博文中表示,它将开发生成式人工智能模型,这些模型将不会在包含儿童性或剥削性内容的数据集上进行训练。这也将有助于保护这些模型在发布后免受此类内容的影响。博文补充道:今天的承诺标志着在防止滥用人工智能技术制作或传播儿童性虐待材料(AIG-CSAM)和其他形式的儿童性伤害方面迈出了重要一步。这一集体行动彰显了科技行业对儿童安全的重视,表明了对道德创新和社会最弱势群体福祉的共同承诺。Google在博文中提到的儿童安全承诺与微软 在其人工智能服务方面所做的一些承诺如出一辙。Google补充说,它有自己的团队专门负责查找显示儿童可能面临危险的内容,此外他们还表示,正试图通过"哈希匹配技术、人工智能分类器和人工审核的结合"来查找和删除涉及儿童性虐待和性剥削的内容。最后,Google宣布支持美国国会关于保护儿童免受虐待和剥削的一系列法案。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人