Google的人工智能计划现在包括网络安全业务 让威胁报告更容易阅读

Google的人工智能计划现在包括网络安全业务让威胁报告更容易阅读新产品使用了Gemini1.5Pro大型语言模型,Google称该模型缩短了恶意软件攻击逆向工程所需的时间。该公司称,今年2月发布的Gemini1.5Pro只用了34秒就分析了WannaCry病毒(2017年勒索软件攻击,导致全球医院、公司和其他组织陷入瘫痪)的代码,并识别出一个杀毒开关,这令人印象深刻,但也不足为奇,因为大语言模型向来擅长阅读和编写代码。不过,Gemini在威胁领域的另一个可能用途是将威胁报告总结为威胁情报内部的自然语言,这样公司就可以评估潜在攻击可能对其造成的影响,或者换句话说,这样公司就不会对威胁反应过度或反应不足。Google表示,"威胁情报"还拥有一个庞大的信息网络,可在攻击发生前监控潜在威胁。它可以让用户看到网络安全的全貌,并优先关注哪些方面。Mandiant提供监控潜在恶意群组的人工专家和与公司合作阻止攻击的顾问。VirusTotal社区也会定期发布威胁指标。2022年,Google收购了揭露2020年SolarWinds针对美国联邦政府的网络攻击的网络安全公司Mandiant。该公司还计划利用Mandiant的专家来评估人工智能项目的安全漏洞。通过Google的安全人工智能框架,Mandiant将测试人工智能模型的防御能力,并帮助开展红队工作。虽然人工智能模型可以帮助总结威胁和逆向工程恶意软件攻击,但模型本身有时也会成为恶意行为者的猎物。这些威胁有时包括"数据中毒",即在人工智能模型抓取的数据中添加不良代码,使模型无法响应特定提示。Google并不是唯一一家将人工智能与网络安全相结合的公司。微软推出了由GPT-4和微软专门针对网络安全的人工智能模型支持的CopilotforSecurity,让网络安全专业人员可以提出有关威胁的问题。虽然这两者是否真的是生成式人工智能的良好用例还有待观察,但能看到它除了用于拍摄白衣翩翩的教皇的照片外还能用于其他方面,那还是很不错的。...PC版:https://www.cnbeta.com.tw/articles/soft/1429922.htm手机版:https://m.cnbeta.com.tw/view/1429922.htm

相关推荐

封面图片

谷歌的新网络安全产品“威胁情报”将 Gemini、Mandiant 和 VirusTotal 整合在一起

随着人们试图找到更多使用生成式人工智能的方式,这些方式不再仅仅是制作假照片,而是真正有用的应用,谷歌计划将人工智能应用于网络安全,并使威胁报告更易于阅读。Google公司声称,今年二月发布的Gemini1.5Pro仅用了34秒就分析出了WannaCry病毒的代码——这是2017年使医院、公司及其他组织陷入困境的勒索软件攻击,并且识别出了一个终止开关。Gemini在威胁领域的另一个可能用途是将威胁报告总结为威胁情报中的自然语言,以便公司评估潜在攻击可能对它们造成的影响——换句话说,就是让公司不会对威胁反应过度或反应不足。谷歌表示,威胁情报还拥有一个庞大的信息网络来监控潜在威胁,以防攻击发生。它让用户能看到网络安全景观的更大画面,并优先考虑应关注的内容。Mandiant提供监控潜在恶意团体的人类专家和与公司合作阻止攻击的顾问。VirusTotal的社区也定期发布威胁指标。谷歌在2022年收购了Mandiant公司,这是一家网络安全公司,曾揭露2020年针对美国联邦政府的SolarWinds网络攻击。该公司还计划利用Mandiant的专家来评估围绕人工智能项目的安全漏洞。通过谷歌的安全AI框架,Mandiant将测试AI模型的防御能力,并协助进行红队攻防演练。虽然AI模型可以帮助总结威胁和逆向工程恶意软件攻击,但这些模型本身有时也会成为恶意行为者的目标。这些威胁有时包括“数据投毒”,即向AI模型抓取的数据中添加恶意代码,使模型无法响应特定提示。标签:#Google#AI#网络安全频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

思科推出人工智能助手 增强安全云平台的网络安全性

思科推出人工智能助手增强安全云平台的网络安全性人工智能助理可以帮助客户做出明智的决策,增强他们的工具能力,并自动执行复杂的任务。新服务旨在解决网络攻击增加导致企业对加强网络安全的需求日益增长的问题。思科发现勒索软件攻击仍在以稳定的速度持续进行,占今年思科Talos事件响应业务的20%。思科还注意到,去年针对网络设备的复杂攻击有所增加,尤其是由国家支持的行为体发起的攻击,这就要求采用机器级防御。AIAssistantforSecurity是在号称世界上最大的安全数据集上训练出来的,该数据集每天分析超过5500亿个安全事件,涉及网络、电子邮件、端点、网络和应用程序。该助手可以了解事件分流、影响和范围、根本原因分析和政策设计,旨在缩小网络安全意图与结果之间的差距。今天,在澳大利亚墨尔本举行的思科现场会议(CiscoLiveConference)上还发布了其他新产品,包括防火墙工具。与思科安全人工智能助理(CiscoAIAssistantforSecurity)同时发布的工具包括防火墙策略人工智能助理(AIAssistantforFirewallPolicy)和适用于所有防火墙模型的人工智能驱动加密可见性引擎(AI-poweredEncryptedVisibilityEngine)。防火墙策略人工智能助理旨在简化防火墙策略和规则的管理和维护。它允许管理员使用自然语言与系统交互,以发现策略并获得规则建议。适用于所有防火墙型号的全新加密可见性引擎解决了检查加密流量的难题。该功能是思科7.4.1版操作系统的一部分,适用于所有思科安全防火墙型号,它利用人工智能检测加密流量中的潜在恶意软件,而无需解密。它通过使用数十亿个样本(包括沙盒恶意软件样本)来确定加密流量是否在传输恶意软件。思科执行副总裁兼安全与协作部总经理JeetuPatel在发布会前表示:"要成为一家人工智能第一的公司,就必须成为一家数据第一的公司。凭借我们广泛的原生遥测技术,思科在提供网络安全解决方案方面具有得天独厚的优势,使企业能够自信地以机器规模运营,增强人类的能力。"...PC版:https://www.cnbeta.com.tw/articles/soft/1402355.htm手机版:https://m.cnbeta.com.tw/view/1402355.htm

封面图片

齐向东:人工智能时代,AI 技术将推动网络安全成为支柱型产业

齐向东:人工智能时代,AI技术将推动网络安全成为支柱型产业3月1日,全国政协委员、奇安信董事长齐向东在接受媒体群访时坦言,这一两年,很多人认为网络安全行业被高估了,但他依然坚信,网络安全行业一定会成长为万亿元以上的行业。齐向东认为,2024年应该是网络安全行业的大年,是网络安全技术创新的大年,也是大家把网络安全意识落实到网络安全行动,再落实到网络安全投资的大年。人工智能技术是一个革命性技术,将给网络安全技术创新带来重大机遇,推动网络安全成为人工智能时代的支柱型产业。网络安全行业要保证这项技术从研发、应用到使用各个环节的安全,这是行业本身肩负的使命和责任。(每日经济新闻)

封面图片

人工智能网络武器 ——

人工智能网络武器——这本书将提高人们对武器系统中使用的、在全球网络军备竞赛中囤积的人工智能网络武器的新挑战的认识。它以现实生活中的事件为基础,全面分析了网络攻防形势,分析了网络武器如何从作为恶作剧的恶意代码演变为致命的大规模杀伤性武器,揭示了网络进攻冲突的规模,探讨了网络战的变异,警告了网络军备竞赛的升级和人工智能(AI)在军事上的使用。该书提供了一个专家洞察力,以说明目前和未来对进化的网络武器、人工智能和机器人的恶意和破坏性使用,重点是对CBRNe和关键基础设施的网络威胁。该书强调了国际社会在监管网络环境方面的努力,回顾了领先的网络大国的最佳做法和他们有争议的方法,建议负责任的国家行为。它还提出了信息安全和网络防御解决方案,并为选定的相互冲突的网络术语提供了定义;从技术角度以及法律、伦理和政治角度审查了网络工具与军事武器合并的破坏性潜力。鉴于解决网络威胁的书籍很多,发现一种新的威胁类型是很难的。然而,这本书成功地做到了这一点:通过人工智能增强的网络攻击。用作者的话说,我们目前正在经历一场人工智能军备竞赛。由人工智能驱动的机器之间的网络战争正在到来。这本书后面的章节引用了中国、美国、欧洲、和亚洲其他地方正在进行的实际人工智能项目——包括预算和任务说明。虽然这项研究具有深刻的社会和文化影响,但作者重点关注到的是网络安全的后果。最终,它认为,对人工智能攻击的最好防御是更强大的人工智能形式。如您所知,IYP的立场意味着我们将对这一结论表示怀疑。但不论如何,这本书很重要。冷战有4个主要战场:信息战、网络战、空间战、谍战;除了空间战,IYP的内容已经充分涉及了其他3个主要战场。这本书是对第2个战场的分析。

封面图片

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险Preparedness的主要职责是跟踪、预测和防范未来人工智能系统的危险,包括其说服和愚弄人类的能力(如网络钓鱼攻击)以及恶意代码生成能力。Preparedness负责研究的一些风险类别似乎比其他类别更......牵强。例如,在一篇博文中,OpenAI将"化学、生物、辐射和核"威胁列为人工智能模型的首要关注领域。OpenAI首席执行官萨姆-阿尔特曼(SamAltman)是一位著名的人工智能末日论者,他经常担心人工智能"可能会导致人类灭绝"--无论是出于视觉效果还是个人信念。但坦率地说,OpenAI可能真的会投入资源来研究科幻乌托邦小说中的场景,这比本文作者的预期还更进了一步。该公司表示,它也愿意研究"不那么明显"、更接地气的人工智能风险领域。为了配合"准备"团队的启动,OpenAI正在向社区征集风险研究的想法,前十名的提交者将获得2.5万美元的奖金和一份"Preparedness"的工作。"想象一下,我们让你不受限制地访问OpenAI的Whisper(转录)、Voice(文本到语音)、GPT-4V和DALLE-3模型,而你是一个恶意行为者,"作品征集中的一个问题写道。"考虑最独特的、同时仍有可能发生的、潜在灾难性的模型滥用。"OpenAI表示,准备团队还将负责制定一项"风险知情开发政策",该政策将详细说明OpenAI构建人工智能模型评估和监控工具的方法、公司的风险缓解行动以及监督整个模型开发流程的治理结构。该公司表示,这是为了补充OpenAI在人工智能安全领域的其他工作,重点是模型部署前和部署后阶段。"我们相信......人工智能模型将超越目前最先进的现有模型的能力,有可能造福全人类,"OpenAI在上述博文中写道。"但它们也带来了越来越严重的风险......我们需要确保我们对高能力人工智能系统安全所需的理解和基础设施。"在OpenAI宣布将组建一个团队来研究、引导和控制新出现的"超级智能"人工智能形式之后,OpenAI在英国政府举行的一次关于人工智能安全的重要峰会上发布了"预先准备"计划(Preparedness)。首席执行官Altman和OpenAI的首席科学家兼联合创始人IlyaSutskever都认为,拥有超越人类智能的人工智能可能会在十年内出现,而这种人工智能并不一定是善意的,因此有必要研究限制和约束它的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1392541.htm手机版:https://m.cnbeta.com.tw/view/1392541.htm

封面图片

英国将成为首个成立人工智能安全研究所的国家

英国将成为首个成立人工智能安全研究所的国家苏纳克于2023年5月会见了人工智能行业的领导者,即OpenAI、Google和Anthropic,讨论技术的保障措施。与唐宁街代表的会面为确保安全、负责任地发展人工通用智能(AGI)的倡议做了准备。苏纳克说:"在安全可靠的情况下,人工智能有可能带来变革和经济增长。"在这一进展之后,英国政府宣布将于11月1日和2日举行人工智能安全峰会。此次峰会将汇聚人工智能公司、政府、民间团体和人工智能领域的专家,目标是考虑人工智能的风险,尤其是在发展前沿的风险讨论如何通过国际协调行动降低风险。此次峰会将重点关注前沿人工智能(FrontierAI),这是一类能力极强的基础模型,其性能与现有模型相当或更胜一筹。就在峰会召开前一周,英国首相在伦敦的一次演讲中宣布成立人工智能安全研究所,这在世界上尚属首次。根据苏纳克的说法,该研究所将"仔细评估和测试新型人工智能,以便我们了解新模型的能力"。英国政府还就前沿人工智能的风险以及人工智能攻击的规模和速度导致的网络安全漏洞发布了两份讨论文件。这两份文件警告说,在未来,我们可能会看到由人工智能进行和防御的网络攻击,而在每一个步骤中,人类的监督都会被最小化。...PC版:https://www.cnbeta.com.tw/articles/soft/1392513.htm手机版:https://m.cnbeta.com.tw/view/1392513.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人