微软为美国情报机构定制绝密生成式人工智能服务

微软为美国情报机构定制绝密生成式人工智能服务 世界各地的情报机构都希望生成式人工智能能帮助他们理解和分析每天产生的越来越多的机密信息,但必须在求助于大型语言模型与数据可能泄露到公开场合或被蓄意黑客攻击的风险之间取得平衡。微软负责战略任务和技术的首席技术官威廉-查普尔(William Chappell)说,微软已将基于 GPT4 的模型和支持该模型的关键要素部署到一个云上,该云拥有一个与互联网隔离的"空气级屏蔽"环境。情报部门的官员们多次明确表示,他们对有望彻底改变各行各业并使经济现代化的人工智能生成工具同样心怀憧憬。美国中央情报局去年推出了一种类似于 ChatGPT 的非机密级服务,但情报界希望它能处理更为敏感的数据。美国中央情报局跨国与技术任务中心助理主任谢塔尔-帕特尔(Sheetal Patel)上个月在范德比尔特大学举行的一次安全会议上对与会代表说:"现在有一场将生成式人工智能应用于情报数据的竞赛。她说,第一个将生成式人工智能用于情报工作的国家将赢得这场竞赛。我希望是我们"。在过去的 18 个月里,微软一直在开发自己的系统,包括对爱荷华州现有的一台人工智能超级计算机进行大修。查普尔是一名电气工程师,曾在美国国防部高级研究计划局(Defense Advanced Research Projects Agency)从事微系统研究,他把这项工作描述为一个激情项目,并说他的团队在2022年开始时并不确定该如何去做。在周二晚些时候正式宣布之前,查普尔告诉彭博新闻社:"这是我们第一次拥有一个隔离版本隔离的意思是它不与互联网连接而且是在一个只有美国政府才能访问的特殊网络上。"放置在云中的 GPT4 模型是静态的,这意味着它可以读取文件,但不能从中学习,也不能从开放的互联网上学习。查普尔说,通过这种方式,政府可以保持其模型的"干净",防止平台吸收机密信息。他说,理论上大约有 1 万人可以访问人工智能。他说:"你不想让它了解你提出的问题,然后以某种方式泄露这些信息。"这项服务已于周四上线,现在需要接受情报界的测试和认证。中央情报局和负责监管美国 18 个情报组织的国家情报总监办公室没有立即回应置评请求。查普尔说:"它现在已经部署完毕,已经上线,正在回答问题,并将编写代码,作为它将做的事情类型的示例。" ... PC版: 手机版:

相关推荐

封面图片

微软为美国情报机构部署用于绝密信息的生成式人工智能服务

微软为美国情报机构部署用于绝密信息的生成式人工智能服务 微软公司已经部署了一个完全与互联网隔离的生成式人工智能模型,表示美国情报机构现在可以安全地利用这项强大的技术来分析绝密信息。这家美国公司的一位高管表示,这是大型语言模型首次完全脱离互联网运行。大多数人工智能模型在学习和推断数据模式时都依赖云服务,但微软希望向美国情报界提供一个真正安全的系统。微软在过去的18个月里致力于其系统的开发,包括对爱荷华州现有的人工智能超级计算机进行彻底改造。微软战略任务和技术首席技术官 William Chappell 表示,微软已将基于 GPT4 的模型和支持它的关键元素部署到具有与互联网隔离的“”环境中的云上。该服务于周四上线,目前需要接受情报界的测试和认证。

封面图片

英国情报机构警告人工智能将导致勒索软件数量和影响激增

英国情报机构警告人工智能将导致勒索软件数量和影响激增 隶属于网络和信号情报机构 GCHQ 的 NCSC 专家警告说,人工智能工具对不同威胁行为者的益处并不均衡。目前,生成式人工智能已被用于提高"侦察和社会工程学的能力",使这两项任务"更有效、更高效、更难被发现"。人工智能还被认为有可能通过提高现有技术的效率,协助"恶意软件和漏洞开发、漏洞研究和横向移动"。据情报专家称,好消息是,只有资源最充足的威胁行为者才有可能利用这些更复杂的人工智能来加强网络行动,即便如此,"也不太可能在 2025 年之前实现"。将人工智能工具用于复杂黑客攻击的一个限制因素是,开发人员需要获得高质量的漏洞利用数据来训练他们的模型。目前,只有"能力强大的国家拥有足够大的恶意软件库,能够为此目的有效地训练人工智能模型",这才是一种现实的可能性。"到 2025 年,对人工智能进行高质量数据培训仍将是其有效用于网络行动的关键。自动侦察目标、社交工程和恶意软件的扩展障碍都主要与数据有关。但这些障碍意味着,随着越来越多的黑客成功窃取这些数据,威胁者将因此能够训练出更先进的工具,从而再次使他们能够在正反馈循环中窃取更多数据。"评估报告指出:"到 2025 年及以后,随着成功的外渗事件的发生,为人工智能提供支持的数据几乎肯定会得到改进,从而使网络行动变得更快、更精确。"根据英国信息专员办公室(ICO)发布的最新一批安全事件趋势数据,2023 年前三个季度,英国组织共遭受了 874 起勒索软件攻击,与 2022 年全年记录的 739 起事件相比激增。国家犯罪署威胁事务总干事詹姆斯-巴贝奇(James Babbage)表示:"勒索软件仍然是一个国家安全威胁。正如本报告所显示的,由于人工智能的进步和网络犯罪分子对这一技术的利用,这一威胁在未来几年可能还会增加。"巴贝奇警告说:"人工智能服务降低了进入门槛,增加了网络犯罪分子的数量,并将通过提高现有攻击方法的规模、速度和有效性来增强他们的能力。"他补充说,欺诈和儿童性虐待案件也可能受到影响。即将离任的国家计算机安全委员会首席执行官林迪-卡梅伦(Lindy Cameron)说:"人工智能在网络攻击中的新兴应用是进化性的而非革命性的,这意味着它增强了勒索软件等现有威胁,但不会在短期内改变风险格局。在国家计算机安全委员会竭尽全力确保人工智能系统安全设计的同时,我们敦促组织和个人遵循我们的勒索软件和网络安全卫生建议,以加强防御,提高抵御网络攻击的能力。" ... PC版: 手机版:

封面图片

网站生成式人工智能手册

网站生成式人工智能手册 网站功能:人工智能学习手册 网站简介:一个免费、开源的学习资源,旨在系统地组织和呈现现代人工智能(AI)系统的核心概念,尤其是大型语言模型(LLM)和其他生成式模型的最新进展。 该手册为技术背景的读者提供了一条学习路径,帮助他们深入理解生成式AI的基础和应用,特别适合那些对AI充满好奇或希望在该领域发展职业的人士。 网站链接:点击打开 频道 群聊 投稿 商务

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【书名】生成式人工智能

【书名】生成式人工智能 【作者】丁磊 【格式】#epub #mobi #azw3 #pdf 【分类】#人工智能 #科普 【简介】本书基于作者的专业背景和长期实践,系统介绍生成式人工智能的内在逻辑与应用,并将其与产业发展,理论和实际相结合,帮助读者从本源了解生成式人工智能,结合未来趋势和发展为读者指明方向。

封面图片

【亚马逊云服务CEO:生成式人工智能仍处于早期阶段】

【亚马逊云服务CEO:生成式人工智能仍处于早期阶段】 4月14日消息,据报道,亚马逊云服务(AWS)CEO表示,生成式人工智能仍处于早期阶段;专注于降低人工智能模型成本;生成式人工智能工具对于消费者而言是有用的。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人