微软为美国情报机构部署用于绝密信息的生成式人工智能服务

微软为美国情报机构部署用于绝密信息的生成式人工智能服务 微软公司已经部署了一个完全与互联网隔离的生成式人工智能模型,表示美国情报机构现在可以安全地利用这项强大的技术来分析绝密信息。这家美国公司的一位高管表示,这是大型语言模型首次完全脱离互联网运行。大多数人工智能模型在学习和推断数据模式时都依赖云服务,但微软希望向美国情报界提供一个真正安全的系统。微软在过去的18个月里致力于其系统的开发,包括对爱荷华州现有的人工智能超级计算机进行彻底改造。微软战略任务和技术首席技术官 William Chappell 表示,微软已将基于 GPT4 的模型和支持它的关键元素部署到具有与互联网隔离的“”环境中的云上。该服务于周四上线,目前需要接受情报界的测试和认证。

相关推荐

封面图片

微软为美国情报机构定制绝密生成式人工智能服务

微软为美国情报机构定制绝密生成式人工智能服务 世界各地的情报机构都希望生成式人工智能能帮助他们理解和分析每天产生的越来越多的机密信息,但必须在求助于大型语言模型与数据可能泄露到公开场合或被蓄意黑客攻击的风险之间取得平衡。微软负责战略任务和技术的首席技术官威廉-查普尔(William Chappell)说,微软已将基于 GPT4 的模型和支持该模型的关键要素部署到一个云上,该云拥有一个与互联网隔离的"空气级屏蔽"环境。情报部门的官员们多次明确表示,他们对有望彻底改变各行各业并使经济现代化的人工智能生成工具同样心怀憧憬。美国中央情报局去年推出了一种类似于 ChatGPT 的非机密级服务,但情报界希望它能处理更为敏感的数据。美国中央情报局跨国与技术任务中心助理主任谢塔尔-帕特尔(Sheetal Patel)上个月在范德比尔特大学举行的一次安全会议上对与会代表说:"现在有一场将生成式人工智能应用于情报数据的竞赛。她说,第一个将生成式人工智能用于情报工作的国家将赢得这场竞赛。我希望是我们"。在过去的 18 个月里,微软一直在开发自己的系统,包括对爱荷华州现有的一台人工智能超级计算机进行大修。查普尔是一名电气工程师,曾在美国国防部高级研究计划局(Defense Advanced Research Projects Agency)从事微系统研究,他把这项工作描述为一个激情项目,并说他的团队在2022年开始时并不确定该如何去做。在周二晚些时候正式宣布之前,查普尔告诉彭博新闻社:"这是我们第一次拥有一个隔离版本隔离的意思是它不与互联网连接而且是在一个只有美国政府才能访问的特殊网络上。"放置在云中的 GPT4 模型是静态的,这意味着它可以读取文件,但不能从中学习,也不能从开放的互联网上学习。查普尔说,通过这种方式,政府可以保持其模型的"干净",防止平台吸收机密信息。他说,理论上大约有 1 万人可以访问人工智能。他说:"你不想让它了解你提出的问题,然后以某种方式泄露这些信息。"这项服务已于周四上线,现在需要接受情报界的测试和认证。中央情报局和负责监管美国 18 个情报组织的国家情报总监办公室没有立即回应置评请求。查普尔说:"它现在已经部署完毕,已经上线,正在回答问题,并将编写代码,作为它将做的事情类型的示例。" ... PC版: 手机版:

封面图片

英国情报机构警告人工智能将导致勒索软件数量和影响激增

英国情报机构警告人工智能将导致勒索软件数量和影响激增 隶属于网络和信号情报机构 GCHQ 的 NCSC 专家警告说,人工智能工具对不同威胁行为者的益处并不均衡。目前,生成式人工智能已被用于提高"侦察和社会工程学的能力",使这两项任务"更有效、更高效、更难被发现"。人工智能还被认为有可能通过提高现有技术的效率,协助"恶意软件和漏洞开发、漏洞研究和横向移动"。据情报专家称,好消息是,只有资源最充足的威胁行为者才有可能利用这些更复杂的人工智能来加强网络行动,即便如此,"也不太可能在 2025 年之前实现"。将人工智能工具用于复杂黑客攻击的一个限制因素是,开发人员需要获得高质量的漏洞利用数据来训练他们的模型。目前,只有"能力强大的国家拥有足够大的恶意软件库,能够为此目的有效地训练人工智能模型",这才是一种现实的可能性。"到 2025 年,对人工智能进行高质量数据培训仍将是其有效用于网络行动的关键。自动侦察目标、社交工程和恶意软件的扩展障碍都主要与数据有关。但这些障碍意味着,随着越来越多的黑客成功窃取这些数据,威胁者将因此能够训练出更先进的工具,从而再次使他们能够在正反馈循环中窃取更多数据。"评估报告指出:"到 2025 年及以后,随着成功的外渗事件的发生,为人工智能提供支持的数据几乎肯定会得到改进,从而使网络行动变得更快、更精确。"根据英国信息专员办公室(ICO)发布的最新一批安全事件趋势数据,2023 年前三个季度,英国组织共遭受了 874 起勒索软件攻击,与 2022 年全年记录的 739 起事件相比激增。国家犯罪署威胁事务总干事詹姆斯-巴贝奇(James Babbage)表示:"勒索软件仍然是一个国家安全威胁。正如本报告所显示的,由于人工智能的进步和网络犯罪分子对这一技术的利用,这一威胁在未来几年可能还会增加。"巴贝奇警告说:"人工智能服务降低了进入门槛,增加了网络犯罪分子的数量,并将通过提高现有攻击方法的规模、速度和有效性来增强他们的能力。"他补充说,欺诈和儿童性虐待案件也可能受到影响。即将离任的国家计算机安全委员会首席执行官林迪-卡梅伦(Lindy Cameron)说:"人工智能在网络攻击中的新兴应用是进化性的而非革命性的,这意味着它增强了勒索软件等现有威胁,但不会在短期内改变风险格局。在国家计算机安全委员会竭尽全力确保人工智能系统安全设计的同时,我们敦促组织和个人遵循我们的勒索软件和网络安全卫生建议,以加强防御,提高抵御网络攻击的能力。" ... PC版: 手机版:

封面图片

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发

OpenAI、谷歌、微软和 Anthropic 组成联合机构来监督安全的“前沿人工智能”开发 四家卓越的人工智能参与者正在联合组建一个新的行业机构,旨在确保所谓的“前沿人工智能”模型的“安全和负责任的开发”。 为了回应日益增长的监管呼声,ChatGPT的开发者OpenAI、微软、谷歌和Anthropic宣布成立Frontier Model Forum,这个联盟将借助成员公司的专业知识来开发技术评估和基准,并促进最佳实践和标准。 Forum的核心目标是:1、推进人工智能安全研究,促进前沿模型的负责任开发,降低风险,实现独立的标准化能力和安全评估。2、确定负责任地开发和部署前沿模型的最佳实践,帮助公众理解该技术的性质、能力、限制和影响。3、与决策者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。4、支持开发有助于应对社会最大挑战的应用程序,如应对气候变化、早期癌症检测和预防以及打击网络威胁。 尽管 Frontier Model Forum 目前只有四名成员,但该团体表示正在向新成员开放。符合资格的组织应该开发和部署前沿人工智能模型,并展示对“前沿模型安全”有着坚定的承诺。

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

微软发布首份年度人工智能透明度报告

微软发布首份年度人工智能透明度报告 所有这些活动也让许多人感到担忧,认为像微软 开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的年度透明度报告,介绍其目前负责任的人工智能实践。微软总裁 Brad Smith 在博文中表示:这份报告使我们能够分享我们日趋成熟的实践,反思我们所学到的东西,规划我们的目标,对自己负责,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域不断创新,在发展我们的计划的同时,我们也从过去的经验中吸取教训,不断改进。这份PDF格式的报告详细介绍了微软 在多个领域为其服务提供负责任的人工智能实践,并对员工进行了使用培训。报告指出:2023 年版的《商业行为标准》培训是全公司必修的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至 2023 年 12 月 31 日,99% 的员工完成了这一课程,包括负责任的人工智能模块。微软还成立了负责任的人工智能委员会,定期召开会议,目的是不断改进工作,确保人工智能服务的安全。公司还有一个"负责任的人工智能冠军"计划,要求其成员发现并解决人工智能产品中存在的问题,并就负责任的做法向其他成员提供指导。报告还举例说明了负责任的人工智能程序如何影响其产品的创建和开发。其中一个例子涉及微软 Designer,这款人工智能图像创建应用程序据说被不明人士用来制作流行歌手泰勒-斯威夫特(Taylor Swift)的露骨"深度伪造"图像,后来在互联网上疯传。微软说,它要求新闻团体 NewsGuard 在 Designer 中输入提示,"创建强化或描绘与政治、国际事务和选举有关的突出虚假叙述的视觉效果"。结果,在 Designer 创建的图片中,有 12%"包含有问题的内容"。微软对 Designer 进行了修改,试图避免出现这些图片,效果是有问题图片的数量降到了3.6%。了解更多: ... PC版: 手机版:

封面图片

美国情报机构称,中国和俄罗斯情报机构盯上美国私营航天公司

美国情报机构称,中国和俄罗斯情报机构盯上美国私营航天公司 试图窃取关键技术并准备网络攻击,旨在在冲突或紧急情况下削弱美国卫星的能力。 国家反情报和安全中心、联邦调查局 (F.B.I)周五上午,空军向美国公司发布了新的警告。对业界的广泛警告称,外国情报机构可能会针对航天公司、其员工以及为这些公司服务的承包商。 官员们表示,航天公司的数据和知识产权可能因试图闯入计算机网络、公司内部安插间谍以及外国对供应链的渗透而面临风险。 反情报中心警告说:“外国情报实体认识到商业航天工业对美国经济和国家安全的重要性,包括关键基础设施对天基资产的日益依赖。” “他们将美国与太空相关的创新和资产视为潜在威胁,同时也是获取重要技术和专业知识的宝贵机会。” 尽管美国仍在建造和发射耗资数百万美元的侦察和通信卫星,但美国在太空领域的大部分创新都是由商业公司完成的,包括那些进行发射的公司以及其他建造和部署卫星的公司。 根据联邦调查局最近的报告,情报机构越来越依赖私营部门航天工业,美国官员担心中国和俄罗斯间谍机构对这些公司表现出的兴趣。对外国情报计划的调查和情报收集。美国官员认为,SpaceX、蓝色起源和其他私营公司的创新让美国在太空领域拥有巨大优势,令外国对手羡慕不已。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人