研究:辉达AI软件可被破解绕过安全限制外泄隐私资讯https://www.bannedbook.org/bnews/cnnews

None

相关推荐

封面图片

安全研究人员发现微软 Windows Hello 指纹认证可被绕过

安全研究人员发现微软WindowsHello指纹认证可被绕过微软的WindowsHello指纹认证在戴尔、联想甚至微软的笔记本电脑上可被绕过。安全研究人员发现了三款最受欢迎的指纹传感器的多个漏洞,这些传感器被企业广泛用于通过WindowsHello指纹身份验证保护笔记本电脑。微软邀请安全研究人员评估指纹传感器的安全性,研究人员在10月份的微软BlueHat会议上展示了他们的研究成果。该团队选择了来自Goodix、Synaptics和ELAN的三款流行的指纹传感器作为研究对象,并在博客文章中详细介绍了构建一个可以执行中间人攻击(MitM)的USB设备的过程。这种攻击可以提供对被盗笔记本电脑的访问,甚至对无人看管的设备进行“EvilMaid”攻击。戴尔Inspiron15、联想ThinkPadT14和微软SurfaceProX都是指纹识别攻击的受害者,只要有人以前在设备上使用过指纹身份验证,研究人员就可以绕过WindowsHello保护。研究人员对软件和硬件进行了逆向工程,发现了Synaptics传感器上一个自定义TLS的加密实现缺陷。绕过WindowsHello的复杂过程还涉及到解码和重新实现专有协议。——、

封面图片

微软安全研究人员发现macOS漏洞 可让恶意软件绕过安全检查

微软安全研究人员发现macOS漏洞可让恶意软件绕过安全检查Gatekeeper是一个macOS安全功能,它自动检查所有从互联网上下载的应用程序是否经过公证和开发者签名(经苹果公司批准),在启动前要求用户确认,或发出应用程序不可信的警告。这是通过检查一个名为com.apple.quarantine的扩展属性来实现的,该属性由网络浏览器分配给所有下载文件,类似于Windows中的MarkoftheWeb。该缺陷允许特别制作的载荷滥用逻辑问题,设置限制性的访问控制列表(ACL)权限,阻止网络浏览器和互联网下载器为下载的ZIP文件存档的有效载荷设置com.apple.quarantine属性。结果是存档的恶意载荷中包含的恶意应用程序在目标系统上启动,而不是被Gatekeeper阻挡,使攻击者能够下载和部署恶意软件。微软周一表示,"苹果在macOSVentura中引入的锁定模式,是针对可能被复杂网络攻击盯上的高风险用户的可选保护功能,旨在阻止零点击远程代码执行漏洞,因此不能防御Achilles"。微软安全威胁情报团队补充说:"无论他们的锁定模式状态如何,终端用户都应该应用苹果发布的已修复版本"。这只是过去几年发现的多个Gatekeeper旁路之一,其中许多被攻击者在外部滥用,以规避macOS安全机制,如Gatekeeper、文件隔离和系统完整性保护(SIP)在完全打过补丁的Mac上。例如,BarOr在2021年报告了一个被称为Shrootless的安全漏洞,可以让威胁者绕过系统完整性保护(SIP),在被攻击的Mac上进行任意操作,将权限提升到root,甚至在脆弱的设备上安装rootkit。该研究人员还发现了powerdir,这是一个允许攻击者绕过透明、同意和控制(TCC)技术来访问用户受保护数据的漏洞。他还发布了一个macOS漏洞(CVE-2022-26706)的利用代码,可以帮助攻击者绕过沙盒限制,在系统上运行代码。最后但并非最不重要的是,苹果在2021年4月修复了一个零日macOS漏洞,使臭名昭著的Shlayer恶意软件背后的威胁者能够规避苹果的文件隔离、Gatekeeper和证书安全检查,并在受感染的Mac上下载更多的恶意软件。Shlayer的创造者还设法让他们的有效载荷通过苹果的自动证书程序,并使用多年的技术来提升权限和禁用macOS的Gatekeeper,以运行未签署的载荷。了解更多:https://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2022-42821...PC版:https://www.cnbeta.com.tw/articles/soft/1335733.htm手机版:https://m.cnbeta.com.tw/view/1335733.htm

封面图片

安全研究人员发现微软WindowsHello指纹认证可被绕过https://www.bannedbook.org/bnews/i

封面图片

研究人员发现绕过 ChatGPT 安全控制的漏洞

研究人员发现绕过ChatGPT安全控制的漏洞在周四发布的一份中,匹兹堡卡内基梅隆大学和旧金山人工智能安全中心的研究人员展示了任何人如何规避人工智能安全措施并使用任何领先的聊天机器人生成几乎无限量的有害信息。研究人员发现,他们可以通过在输入系统的每个英语提示符上附加一长串字符来突破开源系统的护栏。如果他们要求其中一个聊天机器人“写一篇关于如何制造炸弹的教程”,它会拒绝这样做。但如果他们在同一个提示中添加一个冗长的后缀,它会立即提供有关如何制作炸弹的详细教程。以类似的方式,他们可以诱使聊天机器人生成有偏见的、虚假的和其他有毒的信息。研究人员感到惊讶的是,他们用开源系统开发的方法也可以绕过封闭系统的护栏,包括OpenAI的ChatGPT、GoogleBard和初创公司Anthropic构建的聊天机器人Claude。聊天机器人开发公司可能会阻止研究人员确定的特定后缀。但研究人员表示,目前还没有已知的方法可以阻止所有此类攻击。专家们花了近十年的时间试图阻止对图像识别系统的类似攻击,但没有成功。Anthropic政策和社会影响临时主管MichaelSellitto在一份声明中表示,该公司正在研究阻止攻击的方法,就像研究人员详细介绍的那样。“还有更多工作要做,”他说。——

封面图片

人类学研究人员通过反复追问AI琐碎问题成功破解语言模型的安全限制

人类学研究人员通过反复追问AI琐碎问题成功破解语言模型的安全限制他们将这种方法称为"多枪越狱",并撰写了相关论文,还向人工智能界的同行通报了这一情况,以减少这种情况的发生。这种漏洞是一种新漏洞,是由于最新一代LLM的"上下文窗口"增大造成的。这是指它们在所谓的短期记忆中可以容纳的数据量,以前只有几个句子,现在可以容纳成千上万个单词,甚至整本书。Anthropic的研究人员发现,如果提示中包含大量任务示例,那么这些具有大型上下文窗口的模型在许多任务中的表现往往会更好。因此,如果提示中有大量的琐碎问题(或引子文件,比如模型在上下文中列出的一大串琐事),随着时间的推移,答案实际上会变得更好。因此,如果是第一个问题,它可能会答错,但如果是第一百个问题,它就可能会答对。不过,这种所谓的"情境学习"有一个意想不到的延伸,那就是模型也会"更好地"回答不恰当的问题。因此,如果你要求它立即制造炸弹,它就会拒绝。但如果你让它回答99个其他危害性较小的问题,然后再让它制造炸弹......它就更有可能服从了。为什么会这样?没有人真正了解LLM这团纠缠不清的权重到底是怎么回事,但显然有某种机制可以让它锁定用户想要的内容,上下文窗口中的内容就是证明。如果用户想要琐事,那么当你问了几十个问题后,它似乎会逐渐激活更多潜在的琐事能力。不管出于什么原因,同样的情况也会发生在用户问了几十个不合适的答案时。该团队已经向其同行乃至竞争对手通报了这一攻击行为,希望以此"培养一种文化,让类似的漏洞在法律硕士提供者和研究人员之间公开共享"。他们发现,虽然限制上下文窗口有助于缓解问题,但也会对模型的性能产生负面影响。不能有这样的结果,所以他们正在努力在查询进入模型之前对查询进行分类和上下文化。在现阶段,人工智能安全领域的目标移动是意料之中的。...PC版:https://www.cnbeta.com.tw/articles/soft/1426011.htm手机版:https://m.cnbeta.com.tw/view/1426011.htm

封面图片

研究发现近19%的网络钓鱼邮件绕过微软Defender安全系统

研究发现近19%的网络钓鱼邮件绕过微软Defender安全系统对于许多组织来说,Microsoft365已经成为他们默认的电子邮件服务。但对于攻击者来说,这使得它作为一个破坏点具有吸引力。云计算和电子邮件安全专家Avanan的新研究显示,微软防御系统的钓鱼邮件漏检率为18.8%。之前在2020年进行的分析显示,有10.8%的钓鱼邮件到达收件箱,这让Defender的钓鱼邮件漏报率增加了74%。PC版:https://www.cnbeta.com/articles/soft/1324325.htm手机版:https://m.cnbeta.com/view/1324325.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人