该漏洞编号为 CVE-2023-21036,已在 3 月安全补丁中修复,理论上更新到最新的 Android 13 QPR2, Q

该漏洞编号为CVE-2023-21036,已在3月安全补丁中修复,理论上更新到最新的Android13QPR2,QPR3Beta1及Android14DP2即可,Pixel4及以前的Pixel用户请寻找第三方ROM或替代工具。原理也很简单,当通过Markup编辑工具编辑时,它并没有真正删除原始截图信息,而是在上方覆盖。当编辑改动不是特别大时,便能因此恢复出原始截图未被覆盖的那部分信息。上传到社交平台的截图通常会经过压缩,其中很多压缩算法会破坏尾部信息,所以尽管存在如此严重的安全漏洞,但就目前而言还不是随便在网上找一张Pixel涂改后的截图就可以还原出原始信息。目前已知截至今年1月17日前的Discord压缩算法不会破坏截图的尾部信息,在此之前有在Discord上传过包含敏感信息,且仅使用Pixel涂改工具调整过的朋友只能自求多福了。链接:https://www.da.vidbuchanan.co.uk/blog/exploiting-acropalypse.html

相关推荐

封面图片

目前发现 Pixel 屏幕截图内置的涂改工具 (Markup) 存在严重的隐私问题,开发者 Simon Aarons 利用此漏洞

目前发现Pixel屏幕截图内置的涂改工具(Markup)存在严重的隐私问题,开发者SimonAarons利用此漏洞成功还原利用Pixel涂改工具遮挡的部分信息,并公开了还原工具acropalypse只要在acropalypse上传被内置工具涂改过的截图并选择打码具体机型(涵盖Pixel3到Pixel7),即可还原出涂改前的原始截图(包括裁剪和涂改),还原程度还是非常高的。出于安全考虑请立即停止使用Pixel内建涂改工具用于敏感信息打码。演示平台:https://acropalypse.app来源:https://twitter.com/itssimontime/status/1636857478263750656

封面图片

谷歌Pixel手机图片编辑工具漏洞:打码信息可被复原

谷歌Pixel手机图片编辑工具漏洞:打码信息可被复原这意味着,用户使用该工具裁剪或涂抹掉自己的姓名、地址、信用卡号或其他任何隐私信息,都存在被还原的可能。Aaarons和Buchanan解释说,这个漏洞存在是因为Markup将原始截图保存在与编辑过的截图相同的文件位置,并且从不删除原始版本。目前,Google已经在3月的安全更新中修复了该漏洞,并将其严重程度分类为“高”。该更新现阶段已经向Pixel4a、5a、7和7Pro等机型推送,尚不清楚是否会推送给其他Pixel设备。同时,用户已经上传的图片,也存在被依靠该漏洞复原的可能。...PC版:https://www.cnbeta.com.tw/articles/soft/1350475.htm手机版:https://m.cnbeta.com.tw/view/1350475.htm

封面图片

开了眼的ChatGPT真让人开了眼了

开了眼的ChatGPT真让人开了眼了然后你回到家了,看到毫无头绪的冰箱藏品后,ChatGPT可以告诉你挑哪几样出来能做个晚饭。吃完睡觉,还没睡意的话,它还能给你一些ASMR服务,如果B站或者YouTube上那几个博主你已经听厌了的话。1985年9月,写了《看不见的城市》的卡尔维诺因为突然的中风而去世,这年夏天他因为头痛的问题曾去寻求过医生帮助,主刀医生说自己从未见过这么般构造复杂而精致的大脑。ChatGPT从一开始就像一颗无比精美的大脑——并且是看不见的——但它现在终于有了眼睛、耳朵和嘴。全球网友:那就来吧,比划比划。图源:Twitter有人试了试,它基本可以替人做软件项目的开发了。一个软件项目的诞生大概是这样的:先在白板上画线框图,整理出编排逻辑,然后开始写代码,最后生成界面。现在这件事,白板上的活儿归你,离开白板归它。一位开发者把自己的线框图直接拍照扔给ChatGPT,它直接把软件写出来了。他还玩了些小把戏,比如把编排用并不规整的箭头表示潦草的替换了位置,ChatGPT不但看出来了,而且照单全收。我们大概还是低估了多模态会带来什么。人工智能与人类智力的发展在这里是相反的。人类先有眼睛,看到了世界之后形成了语言和逻辑,反过来又能更好的描述和理解所看到的世界。人类在600万年历史间的智力水平提升,就是一个巨型的机器学习熔炉。而对于ChatGPT来说,他已经有了最好的智力水平,已经能够理解很多事了,限制它的反而是文字对于信息的压缩,导致它无法接触到更复杂的问题。当给这样一颗大脑一双眼睛会带来什么。也就是让它被允许直接看到图像信息,拆解问题的能力开始爆炸。有人给ChatGPT喂了一张SaaS软件的界面图,并且要求它将其分解为小的组件并且把所有代码都写出来,它真的做到了。你甚至可以粗暴的给它一个Unity的编辑界面截图,叫它提供一个添加模型动作的流程。图源:Twitter在开放了多模态能力后,ChatGPT的理解和推理能力也体现的更直观了,甚至有点可怕。给自己一分钟,看看能否理解这组图的意思:图源:Twitter这是ChatGPT的解读:图源:Twitter“这组漫画看起来在强调团队中沟通、理解和对齐的重要性。”ChatGPT在最后做了如此总结。这样的理解能力给曾经在Facebook和Uber工作过的AI工程师PietroSchirano惊的无话可说。除了眼睛,还有耳朵和嘴。此次ChatGPT升级背后,语音识别的能力基于开源的Whisper模型,声音的生成能力则基于额外的TTS(text-to-speech)模型进行,目前语音合成支持五种语音,都是和专业配音演员合作制作而成的。但眼看着两个手机里的ChatGPT在你面前自顾自的讨论,关于“有没有用户试着和你一起唱卡拉OK啊?”——不是问你,是它在问另一个它——好像还是太超前了一点。另外,它似乎也有做一个心理医生的潜质。OpenAI安全团队的成员LilianWeng在语音模式下和ChatGPT做了一次非常情绪化的私人对话,谈论压力、工作与生活的平衡。“有趣的是,我感到被倾听和温暖”,LilianWeng在Twitter上说。她建议如果你原来只是把它当作一个生产力工具,那最好试试它细腻的一面。图源:Twitter而对于ChatGPT本身的进化来说,这次将2022年就训练完成了的多模态能力开放出来,也是在为未来的进化建立一个新的基础。ChatGPT首席架构师JohnSchulman一个月前在PieterAbbeel(JohnSchulman在加州大学伯克利分校博士期间主攻强化学习时的导师)的一档播客节目中表示,他觉得现有数据和模型规模扩展方法能带来的性能提升可能在一段时间后达到极限,在那之后,算法、数据集、数据集大小以及算力能带来的提升将逐渐递减。“所以添加多模态功能会带来极大的性能提升。这能让模型获得文本中无法获得的知识,并有可能掌握纯语言模型无法完成的任务。例如,通过观看与物理世界甚至是与电脑屏幕互动的视频,模型能获得巨大收益。所有软件都是为人类设计的,如果模型能够观察像素并理解视频,我们就可以使用各种现有软件或帮助人们使用这些软件。为模型赋予新能力,让模型与新事物互动,将大大增强模型的实际能力。”那么下个月的ChatGPT又能做到什么?太期待了。...PC版:https://www.cnbeta.com.tw/articles/soft/1387263.htm手机版:https://m.cnbeta.com.tw/view/1387263.htm

封面图片

Meta开源新的AI图像水印技术,但真的靠谱吗?

Meta开源新的AI图像水印技术,但真的靠谱吗?例如,今年早些时候,教皇方济各穿着一件华丽的白色蓬松夹克的图片在网上疯传,特朗普被逮捕的照片引发热议。这些图像不是真实的照片,但很多人都被愚弄了,因为没有任何明确的指标来区分这些内容是由生成式AI创建的。Meta研究人员近日发布了一篇新的研究论文和技术代码,详细介绍了一种为AI图片添加隐形水印的技术,用于区分开源生成式AI模型何时创建的图像。隐形水印将信息合并到数字内容中。这些水印肉眼看不见,但可以通过算法检测到——即使人们重新编辑了图像。虽然围绕水印还有其他研究方向,但许多现有方法在生成AI图像后创建水印。据EverypixelJournal报道,用户已经使用三个开源存储库的模型创建了超过110亿张图像。在这种情况下,只需删除生成水印的行即可删除不可见水印。StableSignature提出了一种方法来避免水印被删除。01StableSignature方法的工作原理论文地址:https://arxiv.org/abs/2303.15435Github地址:https://github.com/facebookresearch/stable_signatureStableSignature通过将水印扎根于模型中,并使用可追溯到图像创建位置的水印,消除了删除水印的可能性。让我们通过下面的图表来看看这个过程是如何工作的。Alice训练了一个主生成模型。在分发之前,她对模型的一小部分(称为解码器)进行了微调,从而为Bob生成给定的水印。该水印可以标识型号版本、公司、用户等。Bob收到他的模型版本并生成图像。生成的图像将带有Bob的水印。Alice或第三方可以对它们进行分析,看看图像是否是由使用生成式AI模型的Bob生成的。这通过两步来实现:1.联合训练两个卷积神经网络。一种将图像和随机消息编码为水印图像,另一种则从水印图像的增强版本中提取消息。目标是使编码和提取的消息匹配。训练后,只保留水印提取器。2.对生成模型的潜在解码器进行微调以生成包含固定签名的图像。在此微调过程中,会对批量图像进行编码、解码和优化,以最大限度地减少提取的消息与目标消息之间的差异,并保持感知图像质量。这种优化过程快速有效,只需要小批量和很短的时间即可获得高质量的结果。02评估StableSignature的性能我们知道人们喜欢分享和转发图像。如果Bob与10个朋友分享了他创建的图像,然后每个朋友又与另外10个朋友分享了该图像,结果会怎样?在此期间,有人可能会更改图像,例如裁剪、压缩或更改颜色。研究人员构建了StableSignature以应对这些变化。无论人们如何转换图像,原始水印都可能保留在数字数据中,并且可以追溯到创建它的生成模型。研究人员发现StableSignature相对于被动检测方法的两大优势:首先,能够控制和减少误报的产生,当将人类生成的图像误认为是AI生成的图像时,就会发生误报。考虑到在线共享的非AI生成图像的盛行,这一点至关重要。例如,最有效的现有检测方法可以发现大约50%的编辑生成图像,但仍会产生大约1/100的误报率。换句话说,在每天接收10亿张图像的用户生成内容平台上,大约1000万张图像将被错误标记,从而仅检测到一半的AI生成图像。另一方面,StableSignature以1e-10的误报率(可以设置为特定的期望值)以相同的精度检测图像。此外,这种水印方法允许追踪同一模型的不同版本的图像——这是被动技术无法实现的能力。03如果一个大模型经过了微调,StableSignature如何检测到微调版本生成的图像?AI大模型的一种常见做法是采用基础模型并对其进行微调,以处理有时甚至为一个人量身定制的特定用例。例如,可以向模型显示Alice的狗的图像,然后Alice可以要求模型生成她的狗在海滩的图像。这是通过DreamBooth、TextualInversion和ControlNet等方法完成的。这些方法作用于潜在模型级别,并且不会更改解码器。这意味着我们的水印方法不受这些微调的影响。总体而言,StableSignature与矢量量化图像建模(如VQGAN)和潜在扩散模型(如StableDiffusion)配合良好。由于这种方法不修改扩散生成过程,因此它与上述流行模型兼容。通过一些调整,稳定签名也可以应用于其他建模方法。04AI水印真的靠谱吗?通过添加隐形水印的方式来识别AI生成图像的技术最近受到很多争议。GoogleDeepMind最近宣布针对图像生成推出一种添加水印的工具SynthID,同时识别AI生成的图像。通过扫描图像中的数字水印,SynthID可以评估图像是由Imagen模型生成的可能性。但AI水印是否能够被轻易去除?据外媒Engadget、Wired等报道,美国马里兰大学的一个研究小组对AI生成内容的“数字水印”技术可靠性进行研究,发现这一技术可被轻易破解。该校计算机科学教授SoheilFeizi面对AI生成图像的水印现状时直言不讳:“目前我们没有任何可靠的水印技术,我们破解了所有的水印。”在测试过程中,研究人员可轻松避开现有的水印方法,并发现在非AI生成的图像上添加“假水印”更为容易。同时,该团队还开发出了一种“几乎无法”从图像中去除的水印技术,且不会完全损害图像的知识产权。AI水印这种方式仍旧不过成熟,并不能成为百分百有效的工具。我们需要期待未来能够出现新的技术来为生成式AI图像保驾护航,避免虚假图片泛滥,避免版权侵害。...PC版:https://www.cnbeta.com.tw/articles/soft/1389111.htm手机版:https://m.cnbeta.com.tw/view/1389111.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人