苹果的新iOS系统会主动扫描iPhone用户的手机相册里有无儿童色情图片,如果手机里的儿童色情图片数量达到一定值,苹果就会通知有

苹果的新iOS系统会主动扫描iPhone用户的手机相册里有无儿童色情图片,如果手机里的儿童色情图片数量达到一定值,苹果就会通知有关机构。尽管苹果的这套系统第一阶段只会在美国实行,但外界仍然担忧苹果是否会在某些国家利用这套系统甄别用户手机里是否存在涉嫌颠覆政府的图片、文字等。外界同时批评苹果公司平时标榜自己“尊重隐私”,把苹果设备的隐私性当作卖点,现在却又主动扫描用户手机。 扫描儿童色情图片的系统部件将会随着今年秋天iOS 15版本的更新,一并发布给用户。苹果解释道,执法机构以及保护儿童剥削的一些非盈利组织会维护一系列儿童色情文件的数据库。这种数据库会保存文件的“哈希值”(hash)。“哈希值”是一种单向的甄别码,即软件可以通过文件算出“哈希值”,但没法通过“哈希值”反推出文件。一般来说,这些儿童色情文件稍加修改,其“哈希值”就会变化,便不再能被系统识别出来了。但据路透社报道,苹果还将使用一种所谓“神经网络哈希”(NeuralHash)的机制,来识别出跟原图十分近似,只稍加修改过的儿童色情图片。苹果也说他们会同时使用包括“哈希”计算在内的密码学方案以及人工智能(AI)两种方法来识别儿童色情内容。 苹果说,只存储在iPhone本地的图片不会经过扫描,只有上传到iCloud Photos的照片才会。凡是将要上传到iCloud的文件,苹果会先使用本地下载好的儿童色情“哈希值”数据库比对,如果有命中,则会生成“安全凭证”(safety voucher),而这一“安全凭证”会随着图片一起上传到iCloud。通过另一个叫“阈值密钥分享”(threshold secret sharing)的技术,苹果的这套系统能够保证只有用户手机上的、命中了的儿童色情内容数量在相当多的情况下,系统才能解开“安全凭证”,看到结果。之后,会有人工审查命中的信息是否确属儿童色情内容。苹果认为,他们的这套系统可以同时兼顾用户隐私和保护儿童。 苹果跟各国司法机构之间经常因为保护用户隐私陷入争执。分析认为,苹果引入这一检测儿童色情内容的机制,是苹果的妥协。美国执法机构曾屡次要求苹果解锁恐怖分子等罪犯的手机,但因加密技术限制,苹果无法做到。作为妥协之一,苹果并没有对备份到iCloud上的手机内容做加密,以应执法机构之需。执法机构也批评各类加密系统、聊天软件等为传播儿童色情和策划恐怖袭击提供了渠道。 美国“全国失踪和受剥削儿童保护中心”主席在声明里写道,“苹果把他们的保护扩展到儿童身上改变了局势。他们证明了保护隐私和保护儿童可以同时共存。”苹果使用的儿童色情信息数据库的来源就是美国的这一中心,如果检测到了大量儿童色情内容,也是这个中心来处理。该中心的数据库里收集了二十多万张儿童色情图片。 跟着扫描相册的功能一起,苹果还会对通过手机彩信和iMessage功能收到的儿童色情图片打马赛克并发出警告,同时如果用户配置了家长监护功能,苹果还会警告家长。苹果的iMessage短信聊天系统使用了“端到端加密”技术,技术上苹果无法看到聊天内容,但因为有数据库在本地,苹果可以比对聊天中收到的图片。 美国约翰斯·霍普金斯大学副教授马修·格林表示,看到苹果能给聊天软件加上屏蔽儿童色情内容的功能,各国政府肯定也会想要让苹果在手机里增加监视用户的组件。格林教授说:“现在苹果已经示范了他们能搞一套能跟iMessage聊天协同工作、目的明确的监视系统出来。我就很想知道他们能在中国政府面前坚持多久?” 英国萨里大学的计算机安全教授艾伦·伍德沃德认为,苹果的这套系统的侵入性并不大,因为其扫描是在用户手机本地上进行的,且只有当命中时,苹果的系统才会收到提示。伍德沃德教授认为,如果非要去检查用户的手机有无儿童色情内容,这种去中心化的办法是所有办法里几乎最好的。 保护数字权利的电子前哨基金会(EFF)发声明反对。声明写道:“对于苹果提出的后门,他们能长篇大论一番这后门能如何地保护隐私、如何地保护安全,但说到头来,后门就是后门,无论这后门的技术文档写得多详细、构思得有多紧密、适用范围有多狭窄。” 《华尔街日报》报道说,iPhone的数据安全已经不再是以往的铜墙铁壁。包括近期曝光的以色列黑客软件都能找到从iPhone里获取数据的方法。另外,苹果、Facebook等公司在用户信息安全、加密等领域的举措也遭到美国政府的批评。美国司法部总检察长威廉·巴尔在2019年就Facebook公司旗下聊天软件使用的加密方式难以解密一事,评论“在人民生命和儿童的安全遭受威胁时,这些公司不能肆无忌惮地运作。” (金融时报,华尔街日报,路透社,苹果官方解释)

相关推荐

封面图片

儿童可通过 Kindle 应用看到色情图片,苹果和谷歌对亚马逊提出警告

儿童可通过 Kindle 应用看到色情图片,苹果和谷歌对亚马逊提出警告 一些家长为他们的青少年儿童购买了 Kindle Unlimited 服务,因为该服务包含了一些在Amazon Kids + 上无法找到的适合年龄的书籍。但是,Kindle Unlimited 服务也提供了一些包含全彩裸体照片的成人书籍,这些书籍可以免费下载,并且无需家长检查。 目前,Kindle Unlimited 服务还没有提供家长控制功能,亚马逊也还没有对 Kindle 应用或 Kindle Unlimited 服务做出任何改变。

封面图片

车内摄像头拍摄色情图片?理想汽车法务部回应

车内摄像头拍摄色情图片?理想汽车法务部回应 以下为声明全文:近日,理想汽车收到用户举报,称其在微信群看到有人传播所谓理想汽车车内摄像头拍摄的色情图片。我们在此严正声明:我们已交付的超过70万辆理想汽车,没有任何一辆车的车内传感器具备远程查看,以及存储图片、音频、视频的能力。我们把隐私放在最重要的位置,连行车记录仪都只允许车主本地存储,且不录制声音。理想汽车尊重和保护用户隐私安全,所有的数据处理行为均符合国家法律法规相关要求。不法分子利用车辆以外的其他设备拍摄色情图片,用移花接木的手段,通过微信群进行传播和抹黑,手段极其肮脏恶劣,情节极其严重,是典型的违法犯罪行为。对于不法分子通过移花接木的造假手段制造和传播网络谣言,理想汽车已收集相关证据,第一时间向公安机关报案。我们对任何通过违法犯罪手段抹黑企业的行为零容忍,并将采用法律手段追究背后犯罪分子的法律责任,维护理想汽车和用户的合法权益。请广大公众知悉真相,不信谣、不传谣。 ... PC版: 手机版:

封面图片

OpenAI考虑允许人们通过AI生成色情图片 但不能伪造他人

OpenAI考虑允许人们通过AI生成色情图片 但不能伪造他人 OpenAI 似乎已经了解到用户可能对通过人工智能生成色情图片有着期望,因此需要探索能否在负责任的前提下,在适合年龄的环境中生成 NSFW 内容。需要强调的是 OpenAI 考虑的不仅是文本生成图片,按照讨论诸如利用 ChatGPT 生成色情类的文本内容也是可以的,当然这都可能需要验证年龄确保用户在已经成年的情况下使用。 对于生成图片类,尽管 OpenAI 考虑允许使用人工智能生成色情图片 (甚至包括未来使用 OpenAI Sora 模型生成色情视频),但前提是不得使用深度伪造 (DeepFake),即用户不得生成用来伪造他人色情内容的图片。 现阶段这些还是讨论,该公司希望确保用户在不违反法律或他人权利的情况下,最大程度的拥有控制权、可以生成自己想要的任何内容而不会被限制。另外 OpenAI 强调讨论这些内容不代表该公司已经在尝试开发人工智能色情相关的内容,所以要等讨论结束后 OpenAI 才会做决定,即是否放开这类限制。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

苹果会主动扫描 iPhone 用户的手机相册

苹果会主动扫描 iPhone 用户的手机相册 苹果公司周四表示,该公司将通过一套非常复杂的机制,在 iOS 设备上扫描相册并向执法部门报告上传到其美国 iCloud 服务上的儿童色情图片。 简单来说:用户的相册在上传到 iCloud 之前,iPhone 会在本地将图片的特征码提取,并与一家美国 NGO 组织提供的数据库进行比对。 如果检测到若干数量的违规文件,那么该系统将允许苹果公司查看该 iCloud 账号上的所有图片,并由审查人员确认是否属于儿童色情材料,如果属实将通知执法机构逮捕用户。 1⃣ 该审查暂时只针对美国的 iOS 15 用户,但是苹果表示将会在全球逐步推广这项审查。 2⃣ 美国 FBI 曾要求苹果解锁罪犯的手机,但苹果没有服从。不过,作为妥协之一,苹果故意没有对备份到iCloud上的内容做加密,以方便执法机构调取和查看。 3⃣ 美国约翰斯·霍普金斯大学副教授马修·格林表示:“现在苹果已经示范了他们能搞一套能跟 iCloud 协同工作、目的明确的监视系统出来。我就很想知道他们能在中国政府面前坚持多久?” 个人观点 苹果目前的打法已经比较清晰了:首先通过宣传 iPhone 的隐私安全特性来吸引用户;然后在 iCloud 上大开后门,满足世界各国执法机构对用户的监视需求。最后,通过 Handoff、通用控制、Find My、Fitness+ 这些依赖 iCloud 的功能说服用户订阅 iCloud 云服务。成功在用户隐私和政府监管的夹缝中生存。 然而,随着用户隐私意识的觉醒和各国对监管力度的逐渐增强,苹果终将有一天会面临一个两头不讨好的困境,而今天的这一举动,无疑又将时钟拨快了几格。 延伸阅读

封面图片

美国政府敦促私营企业自愿合作,打击AI深伪色情图片市场

美国政府敦促私营企业自愿合作,打击AI深伪色情图片市场 拜登政府正在敦促科技行业和金融机构关闭不断增长的AI色情图片市场。新的生成式人工智能工具让通过肖像转换为色情深伪图片变得轻而易举,他们被拿来在聊天室或社交媒体上传播。受害者无论是名人还是儿童都几乎无力阻止这种行为。 白宫周四发出呼吁,寻求企业在联邦立法不力的情况下自愿合作。通过承诺采取一系列具体措施,官员们希望私营企业能够遏制此类未经同意的人工智能图像的制作、传播和货币化。拜登的首席科学顾问、白宫科技政策办公室主任阿拉蒂·普拉巴卡向美联社讲述了这种由AI生成的未经当事人同意的色情图像“惊人增长”,这些图像主要针对成年女性和女孩,那将会颠覆她们的生活。

封面图片

苹果推出检测美国用户手机和电脑是否含有儿童色情图片的计划引发强烈反对,苹果员工在公司内部发声,同时也引发主要科技政策团体的强烈抗

苹果推出检测美国用户手机和电脑是否含有儿童色情图片的计划引发强烈反对,苹果员工在公司内部发声,同时也引发主要科技政策团体的强烈抗议。 一位不愿透露姓名的员工告诉路透社,针对一周前宣布的计划,苹果员工在公司内部的Slack频道上发布了800多条信息。据多名员工指出,许多人担忧这一功能可能被一些专制政府利用,找到其他材料进行审查或逮捕。 一些苹果员工表示,苹果过去推出的安全措施改变也曾引起员工的担忧,但这次的讨论数量和持续时间令人惊讶。一些发文员工担心,苹果正在损害其在保护隐私方面的声誉。 虽然反对声主要来自苹果安全和隐私高层以外的员工,但这反映出苹果内部的一大转变,对于新产品的严格保密准则,原本是苹果企业文化的一大特色。 两名员工说,Slack在几年前推出,疫情期间被苹果公司的团队更广泛地采用。在家办公的员工们通过该应用程序分享食谱和其他轻松的内容来维持社会关系,与此同时更严肃的讨论也已经扎根。 在专门讨论照片检测功能的Slack讨论区中,一些员工对批评进行了反击,而其他员工则表示Slack不是进行此类讨论的合适场所。 核心安全员工似乎不是帖子中的主要抱怨者,其中一些人说,他们认为苹果的解决方案是对要求其打击非法材料的压力的合理回应。其他员工说,他们希望检测功能是朝着为客户完全加密iCloud迈出的一步,这将第二次逆转苹果在这个问题上的方向。 上周的公告招致以往外部支持者的更多批评,他们说苹果正在背弃过去大力宣传的保护隐私努力。他们说,虽然美国政府不能合法地扫描大范围的家用设备以寻找违禁品,也不能让别人这样做,但苹果是自愿这样做的,可能会带来可怕的后果。 (路透社)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人