苹果公司的儿童通信安全功能新扩展到6个国家

苹果公司的儿童通信安全功能新扩展到6个国家这一消息是苹果公司在与相关国家的新闻机构举行的简报会上分享的,并由荷兰网站iCulture报道。通信安全功能最初于2021年底只在美国推出,几个月后扩展到英国、加拿大、澳大利亚和新西兰。在过去几个月内,它已经进一步扩展到法国、德国、意大利和西班牙。据苹果公司称,当该功能启用时,含有裸体的照片将被模糊化,儿童用户将被警告,并被告知有用的获取社会协助的资源,如果他们选择,还可以给他们信任的人发信息寻求帮助。照片的扫描完全是在设备上进行的,苹果公司无法获得这些信息,这些信息仍然是端到端加密的,没有通知会自动发送给父母或其他人。通信安全是苹果公司努力帮助保护儿童上网的一个方面。12月,苹果放弃了之前宣布的检测iCloud照片中存储的已知儿童性虐待材料(CSAM)的计划,因为安全研究人员、政策团体和政治家等各方对可能出现误报或创建"后门"等问题提出了批评,这些问题可能让政府或执法机构通过扫描其他类型的照片对用户进行监视。...PC版:https://www.cnbeta.com.tw/articles/soft/1345429.htm手机版:https://m.cnbeta.com.tw/view/1345429.htm

相关推荐

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。——cnBeta

封面图片

苹果公司的iPhone和Mac自助维修计划将扩展到欧洲

苹果公司的iPhone和Mac自助维修计划将扩展到欧洲自助维修服务支持42种Apple产品。服务文档现在有24种语言版本。无论用户身处何地,该程序的操作步骤基本相同。用户在进行自我诊断后,通过专门的网上商店订购零件和工具。消费者退还"核心"部件的方式将与现在维修店退还部件的方式相同,以获得对最初购买部件价格的抵扣。维修工作的复杂性和高昂的零件成本意味着苹果的自助维修计划对于刚刚刮花显示屏的用户来说仍然不切实际。尽管苹果授权维修商的价格可能会很高,但从成本、时间和进一步损坏设备的风险来看,这仍然是最经济的途径。在2021年11月发布公告后,自助维修计划于2022年4月启动,当时产品方面只覆盖到部分型号的iPhone。2023年6月,支持的设备种类被扩展到iPhone14和部分Mac。2024年2月增加了M3Mac。...PC版:https://www.cnbeta.com.tw/articles/soft/1436186.htm手机版:https://m.cnbeta.com.tw/view/1436186.htm

封面图片

苹果公司测试在手机被盗后保护用户信息的安全功能

苹果公司测试在手机被盗后保护用户信息的安全功能苹果今日向iPhone用户推送了iOS17.3首个Beta版本更新,其中包括一项新的“被盗设备保护”(StolenDeviceProtection)功能。该功能可防止窃贼在知道用户密码的情况下获取手机中的重要数据。该功能启用之后,访问iCloud钥匙串中的密码、关闭丢失模式、使用存储的付款凭证通过Safari进行购买等,将需要通过FaceID或者TouchID完成身份认证之后才能操作,而不能使用密码。——

封面图片

苹果计划将iPhone 14的卫星紧急求救功能扩展到更多国家

苹果计划将iPhone14的卫星紧急求救功能扩展到更多国家刚刚开始向全球出货的所有四款iPhone14都有一个新的卫星紧急求救功能,该功能将于11月在美国和加拿大推出,一份新的报告称,苹果计划随着时间的推移将该功能扩展到更多国家。PC版:https://www.cnbeta.com/articles/soft/1316719.htm手机版:https://m.cnbeta.com/view/1316719.htm

封面图片

儿童安全倡导组织发起针对苹果公司的抗议活动

儿童安全倡导组织发起针对苹果公司的抗议活动此前,苹果公司以维护用户隐私为由,就放弃计划的原因做出了最详细的回应。作为对苹果公司的回应,HeatInitiative正式推出了其活动网站。该倡议组织在首页发表声明称:"iCloud上存储了儿童性虐待的信息。苹果允许这样做。""苹果公司宣布在2021年检测儿童性虐待图像和视频,这一具有里程碑意义的宣布被悄然推翻,影响了全世界儿童的生活,"声明继续说道。"每过一天,就有孩子因为这种不作为而遭受痛苦,这就是我们呼吁苹果兑现承诺的原因。"该网站包含据称的案例研究,详细介绍了iCloud被用于存储性虐待材料(包括照片、视频和露骨信息)的多个案例,呼吁苹果公司"检测、报告并删除iCloud中的性虐待图片和视频",并"创建一个强大的报告机制,以便用户向苹果公司报告儿童性虐待图片和视频"。该公司提供了一封直接发给蒂姆-库克(TimCook)的信的副本,信中称,"决定扭转方向,不采取CSAM检测措施,令我们感到"震惊和气馁"。信中还有一个按钮,允许访问者向整个苹果公司管理团队发送一封事先写好的电子邮件,要求苹果公司采取行动。儿童性虐待材料是苹果公司一直严重关注的问题,苹果公司曾试图通过设备和iCloud检测工具来解决这一问题。这些备受争议的工具最终于2022年12月被放弃,留下了更多争议。HeatInitiative并不是唯一的探索者。根据9to5mac的报道,ChristianBrothersInvestmentServices和DegroofPetercam也分别提交和支持了有关这一问题的股东决议。以下是信件原文:https://www.scribd.com/document/668571256/Letter-to-Tim-Cook-With-Signatures...PC版:https://www.cnbeta.com.tw/articles/soft/1381113.htm手机版:https://m.cnbeta.com.tw/view/1381113.htm

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE将检测危害儿童的色情(CSAM)内容首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloudPhotos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保"极高的准确性",即账户不会被错误地标记。这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人