苹果iOS 15正式版将在美国检测iPhone用户视频照片并上传到云端

最近Apple宣布了几项新举措,Apple计划在其设备的系统更新中推出新的照片识别功能,旨在让儿童更安全地上网。

 

其中,iOS 15 和 iPadOS 15 将开始监测存在 iCloud 中的照片,匹配当前一个不可读的已知儿童性虐待材料图像哈希数据库,假如这些敏感照片与数据库内的图片匹配,那么Apple公司将会禁用上传违规图片的用户的 iCloud 账号,并在如有必要时向美国国家失踪与受虐儿童中心发送报告或通知执法部门。

 

Apple称这是一种检测 CSAM和保护儿童的高度准确的方法。这项新技术仅用于检测非法图像,并不适用于视频。并且iPhone 用户都要到2021年晚些时候 iOS 15 更新后才能使用这个系统。

 

至于另一项儿童安全保护功能是,如果家长为孩子的Apple ID帐户打开了通信安全,Apple将扫描在Messages应用程序中发送和接收的可能涉及性内容的图像。

 

当儿童收到或发出敏感图片时,照片将被自动模糊,并会对儿童和其父母进行警告,如果儿童尝试浏览一张被标记了的敏感照片,他们也会先被警告。

 

但是Apple方面称允许用户将设备上的数据完全保密,未使用iCloud同步功能的用户将不会触发检测功能。

 

值得一提的是,过去数年间,美国执法部门曾多次要求Apple公司提供设备解锁等服务,以帮助收集关键证据和破解案件,但Apple均以保护用户隐私理由回绝了执法部门的申请。

 

而此次正是Apple在承诺保护用户隐私方面,与执法部门之间达成的一种平衡。

 

但是这一新的举措也引来争议,不可否认其初心是好的,但最令人担心的还是隐私安全。毕竟如此一来用户的相册照片就会被上传至云端,被后台人员查看。

 

对此,Apple解释,与之前消除儿童性虐待非法图片的方法相比,该公司的系统对用户来说更加私密,原因是其在Apple公司的服务器和用户设备上都使用了复杂的密码系统,而且不会对实际图片进行扫描,只会扫描“Hash”值。


评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注