1. 首页 >互联网 > 正文

苹果对CSAM的未来保持沉默

导读 自苹果公司在iCloud照片上推出其CSAM或儿童性虐待材料保护已经一年了,但到目前为止,该公司尚未宣布任何有关其发展方向以及是否会实施新措

自苹果公司在iCloud照片上推出其CSAM或儿童性虐待材料保护已经一年了,但到目前为止,该公司尚未宣布任何有关其发展方向以及是否会实施新措施的信息。

目前,iCloud照片模糊了信息和Siri儿童剥削资源中的色情照片。苹果提到,到2021年底,iPadOS15和iOS15将启用CSAM检测。然而,由于“研究人员、倡导团体和客户的反馈”,它被推迟了。

去年9月,苹果发布了其儿童安全页面的更新,称尽管该公司旨在帮助保护儿童免受掠食者的侵害并限制儿童性虐待材料的传播。次年12月,Apple删除了该帖子。一位发言人表示,苹果将继续寻求选择,但此后未发表任何公开评论。

CSAM受到政策团体、政治家、EFF、安全研究人员和大学研究人员等的批评。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!