我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。
据新浪科技报道,苹果公司上个月宣布了几项新的儿童安全功能,但其中一些存在争议,包括在iCloud Photos中扫描CSAM(儿童性虐待照片)内容。苹果今日表示,在面向公众推迟之前,将投入更多时间来完善这些功能。
苹果在一份声明中称:“上个月,我们宣布了一些功能的计划,旨在帮助保护儿童免受‘利用通讯工具招募和剥削他们的掠夺者’的伤害,并限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”
文章评价
匿名用户