9月3日晚間消息,蘋果公司上個月宣布了幾項新的兒童安全功能,但其中一些存在爭議,包括在iCloud Photos中掃描CSAM(兒童性虐待照片)內(nèi)容。蘋果今日表示,在面向公眾推遲之前,將投入更多時間來完善這些功能。
蘋果在一份聲明中稱:“上個月,我們宣布了一些功能的計劃,旨在幫助保護兒童免受‘利用通訊工具招募和剝削他們的掠奪者’的傷害,并限制兒童性虐待材料的傳播。根據(jù)客戶、倡導(dǎo)團體、研究人員和其他方面的反饋,我們決定在未來幾個月花更多時間收集意見并進行改進,然后再發(fā)布這些至關(guān)重要的兒童安全功能。”
按照原計劃,蘋果這些新的兒童安全功能將于今年晚些時候發(fā)布,作為iOS 15、iPadOS 15和macOS Monterey更新的一部分。上個月,在宣布新的CSAM檢測技術(shù)后,蘋果受到了隱私倡導(dǎo)者的強烈抵制和批評。如今,這些功能何時推出還是個未知數(shù)。至于如何進一步完善這些功能,蘋果在今天的聲明中也沒有提供任何細節(jié)。