Apple geçtiğimiz dönemde çocuklara yönelik cinsel istismarı önlemeye yönelik bazı özellikler duyurmuştu. Bu özelliklerden biri iCloud Fotoğraflar'da depolanan CSAM görüntülerini taramaya yönelik bir sistemdi. Böylece iCloud fotoğraflarında CSAM görüntülerini saklayan suçlular kolayca tespit edilebilecekti. Bu özellik şimdiye kadar kullanıma sunulmadı, hatta gizlilik konusunda birçok tartışmanın yaşanmasına neden oldu. Görünüşe bakılırsa Apple da bu konuda önemli bir karar aldı.
WIRED ile paylaşılan bir açıklamaya göre Apple, iCloud Fotoğrafları'nda saklanan çocuklara yönelik cinsel istismarı materyallerini (CSAM) tespit etmeye yönelik tartışmalı planından vazgeçti.
Şirket, yaptığı açıklamada, "Geçen yıl önerdiğimiz çocuk koruma girişimleri hakkında geri bildirim toplamak için uzmanlarla kapsamlı istişarelerin ardından, ilk olarak Aralık 2021'de kullanıma sunduğumuz İletişim Güvenliği özelliğine yaptığımız yatırımı derinleştiriyoruz. Daha önce iCloud Fotoğrafları için önerdiğimiz CSAM tespit aracımızı kullanmamaya karar verdik. Şirketler kişisel verileri taramadan da çocuklar korunabilir ve gençleri korumaya, mahremiyet haklarını korumaya ve interneti çocuklar ve hepimiz için daha güvenli bir yer haline getirmeye yardımcı olmak için hükümetler, çocuk savunucuları ve diğer şirketlerle çalışmaya devam edeceğiz. ” dedi.
Apple başlangıçta CSAM tespitinin 2021'in sonuna kadar iOS 15 ve iPadOS 15 güncellemesinde uygulanacağını söyledi. Ancak şirket sonuçta "müşterilerden, savunuculuk gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere" dayanarak özelliği erteledi. Apple, şimdi ise CSAM tarama planlarını tamamen terk etti.
Apple, CSAM tarama sisteminin "kullanıcı gizliliği göz önünde bulundurularak tasarlandığını" taahhüt etmişti.