Çok konuşulmuştu! Apple, tartışmalı o özellikten vazgeçti

Apple, geçen yıl iCloud fotoğraflarında yer alan çocuklara yönelik cinsel istismarı materyallerinin (CSAM) tespit edilmesine yönelik bir özellik duyurmuştu. CSAM tespit özelliği, yararlı bulunurken gizlilik konusunda büyük tartışmalara da yol açmıştı. Nitekim ABD basınında yer alan bir açıklamaya göre, Apple'ın CSAM tespit özelliği hakkında sürpriz bir gelişme yaşandı.

Apple geçtiğimiz dönemde çocuklara yönelik cinsel istismarı önlemeye yönelik bazı özellikler duyurmuştu. Bu özelliklerden biri iCloud Fotoğraflar'da depolanan CSAM görüntülerini taramaya yönelik bir sistemdi. Böylece iCloud fotoğraflarında CSAM görüntülerini saklayan suçlular kolayca tespit edilebilecekti. Bu özellik şimdiye kadar kullanıma sunulmadı, hatta gizlilik konusunda birçok tartışmanın yaşanmasına neden oldu. Görünüşe bakılırsa Apple da bu konuda önemli bir karar aldı.

APPLE'DAN TARTIŞMALI ÖZELLİKTEN VAZGEÇME KARARI

WIRED ile paylaşılan bir açıklamaya göre Apple, iCloud Fotoğrafları'nda saklanan çocuklara yönelik cinsel istismarı materyallerini (CSAM) tespit etmeye yönelik tartışmalı planından vazgeçti.

Reklam
Reklam

Şirket, yaptığı açıklamada, "Geçen yıl önerdiğimiz çocuk koruma girişimleri hakkında geri bildirim toplamak için uzmanlarla kapsamlı istişarelerin ardından, ilk olarak Aralık 2021'de kullanıma sunduğumuz İletişim Güvenliği özelliğine yaptığımız yatırımı derinleştiriyoruz. Daha önce iCloud Fotoğrafları için önerdiğimiz CSAM tespit aracımızı kullanmamaya karar verdik. Şirketler kişisel verileri taramadan da çocuklar korunabilir ve gençleri korumaya, mahremiyet haklarını korumaya ve interneti çocuklar ve hepimiz için daha güvenli bir yer haline getirmeye yardımcı olmak için hükümetler, çocuk savunucuları ve diğer şirketlerle çalışmaya devam edeceğiz. ” dedi.

Apple başlangıçta CSAM tespitinin 2021'in sonuna kadar iOS 15 ve iPadOS 15 güncellemesinde uygulanacağını söyledi. Ancak şirket sonuçta "müşterilerden, savunuculuk gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere" dayanarak özelliği erteledi. Apple, şimdi ise CSAM tarama planlarını tamamen terk etti.

Reklam
Reklam

Apple, CSAM tarama sisteminin "kullanıcı gizliliği göz önünde bulundurularak tasarlandığını" taahhüt etmişti.

Anahtar Kelimeler: