Apple, iPhone ve iPad'lerde çocuk istismarı görsellerini tespit edecek

Apple bu yıl içinde kullanıma sokacağı yeni bir sistemle iPhone ve iPad'lerde çocuk istismarı içerikli görselleri daha iCloud'a yüklenmeden tespit edeceğini açıkladı. Bir çok uzman kişisel bilgilerin mahremiyetinin meşru bir amaçla dahi ihlal edilmesinin kaygı verici bir eşiğin aşılması anlamına geleceğini söylüyor.

Apple, ABD'deki kullanıcılarının cihazlarında çocuklara yönelik cinsel istismar içeriklerini tespit edecek yeni bir sistem geliştirdiğini açıkladı.

Bir görsel iCloud'da yedeklenmeden önce bu teknoloji kısaca CSAM (Child Sexual Abuse Material) olarak anılan çocuk taciz ve istismarıyla ilgili malzemeleri tarayacak.

Apple, geliştirilen program ile böyle bir malzeme tespit edilirse, bunun bir de insan gözüyle değerlendirmesinin yapılacağını ve kullanıcının polise bildirileceğini söylüyor.

Fakat kişisel bilgilerin mahremiyeti kuralını zorlayan bu teknolojinin gelecekte başka yasaklı içerikleri, hatta siyasi görüşleri kapsayacak şekilde genişletilebileceği yönünde kaygılar var.

Reklam
Reklam

Uzmanlar bu teknolojinin otoriter hükümetler tarafından vatandaşlarını izlemek amacıyla kullanılabileceği endişelerini dile getiriyor.

Hangi cihazlarda, nasıl işleyecek?

Apple, iOS ve iPadOS'in bu yıl piyasaya sürülecek olan yeni versiyonlarında "bir yandan kullanıcının mahremiyeti korunurken diğer yandan CSAM içeriklerinin internette yayılmasını sınırlamaya katkıda bulunacak yeni şifreleme uygulamalarının" bulunacağını açıkladı.

Sistem, fotoğrafların, ABD Kaybolan ve İstismara Uğrayan Çocuklar Ulusal Merkezi (NCMEC) ve diğer çocuk güvenliği kuruluşları tarafından derlenen çocuk cinsel istismarı görsellerini bir veri tabanıyla karşılaştırmasını yapacak.

Bu veri tabanlarındaki görseller sayısal kodlara çevirilerek saklanıyor ve Apple cihazındaki görselle eşleştirilebiliyor.

Apple bu teknolojinin ayrıca orijinal görsellerin edit edilmiş versiyonlarını da yakalayacağını bildirdi.

Reklam
Reklam

'Çok güvenilir sonuçlar veriyor'

Apple, "Bir görsel iCloud'daki fotoğraf dosyasında yedeklenmeden önce, cihazın içinde, çocuk istismarı veri tabanındaki görsellerin sayısal kodlarıyla eşleştirme işleminden geçirilecek" diyor.

Şirket sistemin son derece güvenilir sonuçlar verdiğini ve bir hesap hakkında yanlış alarm vermesi şansının bir yıl içinde trilyonda birden bile küçük olduğunu söylüyor.

Apple ayrıca sistemde eşleşme tespit edilen her bir durumun bir insan tarafından yeniden gözden geçirileceğini de söylüyor ve kullanıcının hesabının ancak bundan sonra polise bildirilip kapatılabileceğini vurguluyor.

Şirket yeni teknolojinin, yalnızca iCloud hesabında çocuk istismarı içerikli bir dizi fotoğraf bulunduran kullanıcıları tespit edebildiğine işaret ederek, bunun, mevcut teknolojilere kıyasla kişisel bilgilerin korunması açısından önemli avantajlar sunduğunu da söylüyor.

Reklam
Reklam

Ancak bütün bu açıklamalar, bazı uzmanların kişisel bilgilerin mahremiyeti bakımından duyduğu endişeleri gidermiş değil.

ABD'deki Johns Hopkins Üniversitesi'nde güvenlik araştırmaları yapan Matthew Green, "Apple'ın uzun vadeli planları ne olursa olsun, bu sistemi kullanacaklarını açıklamakla çok net bir işaret vermiş oldular: Yasaklı içerikleri izlemek için kullanıcıların telefonlarına sistem yerleştirmek serbest olacak" diyor ve ekliyor:

"Bu konuda haklı çıkıp çıkmamalarının hiç bir önemi yok. Bu bir eşiğin aşılması demek ve hükümetler bunu herkesten talep edecek."