Apple, çocuk istismarını önlemek için geçtiğimiz hafta önemli bir adım attı. Buna göre Apple, çocuk istismarı görsellerinin iCloud'ta depolanıp depolanmadığını tespit etmek için kullanıcılarının bulut sisteminde sakladığı tüm fotoğrafları tarayacak.
Şirket, bu özelliğin kullanıcı gizliliği ön planda tutularak tasarlandığının altını çizse de bazı güvenlik uzmanları Apple'ın izlediği yöntemin özel hayatın gizliliği açısından daha sorunlu olduğuna dikkat çekti. Hatta bazı uzmanlar, aynı yöntemin başka amaçlarla da kullanılabileceğini ve devletlerin Apple'ı buna zorlayacağını düşündüklerini belirtti. Gelen bilgilere göre ise bu konuda bir tepki, Apple'ın kendi çalışanlarından geldi.
Reuters'ın haberine göre, belirtilmemiş sayıdaki Apple çalışanı, CSAM (Çocuk cinsel istismar materyali) tespiti konusundaki endişelerini dile getirmek için Apple'ın dahili Slack kanallarına başvurdu. Çalışanlar özellikle, hükümetlerin Apple'ı CSAM dışında içerikler için bu teknolojiyi kullanmaya zorlayabileceğinden endişe duyuyor. Bazı çalışanların endişesi ise Apple'ın sektör lideri olarak görülen gizlilik itibarına zarar vermesi.
Kimliğinin açıklanmamasını isteyen çalışanlar Reuters'e verdiği demeçte, Apple çalışanlarının bir hafta önce açıklanan planla ilgili 800'den fazla mesajla Apple'ın dahili Slack kanalını doldurduğunu söyledi. Günlerce süren tartışmaya tanık olan çalışanlara göre, pek çok kişi, baskıcı hükümetler tarafından bu özelliğin istismar edilebileceğine dair endişelerini dile getirdi.
Çalışanlar, Apple'ın geçmişteki güvenlik değişikliklerinin de çalışanlar arasında endişe uyandırdığını, ancak yeni tartışmanın hacminin ve süresinin şaşırtıcı olduğunu söyledi.
Apple ise CSAM materyalini tespit etmek için kullanılacak cihaz teknolojisinin başka bir amaçla kullanılabileceği konusuna karşı çıkıyor.
Şirket, hükümetlerden gelecek bu yönde bir talebi reddedeceğini söylüyor.