Apple, eleştirmenlerin tepkisini takiben “iyileştirmeler yapmak için” Çocukların Cinsel İstismarı Malzemesi (CSAM) tespit araçlarının kullanıma sunulmasını geciktirdiğini söyledi. Özellikler, gizlilik savunucuları arasında endişeye neden olan bilinen CSAM için iCloud Fotoğraflarını analiz eden bir özelliği içerir.
Apple, 9to5Mac’e yaptığı açıklamada, “Geçen ay çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan fırsatçılardan korumaya ve Çocukların Cinsel İstismarı Materyalinin yayılmasını sınırlamaya yardımcı olacak özelliklere yönelik planlarımızı duyurduk.” dedi. Apple, devam eden açıklamasında “Müşterilerden gelen geri bildirimlere dayanarak, savunuculuk grupları, araştırmacılar ve diğerleri, kritik öneme sahip bu çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda ek zaman ayırmaya karar verdik.”
Apple, iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey gibi yaklaşan işletim sistemi güncellemelerinin bir parçası olarak CSAM algılama sistemlerini kullanıma sunmayı planlıyordu. Şirketin önümüzdeki haftalarda bunları piyasaya sürmesi bekleniyor. Apple, yapabileceği iyileştirmeler hakkında ayrıntıya girmedi. Engadget, yorum için şirketle iletişime geçti.
Planlanan özellikler arasında, Apple, cihazdaki makine öğrenimi sistemleri kullanılarak uygulamada cinsel içerikli fotoğrafların paylaşıldığını algıladığında çocukları ve ebeveynlerini bilgilendirecek olan Mesajlar için bir özellik vardı. Çocuklara gönderilen bu tür görüntüler bulanık olacak ve uyarılar içerecektir. Siri ve iOS ve macOS’taki yerleşik arama işlevleri, birisi CSAM’i nasıl bildireceğini sorduğunda veya CSAM ile ilgili aramalar yapmaya çalıştığında kullanıcıları uygun kaynaklara yönlendirir.
iCloud Fotoğrafları aracı, Apple’ın duyurduğu CSAM algılama özellikleri arasında belki de en tartışmalı olanı. Fotoğrafları, Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi ve diğer kuruluşlar tarafından tutulan bilinen CSAM görüntü karmalarının (bu tür görüntüler için bir tür dijital parmak izi) veritabanıyla eşleştirmek için bir cihaz üstü sistem kullanmayı planlıyor. Bu analizin, bir görüntünün iCloud Fotoğrafları’na yüklenmesinden önce gerçekleşmesi gerekiyor. CSAM’i tespit edecek sistem ve insan incelemeciler bir eşleşmeyi manuel olarak doğrulasaydı, Apple kişinin hesabını devre dışı bırakır ve NCMEC’e bir rapor gönderir.
Apple, yaklaşımın “mevcut tekniklere göre gizlilik avantajları sağlayacağını, çünkü Apple, yalnızca iCloud Fotoğrafları hesaplarında bilinen bir CSAM koleksiyonu varsa, kullanıcıların fotoğraflarını öğrendiğini” iddia etti. Bununla birlikte, gizlilik savunucuları planlanan hareket konusunda kolları sıvadı.
Bazıları, CSAM fotoğraf taramasının kolluk kuvvetlerine veya hükümetlerin Apple’ı, örneğin muhalifleri baskı altına almak için başka tür görseller aramaya itmesine yol açabileceğini öne sürüyor. Teknolojiyi “tehlikeli” olarak adlandıran benzer bir sistem kurduklarını söyleyen iki Princeton Üniversitesi araştırmacısı. Şunları yazdılar: “Sistemimiz, gözetim ve sansür için kolayca yeniden kullanılabilir. Tasarım, belirli bir içerik kategorisiyle sınırlı değildi; bir hizmet, içerikle eşleşen herhangi bir veritabanında kolayca değiş tokuş yapabilir ve bu hizmeti kullanan kişi bundan daha akıllı olamaz.”
Apple, Ağustos ayının ortalarında , zayıf iletişimin, bir haftadan biraz daha uzun bir süre önce duyurduğu özellikler hakkında kafa karışıklığına yol açtığını söyledi. Şirketin yazılım mühendisliği kıdemli başkan yardımcısı Craig Federighi, görüntü tarama sisteminin “birden fazla denetlenebilirlik düzeyine” sahip olduğunu belirtti. Öyle olsa bile, Apple yaklaşımını yeniden düşünüyor. Özelliklerin kullanıma sunulması için yeni bir zaman çizelgesi açıklamadı.