Apple, CSAM İçin Tarayacak Sistemi Uygulamama Kararıyla Dava Ediliyor
Apple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için taramayı reddetmesi nedeniyle bir dava ile karşı karşıya. Şirket, bu sistemi uygulamama kararı nedeniyle mağdurların travmalarını yeniden yaşamalarına neden olduğu iddiasıyla dava ediliyor.
Hükümet Gözetimi Eleştirisi
Apple, 2021 yılında CSAM içeriğini tespit etmek için bir sistem duyurmuş ancak güvenlik ve gizlilik endişeleriyle karşılaşmıştı. Endişeler arasında, bu teknolojinin hükümet gözetimi için bir arka kapı oluşturabileceği de yer alıyordu.
Binlerce Mağdur
Dava, bebekken istismara uğrayan ve görüntüleri çevrimiçi olarak paylaşılan 27 yaşındaki bir kadın tarafından açıldı. Avukat James Marsh, bu kadının yanı sıra tazminat talep edebilecek 2.680 potansiyel mağdurun olduğunu belirtti.
Apple ise suçlamalara karşı çıkarak güvenlik ve gizliliği korurken suçlarla mücadele etmek için çalıştıklarını dile getirdi. Ağustos ayında 9 yaşındaki bir kız çocuğu ve vasisinin açtığı dava da benzer şekilde iCloud’da CSAM içeriğine yönelik eleştirileri içeriyordu.