Apple (AAPL), çocuk cinsel istismarı materyallerini tespit etme özelliğini kaldırdığı için 1,2 milyar dolarlık bir davayla karşı karşıya. New York Times’ın haberine göre, takma ad kullanan 27 yaşındaki bir kadın, Apple’ın kendisi gibi mağdurları koruma sözünü tutmadığını iddia ediyor.
Davacı, istismar görüntülerinin iCloud’da depolandığını ve Apple’ın kararının bu materyalin yaygın olarak paylaşılmasına izin verdiğini öne sürüyor. Dava, Apple’ın uygulamalarında değişiklik yapılmasını ve 2.680’e kadar mağdur için tazminat talep ediyor.
Google ve Facebook gibi rakiplerinin aksine Apple, kullanıcı gizliliğine olan bağlılığını gerekçe göstererek tarihsel olarak çok daha az istismar materyali bildirdi. Ancak çocuk güvenliği savunucuları, şirketi bu tür içeriklerin yayılmasını engellemek için daha güçlü önlemler almamakla eleştiriyor.
Apple sözcüsü Fred Sainz, şirketin kullanıcı gizliliğini korurken çocuk cinsel istismarı materyalleriyle mücadele etmeye kararlı olduğunu belirtti:
“Bu suçlarla mücadele etmek için acil ve aktif olarak yenilikler yapıyoruz ancak tüm kullanıcılarımızın güvenliğinden ve gizliliğinden ödün vermiyoruz.”
Dava, Apple’ın 2022’de iCloud görüntülerini CSAM için tarama planından vazgeçme kararından kaynaklanıyor. İlk olarak 2021’de duyurulan plan, cihazlarda bir hashtag sistemi kullanarak CSAM’ı tespit etmeyi amaçlıyordu.
Geçen yıl eylül ayında Apple, gizlilik endişeleri ve olası istenmeyen sonuçları gerekçe göstererek CSAM tespit planlarını terk etme kararını açıklamıştı.
Burada yer alan bilgiler yatırım tavsiyesi içermez. Bilgi için: Midas Sorumluluk Beyanı
Bu içerik hazırlanırken faydalanılan kaynak: Benzinga