Una víctima de abuso sexual infantil de 27 años ha presentado una demanda contra Apple, alegando que la empresa no protegió adecuadamente a las víctimas al no implementar herramientas prometidas para identificar y eliminar imágenes ilegales de abuso en iCloud.
La demanda, presentada en la Corte Federal del Distrito Norte de California, señala que Apple introdujo pero luego abandonó una herramienta para detectar imágenes ilegales de abuso sexual después de recibir críticas de expertos en ciberseguridad, quienes temían que pudiera facilitar la vigilancia gubernamental.
La demandante, que usa un seudónimo, regularmente recibe notificaciones policiales sobre personas acusadas de poseer imágenes de su abuso. A finales de 2021, descubrió que estas imágenes fueron encontradas en una MacBook en Vermont y almacenadas en iCloud de Apple.
La demanda alega que los fallos de Apple implican que vendió productos defectuosos que dañaron a víctimas de abuso sexual infantil al no cumplir con "un diseño mejorado ampliamente promocionado destinado a proteger a los niños". Busca representar a aproximadamente 2,680 víctimas potenciales y podría superar los $1.2 mil millones en daños si Apple es encontrada responsable, ya que las víctimas tienen derecho a daños mínimos de $150,000 según la ley.
Según la demanda, Apple reportó significativamente menos casos de material de abuso infantil en comparación con otras empresas tecnológicas, con solo 267 informes frente a millones de Google y Facebook en 2021.
Apple ha defendido su historial, calificando el material de abuso sexual infantil como "aborrecible" y citando características como advertencias de contenido en Mensajes. Sin embargo, los críticos argumentan que estas medidas son insuficientes para abordar el problema.