Amazon reportó el hallazgo de cientos de miles de imágenes sospechosas de abuso sexual infantil dentro de conjuntos de datos recopilados para entrenar modelos de inteligencia artificial durante 2025, representando la gran mayoría de más de un millón de reportes vinculados a IA recibidos ese año por el National Center for Missing & Exploited Children (NCMEC).
Los hallazgos, revelados por primera vez por Bloomberg, muestran un aumento de quince veces en los reportes relacionados con IA frente al año anterior. Según el informe, Amazon concentró la mayor parte de ese incremento, en un contexto de aceleración del desarrollo de soluciones de IA generativa por parte de la compañía.
Amazon aseguró que el contenido fue eliminado antes de utilizarse en el entrenamiento de modelos, y que no existe evidencia de que sus sistemas hayan generado material ilegal. Sin embargo, funcionarios de seguridad infantil cuestionaron la eficacia de los reportes, al considerar que carecen de información clave para iniciar acciones de protección o investigación penal.
Reportes sin capacidad de acción
Fallon McNulty, directora ejecutiva de CyberTipline de NCMEC, calificó el volumen de reportes de Amazon como “realmente atípico”, señalando que la empresa proporcionó “muy poca o casi ninguna información” sobre el origen del contenido, los posibles responsables o su disponibilidad en línea.
“Recibir un volumen tan alto plantea serias preguntas sobre el origen de los datos y las salvaguardas aplicadas”, afirmó McNulty, agregando que los informes no permiten rastrear redes criminales ni localizar a niños en riesgo activo.
Un portavoz de Amazon explicó que los datos de entrenamiento provienen de fuentes externas y que, debido a la forma en que se recopilan, la empresa no dispone de información suficiente para generar reportes procesables para las autoridades.
Comparación con otros actores del sector
NCMEC indicó que existen “diferencias evidentes” entre Amazon y otros desarrolladores de IA. Empresas como Google, Meta, OpenAI y Anthropic también escanean datos de entrenamiento, pero sus reportes llegan en volúmenes significativamente menores e incluyen detalles que permiten acciones concretas por parte de las autoridades.
En 2024, Amazon y sus subsidiarias realizaron cerca de 64,000 reportes totales a NCMEC. La cifra se disparó en 2025, coincidiendo con la expansión agresiva de su estrategia de IA.
Llamados a mayor transparencia
David Thiel, ex tecnólogo jefe del Stanford Internet Observatory, sostuvo que el caso refuerza la necesidad de mayor transparencia sobre cómo se recopilan, analizan y depuran los datos de entrenamiento.
Por su parte, David Rust-Smith, científico de datos en la organización sin fines de lucro Thorn, advirtió que el fenómeno refleja una realidad conocida: “si se aspira una gran parte de internet, inevitablemente se obtiene material de abuso infantil”.
Amazon indicó que utiliza un “umbral excesivamente inclusivo” en sus sistemas de escaneo, lo que genera un alto porcentaje de falsos positivos, y que aproximadamente el 99.97% de los reportes provienen del análisis de datos de entrenamiento no propietarios.
El caso vuelve a poner en el centro del debate los riesgos estructurales del entrenamiento masivo de IA, así como la responsabilidad de las grandes tecnológicas en la protección de menores y la calidad de sus procesos de depuración de datos.
















