Por Jason Nelson
5 min lectura
El uso de inteligencia artificial por parte de Meta para vigilar sus plataformas está generando grandes volúmenes de informes de baja calidad que están agotando los recursos y ralentizando las investigaciones de abuso infantil, según un informe de The Guardian.
La noticia surge después de que funcionarios de aplicación de la ley de Nuevo México testificaran la semana pasada que los informes generados por inteligencia artificial están saturando a los investigadores y frenando los casos de explotación infantil.
Los oficiales del programa de Fuerza de Tarea contra Crímenes en Internet contra Niños citaron específicamente los sistemas automatizados de Meta, diciendo que generan miles de consejos inutilizables cada mes que se envían a las autoridades.
"Recibimos muchos consejos de Meta que son más bien basura", testificó Benjamin Zwiebel, un agente especial de la fuerza de tarea ICAC en Nuevo México, durante el juicio del estado contra la empresa.
Otro oficial de ICAC, que habló bajo condición de anonimato, le dijo a The Guardian que los ciberconsejos del departamento se duplicaron de 2024 a 2025.
"Es bastante abrumador porque estamos recibiendo tantos informes, pero la calidad de los informes realmente carece de nuestra capacidad para tomar medidas serias", dijeron.
En un comunicado compartido con Decrypt, un portavoz de Meta dijo que la empresa ha cooperado durante mucho tiempo con las autoridades policiales y señaló que el Departamento de Justicia y el Centro Nacional de Niños Desaparecidos y Explotados han elogiado su proceso de informes.
“En 2024, recibimos más de 9,000 solicitudes de emergencia de las autoridades de EE. UU. y las resolvimos en un promedio de 67 minutos e incluso más rápido para casos que involucran la seguridad de menores y suicidio”, dijo el portavoz.
“De acuerdo con la ley aplicable, también informamos sobre imágenes aparentes de explotación sexual infantil a NCMEC y los apoyamos para priorizar los informes, desde ayudar a construir su herramienta de gestión de casos hasta etiquetar ciberconsejos para que sepan cuáles son urgentes”, agregaron.
Sin embargo, los oficiales de ICAC dijeron que algunos de los informes enviados por Meta no son de naturaleza criminal, mientras que otros carecen de la evidencia creíble necesaria para seguir un caso.
El aumento sigue a la Ley de Informes, que fue promulgada en mayo de 2024 y amplió los requisitos de informes para incluir abusos planeados o inminentes, trata de personas con fines de explotación sexual infantil y relacionados, al tiempo que exige a las empresas preservar la evidencia por más tiempo.
Meta sigue siendo la mayor fuente de informes al CyberTipline de NCMEC, representando aproximadamente dos tercios de los 20,5 millones de consejos recibidos en 2024, frente a los 36.2 millones en 2023. La disminución se ha atribuido en parte a cambios en las prácticas de informes de Meta.
En su informe de integridad de agosto de 2025, Meta dijo que Facebook, Instagram y Threads enviaron más de 2 millones de informes CyberTip al NCMEC en el segundo trimestre de 2025. De esos, más de 528.000 involucraron interacciones inapropiadas con niños, mientras que más de 1,5 millones involucraron el compartir o volver a compartir material de abuso sexual infantil.
A pesar de esas cifras, JB Branch, un defensor de políticas en Public Citizen, dijo que la mayor dependencia de la inteligencia artificial ha hecho que la Ley de Informes sea menos eficiente para los investigadores que revisan casos, argumentando que si bien los algoritmos han ayudado a reducir la carga de trabajo de los moderadores, los revisores humanos eran el filtro más efectivo.
"Parte del problema aquí es que muchas de estas empresas tecnológicas han despedido a moderadores de contenido y los han reemplazado con funciones de seguridad de inteligencia artificial", dijo Branch a Decrypt. "Como resultado, hay una sobreabundancia de falsos positivos siendo seleccionados por exceso de precaución."
En el pasado, Branch dijo, típicamente había más revisores humanos en la cadena de revisión que podían identificar y eliminar contenido que no justificaba ser escalado.
"Porque estas empresas han eliminado a moderadores de contenido humanos o revisores de la cadena, muchas más cosas están siendo aprobadas porque quieren pecar de precavidos", dijo. "Básicamente están ampliando la red y capturando cosas que ni siquiera califican, y confían mucho en herramientas de inteligencia artificial para hacerlo."
Los investigadores dicen que el impacto de consejos generados por IA defectuosa se está sintiendo ahora dentro de los grupos de trabajo que los revisan.
"Está matando la moral. Nos estamos ahogando en consejos y queremos salir y hacer este trabajo", habría dicho un oficial de ICAC. "No tenemos el personal para sostener eso. No hay forma de que podamos seguir el ritmo de la avalancha que se avecina."
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.