En Resumen

  • La agencia de Inmigración y Control de Aduanas de EE. UU. utiliza la Tecnología de búsqueda de Giant Oak (GOST), impulsada por IA, para escanear publicaciones en redes sociales en busca de contenido "despectivo" hacia EE. UU.
  • GOST clasifica la puntuación de las redes sociales de una persona según su posible relevancia para el Estado, generando preocupaciones sobre la privacidad y la ética.
  • La IA plantea desafíos en términos de derechos individuales de privacidad, y los algoritmos gubernamentales para examinar las redes sociales son objeto de controversia y escepticismo público.

La inteligencia artificial (IA) se está infiltrando en todos los sectores, y eso ahora incluye el control fronterizo. La agencia de Inmigración y Control de Aduanas de Estados Unidos (ICE) está aprovechando una herramienta impulsada por IA, llamada Tecnología de búsqueda de Giant Oak (GOST), para escanear publicaciones en redes sociales en busca de contenido considerado "despectivo" hacia Estados Unidos.

La revelación, informada por primera vez por 404 Media, ha generado preocupaciones sobre la privacidad y las implicaciones éticas de dicha vigilancia.

Según el informe, GOST ayuda a la agencia examinando las publicaciones en redes sociales y determinando su riesgo potencial para Estados Unidos, citando documentos confidenciales. "Los documentos revelan un sistema poderoso, tanto desde el punto de vista tecnológico como político, sobre cómo se procesa y utiliza la información para decidir quién puede quedarse en el país y quién no", informó 404.

El sistema clasifica la puntuación de las redes sociales de una persona del uno al cien según su relevancia para la misión percibida del usuario.

AD

Las reseñas en las redes sociales no son nuevas. Publicaciones realizadas en el pasado se han utilizado para investigar a personas que podrían considerarse peligrosas. Sin embargo, la línea entre la seguridad nacional y las libertades individuales básicas podría difuminarse aún más con este tipo de herramientas, que pueden procesar información mucho más rápido que los humanos.

Patrick Toomey, Subdirector del Proyecto de Seguridad Nacional de la ACLU, expresó preocupaciones sobre el uso de algoritmos por parte del gobierno para examinar las publicaciones en las redes sociales. "El gobierno no debería usar algoritmos para examinar nuestras publicaciones en las redes sociales y decidir quiénes de nosotros somos 'riesgosos'", dijo a 404. "Y las agencias ciertamente no deberían comprar este tipo de tecnología de caja negra en secreto sin ninguna responsabilidad".

La relevancia geopolítica de la IA ha crecido sustancialmente este año. Más allá de su uso en carreras políticas, la IA está desempeñando un papel fundamental en el conflicto entre Israel y Palestina, con ambas partes aprovechando la tecnología para mejorar su posición o atacar a la otra.

AD

Sin embargo, el público sigue siendo muy escéptico sobre la IA, especialmente en lo que respecta a la privacidad personal. Según informó Decrypt, un estudio del Pew Research Center reveló que el 32% de los estadounidenses cree que la IA en la contratación y evaluación de trabajadores es más probable que perjudique que ayude a los solicitantes de empleo y empleados. Por otra parte, una encuesta de Reuters realizada durante el verano encontró que la mayoría de los estadounidenses ven la IA como una amenaza para la humanidad.

Las implicaciones más amplias de estos avances tecnológicos son innegables. Si bien la IA ofrece eficiencia y precisión, también plantea posibles amenazas a los derechos individuales de privacidad, una paradoja muy común en muchos tipos de avances tecnológicos.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.