5 min lectura
Los controles comunes implementados para combatir el fraude financiero, como las medidas contra el lavado de dinero (AML) y los requisitos de conocer al cliente (KYC), podrían haber encontrado su igual en la inteligencia artificial (IA).
Un servicio clandestino llamado OnlyFake está aprovechando las "redes neuronales" para crear identificaciones falsas de alta calidad y, según un informe de 404 Media, cualquiera puede obtener identificaciones falsas generadas al instante con un realismo sorprendente por solo $15, lo que podría facilitar una serie de actividades ilícitas.
La cuenta original de OnlyFake en Telegram, su plataforma principal para los clientes, fue cerrada. Pero su nueva cuenta declara el fin de la era de Photoshop, presumiendo su capacidad para producir documentos en masa utilizando "generadores" avanzados.
El propietario del sitio, que utiliza el seudónimo de John Wick, afirmó que el servicio puede generar en lotes cientos de documentos a partir de un conjunto de datos de Excel.
Las imágenes son tan buenas que 404 Media logró superar las medidas de KYC de OKX, un exchange de criptomonedas que utiliza el servicio de verificación de terceros Jumio para verificar los documentos de sus clientes. Un investigador de ciberseguridad le dijo al medio de noticias que los usuarios estaban enviando identificaciones falsas para abrir cuentas bancarias y desbloquear sus cuentas de criptomonedas.
El servicio OnlyFake utiliza principalmente tecnología de IA básica, aunque con gran sofisticación.
Utilizando Redes Generativas Antagónicas (GAN), una forma de IA, los desarrolladores pueden diseñar una red neuronal que está optimizada para engañar a otra que está diseñada para detectar generaciones falsas. Sin embargo, con cada interacción, ambas redes evolucionan y mejoran en la creación y detección de falsificaciones.
Otro enfoque es entrenar un modelo basado en difusión con un conjunto de datos masivo y bien curado de identificaciones reales. Estos modelos son expertos en sintetizar imágenes extremadamente realistas mediante el entrenamiento en vastos conjuntos de datos de elementos específicos. Aprenden a replicar detalles minuciosos que hacen que las falsificaciones sean casi indistinguibles de los documentos auténticos, burlando los métodos tradicionales de detección de falsificaciones.
Para aquellos que buscan evitar tener que usar sus identidades reales, OnlyFake es tentador. Pero utilizar el servicio plantea tanto preguntas éticas como legales. Bajo la apariencia de anonimato y la facilidad de acceso, estas operaciones se encuentran en terreno muy inestable.
Debido a que dispensa identificaciones falsas de muchos países, incluyendo Estados Unidos, Italia, China, Rusia, Argentina, República Checa y Canadá, esta empresa abiertamente criminal ha captado sin duda la atención de las agencias de aplicación de la ley en todo el mundo.
En otras palabras, es posible que "el Gran Hermano" ya esté vigilando.
Los riesgos van más allá. Por ejemplo, John Wick podría estar llevando un registro de clientes, lo cual sería catastrófico para OnlyFake y sus usuarios. Además, el nuevo grupo de Telegram de OnlyFake cuenta con más de 600 miembros, la mayoría de los cuales podrían ser rastreados a través de sus números de teléfono vinculados.
Y aunque sea obvio, vale la pena mencionar que pagar a OnlyFake con métodos de pago digitales tradicionales está totalmente prohibido.
Aunque los pagos con criptomonedas proporcionan una capa de privacidad, no son completamente seguros contra la exposición de la identidad. Innumerables servicios afirman poder rastrear las transacciones de criptomonedas, y por lo tanto, las monedas digitales están comenzando a perder el anonimato asociado con ellas.
Y no, OnlyFake no acepta el token de privacidad de criptomonedas Monero.
Lo más importante es que la compra de una identificación falsa va en contra de las políticas de AML y KYC, que están al menos ostensiblemente en vigor para combatir el financiamiento del terrorismo y otras actividades delictivas.
Los negocios pueden estar en auge, pero ¿valen la pena las posibles ramificaciones por la conveniencia rápida y económica?
Los reguladores ya están tratando de abordar esta nueva amenaza. El 29 de enero, el Departamento de Comercio de EE. UU. propuso un conjunto de reglas titulado "Tomando medidas adicionales para abordar la emergencia nacional con respecto a actividades cibernéticas maliciosas significativas".
El departamento quiere exigir a los proveedores de infraestructura que informen sobre personas extranjeras que intenten entrenar modelos de IA grandes sin importar la razón, pero ciertamente los casos en los que se podrían utilizar deepfakes para fraude o espionaje son el enfoque.
Estas medidas aún pueden no ser suficientes.
"La caída del KYC era inevitable ahora que la IA crea identificaciones falsas que pasan fácilmente las verificaciones", dijo en Twitter Torsten Stüber, CTO de Satoshi Pay. "Es hora de un cambio: si la regulación rigurosa es necesaria, los gobiernos deben abandonar la burocracia obsoleta por la tecnología cripto, que permite la verificación de identidad segura de terceros".
Por supuesto, el uso de la IA en el engaño va más allá de las identificaciones falsas. Ahora, los bots de Telegram ofrecen servicios que van desde videos deepfake personalizados, donde se superponen los rostros de las personas en imágenes existentes, hasta la creación de imágenes de desnudos inexistentes de personas, conocidas como deepnudes.
A diferencia de los servicios anteriores, estos no requieren mucho conocimiento ni siquiera hardware potente, lo que hace que la tecnología esté ampliamente disponible sin necesidad de descargar herramientas gratuitas de edición de imágenes.
Editado por Ryan Ozawa.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.