Estafas en Aplicaciones de Citas: Avast Desenmascara a 'LoveGPT'

Avast denuncia una antigua herramienta que ha aprendido nuevos trucos, utilizando IA para mejorar la ejecución de estafas románticas en aplicaciones de citas.

Por Jose Antonio Lanz

4 min lectura

La firma de ciberseguridad Avast está denunciando una herramienta de larga duración que ha acechado a las populares aplicaciones de citas y que ha sido mejorada con inteligencia artificial, adquiriendo la capacidad de crear perfiles falsos y manipular a usuarios desprevenidos.

Aunque Avast le dio el apodo de "LoveGPT" a la aplicación, ese no es el nombre del software en cuestión. Tampoco está relacionado con varios sitios web y aplicaciones llamadas LoveGPT, que tampoco tienen las capacidades que Avast está resaltando.

La herramienta debe ser instalada y ejecutada localmente en una máquina con Windows, y está codificada en Visual Basic, un lenguaje de programación de Microsoft que existe desde la década de 1990. A pesar de sus raíces heredadas, la aplicación llamada "LoveGPT" ha evolucionado a lo largo de los años, con funciones adicionales y módulos complementarios que le permiten interactuar y estafar a los usuarios de aplicaciones de citas con mayor competencia.

"Hemos descubierto una herramienta que proporciona una amplia funcionalidad en varias plataformas de citas diferentes, brindando la capacidad de crear cuentas falsas, interactuar con víctimas, evadir CAPTCHAS, anonimizar el acceso utilizando proxies y herramientas de anonimato web, y más", informó Avast en su informe.

Esta aplicación no es para principiantes. Requiere cierta experiencia técnica para instalar y utilizar correctamente todos sus módulos. Cuando está en funcionamiento, la aplicación escanea múltiples plataformas de citas, ocultándose detrás de técnicas de anonimización e interactuando con usuarios desprevenidos a través de varios canales. Recientemente, se actualizó con IA para ser aún más efectiva en la creación del perfil perfecto para atraer coincidencias y engañar a las personas en estafas.

En este momento, la aplicación utiliza los modelos DaVinci y GPT-3.5 turbo de OpenAI para generar sus interacciones. Estos modelos son menos sofisticados que GPT-4, pero son mucho más económicos.

Según Avast, "LoveGPT" puede crear perfiles falsos convincentes en al menos 13 sitios de citas diferentes, al mismo tiempo que recopila fotos, textos y datos de los usuarios. Categoriza a los usuarios en grupos de edad, probablemente para facilitar la creación de perfiles falsos realistas para manipulación dirigida. La herramienta utiliza múltiples bases de datos para almacenar detalles como perfiles, conversaciones, direcciones de correo electrónico y un registro continuo de mensajes generados por IA.

Interfaz gráfica de LoveGPT. Imagen: Avast

"LoveGPT" utiliza servicios de proxy, números de teléfono virtuales y herramientas de anti-huellas digitales para mantenerse indetectable y anónimo. También puede evadir CAPTCHAs y enviar correos electrónicos desde cuentas falsas. Básicamente, tiene un conjunto de herramientas extenso que se puede utilizar para engañar y hacerse pasar por usuarios de aplicaciones de citas.

Es una revelación oportuna, especialmente cuando una encuesta reciente de AttractionTruth reveló que el 20% de los usuarios masculinos de aplicaciones de citas recurren a la IA para mejorar sus perspectivas de citas.

Además, como informó Decrypt recientemente, algunas personas pagan voluntariamente por fantasías impulsadas por IA, encontrando la ilusión personalizada y personalizable como algo convincente.

Según la firma de investigación en ciberseguridad Trend Micro, las estafas románticas son una táctica común entre los delincuentes, ocupando un lugar entre las cinco estafas más comunes de 2023. Incluso a medida que las herramientas de IA como "LoveGPT" avanzan en el mundo del engaño en línea, todavía son las estafas de criptomonedas tradicionales las que lideran. Estas decepciones de monedas digitales han surgido como las estafas más rentables del año, incluso a pesar de la naturaleza volátil y especulativa del mercado de criptomonedas.

OpenAI no respondió a una solicitud de comentario de Decrypt. Pero es notable que el año pasado, la compañía introdujo una herramienta de moderación para ayudar a los desarrolladores a contrarrestar el mal uso de modelos de lenguaje grande o Large Language Models (LLM) como ChatGPT.

A medida que los solteros desconsolados buscan a la IA como entrenadores de coqueteo y los estafadores la utilizan para engañarlos, los usuarios de aplicaciones de citas serían sabios al estar atentos a los "casanovas artificiales y digitales", mientras la confianza y la autenticidad pueden convertirse en el afrodisíaco definitivo.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados