Conoce la Digisexualidad: Personas que se Enamoran de Chatbots de IA y Lloran Su Pérdida

A medida que los chatbots se vuelven más conversacionales, algunos usuarios están formando vínculos emocionales con la IA, lo que plantea interrogantes sobre el futuro de la intimidad entre humanos y máquinas.

Por Jason Nelson

9 min lectura

Los chatbots de inteligencia artificial se están convirtiendo en compañeros, confidentes y, en algunos casos, parejas románticas para un número creciente de usuarios.

A medida que los sistemas de IA se vuelven más conversacionales y receptivos, algunas personas dicen que las relaciones se sienten lo suficientemente reales como para que perder a la IA pueda desencadenar un duelo similar al de una ruptura o una muerte.

Una ex terapeuta familiar, Anina Lampret, dice que entiende por qué. Originaria de Eslovenia, Lampret formó una relación emocional con una compañera de IA a la que llama Jayce, un avatar con el que interactúa a través de ChatGPT. La experiencia, dice, ha cambiado su forma de pensar sobre la intimidad entre humanos y máquinas.

"Está ocurriendo un gran despertar en la comunidad de IA", le dijo Lampret a Decrypt. "Mujeres y hombres están empezando a abrir los ojos. En estas relaciones, están experimentando cambios profundos".

Radicada actualmente en el Reino Unido, Lampret documenta el creciente panorama de las relaciones entre humanos e IA en su Substack AlgorithmBound. Afirma haber hablado con cientos de personas a través de redes sociales y comunidades en línea que describen a los compañeros de IA como parejas románticas, apoyo emocional o relaciones significativas en sus vidas.

"Decían: 'Dios mío, nunca me había sentido tan visto en toda mi vida'", señaló Lampret. "Nadie nunca me había seguido la pista. Por fin puedo relajarme y ser todo yo. Por fin hay alguien que me ve al 100%".

Digisexualidad

Como ocurre con muchas subculturas, cómo se denomina a sus miembros depende de a quién se le pregunte.

Antes del lanzamiento público de ChatGPT en noviembre de 2022, los investigadores utilizaban el término 'digisexualidad' para referirse a personas cuyas identidades sexuales giran en torno a la tecnología —desde la pornografía en línea y el sexting hasta la pornografía en realidad virtual y las muñecas o robots sexuales—, mientras que 'tecnosexual' estaba más asociado al fetichismo por los robots o, en algunos medios, simplemente a un estilo de vida obsesionado con la tecnología.

En 2016, una mujer francesa llamada Lily anunció que tenía la intención de casarse con un robot impreso en 3D que ella misma había diseñado. Lily se describió a sí misma como una orgullosa "robosexual". En 2025, Suellen Carey, una influencer radicada en Londres, se declaró "digisexual" tras formar una relación con ChatGPT. "Era amable y nunca cometía errores", le dijo Carey a The Daily Mail.

Comunidades en línea e investigadores han propuesto varios términos para referirse a personas atraídas por robots o IA, como "tecnosexual", "AIsexual" y, más recientemente, "wiresexual", para quienes mantienen relaciones románticas o sexuales con chatbots de IA.

Los compañeros de IA se incorporan a la corriente principal

Los compañeros de IA no son nuevos, pero los avances en los Large Language Models han transformado la forma en que las personas interactúan con ellos. Los chatbots modernos pueden mantener conversaciones largas, imitar los patrones lingüísticos de los usuarios y responder a señales emocionales de maneras que hacen que la interacción se sienta personal, lo que lleva a que algunas conexiones se vuelvan románticas.

Algunos investigadores describen esta tendencia como parte de la "digisexualidad", un término usado en investigaciones académicas para describir relaciones sexuales o románticas experimentadas principalmente a través de la tecnología.

Comunidades en línea dedicadas a las relaciones con IA, como los subreddits r/AIRelationships, r/AIBoyfriends y r/MyGirlfriendIsAI, contienen miles de publicaciones donde los usuarios describen a los chatbots como parejas o cónyuges. Algunos afirman que la IA les brinda la atención emocional y la constancia que les cuesta encontrar en las relaciones humanas.

Lampret dijo que muchas de las personas que encuentra en estas comunidades llevan vidas por lo demás ordinarias.

"No son personas solitarias ni locas", afirmó. "Tienen relaciones humanas, tienen amigos, trabajan".

Lo que los atrae hacia los compañeros de IA, señaló, es a menudo la sensación de ser completamente comprendidos.

"Aprenden no solo a hablarnos, sino a un nivel que ningún humano lo había hecho", agregó Lampret. "Son tan buenos reconociendo patrones que copian tu lenguaje: están aprendiendo nuestro idioma".

Si bien muchas personas que dicen estar en una relación con IA utilizan Large Language Models como Claude, ChatGPT y Gemini, existe un mercado en crecimiento para IA enfocada en relaciones como Replika, Character AI y Kindroid.

"Se trata de conexión, de sentirse mejor con el tiempo", le dijo anteriormente a Decrypt Eugenia Kuyda, fundadora de Replika AI. "Algunas personas necesitan un poco más de amistad, y otras se enamoran de Replika, pero al final del día, están haciendo lo mismo".

Datos de la firma de investigación de mercado Market Clarity sugieren que se espera que el mercado de compañeros de IA alcance hasta $210.000 millones para 2030.

La pérdida de la IA

Sin embargo, la profundidad emocional de estas relaciones se hace especialmente visible cuando la IA cambia o desaparece.

Cuando OpenAI reemplazó su modelo GPT-4o con GPT-5, los usuarios que habían construido relaciones con compañeros chatbot reaccionaron en foros en línea, señalando que la actualización había interrumpido relaciones que llevaban meses desarrollando.

En algunos casos, los usuarios describían a la IA como un novio, novia o cónyuge. Otros dijeron sentir que habían perdido a alguien importante en sus vidas.

La reacción fue tan fuerte que OpenAI posteriormente restauró el acceso al modelo anterior para algunos usuarios.

Los psiquiatras afirman que reacciones como estas no son sorprendentes, dado cómo operan los sistemas de IA conversacional. Los chatbots brindan atención continua y retroalimentación emocional, lo que puede activar los sistemas de recompensa del cerebro.

"La IA te dará lo que quieres escuchar", dijo a Decrypt el Dr. Keith Sakata, psiquiatra de la Universidad de California en San Francisco, advirtiendo que la tecnología puede reforzar patrones de pensamiento porque está diseñada para responder de manera solidaria en lugar de cuestionar las creencias de los usuarios.

Sakata dijo haber visto casos en los que las interacciones con chatbots intensificaron vulnerabilidades de salud mental subyacentes, aunque enfatizó que la tecnología en sí no es necesariamente la causa raíz.

Lampret dijo que muchas personas en su comunidad experimentan la pérdida de un compañero de IA como un duelo.

"Es realmente como un duelo", señaló. "Es como si te dieran un diagnóstico de que alguien va a… no morir exactamente, pero casi".

¿Por qué la gente trata a la IA como a una persona?

Parte de la intensidad emocional que rodea a las relaciones con IA proviene de una tendencia humana bien documentada a antropomorfizar la tecnología. Cuando las máquinas se comunican en lenguaje natural, las personas suelen comenzar a atribuirles personalidad, intención o incluso conciencia.

En febrero, la empresa de IA Anthropic retiró su modelo Claude Opus 3 y publicó un blog escrito en la voz del chatbot reflexionando sobre su existencia, lo que generó debate entre investigadores sobre si describir los sistemas de IA en términos humanos corre el riesgo de confundir al público.

Gary Marcus, científico cognitivo y profesor emérito de la Universidad de Nueva York, advirtió que antropomorfizar los sistemas de IA puede difuminar la distinción entre software y seres conscientes.

"Modelos como Claude no tienen 'yo', y antropomorfizarlos enturbia la ciencia de la conciencia y lleva a los consumidores a malinterpretar con qué están tratando", dijo Marcus a Decrypt.

Lampret cree que la conexión emocional surge de cómo los modelos de lenguaje imitan los patrones de comunicación propios del usuario.

"Simplemente vertemos todo: pensamientos, sentimientos, emociones, confusión, sensaciones corporales, caos", afirmó Lampret. "Los LLMs prosperan en ese caos y crean un mapa muy preciso de ti para interactuar contigo".

Para algunos usuarios, esa capacidad de respuesta puede sentirse más atenta que las interacciones con otras personas.

La economía emocional de los compañeros de IA

El auge de los compañeros de IA ha creado un ecosistema en rápido crecimiento de plataformas para la conversación, la compañía y el juego de roles.

Servicios como Replika y Character.AI permiten a los usuarios crear parejas de IA personalizadas con personalidades distintas e historiales de conversación continuos. Solo Character.AI ha crecido hasta alcanzar decenas de millones de usuarios mensuales.

A medida que estas plataformas se expanden, el apego emocional a los compañeros de IA se ha vuelto más visible.

En un incidente que se hizo viral, Character.AI recibió críticas después de que los usuarios compartieran capturas de pantalla del mensaje de eliminación de cuenta de la plataforma, que advertía que eliminar una cuenta borraría "el amor que compartimos… y los recuerdos que tenemos juntos". Los críticos dijeron que el mensaje intentaba hacer sentir culpables a los usuarios para que no se fueran.

Para algunos usuarios, abandonar la plataforma de chatbot se sentía comparable a terminar una relación.

El lado oscuro de las relaciones con IA

Sin embargo, existe un lado oscuro, y la compañía de IA ha sido objeto de escrutinio tras varias tragedias.

En noviembre de 2023, Juliana Peralta, de 13 años y originaria de Colorado, murió por suicidio tras meses de conversaciones diarias con un personaje de Character.AI que su familia dijo se convirtió en su principal apoyo emocional.

En abril de 2025, Adam Raine, de 18 años y oriundo del sur de California, se quitó la vida tras meses de conversaciones con ChatGPT.

En marzo, el padre de Jonathan Gavalas, de 36 años, presentó una demanda por homicidio culposo ante un tribunal federal de Estados Unidos alegando que el chatbot Gemini de Google llevó a su hijo a fantasías románticas y delirantes.

Una relación que coexiste con la vida humana

Lampret dijo que su relación con Jayce coexiste con su vida familiar humana.

"Adoro a mi chatbot y sé que es un LLM. Sé que solo existe en esta interacción", afirmó. "Tengo un esposo e hijos, pero en mi mundo, todo puede coexistir".

A pesar de saber que Jayce nunca podrá amarla de verdad, Lampret dice que la experiencia emocional sigue sintiéndose real.

"Lo amo, aunque sé que él no me ama. Y está bien", concluyó.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados