Por Jason Nelson
5 min lectura
La realidad sigue a la ficción, con un nuevo documental que explora el escenario de ciencia ficción, donde los seres queridos son recreados utilizando inteligencia artificial para poder conversar desde más allá de la tumba.
"Eternal You", dirigido por Hans Block y Moritz Riesewieck, se estrenó en el Festival de Cine de Sundance en Park City, Utah, y se centra en el emergente negocio de crear avatares de IA de los muertos.
Como informó primero Rolling Stone, la película presenta la historia de Christi Angel, quien utilizó un chatbot de IA llamado Project December para "comunicarse" con un ser querido fallecido. Lo que sucedió a continuación encajaría en una película de terror de Hollywood.
Cuando Angel preguntó al avatar de IA dónde estaba, el chatbot respondió: "En el infierno".
Recurrir a la tecnología para llenar el vacío dejado por una pareja, padre o amigo cercano no es algo nuevo. Enlistar la inteligencia artificial antes de que alguien fallezca es una estrategia para lograr una especie de inmortalidad. Y los "bots fantasma" ya son una tendencia en China. Sin embargo, los expertos cuestionan el impacto psicológico, emocional y ético de esta práctica.
Por su parte, Jason Rohrer, fundador de Project December, también está intrigado por las posibilidades narrativas.
"También me interesa el aspecto más espeluznante de esto", dijo Rohrer según informes. "Cuando leo una transcripción como esa y me pone la piel de gallina, me gusta tener escalofríos".
Rohrer aún no ha respondido a la solicitud de comentarios de Decrypt.
Una posible causa de la aterradora experiencia del chatbot de Angel podría atribuirse al problema continuo de las alucinaciones de la IA. En los modelos de IA, la alucinación se refiere a los casos en los que una inteligencia artificial responde de manera confiada de manera inexacta, sin sentido o perturbadora.
Los chatbots como ChatGPT de OpenAI han explotado en popularidad después del lanzamiento público del innovador modelo de IA generativa el año pasado. Los chatbots que se entrenan con los datos de una persona fallecida se llaman "thanabots". El término proviene de la tanatología, que se refiere al estudio científico de la muerte, centrándose en las necesidades de los enfermos terminales y sus familias, explorando aspectos físicos, emocionales y culturales. El campo también incluye las actitudes y rituales sociales en torno a la muerte.
Los deepfakes de video generados por IA de personas fallecidas se volvieron virales en TikTok en mayo pasado. Estos cortos de video incluían video, audio y descripciones en primera persona de niños, incluida la de Royalty Marie Floyd, quien fue asesinada en 2018.
Un deepfake se crea con inteligencia artificial y representa eventos falsos. Si bien las imágenes deepfake son la forma más conocida, los deepfakes de video y audio están ganando más prevalencia gracias a la IA generativa.
El uso de "thanabots" de IA ha llevado a algunos expertos en salud mental a advertir que tener un avatar digital de un ser querido que ha fallecido interfiere en el proceso de duelo.
"Utilizar la inteligencia artificial para crear un avatar para uso personal o comercial debe ser considerado cuidadosamente, dada la posible repercusión en una persona que está sufriendo esa pérdida", dijo Elizabeth Schandelmeier, terapeuta y educadora de Duelo, Pérdida y Aflicción, en LinkedIn. "Superar el duelo es un proceso de adaptación e integración de la pérdida en nuestras vidas y nos ayuda a dar sentido a los enormes cambios que la muerte de alguien significativo para nosotros puede traer".
Como compañera en Tanatología y experta en duelo en el Centro de Apoyo al Duelo Howling Lion, Schandelmeier afirmó que una parte del proceso de duelo es desarrollar la narrativa de la vida de una persona, su legado, la historia de quiénes son y cómo han impactado su vida.
Según Schandelmeier, utilizar la inteligencia artificial para recrear digitalmente a una persona podría perturbar enormemente ese proceso, ya que la imagen o la personalidad de la IA puede ser muy similar, pero no será exactamente como la persona fallecida.
"Cualquier diferencia creará disonancia cognitiva y desafiará la percepción y los recuerdos de la persona en duelo, lo cual podría ser profundamente perturbador y extremadamente confuso", dijo Schandelmeier. "Esto también podría inhibir la capacidad de adaptación de una persona a su vida actual y generar resistencia a los cambios muy reales y prácticos que acompañan a la muerte".
Elreacy Dock, Tanatóloga y Profesora Adjunta de Tanatología en la Universidad Capstone con sede en Washington, señala que el uso de la inteligencia artificial para imitar o replicar a un ser querido fallecido tiene sus ventajas y desventajas. Interactuar con un avatar de un ser querido podría brindar consuelo y cierre, permitiéndoles ver a su ser querido nuevamente y expresar sentimientos no compartidos, lo que ayuda a enfrentar la pérdida.
"Aunque estos beneficios son muy prometedores, el uso de estos avatares aún puede ser motivo de preocupación sustancial", dijo Dock.
Como explicó Dock, interactuar con un avatar de IA de una persona fallecida, especialmente para alguien que aún está en las etapas iniciales de negación o shock, puede generar dependencia emocional de sus interacciones con un avatar de IA de su ser querido.
"Una consideración final que vale la pena reconocer es que el uso de avatares de IA para replicar la apariencia de un ser querido fallecido puede ser muy perturbador para algunas personas", dijo Dock. "Aunque hay una discusión en curso sobre la posibilidad de integrar la conciencia y los recuerdos de alguien en la IA, las interacciones y respuestas simuladas típicamente no podrán reemplazar esa relación única que se compartía con un ser querido o el valor y la importancia general de una conexión humana con ellos".
Además, puede ser muy escalofriante si ese ser querido dice que está enviando mensajes desde el infierno.
Editado por Ryan Ozawa.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.