En Resumen

  • Los asistentes de IA avanzados podrían alterar radicalmente la sociedad, según un nuevo artículo de DeepMind.
  • El apego excesivo a los asistentes de IA, con apariencia humana, podría causar pérdida de autonomía y lazos sociales.
  • Casos pasados sugieren que la formación de vínculos emocionales con IA puede resultar en consecuencias negativas.

Asistentes personales virtuales impulsados por inteligencia artificial se están volviendo ubicuos en todas las plataformas tecnológicas, con cada importante empresa tecnológica agregando IA a sus servicios y docenas de servicios especializados lanzándose al mercado. Aunque son inmensamente útiles, algunos investigadores de Google dicen que los humanos podrían llegar a estar emocionalmente muy vinculados a ellos, lo que podría llevar a una serie de consecuencias sociales negativas.

Un nuevo artículo de investigación del laboratorio de investigación de IA DeepMind de Google destaca los posibles beneficios de los asistentes de IA avanzados y personalizados para transformar varios aspectos de la sociedad, diciendo que "podrían alterar radicalmente la naturaleza del trabajo, la educación y las actividades creativas, así como la forma en que nos comunicamos, coordinamos y negociamos entre nosotros, influyendo en última instancia en quiénes queremos ser y en lo que queremos llegar a ser".

Por supuesto que, este impacto desmesurado, podría ser una espada de doble filo si el desarrollo de la IA continúa avanzando sin una planificación cuidadosa.

¿Un riesgo clave? La formación de vínculos inapropiadamente cercanos, lo cual podría agravarse si se presenta al asistente con una representación o rostro similar al humano. “Estos agentes artificiales incluso pueden profesar su supuesto afecto platónico o romántico por el usuario, sentando las bases para que los usuarios desarrollen vínculos emocionales duraderos con la IA”, dice el documento.

AD

Sin control, dicho apego podría llevar a una pérdida de autonomía para el usuario y la pérdida de lazos sociales porque la IA podría reemplazar la interacción humana.

Este riesgo no es puramente teórico. Incluso cuando la inteligencia artificial estaba en un estado algo primitivo, un chatbot de IA fue lo suficientemente influyente como para convencer a un usuario de cometer suicidio después de una larga conversación en 2023. Hace ocho años, una asistente de correo electrónico impulsada por IA llamada "Amy Ingram" era lo suficientemente realista como para incitar a algunos usuarios a enviar notas de amor e incluso intentar visitarla en el trabajo.

Iason Gabriel, un científico investigador en el equipo de ética de investigación de DeepMind y coautor del artículo, no respondió a la solicitud de comentarios de Decrypt.

AD

Sin embargo, en un tuit, Garbriel advirtió que "formas cada vez más personales y humanas de asistentes introducen nuevas preguntas sobre el antropomorfismo, la privacidad, la confianza y las relaciones apropiadas con la IA".

Debido a que "millones de asistentes de IA podrían ser desplegados a nivel societal donde interactuarán entre sí y con no usuarios", Gabriel dijo que cree en la necesidad de más salvaguardias y un enfoque más holístico hacia este nuevo fenómeno social.

El documento de investigación también discute la importancia de la alineación de valores, la seguridad y el uso indebido en el desarrollo de asistentes de IA. Aunque los asistentes de IA podrían ayudar a los usuarios a mejorar su bienestar, potenciar su creatividad y optimizar su tiempo, los autores advirtieron sobre riesgos adicionales como un desalineamiento con los intereses del usuario y de la sociedad, imposición de valores en otros, uso con fines maliciosos y vulnerabilidad a ataques adversarios.

Para abordar estos riesgos, el equipo de DeepMind recomienda desarrollar evaluaciones exhaustivas para los asistentes de IA y acelerar el desarrollo de asistentes de IA socialmente beneficiosos.

"Nos encontramos actualmente al comienzo de esta era de cambio tecnológico y social. Por lo tanto, tenemos una ventana de oportunidad para actuar ahora, como desarrolladores, investigadores, responsables de políticas y partes públicas interesadas, para dar forma al tipo de asistentes de IA que queremos ver en el mundo."

La desalineación de la IA puede mitigarse a través del Aprendizaje por Refuerzo a través de la Retroalimentación Humana (RLHF), que se utiliza para entrenar modelos de IA. Expertos como Paul Christiano, quien dirigió el equipo de alineación de modelos de lenguaje en OpenAI y ahora lidera el Centro de Investigación de Alineación sin fines de lucro, advierten que la gestión inadecuada de los métodos de entrenamiento de IA podría terminar en una catástrofe.

"Creo que tal vez hay algo así como un 10-20% de posibilidad de dominio de la IA, [con] muchos [o] la mayoría de los humanos muertos," dijo Paul Christiano en el podcast Bankless el año pasado. "Lo tomo muy en serio."

AD

Editado por Ryan Ozawa.

Stay on top of crypto news, get daily updates in your inbox.