4 min lectura
La inteligencia artificial está avanzando rápidamente, asumiendo tareas que antes solo realizaban los humanos. ¿Las últimas profesiones amenazadas? Los terapeutas y coach o entrenadores motivacional. Google está probando actualmente un nuevo asistente de IA diseñado para brindar a los usuarios consejos personalizados sobre la vida, desde decisiones de carrera hasta problemas de relación.
Según un reciente informe del New York Times, Google's Deep Mind se ha asociado con la empresa de entrenamiento de IA Scale AI para evaluar rigurosamente el nuevo chatbot. Se ha reclutado a más de 100 expertos con doctorados en diversos campos para probar exhaustivamente las capacidades del asistente. Los evaluadores se sumergieron en evaluar la capacidad de la herramienta para abordar de manera reflexiva preguntas profundamente personales sobre los desafíos de la vida real de los usuarios.
En un ejemplo de solicitud, un usuario le pidió al AI orientación sobre cómo decirle con elegancia a un amigo cercano que ya no puede permitirse asistir a su boda. Posteriormente, el asistente le brindó consejos o recomendaciones personalizadas basadas en la compleja situación interpersonal descrita.
Además de ofrecer consejos de vida, la herramienta de IA de Google tiene como objetivo brindar asistencia en 21 habilidades diferentes que van desde campos médicos especializados hasta sugerencias de pasatiempos. La función de planificación incluso puede crear presupuestos financieros personalizados.
Sin embargo, los especialistas en seguridad de IA de Google han expresado preocupación de que depender demasiado de una IA para tomar decisiones importantes en la vida podría llevar potencialmente a un deterioro del bienestar y la autonomía del usuario.
El lanzamiento en marzo del chatbot de IA Bard restringió notablemente su capacidad para brindar consejos médicos, financieros o legales, centrándose, en cambio, en ofrecer recursos de salud mental.
Las pruebas confidenciales forman parte del proceso estándar para desarrollar tecnología de IA segura y útil, afirmó un portavoz de Google DeepMind a The New York Times. El portavoz enfatizó que las muestras de prueba aisladas no representan la hoja de ruta del producto.
Sin embargo, mientras Google se inclina hacia la precaución, el entusiasmo público por las capacidades de IA en constante expansión fortalece a los desarrolladores. El éxito arrollador de ChatGPT y otras herramientas de procesamiento de lenguaje natural demuestra el deseo de las personas de recibir consejos de vida de IA, incluso si la tecnología actual tiene limitaciones.
Los especialistas han advertido que los chatbots de IA carecen de la capacidad humana innata para detectar mentiras o interpretar señales emocionales sutiles, como informó Decrypt anteriormente. Pero también evitan problemas comunes de los terapeutas como el sesgo o el diagnóstico erróneo. "Hemos visto que la IA puede funcionar con ciertas poblaciones", dijo la psicoterapeuta Robi Ludwig a CBS News en mayo. "Somos complejos, y la IA no te ama de vuelta, y necesitamos ser amados por lo que somos y lo que no somos", dijo ella.
Para segmentos aislados y vulnerables de la población, incluso un compañero de IA imperfecto parece preferible a la continua soledad y falta de apoyo. Sin embargo, esto en sí mismo parece una apuesta arriesgada, una que ya ha cobrado una vida humana, según el medio de noticias con sede en Bélgica La Libre.
A medida que la IA avanza inexorablemente, quedan sin respuesta difíciles preguntas sociales. ¿Cómo equilibramos la autonomía y el bienestar del usuario? ¿Y cuántos datos personales deberían tener las grandes corporaciones como Google sobre sus usuarios, mientras el mundo equilibra la relación riesgo-recompensa de tener asistentes baratos y disponibles al instante?
Por ahora, la IA parece estar lista para mejorar, en lugar de reemplazar, los servicios proporcionados por los humanos. Pero los límites futuros de la tecnología siguen siendo inciertos.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.