4 min lectura
La inteligencia artificial (IA) tiene un enorme potencial para acelerar los avances en salud y medicina, pero también conlleva riesgos si no se aplica con cuidado, como demuestran los resultados contradictorios de estudios recientes sobre el tratamiento del cáncer.
Por un lado, la startup británica de biotecnología Etcembly acaba de anunciar que pudo utilizar IA generativa para diseñar una novedosa inmunoterapia que apunta a cánceres difíciles de tratar. Esta es la primera vez que se desarrolla un tratamiento de inmunoterapia utilizando IA, y Etcembly, que es miembro del programa Inception de Nvidia, pudo crear esta nueva inmunoterapia en solo 11 meses, el doble de rápido que los métodos convencionales.
El nuevo tratamiento de Etcembly, llamado ETC-101, es un activador bispecífico de células T, lo que significa que apunta a una proteína que se encuentra en muchos cánceres y no en tejidos sanos. También demuestra una afinidad picomolar, y por lo tanto es hasta un millón de veces más potente que los receptores de células T naturales.
La compañía también afirma que tiene una robusta cartera de otras inmunoterapias para el cáncer y enfermedades autoinmunes diseñadas por su motor de IA, llamado EMLy.
Imagen: Etcembly
"Etcembly nació de nuestro deseo de unir dos conceptos que están a la vanguardia de la corriente científica dominante: los TCR y la IA generativa, para diseñar la próxima generación de inmunoterapias", dijo la CEO Michelle Teng. "Estoy entusiasmada de llevar estos activos adelante para que podamos hacer realidad el futuro de las terapias con TCR y llevar tratamientos transformadores a los pacientes".
Anteriormente, los investigadores demostraron que la IA podría ayudar a predecir los resultados de tratamientos experimentales contra el cáncer, mejorar las técnicas de detección de cáncer, descubrir nuevos medicamentos senolíticos, detectar signos de la enfermedad de Parkinson y comprender las interacciones de las proteínas para diseñar nuevos compuestos.
Por otro lado, siguen existiendo riesgos significativos. Algunas personas están empezando a usar consejos de chatbots de IA en lugar de seguir las indicaciones de médicos y terapeutas, incluso una persona se quitó la vida después de seguir los consejos dañinos de un chatbot.
Los científicos también se están alineando con la idea de que las personas no deberían seguir ciegamente los consejos de la IA. Un nuevo estudio publicado por JAMA Oncology sugiere que ChatGPT tiene limitaciones críticas al generar planes de tratamiento contra el cáncer, resaltando los riesgos si las recomendaciones de IA se implementan clínicamente sin una validación extensiva.
Investigadores del Hospital Brigham and Women's en Boston encontraron que las recomendaciones de tratamiento de ChatGPT para varios casos de cáncer contenían muchos errores factuales e información contradictoria.
De 104 consultas, alrededor de un tercio de las respuestas de ChatGPT tenían detalles incorrectos, según el estudio publicado en JAMA Oncology.
“Todas las respuestas con una recomendación incluyeron al menos 1 tratamiento concordante con NCCN, pero 35 de 102 (34,3%) de estas respuestas también recomendaron de 1 o más tratamientos no concordantes”, encontró el estudio.
Fuente: JAMA Oncology
Aunque el 98% de los planes incluyeron algunas pautas precisas, casi todos mezclaron contenido correcto e incorrecto.
"Nos sorprendió el grado en que la información incorrecta se mezcló con datos precisos, lo que hace que los errores sean difíciles de identificar, incluso para los especialistas", dijo el coautor Dr. Danielle Bitterman.
Específicamente, el estudio encontró que el 12,5% de las recomendaciones de tratamiento de ChatGPT fueron completamente alucinadas o fabricadas por el bot sin ninguna precisión factual. La IA tuvo problemas particulares para generar terapias localizadas confiables para cánceres avanzados y el uso adecuado de medicamentos de inmunoterapia.
OpenAI advierte que ChatGPT no está destinado a proporcionar asesoramiento médico o servicios de diagnóstico para problemas de salud graves. Aun así, la tendencia del modelo a responder con confianza información contradictoria o falsa aumenta los riesgos si se implementa clínicamente sin una validación rigurosa.
Comer veneno para hormigas es obviamente una mala idea, incluso si la herramienta IA de su supermercado se lo aconseja, pero cuando se trata de términos académicos complejos y consejos delicados, también debe hablar con un humano.
Con una validación cuidadosa, las herramientas impulsadas por IA podrían desbloquear rápidamente nuevos tratamientos que salvan vidas y evitar pasos en falso peligrosos. Pero por ahora, los pacientes son sabios al ver los consejos médicos generados por IA con una buena dosis de escepticismo.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.