Por Jason Nelson
5 min lectura
Después de 18 años sin hablar, una mujer paralizada por un derrame cerebral ha recuperado su voz a través de una interfaz cerebro-computadora experimental desarrollada por investigadores de la Universidad de California, Berkeley, y UC San Francisco.
La investigación, publicada en Nature Neuroscience el lunes, utilizó inteligencia artificial para traducir los pensamientos de la participante, conocida como "Anne", en habla natural en tiempo real.
"A diferencia de la visión, el movimiento o el hambre —compartidos con otras especies— el habla nos distingue. Eso por sí solo lo convierte en un tema de investigación fascinante", dijo a Decrypt Gopala Anumanchipalli, Profesor Asistente de Ingeniería Eléctrica e Informática en UC Berkeley. "Sigue siendo una de las grandes incógnitas: cómo el comportamiento inteligente surge de las neuronas y el tejido cortical".
El estudio utilizó una interfaz cerebro-computadora para crear una vía directa entre las señales eléctricas del cerebro de Anne y una computadora.
Como explicó Anumanchipalli, la interfaz lee señales neuronales utilizando una rejilla de electrodos colocada en el centro del habla del cerebro.
"Pero quedó claro que hay condiciones —como ELA, derrame cerebral del tronco encefálico o lesiones— donde el cuerpo se vuelve inaccesible, y la persona queda 'encerrada'. Están cognitivamente intactos, pero incapaces de moverse o hablar", dijo Anumanchipalli.
Anumanchipalli señaló que mientras se han logrado avances significativos en la creación de extremidades artificiales, restaurar el habla sigue siendo más complejo.
"Ambos son sistemas motores, pero el movimiento de las extremidades es un problema más simple que el movimiento de la boca, que involucra más articulaciones y músculos", dijo. "La restauración del brazo también es algo que perseguimos".
Enfatizando la importancia de respuestas rápidas en la conversación, Anumanchipalli dijo que con machine learning y algoritmos de IA personalizados, la interfaz cerebro-computadora convirtió las señales cerebrales de Anne en habla en menos de un segundo utilizando un generador de voz sintética.
"Grabamos los intentos de Anne y usamos audio de antes de su lesión —su video de boda. Era un clip de 20 años, pero recreamos digitalmente una voz sintética", dijo Anumanchipalli. "Luego, emparejamos el intento de su cerebro de hablar con esa voz para generar habla sintética".
Si bien la tecnología permitió a Anne hablar, Anumanchipalli le dio crédito por hacer la parte más difícil del proceso.
"La verdadera impulsora aquí es Anne. Su cerebro hace el trabajo pesado —nosotros solo leemos lo que está tratando de hacer", dijo Anumanchipalli. "La IA completa algunos vacíos, pero Anne es el personaje principal. El cerebro evolucionó durante millones de años para hacer esto —la comunicación fluida es para lo que fue construido".
El avance de Anne es parte de un movimiento más amplio en la investigación de interfaces cerebro-computadora, que ha atraído a importantes actores en neurociencia y tecnología, incluido Neuralink de Elon Musk.
El miércoles, Neuralink abrió su registro de pacientes para el estudio PRIME de la compañía a solicitantes de todo el mundo.
En lugar de depender de modelos de inteligencia artificial disponibles públicamente, el equipo construyó un sistema desde cero específicamente para Anne.
"No hemos utilizado nada prefabricado. Todo lo que estamos usando está hecho a medida para Anne. No estamos licenciando IA de ninguna otra compañía", dijo Anumanchipalli.
"Somos ingenieros y científicos de IA —diseñamos nuestro propio trabajo, personalizado para Anne. La IA como caja negra no es apropiada, especialmente en atención médica, donde un enfoque único no sirve para todos. Tenemos que reimaginar y crear soluciones a medida para cada persona".
Anumanchipalli dijo que construir una IA propietaria no solo era cuestión de especialización, sino también de preservar la privacidad del usuario.
"El objetivo es preservar la privacidad. No estamos enviando sus señales a una empresa en Silicon Valley. Estamos diseñando software que permanece con ella", dijo. "Eventualmente, esto será un dispositivo independiente, alimentado por su propio cuerpo, trabajando localmente —así nadie más controla lo que está tratando de decir".
Anumanchipalli destacó la importancia de la financiación pública en el desarrollo de la investigación de interfaces cerebro-computadora.
"Proyectos como este impulsan la innovación más allá de lo que podemos imaginar, con aplicaciones derivadas. La financiación federal de los Institutos Nacionales de Salud de EE.UU. y el Instituto Nacional de Sordera y Otros Trastornos de la Comunicación hicieron esto posible", dijo. "También son bienvenidas la financiación filantrópica y privada para impulsarlo. Esta es la frontera de lo que podemos lograr juntos".
Mirando hacia el futuro, Anumanchipalli espera que los investigadores redoblen los esfuerzos para devolver el habla usando tecnología.
"Afortunadamente, el esfuerzo ha recibido un fuerte apoyo. Espero que el elemento humano siga siendo central", dijo. "Personas como Anne han ofrecido voluntariamente su tiempo y esfuerzo en algo que no les promete nada, pero explora terapias para otros como ellos —y eso es importante".
Editado por Sebastian Sinclair
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.