En Resumen

  • Un hombre paralizado pilotó un dron virtual usando un implante cerebral desarrollado por Stanford.
  • Investigadores mapearon señales cerebrales para controlar múltiples dimensiones del dron.
  • Empresas como Neuralink y Synchron avanzaron en interfaces cerebro-computadora menos invasivas.

Un hombre de 69 años con parálisis y un implante cerebral logró pilotar un dron virtual a través de complejos circuitos de obstáculos mientras pensaba en mover sus dedos, gracias a un dispositivo experimental desarrollado por investigadores de la Universidad de Stanford.

El participante, que tiene cuadriplejía por una lesión de médula espinal C4, navegó por circuitos de obstáculos y patrones de vuelo aleatorios utilizando señales neuronales de dos pequeños arrays de electrodos implantados en su cerebro. Su capacidad para combinar múltiples movimientos simultáneamente representa un avance significativo en la tecnología de interfaz cerebro-computadora.

Para el experimento, los investigadores desarrollaron un sistema que puede decodificar cuatro dimensiones distintas de control a partir de señales cerebrales. Este nivel de control coincide con lo que los jugadores sin discapacidad logran con controladores físicos, dijeron los investigadores.

“Así como los usuarios sin discapacidad de sistemas digitales usan sus dedos para manipular teclados y controladores de juegos, este sistema permite un marco intuitivo para una interfaz digital controlada por el cerebro, brindando oportunidades para la recreación y socialización, además de generar sentimientos de capacitación”.

“Él expresó en múltiples ocasiones (incluso antes de inscribirse en el ensayo clínico) que una de sus prioridades personales más importantes era usar una interfaz cerebro-computadora para controlar un cuadricóptero”, señalaron los investigadores en su artículo. “Sentía que controlar un cuadricóptero le permitiría, por primera vez desde su lesión, ‘elevarse’ figurativamente de su cama/silla”.

Esta motivación impulsó resultados impresionantes: después de diferentes intentos, el sujeto logró completar 12 vueltas alrededor de un circuito de obstáculos, promediando 222 segundos por vuelta, y navegando a través de 28 anillos colocados aleatoriamente en solo 10 minutos.

Cómo funciona la tecnología

Cuando piensas en mover tus dedos, las neuronas (células cerebrales) en la corteza motora (el centro de control de movimiento del cerebro) disparan señales eléctricas. Incluso si el cuerpo está paralizado, estas señales aún existen. Los estudios de lectura mental han estado tratando de decodificar estas señales para activar dispositivos externos capaces de lograr lo que el cerebro quiere hacer.

El sistema que ayudó a este hombre a pilotar un dron virtual se basa en dos arrays de microelectrodos de silicio de 96 canales colocados en el área del “nudo de la mano” de la corteza motora del participante. Los electrodos captan la potencia de banda de picos, una medida de cuán activas están las neuronas. Por ejemplo, cuando el participante imagina flexionar su pulgar, neuronas específicas disparan rápidamente y estos electrodos detectan los patrones de actividad neural.

Luego, una computadora utiliza un algoritmo de machine learning (como un traductor inteligente) para convertir estas señales en movimientos de dedos en tiempo real. El algoritmo fue entrenado haciendo que el participante observara una mano virtual, moverse e intentara imitarla mentalmente. Con el tiempo, el sistema aprendió patrones que asociaban patrones eléctricos específicos con movimientos específicos de los dedos.

El esquema de control aprendió a mapear diferentes movimientos imaginados de los dedos para realizar acciones específicas del dron:

  • Los movimientos del pulgar controlan el movimiento adelante/atrás e izquierda/derecha.
  • Los movimientos de los dedos índice-medio controlan la altitud.
  • Los movimientos de los dedos anular-meñique manejan la rotación.

“Volarlo son pequeños ajustes sobre una línea media, un poco arriba, un poco abajo”, explicó el paciente. El sistema permite un control suave y simultáneo en todas las dimensiones, permitiendo maniobras complejas como combinar movimiento hacia adelante con giros.

La tecnología de lectura mental no es exactamente nueva; la IA ha dado un impulso masivo a la disciplina. Los avances recientes en múltiples laboratorios y empresas muestran qué tan rápido está evolucionando el campo.

Por ejemplo, Neuralink, la empresa de interfaz cerebro-computadora de Elon Musk, ha sido noticia con sus dos primeros pacientes humanos. Su segundo participante, conocido como “Alex”, rompió récords en el control del cursor mediante interfaz cerebro-computadora tras lograr jugar el videojuego Counter-Strike 2 y usar software de diseño 3D solo un mes después de recibir el implante.

Elon Musk espera hacer masivos los dispositivos de interfaz cerebro-computadora. “Si todo va bien, habrá cientos de personas usando Neuralinks en unos años, tal vez decenas de miles en cinco años, millones en diez años”, tuiteó Musk poco después de compartir los resultados del desempeño de Alex.

Sin embargo, algunos expertos creen que el enfoque de Neuralink es demasiado invasivo. Esto llevó a uno de sus investigadores a dejar la empresa y fundar otra startup de interfaz cerebro-control: “Precisión Neuroscience”, que está trabajando en un dispositivo que registra la actividad “envolviendo” el cerebro en lugar de insertar agujas en él.

Synchron, una empresa con sede en Nueva York, ha desarrollado un implante cerebral menos invasivo llamado The Stentrode que evita la cirugía cerebral tradicional al insertarse a través de los vasos sanguíneos. Su paciente, un hombre de 64 años identificado como “Mark”, logró controlar dispositivos Amazon Alexa e interactuar con un visor Apple Vision Pro usando solo sus pensamientos. El dispositivo se implanta a través de la vena yugular y se posiciona cerca de la corteza motora.

Hay muchos otros ejemplos, desde prácticos hasta más experimentales.

Unbabel ha logrado convertir pensamientos directamente en texto. Investigadores de UC San Francisco han desarrollado un sistema de pensamientos a voz e incluso Meta ha estado trabajando en interfaces cerebro-máquina no invasivas para aplicaciones de realidad aumentada, desarrollando un sistema que convierte pensamientos en imágenes casi en tiempo real.

En 2023, investigadores de UC Berkeley lograron reconstruir música directamente desde la actividad cerebral. Su sistema recreó exitosamente “Another Brick in the Wall, Part 1” de Pink Floyd analizando señales neuronales de pacientes con epilepsia. El avance sugiere posibles aplicaciones para ayudar a pacientes con dificultades del habla a comunicarse a través del pensamiento.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.