En Resumen
- Se desarrolló un dispositivo portátil que permitió a pacientes con disartria recuperar una comunicación natural y expresiva.
- El sistema procesó señales emocionales y de habla silenciosa en tiempo real mediante sensores y modelos de lenguaje avanzados.
- Investigadores probaron el dispositivo, logrando alta precisión y mejorando significativamente la satisfacción de los usuarios.
Se ha desarrollado un nuevo dispositivo portátil para permitir a pacientes con disartria —un trastorno motor del habla— recuperar una comunicación natural y fluida.
El sistema de "intelligent throat" o garganta inteligente, creado por un equipo internacional de investigadores, combina sensores avanzados e inteligencia artificial (IA) para procesar el habla silenciosa y las señales emocionales en tiempo real.
El sistema integra sensores de deformación textil, que detectan vibraciones de los músculos de la garganta, y monitores de señal de pulso carotídeo, junto con modelos de lenguaje grandes para el procesamiento del habla.
A diferencia de las tecnologías existentes, el dispositivo traduce el habla silenciosa en oraciones coherentes y sin retrasos, incorporando matices emocionales y contextuales.
El sistema probado en cinco pacientes con disartria, logró una tasa de error de palabras del 4,2% y una tasa de error de oraciones del 2,9%, mejorando significativamente los sistemas de habla silenciosa existentes.
Además, la satisfacción del usuario aumentó un 55%, destacando su capacidad para proporcionar una comunicación personalizada y expresiva.
"El sistema genera oraciones personalizadas, contextualmente apropiadas que reflejan con precisión el significado pretendido por los pacientes", señala un documento de investigación presentado el miércoles.
El diseño del dispositivo portátil presenta un "choker" integrado con sensores de deformación basados en grafeno, ofreciendo alta sensibilidad y comodidad para su uso diario.
Un módulo inalámbrico incorporado garantiza la transmisión continua de datos con un consumo de energía mínimo, permitiendo su funcionamiento durante todo el día.
Agentes de LLM integrados en el sistema analizan tokens de habla y señales emocionales, refinando y expandiendo oraciones para coincidir con el significado pretendido por el usuario.
El enfoque personalizado permite una expresión dinámica en tiempo real, cerrando la brecha entre las necesidades de comunicación del paciente y las capacidades tecnológicas, según los investigadores.
Los investigadores también vislumbran aplicaciones más amplias, incluyendo soporte para otras condiciones neurológicas como ELA y Parkinson, con el potencial de adaptaciones multilingües.
El equipo está enfocándose ahora en miniaturizar el dispositivo e integrarlo en marcos de edge computing para mejorar su usabilidad, según escribieron.