Máquina transforma los pensamientos en voz en tiempo real.
Modelo de la interfaz cerebro-máquina para la generación de voz en tiempo real. El daño inducido por lesión (X roja) desactiva la salida de voz, pero la estructura motora del habla en la corteza cerebral se mantiene intacta. Señales recogidas de un electrodo en la corteza motora del habla se amplifican y se envían de forma inalámbrica hacia el cuero cabelludo como las señales de radio FM. El Sistema de Neuralynx amplifica, convierte, y ordena las señales. El decodificador neural luego traduce las señales en los comandos de voz para el sintetizador de voz. Imagen: Guenther, et al.
Mediante la implantación de un electrodo en el cerebro de una persona con el síndrome de locked-in (estar encerrado en si mismo), los científicos han demostrado la posibilidad de enviar en forma inalámbrica las señales neuronales a un sintetizador de voz. El proceso "pensamiento-habla" toma alrededor de 50 milésimas de segundo - la misma cantidad de tiempo que necesita una persona sana neurológicamente para pensar y hablar. El estudio marca la primera demostración exitosa de un equipo instalado permanentemente. Y es un implante inalámbrico de control en tiempo real de un dispositivo externo.
El estudio está dirigido por Frank Guenther del Departamento de Sistemas Cognitivos y Neuronales Sargent y el Colegio de Ciencias de la Salud y Rehabilitación de la Universidad de Boston, así como la División de Ciencias de la Salud y Tecnología en la Universidad de Harvard-Massachusetts Institute of Technology. El equipo de investigación incluye a colaboradores de las señales nerviosas, Inc., en Duluth, Georgia; StatsANC LLC en Buenos Aires, Argentina, el Georgia Tech Research Institute en Marietta, Georgia, el Centro Médico de Gwinnett en Lawrenceville, Georgia, y Hospital Universitario de Emory en Atlanta , Georgia. El equipo publicó sus resultados en una edición reciente de PLoS ONE.
"Los resultados de nuestro estudio muestran que en una interfaz cerebro-máquina (BMI), el usuario puede controlar la salida de sonido directamente, en lugar de tener que utilizar un proceso de mecanografiado(relativamente lento) ", dijo Guenther PhysOrg.com.
En su estudio, los investigadores probaron la tecnología en una mujer de 26 años de edad que sufrió un derrame cerebral a los 16 años. El derrame provoco una lesión entre las neuronas motoras de funciones automáticas que llevan a cabo las acciones y el resto del cerebro, mientras que su conciencia y las capacidades cognitivas están intactas, ella está paralizada a excepción del lento movimiento vertical de los ojos. Esta rara condición se llama locked-in.
Hace cinco años, cuando el voluntario era de 21 años, los científicos implantaron un electrodo cerca de la frontera relacionada con el habla premotora y la corteza motora primaria (especificamente, a la izquierda de la corteza premotora ventral). Las neuritas (prolongación filiforme que arranca de una célula nerviosa) comenzaron a crecer dentro del electrodo y, en tres o cuatro meses, las neuritas produjeron patrones de señalización en los cables de electrodos que se han mantenido de manera indefinida.
Tres años después de la implantación, los investigadores comenzaron a probar la interfaz cerebro-máquina(BMI) para la generación de voz sinterizada en tiempo real. El sistema es "telemetrico" - por lo que no requiere cables o conectores que pasan a través de la piel, eliminando el riesgo de infección. En cambio, el electrodo amplifica y convierte las señales neuronales en señales de radio de frecuencia modulada (FM). Estas señales se transmiten de forma inalámbrica a través del cuero cabelludo a dos bobinas, que se adjuntan a la cabeza del voluntario con una pasta de agua soluble en agua. Las bobinas actuan como antena de recepción de las señales de RF. El electrodo implantado es alimentado por una fuente de alimentación a través de una bobina de inducción de energía, que también se adjunta a la cabeza.
Las señales son luego enviados a un sistema de registro electrofisiológico que digitaliza y las ordena. Los picos de señal son ordenados, ya que estos contienen la data más relevante para el estudio y son enviados a un descodificador neuronal que se ejecuta en un ordenador de escritorio común. La salida del decodificador neural se convierte en la entrada de un sintetizador de voz, ejecuntandose en el mismo equipo. Por último, el sintetizador de voz genera voz sintética (en el estudio actual, sólo tres vocales se han probado). Todo el proceso dura un promedio de 50 milisegundos.
Como explicaron los científicos, no existen estudios previos electrofisiológicos de la descarga neuronal en las áreas motoras del habla. Con el fin de desarrollar un preciso sistema de codificación neural, tenían que confiar en un modelo de neurocomputational establecido de control motor del habla. Según este modelo, las neuronas de la corteza ventral premotora izquierda intentan representar los sonidos del habla en términos de "trayectorias de frecuencias en formación."
En un cerebro intacto, estas trayectorias de frecuencia se envían a la corteza motora primaria, donde se transforman en órdenes motoras a los articuladores del habla. Sin embargo, en el estudio actual, los investigadores tuvieron que interpretar estas trayectorias de frecuencias, a fin de traducirlas en el habla. Para ello, los científicos desarrollaron un espacio bidimensional de frecuencias en formación, en el que los sonidos vocálicos diferentes pueden trazarse sobre la base de dos frecuencias en formación (cuyos valores están representados en los ejes X e Y).
"El estudio apoya nuestra hipótesis (basado en el modelo DIVA, nuestro modelo de red neuronal del habla) que la corteza premotora es la responsable del habla y es una " trayectoria auditiva ", es decir, como un conjunto de frecuencias fundamentales (frecuencias en formación) que varían con la tiempo en la señal acústica que escuchamos como el habla, "dijo Guenther. "En otras palabras, podríamos predecir el sonido generado directamente de la actividad neuronal en la corteza premotora, en lugar de tratar de predecir las posiciones de todos los articuladores del habla de forma individual y luego tratar de reconstruir el sonido generado (un problema mucho más difícil, dada el pequeño número de neuronas que registramos). Este resultado nos proporciona la primera visión de cómo las neuronas en el cerebro representan el habla, algo que no ha sido investigado antes ya que no hay modelo animal para el habla. "
Para confirmar que las neuronas en el área implantada son capaces de llevar información de voz en la forma de trayectorias de frecuencia en formación, los investigadores pidieron a los voluntarios que trataran de hablar en sincronía con una secuencia de audio que se les presentó auditivamente. En posteriores experimentos, los voluntarios recibieron en tiempo real la retroalimentación auditiva del sintetizador de voz. Durante 25 sesiones y durante un período de cinco meses, el voluntario mejoro significativamente la presicion del proceso pensamiento-habla. La tasa de exito aumentó de 45% a 70% entre las sesiones, alcanzando un máximo de 89% en el último período de sesiones.
Aunque el estudio actual se centró sólo en la producción de un pequeño conjunto de las vocales, los investigadores creen que los sonidos de las consonantes podría lograrse con las mejoras en el sistema. Si bien en este estudio se uso un solo electrodo de tres cables, el uso de electrodos adicionales en los lugares de grabación múltiple, así como mejorar las técnicas de decodificación, podría conducir a un control rápido y exacto de un sintetizador de voz que podría generar una amplia gama de sonidos.
"Nuestros planes inmediatos implican la aplicación de un nuevo sintetizador que pueda producir consonantes, así como las vocales, pero sigue siendo bastante simple la interfaz cerebro máquina (BMI)", dijo Guenther. "También estamos trabajando en el hardware que aumentará considerablemente el número de neuronas que se registran. Esperamos multiplicar al menos 10 veces el número de neuronas en el próximo receptor del implantes, que debe conducir a una mejora notable en el rendimiento ".
En general, el trabajo marca un hito en el desarrollo de una prótesis neurales permanente que no requiere hardware externo importante más allá de un receptor inalámbrico y ordenador portátil. Las anteriores interfaces cerebro-máquina para aplicaciones de comunicaciones son muy lentas, produciendo sólo una palabra por minuto. El nuevo sistema tiene el potencial de permitir conversación en tiempo real, y ayudar a reducir el aislamiento social que acompaña la parálisis profunda.
Fuente:www.physorg.com
Traducido:Ing.javier vivas
Comentarios
Publicar un comentario
Se agradece hacer comentarios exclusivamente sobre el tema leído. Cualquier otro será anulado.