Basta con un chip del tamaño de una aspirina implantado en el cerebro para que las señales neuronales relacionadas con su intención de movimiento se emitan a través del mismo y sean decodificadas en tiempo real por el dispositivo que desea usar.
Ciudad de México, 31 de octubre (SinEmbargo/TICBeat).- El primer gran avance en el campo de las interfaces hombre-máquina tuvo lugar hace aproximadamente dos décadas, después de que un esfuerzo para ayudar a personas paralíticas se tradujera en la creación de sistemas de ‘eye tracking’ que permiten al usuario usar el movimiento de sus ojos como forma de controlar el cursor del ratón en la pantalla del ordenador, o usar el tiempo que permanece enfocando a la vista como indicación para ‘hacer click’.
Sin embargo, esta tecnología de seguimiento ocular sigue siendo imprecisa… y agotadora para la mayoría de sus usuarios. Además, el alto nivel de personalización requerida la encarece notablemente, limitando el acceso a la misma en función de la renta.
Por eso un grupo de investigadores de la Universidad de Stanford, liderados por el Dr. Paul Nuyujukian, médico y neuroingeniero, decidió apostar por las prótesis neuronales, y esta semana han explicado los avances logrados en la conferencia anual de la Sociedad de Neurociencia que tuvo lugar en Chicago.
Dichas prótesis permiten al paciente eliminar a un intermediario del proceso de interacción con la máquina: basta con un chip del tamaño de una aspirina implantado en el cerebro para que las señales neuronales relacionadas con su intención de movimiento se emitan a través del mismo y sean decodificadas en tiempo real por el dispositivo que desea usar.
Uno de los pacientes que participa en el experimento es una mujer de 50 años con esclerosis lateral amiotrófica que le ha causado parálisis parcial de cuello para abajo (y le sigue dañando progresivamente las neuronas motoras). Como ella, millones de personas en todo el mundo sufren parálisis severa, sea por su misma enfermedad, sea por aplo.
A ella la conocemos por el nombre de T6, y su calidad de vida ha mejorado notablemente desde que aprendió en 2014 a controlar una tablet Nexus 9 gracias a sus ondas cerebrales, pese a su incapacidad hasta hace nada para interactuar físicamente con el mundo exterior. Necesitó para ello una matriz de 100 electrodos en el lado izquierdo de su cabeza (sobre la zona del cerebro responsable del movimiento). Ahora, según Nuyujukian, “la tablet básicamente reconoce la prótesis como un ratón bluetooth inalámbrico”.
Han demostrado que el dispositivo puede funcionar dos años sin experimentar ningún problema de hardware o software, pero aún quieren mejorar el diseño del dispositivo implantado para alargar más su vida útil. Una vez logrado esto (y desarrollado la forma de implementar acciones como el ‘multitouch’ o el ‘click y arrastrar’), esperan poder lanzar al mercado esta interfaz cerebro-computadora en dos años.