Las interfaces cerebro-máquina alguna vez fueron materia de ciencia ficción. Pero la tecnología, que permite la comunicación directa entre el cerebro de una persona o animal y un dispositivo externo u otro cerebro, ha recorrido un largo camino en la última década.
Los científicos han desarrollado interfaces que permiten a las personas paralizadas escribir letras en una pantalla, dejar que una persona mueva la mano de otra con sus pensamientos e incluso hacer posible que dos ratas intercambien pensamientos, en este caso, el conocimiento de cómo resolver un problema en particular. tarea: cuando se encuentran en laboratorios a miles de millas de distancia.
Ahora, un equipo dirigido por Miguel Nicolelis de la Universidad de Duke (el científico detrás del esquema de intercambio de pensamientos de ratas, entre otras interfaces cerebro-máquina) ha creado una nueva configuración que permite a los monos controlar dos brazos virtuales simplemente pensando en mover sus brazos reales . Esperan que la tecnología, revelada en un artículo publicado hoy en Science Translational Medicine, algún día pueda conducir a interfaces similares que permitan a los humanos paralizados mover brazos y piernas robóticos.
Anteriormente, el equipo de Nicolelis y otros habían creado interfaces que permitían a monos y humanos mover un solo brazo. de manera similar, pero esta es la primera tecnología que le permite a un animal mover múltiples extremidades simultáneamente. "Los movimientos bimanuales en nuestras actividades diarias, desde escribir en un teclado hasta abrir una lata, son críticamente importantes", dijo Nicolelis en un comunicado de prensa. "Las futuras interfaces cerebro-máquina destinadas a restaurar la movilidad en los humanos tendrán que incorporar múltiples extremidades para beneficiar enormemente a los pacientes con parálisis severa".
Al igual que las interfaces anteriores del grupo, la nueva tecnología se basa en electrodos ultrafinos que se insertan quirúrgicamente en la corteza cerebral de los cerebros de los monos, una región del cerebro que controla los movimientos voluntarios, entre otras funciones. Pero a diferencia de muchas otras interfaces cerebro-máquina, que usan electrodos que monitorean la actividad cerebral en solo un puñado de neuronas, el equipo de Nicolelis registró actividad en casi 500 células cerebrales distribuidas en un rango de áreas de la corteza en los dos monos rhesus que fueron sujetos de prueba para este estudio.
Luego, en el transcurso de unas pocas semanas, colocaron repetidamente a los monos frente a un monitor, donde vieron un par de brazos virtuales desde una perspectiva en primera persona. Inicialmente, controlaron cada uno de los brazos con joysticks, y completaron una tarea en la que tuvieron que mover los brazos para cubrir formas en movimiento para recibir una recompensa (una muestra de jugo).
Cuando esto sucedió, los electrodos registraron la actividad cerebral en los monos que se correlacionaban con los diversos movimientos del brazo, y los algoritmos lo analizaron para determinar qué patrones particulares en la activación de las neuronas estaban vinculados con qué tipos de movimientos del brazo, izquierdo o derecho, y hacia adelante o hacia atrás. .
Finalmente, una vez que el algoritmo pudo predecir con precisión el movimiento del brazo previsto del mono en función de los patrones del cerebro, la configuración se modificó para que los joysticks ya no controlaran los brazos virtuales; los pensamientos de los monos, según lo registrado por los electrodos, estaban en control. Desde la perspectiva de los monos, nada había cambiado, ya que las palancas de mando todavía estaban puestas delante de ellos, y el control se basaba en patrones cerebrales (específicamente, imaginando que movían sus propios brazos) que estaban produciendo de todos modos.
Sin embargo, en dos semanas, los dos monos se dieron cuenta de que no necesitaban mover sus manos y manipular los joysticks para mover los brazos virtuales, solo tenían que pensar en hacerlo. Con el tiempo, mejoraron cada vez más en el control de los brazos virtuales a través de esta interfaz máquina-cerebro, y finalmente lo hicieron con la misma eficacia que movieron los joysticks.
Los avances futuros en este tipo de interfaz podrían ser enormemente valiosos para las personas que han perdido el control de sus propios miembros, debido a la parálisis u otras causas. A medida que las extremidades biónicas de alta tecnología continúan desarrollándose, este tipo de interfaces eventualmente podría ser la forma en que se utilizarán a diario. Una persona con una lesión en la médula espinal, por ejemplo, podría aprender cómo imaginar efectivamente mover dos brazos para que un algoritmo pueda interpretar sus patrones cerebrales para mover dos brazos robóticos de la manera deseada.
Pero las interfaces cerebro-máquina también podrían algún día servir a una población mucho más amplia: usuarios de teléfonos inteligentes, computadoras y otras tecnologías de consumo. Las compañías ya han desarrollado auriculares que monitorean tus ondas cerebrales para que puedas mover a un personaje en un videojuego simplemente pensando en ello, esencialmente usando tu cerebro como un joystick. Finalmente, algunos ingenieros imaginan que las interfaces cerebro-máquina podrían permitirnos manipular tabletas y controlar tecnología portátil como Google Glass sin decir una palabra o tocar una pantalla.