Cuando agarras algo, tu mano hace la mayor parte del trabajo. Tu cerebro simplemente dice: "vete, no te preocupes por cómo sucede". Pero con una prótesis, incluso la más avanzada, esa acción requiere mucha más intencionalidad. Como resultado, muchos pacientes abandonan sus extremidades de última generación.
contenido relacionado
- Cómo hackear redes neuronales puede ayudar a los amputados a romper un huevo sin problemas
- Obtener la prótesis es fácil, en comparación con conseguir que haga lo que quiere
Las prótesis modernas reciben comandos en forma de señales eléctricas de los músculos a los que están unidos. Pero incluso las mejores prótesis no pueden hacer mucho todavía. Los usuarios necesitan un largo período de entrenamiento para acostumbrarse a la extremidad. A menudo, solo pueden moverse de manera limitada, y los usuarios necesitan cambiar manualmente entre los agarres para realizar diferentes tareas, por ejemplo, abrir una puerta versus apretar y girar una llave. Con todo, significa que la mano no puede funcionar a la perfección con el cerebro.
Una herramienta que podría ayudar a resolver este problema es la visión por computadora. Los investigadores de la Universidad de Newcastle montaron una cámara web en una mano protésica, la conectaron a una red neuronal de aprendizaje profundo y entregaron los dispositivos a dos amputados cuyos brazos habían sido amputados por encima de la muñeca pero debajo del codo. La computadora usó la cámara para ver qué buscaba el usuario y ajustar automáticamente el agarre de la prótesis.
Los resultados, hasta ahora, han sido prometedores. En un artículo en el Journal of Neural Engineering, el equipo de Newcastle informó que los usuarios tenían tasas de éxito superiores al 80 por ciento para recoger y mover objetos.
"Si podemos mejorar eso, obtener un cien por ciento, sería mucho más confiable usar la mano para los amputados", dice Ghazal Ghazaei, estudiante de doctorado en Newcastle y autor principal del artículo. "Si va a ser usado en la vida real, debe ser sin errores ".
El dispositivo en sí era una prótesis lista para usar llamada i-limb ultra, y la cámara web era un Logitech Quickcam Chat de baja resolución y bajo costo. La verdadera innovación fue cómo el equipo de Ghazaei ideó un esquema de aprendizaje informático para utilizar la información de la cámara web.
El software reconoce patrones en la forma del objeto a levantar y los clasifica en categorías según el agarre que necesita para captarlos de manera efectiva. Para enseñarle a la computadora esta técnica, Ghazaei le proporcionó 72 imágenes cada una, tomadas en incrementos de 5 grados, de 500 objetos. El software filtra los objetos por sus características, y aprende a través de prueba y error cuáles caen en qué categorías.
Luego, cuando la prótesis se presenta con un objeto, la red clasifica la imagen de baja resolución en función de su forma amplia y abstracta. No tiene por qué ser algo que el sistema haya visto antes: la forma general del objeto es suficiente para decirle a la mano qué agarre usar. Ghazaei y su equipo utilizaron cuatro tipos de agarre, incluyendo pellizco (dos dedos), trípode (tres puntas de los dedos), palmar neutral (como agarrar una taza de café) y palmar pronada (donde la palma mira hacia abajo).
La visión por computadora se ha utilizado antes en manos robóticas, tanto en prótesis como en robots industriales. Pero tales esfuerzos han involucrado objetos de tamaño y forma estándar, como en un entorno de fabricación, o algoritmos más lentos. El sistema desarrollado en Newcastle pudo pasar por este proceso lo suficientemente rápido como para clasificar correctamente los objetos en 450 microsegundos, o alrededor de 1/2000 de segundo. "La principal diferencia es el tiempo que lleva proporcionar una comprensión y hacer la tarea", dice Ghazaei. “Para algunos de ellos son unos cuatro segundos, y algunos necesitan varias instantáneas. Para nosotros, es solo una instantánea y es muy rápido ".
Los impactos de esta tecnología van mucho más allá de recoger artículos para el hogar. Los sistemas de imágenes podrían ayudar a las piernas protésicas a saber qué tan lejos están del suelo, y ajustarse en consecuencia, por ejemplo. Lo que ambas instancias tienen en común es un sistema robótico que funciona en conjunto con el cerebro.
"La idea principal es tener una interacción entre el dispositivo robótico y el humano, agregando algo de inteligencia al sistema robótico", dice Dario Farina, profesor de ingeniería de neurorrehabilitación en el Imperial College de Londres, cuyo laboratorio estudia interfaces neuromusculares para cuerpos y cerebros y los dispositivos a los que se conectan.
"No solo es el paciente el que controla, con su cerebro y a través de la interfaz neural, la prótesis, sino que también es ayudado por una segunda entidad inteligente, que está montada en la prótesis y que puede ver el entorno". dice Farnia, que no participó en el estudio de Newcastle. "El principal desafío en esto es realmente poder compartir el control entre el sistema humano y el sistema de inteligencia".
Es un avance temprano en la fusión de la inteligencia artificial con el cerebro, descubriendo qué acciones funcionan mejor para cada uno sin crear conflictos. Ghazaei ha encontrado este problema; ella todavía está trabajando para administrar cuánto del movimiento amplio es controlado por la computadora de la prótesis, en comparación con las acciones del usuario. En este momento, el usuario señala la prótesis al artículo, lo induce a tomar una foto y luego el brazo elige el agarre y lo agarra.
Es solo uno de los muchos desafíos restantes. En este momento, el sistema no puede entender objetos largos que se extienden fuera de la vista. Tiene problemas con fondos abarrotados. A veces interpreta un objeto más alejado como uno más pequeño y más cercano. Y Ghazaei dice que aumentar el número de tipos de comprensión a 10 o 12 es otro objetivo. Pero ya, dice, los dos usuarios en la prueba apreciaron el aumento en el rendimiento y la simplicidad que presta al acto básico de recoger algo.