Una mano robótica que “ve” abre nuevos caminos al desarrollo de mejores prótesis

Un equipo de ingenieros biomédicos de la Universidad de Newcastle ha desarrollado una mano biónica equipada con una cámara que instantáneamente toma una fotografía del objeto frente a ella, evalúa su forma y tamaño, y con esta información ordena una serie de movimientos en la mano para interactuar adecuadamente con el elemento. La revista Journal of Neural Engineering publica hoy un documento al respecto.

La prótesis permite evitar el proceso de, primero, ver el objeto, estimular físicamente los músculos en el brazo y desencadenar un movimiento en la extremidad protésica: la mano creada 've' y reacciona en un mismo movimiento fluido, intuitivamente. Usando una pequeña cámara de menos de un dólar, ajustada a la prótesis, la mano reconoce el objeto y envía una señal para determinar el movimiento que la interacción exige, todo en cuestión de milisegundos y diez veces más rápido que cualquier otra extremidad actualmente en el mercado.

El dispositivo ha sido probado con éxito por un número de amputados y ahora Newcastle se apresta a ponerlo a disposición de pacientes en el Newcastle Freeman Hospital.

Uno de los coautores del estudio, Kianoush Nazarpour, profesor titular de Ingeniería Biomédica en la Universidad de Newcastle, explica que el brazo creado emplea la visión por computadora para responder automáticamente, como una mano real, ante la necesidad de alcanzar y levantar un objeto “con nada más que un rápido vistazo en la dirección correcta”.

"La capacidad de respuesta ha sido uno de los principales obstáculos para los miembros artificiales desarrollados hasta ahora. Para muchos amputados el punto de referencia es su brazo o pierna saludable, por lo que las prótesis parecen lentas y pesadas en comparación con las extremidades originales”. Las prótesis actuales se controlan a través de señales mioeléctricas, es decir, pulsos eléctricos que se dan en los músculos y que son registrados desde la superficie de la piel del muñón de la extremidad amputada. Por ello, asegura Nazarpour, dominar el movimiento de estos dispositivos toma práctica, concentración y, crucialmente, tiempo.

A diferencia de estos, el nuevo brazo emplea redes neuronales -la base para la inteligencia artificial- en su labor de reconocimiento de objetos y elección de movimientos para cada uno de ellos. Otra coautora del estudio, Ghazal Ghazaei, precisa que para ello se mostró al ordenador numerosas imágenes de objetos y se le enseñó a reconocer el "agarre" necesario para cada uno: "Mostramos a la computadora una imagen de, por ejemplo, un palo. Pero no solo una imagen, sino muchas imágenes del mismo palo visto desde diferentes ángulos y orientaciones, incluso bajo diferentes luces y contra diferentes fondos y, eventualmente, la computadora aprende lo que necesita para agarrar ese palo”.

Por lo tanto, la computadora no sólo está haciendo coincidir una imagen, sino que está aprendiendo a reconocer objetos y agruparlos de acuerdo con el tipo de agarre que la mano tiene que realizar para recogerlo con éxito. “Este sistema es mucho más flexible y la mano es capaz de recoger objetos novedosos, lo cual es crucial ya que en la vida cotidiana la gente recoge sin esfuerzo una variedad de objetos que nunca han visto antes", señala Nazarpour.

El equipo programó la mano para realizar cuatro "agarres" diferentes: el palma-muñeca neutral (como cuando se coge una taza); el muñeca-palma tendida (como para recoger el celular); el trípode (uso del pulgar y dos dedos); y el pellizco (pulgar e índice).

Este año, la firma nipona Toyota iniciará el servicio de alquiler del robot Welwalk WW-1000 diseñado para la rehabilitación de personas con parálisis parcial en las piernas.

Hans Huerto

Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter.

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.