https://frosthead.com

Los robots son inteligentes, pero ¿pueden entendernos?

En el cine, nunca escuchas a los robots decir "¿Eh?"

A pesar de toda su ansiedad, el C-3PO de "Star Wars" nunca se confundió. Sonny, el no humano fundamental en "I, Robot" puede haber estado confundido acerca de lo que era, pero no parecía tener problemas para entender a Will Smith.

Sin embargo, en la vida real, las máquinas aún luchan poderosamente con el lenguaje humano. Claro, Siri puede responder preguntas si reconoce suficientes palabras en una consulta determinada. ¿Pero pedirle a un robot que haga algo que no ha sido programado, paso a paso, para hacer? Bueno, buena suerte con eso.

Parte del problema es que nosotros, como humanos, no somos muy precisos en cómo hablamos; cuando hablamos entre nosotros, generalmente no necesitamos estarlo. Pero pídale a un robot que “caliente un poco de agua” y la respuesta apropiada sería “¿Qué?”, A menos que haya aprendido cómo procesar la larga serie de preguntas relacionadas con ese acto aparentemente simple. Entre ellos: ¿Qué es el agua? ¿Donde lo conseguiste? ¿En qué puedes ponerlo? ¿Qué significa "calentar"? ¿Qué otro objeto necesitas para hacer esto? ¿Está la fuente en esta sala?

Ahora, sin embargo, los investigadores de la Universidad de Cornell han asumido el desafío de entrenar a un robot para interpretar lo que no se dice, o la ambigüedad de lo que se dice. Llaman al proyecto Tell Me Dave, un guiño a HAL, la computadora con la voz suave y las tendencias paranoicas en la película "2001: Una odisea del espacio".

Su robot, equipado con una cámara 3D, ha sido programado para asociar objetos con sus capacidades. Por ejemplo, sabe que una taza es algo que puede usar para retener agua, para beber o como una forma de verter agua en otra cosa; una estufa es algo que puede calentar cosas, pero también algo sobre lo que puedes colocar cosas. Los informáticos llaman a la técnica de entrenamiento una base: ayudar a los robots a conectar palabras con objetos y acciones en el mundo real.

"Las palabras no significan nada para un robot a menos que se basen en acciones", explica Ashutosh Saxena, jefe del equipo Tell Me Dave. El robot del proyecto, dice, ha aprendido a mapear diferentes frases, como "recogerlo" o "levantarlo" a la misma acción.

Ese es un gran paso adelante en la comunicación humano-robot, dadas las diferentes formas en que podemos describir una tarea simple.

"Todos los robots, como los de fabricación industrial, automóviles autónomos o robots de asistencia, deben interactuar con los humanos e interpretar su lenguaje impreciso", dijo. "Ser capaz de descifrar el significado de las palabras a partir de su contexto ambiental sería útil para todos estos robots de inmediato".

Un esfuerzo grupal

Saxena, junto con los estudiantes de posgrado Dipendra Misra y Jaeyong Sung, también recurrieron al crowdsourcing para recopilar tantas variantes diferentes del idioma inglés como sea posible.

A los visitantes del sitio web Tell Me Dave se les pide que dirijan un robot virtual para completar una tarea determinada, como "Hacer ramen". Debido a que la mayoría de las personas tienden a dar diferentes comandos a medida que guían al robot a través del proceso, el equipo ha podido recopilar un vocabulario extenso relacionado con el mismo paso en el proceso.

Esos comandos, grabados en diferentes acentos, están asociados con simulaciones de video almacenadas de diferentes tareas. Por lo tanto, incluso si las frases son diferentes: "llevar la olla a la estufa" en lugar de "poner la olla en la estufa", la máquina Tell Me Dave puede calcular la probabilidad de una coincidencia con algo que ha escuchado antes.

En este punto, el robot Tell Me Dave completa las tareas solicitadas casi dos tercios de las veces. Eso incluye casos en los que los objetos se mueven a diferentes lugares de la habitación, o el robot está trabajando en una habitación completamente diferente. A veces, sin embargo, el robot aún no tiene idea: cuando se le dijo que esperara hasta que el helado se ablandara, "no podía entender qué hacer", dice Saxena.

Aún así, se ha vuelto mucho mejor para completar pasos no especificados. Por ejemplo, cuando se le dijo que "calentara el agua en la olla", el robot se dio cuenta de que primero tenía que llevar la olla al grifo y llenarla con agua. También sabe que cuando se le indica que caliente algo, puede usar la estufa o el microondas, dependiendo de cuál esté disponible.

Saxena dice que la capacitación del robot Tell Me Dave debe mejorar antes de que pueda usarse en entornos de la vida real; ser capaz de seguir instrucciones el 64 por ciento de las veces no es lo suficientemente bueno, dice, particularmente porque los humanos entienden lo que se les dice el 90 por ciento de las veces.

Saxena y su equipo presentarán sus algoritmos para entrenar robots y mostrarán cómo han expandido el proceso a través del crowdsourcing, la próxima semana en la Conferencia de Ciencia y Sistemas de Robótica en la Universidad de California, Berkeley; Se está realizando una investigación similar en la Universidad de Washington.

No hay duda de que los robots dominarán los algoritmos; solo es cuestión de cuándo esto dará el salto del laboratorio al mercado. ¿El próximo año? No es probable. Pero dentro de una década, a medida que las grandes empresas se centran en ingresar a nuevos mercados, como los autos sin conductor, es muy posible que podamos decirle a robots como Tell Me Dave que comiencen la cena.

¿Que qué?

Aquí hay noticias más recientes sobre la investigación sobre la comunicación con y a través de robots:

  • ¿Cuál es el gesto para "asegurarme de que mi asiento esté caliente" ?: Mercedes-Benz quiere ser la primera gran compañía automotriz en comenzar a vender autos sin conductor, quizás tan pronto como 2020, y sus ingenieros han comenzado a trabajar con expertos en robótica para desarrollar formas de personas para comunicarse con sus vehículos. Un método que llama mucho la atención es el uso de las señales manuales que los sensores de un automóvil podrían comprender. Los expertos dicen que con el gesto correcto, podría llamar a su automóvil estacionado para que lo recoja.
  • Finalmente, robots ayudantes para mecánicos: en Audi, los ayudantes de robots pronto serán enviados a los mecánicos de la compañía en todo el mundo. Los robots estarán equipados con cámaras 3D controladas por un especialista externo, que puede guiar a las personas que realmente trabajan en los automóviles a través de reparaciones difíciles.
  • Haciendo a Siri más inteligente: según un informe en Wired, Apple comenzó a contratar a los mejores expertos en reconocimiento de voz a medida que comienza a centrarse en el concepto de redes neuronales, haciendo que las máquinas aprendan palabras construyendo conexiones e imitando la forma en que funcionan las neuronas en el cerebro humano.
  • El robot necesita ir a la exposición de arte: a finales de este mes, un robot comenzará a hacer autostop en Canadá. Llamado HitchBOT, se ha descrito como una combinación de proyecto de arte y experimento social. El objetivo es ver si HitchBOT puede pasar de Halifax a una galería en todo el país en Columbia Británica. No podrá moverse por sí solo, pero estará equipado con un micrófono y una cámara que le permitirán detectar el movimiento y el habla. También podrá responder preguntas utilizando una base de datos de Wikipedia.
Los robots son inteligentes, pero ¿pueden entendernos?