https://frosthead.com

Cuando las máquinas ven

reconocimiento de patrones

Reconocimiento de patrones de un ala de mariposa. Imagen cortesía de Li Li.

Aquí en Washington hemos escuchado sobre lo que usted llama "planificación anticipada", pero aún no estamos listos para aceptarlo. Un poco demasiado futurista.

Aún así, no podemos evitar admirar desde lejos a aquellos que intentan predecir lo que podría pasar dentro de un mes. Así que me impresionaron hace unas semanas cuando los grandes pensadores de IBM imaginaron el mundo dentro de cinco años e identificaron lo que creen que serán cinco áreas de innovación que tendrán el mayor impacto en nuestra vida diaria.

Han estado haciendo esto durante algunos años, pero esta vez los zumbidos inestables siguieron un tema: los cinco sentidos humanos. No es que digan que para 2018, todos podremos ver, escuchar y oler mejor, sino que las máquinas lo harán, al usar tecnologías sensoriales y cognitivas que evolucionan rápidamente, las computadoras acelerarán su transformación a partir de la recuperación de datos y Procesamiento de motores a herramientas de pensamiento.

¿Ves un patrón?

Hoy, tratemos con la visión. Es un salto lógico suponer que IBM podría estar refiriéndose al Proyecto Glass de Google. No hay duda de que ha redefinido el papel de las gafas, desde un accesorio geek que nos ayuda a ver mejor hasta un teléfono inteligente / dispositivo de buceo de datos que algún día usaremos en nuestras caras.

Pero eso no es de lo que están hablando los IBMers. Se centran en la visión artificial, específicamente en el reconocimiento de patrones, por lo que, a través de la exposición repetida a las imágenes, las computadoras pueden identificar cosas.

Resulta que Google estuvo involucrado en uno de los experimentos de reconocimiento de patrones más notables del año pasado, un proyecto en el que una red de 1, 000 computadoras que usaban 16, 000 procesadores, después de examinar 10 millones de imágenes de videos de YouTube, pudo enseñarse qué parecía gato.

Lo que hizo esto particularmente impresionante es que las computadoras pudieron hacerlo sin ninguna guía humana sobre qué buscar. Todo el aprendizaje se realizó a través de las máquinas trabajando juntas para decidir qué características de los gatos merecían su atención y qué patrones importaban.

Y ese es el modelo de cómo las máquinas aprenderán visión. Así es como lo explica John Smith, gerente sénior en Gestión Inteligente de Información de IBM:

“Digamos que queríamos enseñarle a una computadora cómo es una playa. Comenzaríamos mostrándole a la computadora muchos ejemplos de escenas de playa. La computadora convertiría esas imágenes en características distintas, como distribuciones de color, patrones de textura, información de bordes o información de movimiento en el caso de video. Luego, la computadora comenzaría a aprender cómo discriminar escenas de playa de otras escenas en función de estas características diferentes. Por ejemplo, aprendería que para una escena de playa, generalmente se encuentran ciertas distribuciones de color, en comparación con un paisaje urbano del centro de la ciudad ”.

¿Qué tan inteligente es inteligente?

Bien por ellos. Pero acéptelo, identificar una playa es algo bastante básico para la mayoría de nosotros los humanos. ¿Podríamos dejarnos llevar por la cantidad de máquinas pensantes que podrán hacer por nosotros?

Gary Marcus, profesor de psicología en la Universidad de Nueva York, cree que sí. Al escribir recientemente en el sitio web de The New Yorker, concluye que si bien se ha avanzado mucho en lo que se conoce como "aprendizaje profundo", las máquinas aún tienen un largo camino por recorrer antes de que se las considere realmente inteligentes.

“Siendo realistas, el aprendizaje profundo es solo una parte del gran desafío de construir máquinas inteligentes. Dichas técnicas carecen de formas de representar las relaciones causales (como entre las enfermedades y sus síntomas) y es probable que enfrenten desafíos para adquirir ideas abstractas como "hermano" o "idéntico". No tienen formas obvias de realizar inferencias lógicas, y También están todavía muy lejos de integrar el conocimiento abstracto, como la información sobre qué son los objetos, para qué sirven y cómo se usan normalmente ".

La gente de IBM sin duda lo reconocería. El aprendizaje automático viene en pasos, no en saltos.

Pero creen que dentro de cinco años, el aprendizaje profundo habrá dado suficientes pasos hacia adelante para que las computadoras, por ejemplo, comiencen a desempeñar un papel mucho más importante en el diagnóstico médico, y que en realidad puedan ser mejores que los médicos a la hora de detectar tumores, coágulos de sangre o tejido enfermo en resonancias magnéticas, radiografías o tomografías computarizadas.

Y eso podría hacer una gran diferencia en nuestras vidas.

Ver es creer

Aquí hay más formas en que la visión artificial está teniendo un impacto en nuestras vidas:

  • Poniendo tu mejor brazo hacia adelante: la tecnología desarrollada en la Universidad de Pittsburgh utiliza el reconocimiento de patrones para permitir a los parapléjicos controlar un brazo robótico con sus cerebros.
  • Su boca dice que sí, pero su cerebro dice que no: los investigadores de Stanford descubrieron que el uso de algoritmos de reconocimiento de patrones en las imágenes por resonancia magnética de los cerebros podría ayudarlos a determinar si alguien realmente tenía dolor de espalda baja o si lo estaban fingiendo.
  • Cuando sus lunares estén listos para sus primeros planos: el año pasado, una startup rumana llamada SkinVision lanzó una aplicación para iPhone que permite a las personas tomar una foto de lunares en su piel y luego hacer que el software de reconocimiento de SkinVision identifique cualquier irregularidad y señale el nivel de riesgo, sin ofreciendo un diagnóstico real El siguiente paso es hacer posible que las personas envíen imágenes de su piel directamente a su dermatólogo.
  • Tengo un trato para usted: ahora en desarrollo hay una tecnología de marketing llamada Facedeals. Funciona así: una vez que una cámara en la entrada de una tienda lo reconoce, se le envían ofertas personalizadas en la tienda en su teléfono inteligente. Y sí, primero tendrías que optar.
  • Conocería ese sello en cualquier parte: un sistema computarizado de identificación con foto que utiliza reconocimiento de patrones está ayudando a los científicos británicos a rastrear focas grises, que tienen marcas únicas en sus abrigos.

Bono de video: mientras tratamos el tema de la inteligencia artificial, aquí hay un enjambre de robots jugando a Beethoven, elogios de los científicos de Georgia Tech. Apuesto a que no esperabas ver eso hoy.

Más de Smithsonian.com

Un cerebro artificial más humano

Cómo la tecnología combate el terrorismo

Cuando las máquinas ven