https://frosthead.com

La actuación musical “Sight Machine” revela lo que la inteligencia artificial está “pensando” en nosotros

El año pasado, Facebook creó dos chatbots y les pidió que comenzaran a hablar entre ellos, practicando sus habilidades de negociación. Resulta que los robots eran bastante buenos para negociar, pero lo hicieron usando su propio lenguaje inventado que era incomprensible para los humanos.

contenido relacionado

  • Este artista habita en el mundo clandestino de secretos clasificados y vigilancia

Aquí es a donde va el mundo. Las computadoras están creando contenido el uno para el otro, no nosotros. Las computadoras están tomando fotos para que otras computadoras las vean e interpreten. Todo sucede en silencio, a menudo sin nuestro conocimiento o consentimiento.

Entonces, aprender a ver como una computadora, hacer visibles estas comunicaciones de máquina a máquina, puede ser la habilidad más importante del siglo XXI.

El 25 de octubre de 2018, Kronos Quartet —David Harrington, John Sherba, Hank Dutt y Sunny Yang— tocaron en un concierto en el Smithsonian American Art Museum. Fueron observados por 400 humanos y una docena de algoritmos de inteligencia artificial, esta última cortesía de Trevor Paglen, el artista detrás de la exposición "Sitios invisibles", actualmente en exhibición en el museo.

Mientras tocaban los músicos, una pantalla sobre ellos nos mostró a los humanos lo que las computadoras estaban viendo.

A medida que Kronos se abría camino a través de una triste pieza originaria del Imperio Otomano, en la pantalla los algoritmos superiores detectaron los rostros de los músicos, delineando los labios, los ojos y la nariz de cada persona (y ocasionalmente vieron rostros "fantasmas" donde no había ninguno, a menudo en La mata de pelo del fundador de Kronos Harrington). A medida que los algoritmos se hicieron más avanzados, la transmisión de video se desvaneció hasta que solo quedaron líneas de neón sobre un fondo negro. Finalmente, los contornos faciales se desvanecieron hasta que todo lo que quedó fue un arreglo abstracto de líneas, presumiblemente todo lo que la computadora necesitaba para entender la "cara", pero completamente ininteligible para los humanos.

"Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Cuarteto Kronos (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet

El debut en la costa este de la actuación titulada "Sight Machine", como el otro trabajo de Paglen, pidió a los espectadores y oyentes que aprendan a ver como las computadoras, y que reexaminen la relación humana con la tecnología: los teléfonos en nuestros bolsillos y los ojos en blanco. el cielo y todo lo demás.

Es 2018, y la idea de que los teléfonos celulares nos están mirando ya no se siente como una teoría de la conspiración planteada por un blogger del sótano con sombrero de papel de aluminio. Google fue descubierto a principios de este año rastreando las ubicaciones de los usuarios de teléfonos Android, incluso si los usuarios desactivaron la función. Muchas personas están convencidas de que nuestros teléfonos nos están escuchando para ofrecer mejor anuncios: Facebook y otras compañías niegan estos cargos, aunque es técnica y legalmente posible que lo hagan. Los periodistas tecnológicos Alex Goldman y PJ Vogt investigaron y encontraron lo mismo: no hay razón por la que nuestros teléfonos no escuchen, pero, por otro lado, los anunciantes pueden obtener suficiente información sobre nosotros a través de otros métodos que simplemente no necesitan .

Es en este contexto que se realizó "Sight Machine". La docena de cámaras que miraron Kronos Quartet enviaron videos en vivo desde la presentación a un estante de computadoras, que utiliza algoritmos de inteligencia artificial listos para usar para crear imágenes espeluznantes. Los algoritmos son los mismos que se usan en nuestros teléfonos para ayudarnos a tomar mejores selfies, los que usan los autos sin conductor para evitar obstáculos y los que usan la policía y la guía de armas. Entonces, aunque los resultados en la pantalla a veces eran hermosos, o incluso divertidos, había una corriente subterránea de horror.

"Lo que me sorprende de este trabajo en particular es que nos está mostrando algo que es, y esto es cierto para todo su trabajo, nos está mostrando algo que es inquietante y lo está haciendo con trucos", dice John Jacob, el conservador del museo. para fotografía, que organizó "Sitios invisibles".

"Es un truco deliberado", dice, "y funciona".

Más tarde, los sofisticados algoritmos de reconocimiento facial emitieron juicios sobre los miembros de Kronos y mostraron sus resultados en una pantalla. "Este es John [Sherba]. John tiene entre 24 y 40 años", dijo la computadora. "Sunny [Yang] es 94.4% femenina. Sunny está 80% enojada y 10% neutral".

"Una de las cosas que espero que el desempeño muestre", dice Paglen, "es algunas de las formas en que el tipo de percepción que hacen las computadoras no es neutral. Es muy sesgado ... con todo tipo de supuestos políticos y culturales que son no neutral ". Si el sistema de clasificación de género dice que Sunny Yang es 94.4 por ciento de mujeres, entonces eso implica que alguien es 100 por ciento de mujeres. "¿Y quién decidió qué es 100 por ciento femenino? ¿Es Barbie 100 por ciento femenina? ¿Y por qué el género es binario?" Paglen pregunta. "Ver que eso sucede en un momento en que el gobierno federal está tratando de borrar literalmente a las personas de género queer, es divertido por un lado, pero para mí también es horrible".

Un algoritmo posterior prescindió de los porcentajes y se movió para identificar simplemente los objetos en la escena. "Micrófono. Violín. Persona. Medusa. Peluca". (Los dos últimos son claramente errores; el algoritmo parece haber confundido a Hank Dutt por una medusa y el cabello real de Harrington por un tupé). Luego las clasificaciones se volvieron más complejas. "Sunny sostiene un par de tijeras", dijo la máquina cuando la luz brilló en sus cuerdas de violonchelo. "John está sosteniendo un cuchillo". ¿Qué pasaría si el clasificador proporcionara esta información incorrecta a la policía? Nunca lo sabremos.

La mayoría de los usuarios finales de las plataformas de IA, que no son artistas, podrían argumentar que estos sistemas pueden tener sus propios prejuicios, pero siempre reciben una aprobación final de un humano. Un algoritmo creado por Amazon, Rekognition, que la compañía vende a las fuerzas del orden público y posiblemente a ICE, identificó erróneamente a 28 miembros del Congreso como personas que habían sido acusadas de un delito al comparar sus rostros con fotos policiales en una base de datos disponible públicamente. En ese momento, Amazon argumentó que la ACLU, que usaba el sistema para hacer las coincidencias, había usado Rekognition incorrectamente. La compañía dijo que la configuración predeterminada del sistema para las coincidencias, llamada "umbral de confianza", es solo del 80 por ciento. (En otras palabras, el algoritmo solo estaba 80 por ciento seguro de que el representante John Lewis era un criminal). Un portavoz de Amazon dijo que recomienda que los departamentos de policía usen un umbral de confianza del 95 por ciento, y que "Amazon Rekognition se usa casi exclusivamente para ayudar reduzca el campo y permita que los humanos revisen y consideren rápidamente las opciones utilizando su criterio ”. Las computadoras pueden comunicarse entre sí, pero, por ahora, todavía les están pidiendo a los humanos que hagan la última llamada.

La música, elegida por Paglen con el aporte de Kronos, también tiene algo que decir sobre la tecnología. Una pieza, "Powerhouse", de Raymond Scott, es "probablemente más famosa por ser utilizada en dibujos animados en escenas de fábrica", dice Paglen. "Si alguna vez ves una fábrica que se sobreproduce y se vuelve loca, esta es a menudo la música que habla de eso. Para mí es una forma de pensar acerca de esa industrialización casi caricaturesca y ubicarla en un contexto tecnológico". Otra pieza, "Diferentes trenes" de Steve Reich, cerró el set. Kronos realiza solo el primer movimiento, que trata sobre la infancia de Reich en los años treinta y cuarenta; Paglen dice que piensa que la pieza celebra "una sensación de exuberancia y progreso que los trenes están facilitando". *

Se combinó con imágenes de una base de datos disponible públicamente llamada ImageNet, que se utilizan para enseñar a las computadoras qué son las cosas. (También llamado "datos de entrenamiento", así que sí, es un juego de palabras). La pantalla mostró imágenes imposiblemente rápidas, mostrando ejemplos de frutas, flores, pájaros, sombreros, personas de pie, personas caminando, personas saltando e individuos como Arnold Schwarzenegger. Si quisieras enseñarle a una computadora cómo reconocer a una persona, como Schwarzenegger, o una casa o el concepto de "cena", comenzarías mostrándole a una computadora estas miles de imágenes.

También había videos cortos de personas besándose, abrazándose, riéndose y sonriendo. Tal vez una IA entrenada en estas imágenes sería benévola y amigable.

Pero "Diferentes trenes" no se trata solo de optimismo; Los movimientos posteriores, que Kronos no jugó el jueves pero están "implicados" por el primero, se refieren a cómo la promesa de viajar en tren se apropió para convertirse en un instrumento del Holocausto. Los trenes, que parecían un progreso tecnológico, se convirtieron en los vehículos en los que decenas de miles de judíos fueron reubicados en campos de exterminio. Lo que parecía una tecnología benevolente se subvirtió por el mal.

"Es como, '¿Qué podría salir mal?" Paglen dice. "Estamos recopilando toda la información sobre todas las personas en el mundo".

Y de hecho, cuando terminó "Diferentes trenes", el enfoque cambió. La pantalla ya no mostraba imágenes de Kronos o los datos de entrenamiento de ImageNet; en cambio, mostró una transmisión de video en vivo de la audiencia, ya que los algoritmos de reconocimiento facial seleccionaron las características de cada persona. En verdad, incluso cuando pensamos que no estamos siendo observados, lo estamos.

En un video en vivo de la audiencia, los algoritmos de reconocimiento facial seleccionaron las características de cada persona. En una transmisión de video en vivo de la audiencia, los algoritmos de reconocimiento facial seleccionaron las características de cada persona. (Bruce Guthrie)

Para informar esta historia, salí de mi casa y caminé hacia la estación de metro, donde escaneé una tarjeta electrónica vinculada a mi nombre para pasar por el torniquete, y nuevamente cuando salí del metro del centro. En el centro, pasé media docena de cámaras de seguridad antes de ingresar al museo, donde vi al menos dos más (un portavoz del Smithsonian dice que el Smithsonian no usa tecnología de reconocimiento facial; el departamento de policía metropolitana de DC dice lo mismo sobre sus cámaras).

Grabé entrevistas usando mi teléfono y subí el audio a un servicio de transcripción que usa IA para entender lo que yo y mis sujetos estamos diciendo, y puede o no dirigir publicidad hacia mí en función del contenido de las entrevistas. Envié correos electrónicos usando Gmail, que todavía "lee" todo lo que envío (aunque ya no sirve para publicarme anuncios).

Durante el proceso de presentación de informes, mientras caminaba por la ciudad, me encontré con, no estoy inventando esto, el automóvil de Google Street View. Dos veces. No es paranoia si realmente te están mirando, ¿verdad?

Entonces, ¿qué queda, en este mundo donde las computadoras están viendo y posiblemente haciendo juicios sobre nosotros? "Sight Machine" nos insta a aprender a pensar como una computadora, pero también nos recuerda que hay algunas partes de nosotros que, por ahora, todavía son completamente humanos.

La música, dice Paglen, "es algo que realmente no es cuantificable ... cuando miras un sistema de visión por computadora que esencialmente interroga a los artistas, realmente señala para mí ese vasto abismo en las percepciones entre la forma en que percibimos la cultura, la emoción y el significado". "y todas las formas en que son invisibles para los sistemas autónomos".

O, como dice Harrington, puedes hacer música con un violín de madera o con una impresora 3D. Puede usar un arco de fibra de carbono o uno hecho de madera de pernambuco. Pero, dice, el arco todavía necesita ser arrastrado por las cuerdas. La música "se vuelve más preciosa porque está hecha a mano".

Y por ahora, eso es algo que solo nosotros podemos hacer. Es posible que las máquinas ya no nos necesiten. Pero cuando se trata del sonido solemne de un arco en una cuerda de violín, y las cuerdas emocionales que notan tirones, no necesitamos las máquinas.

"Trevor Paglen: Sites Unseen", comisariada por John Jacob, continúa en el Smithsonian American Art Museum en Washington, DC hasta el 6 de enero de 2019. Está programado para viajar al Museo de Arte Contemporáneo de San Diego del 21 de febrero al 2 de junio. 2019.

* Nota del editor, 2 de noviembre de 2018: esta historia ha sido editada para aclarar el significado previsto y la historia de origen de la composición de "Diferentes trenes" de Steve Reich.

La actuación musical “Sight Machine” revela lo que la inteligencia artificial está “pensando” en nosotros