https://frosthead.com

¿Pueden las máquinas aprender la moralidad?

Cuando John Brennan, la elección del presidente Obama de ser el próximo jefe de la CIA, compareció ante un comité del Senado ayer, una pregunta suplantó a todas las demás en su audiencia de confirmación:

¿Cómo se toman las decisiones de enviar drones asesinos después de presuntos terroristas?

El cómo y, para el caso, el por qué de ordenar ataques de drones específicos sigue siendo en gran parte un misterio, pero al menos una cosa está clara: las decisiones están siendo tomadas por humanos que, uno esperaría, luchan con la idea de enviar un misil mortal. en un edificio ocupado.

Pero, ¿y si los humanos no estuvieran involucrados? ¿Qué pasaría si un día las decisiones de vida o muerte se dejaran en máquinas equipadas con un montón de datos, pero también con un sentido de lo correcto y lo incorrecto?

Dilema moral

Eso no es tan descabellado. No va a suceder en el corto plazo, pero no hay duda de que a medida que las máquinas se vuelvan más inteligentes y más autónomas, una parte fundamental de su transformación será la capacidad de aprender moralidad.

De hecho, eso puede no estar tan lejos. Gary Marcus, que escribió recientemente en The New Yorker, presentó el escenario de uno de los autos sin conductor de Google antes de ser forzado a tomar una decisión en una fracción de segundo: “Su automóvil está acelerando a lo largo de un puente a 50 millas por hora cuando el autobús escolar errante transportaba a 40 niños inocentes se cruza en su camino. ¿Debería su automóvil desviarse, posiblemente arriesgando la vida de su propietario (usted), para salvar a los niños, o continuar, poniendo en riesgo a los 40 niños? Si la decisión debe tomarse en milisegundos, la computadora tendrá que hacer la llamada ".

¿Y qué hay de las armas robóticas o los soldados? ¿Un dron podría aprender a no disparar contra una casa si supiera que también hay civiles inocentes? ¿Se podría enseñar a las máquinas a seguir las reglas internacionales de guerra?

Ronald Arkin, profesor de informática y experto en robótica de Georgia Tech, ciertamente lo cree así. Ha estado desarrollando software, conocido como un "gobernador ético", que haría que las máquinas sean capaces de decidir cuándo es apropiado disparar y cuándo no.

Arkin reconoce que esto todavía podría estar a décadas de distancia, pero cree que algún día los robots podrían ser física y éticamente superiores a los soldados humanos, no vulnerables al trauma emocional del combate o los deseos de venganza. Él no imagina un ejército de robots, sino uno en el que las máquinas sirvan con humanos, haciendo trabajos de alto riesgo llenos de decisiones instantáneas estresantes, como limpiar edificios.

Cuidado con los robots asesinos

Pero otros sienten que es hora de aplastar este tipo de pensamiento antes de que vaya demasiado lejos. A fines del año pasado, Human Rights Watch y la Clínica de Derechos Humanos de la Facultad de Derecho de Harvard emitieron un informe titulado "Perder la humanidad: el caso contra los robots asesinos", que, fiel a su título, exhortó a los gobiernos a prohibir todas las armas autónomas porque "aumentarían la riesgo de muerte o lesiones a civiles durante un conflicto armado ".

Casi al mismo tiempo, un grupo de profesores de la Universidad de Cambridge anunció planes para lanzar lo que llaman el Centro para el Estudio del Riesgo Existencial. Cuando se abra a finales de este año, impulsará una investigación científica seria sobre lo que podría suceder si las máquinas se vuelven más inteligentes que nosotros.

El peligro, dice Huw Price, uno de los cofundadores del Centro, es que algún día podríamos tratar con "máquinas que no son maliciosas, pero máquinas cuyos intereses no nos incluyen".

El arte del engaño.

Shades of Skynet, el sistema de inteligencia artificial deshonesto que generó un cyborg Arnold Schwarzenegger en las películas de The Terminator . Tal vez esto siempre sea materia de ciencia ficción.

Pero considere otras investigaciones que Ronald Arkin está haciendo ahora como parte de proyectos financiados por el Departamento de Defensa. Él y sus colegas han estado estudiando cómo los animales se engañan unos a otros, con el objetivo de enseñar a los robots el arte del engaño.

Por ejemplo, han estado trabajando en la programación de robots para que puedan, si es necesario, fingir fuerza como lo hacen a menudo los animales. Y han estado buscando máquinas de enseñanza para imitar el comportamiento de criaturas como la ardilla gris oriental. Las ardillas esconden sus nueces de otros animales, y cuando aparecen otras ardillas o depredadores, las ardillas grises a veces visitan lugares donde solían esconder nueces para sacar a sus competidores de la pista. Los robots programados para seguir una estrategia similar han podido confundir y ralentizar a los competidores.

Todo está en el interés, dice Arkin, de desarrollar máquinas que no sean una amenaza para los humanos, sino más bien un activo, particularmente en el feo caos de la guerra. La clave es comenzar a centrarse ahora en establecer pautas para el comportamiento apropiado del robot.

"Cuando comienzas a abrir la caja de Pandora, ¿qué se debe hacer con esta nueva capacidad?", Dijo en una entrevista reciente. "Creo que existe la posibilidad de que los robots inteligentes reduzcan las bajas de los no combatientes, pero debemos ser muy cuidadosos acerca de cómo se usan y no solo liberarlos en el campo de batalla sin la preocupación adecuada".

Para creerle al escritor neoyorquino Gary Marcus, las máquinas éticamente avanzadas ofrecen un gran potencial más allá del campo de batalla.

La idea que más me atormenta es que la ética humana en sí misma es solo un trabajo en progreso. Todavía nos enfrentamos a situaciones para las que no tenemos códigos bien desarrollados (por ejemplo, en el caso del suicidio asistido) y no necesitamos mirar hacia el pasado para encontrar casos en los que nuestros propios códigos eran dudosos o peor (por ejemplo, leyes que esclavitud y segregación permitidas).

Lo que realmente queremos son máquinas que puedan ir un paso más allá, dotadas no solo de los códigos éticos más sólidos que nuestros mejores filósofos contemporáneos puedan idear, sino también con la posibilidad de que las máquinas hagan su propio progreso moral, superando nuestros propios principios limitados. idea de la moralidad del siglo XXI.

Las máquinas marchan en

Aquí hay desarrollos más recientes de robots:

  • Hmmmm, ético y astuto: los investigadores en Australia han desarrollado un robot que puede escabullirse moviéndose solo cuando hay suficiente ruido de fondo para cubrir su sonido.
  • ¿Qué es ese zumbido ?: los soldados británicos en Afganistán han comenzado a usar drones de vigilancia que pueden caber en las palmas de sus manos. Llamado Black Hornet Nano, el pequeño robot tiene solo cuatro pulgadas de largo, pero tiene una cámara espía y puede volar durante 30 minutos con una carga completa.
  • Rascando la superficie: la NASA está desarrollando un robot llamado RASSOR que pesa solo 100 libras, pero podrá extraer minerales en la luna y otros planetas. Puede moverse en terrenos irregulares e incluso sobre negrillas apoyándose sobre sus brazos.
  • Ah, lujuria: Y aquí hay una historia temprana del Día de San Valentín. Los científicos de la Universidad de Tokio utilizaron una polilla macho para conducir un robot. En realidad, usaron sus movimientos de apareamiento para dirigir el dispositivo hacia un objeto perfumado con feromonas de polilla hembra.

Bono de video: ¿Entonces no está seguro de poder operar un robot de 13 pies de altura? No hay problema. Aquí hay una demostración ingeniosa que le muestra lo fácil que puede ser. Un modelo feliz incluso le muestra cómo utilizar la función "Disparo por sonrisa". Sonríes, dispara municiones. ¿Qué tan difícil es eso?

Más de Smithsonian.com

Este robot es mejor papá que tu papá

Los robots obtienen el toque humano

¿Pueden las máquinas aprender la moralidad?