https://frosthead.com

¿Pueden los robots asesinos aprender a seguir las reglas de la guerra?

Como nos recuerda el Día de los Caídos cada año, la guerra no desaparece.

Pero sí cambia. Y uno de los cambios más profundos que veremos en los próximos años es un ejército cada vez más dependiente de los robots. Los drones ahora reciben la mayor atención, pero cada vez más las innovaciones del Departamento de Defensa son otros tipos de máquinas no tripuladas, desde aviones experimentales hasta soldados en tierra.

Es fácil entender la atracción. El uso de robots es potencialmente más eficiente, más preciso y menos costoso que depender únicamente de humanos en la guerra. Y, por supuesto, también significaría menos víctimas humanas.

Pero esta transformación trae consigo un desafío complejo: ¿se pueden programar máquinas militares para tomar decisiones? Lo que lleva a una pregunta difícil: ¿pueden los robots aprender moralidad?

La Oficina de Investigación Naval de los Estados Unidos cree que ahora es el momento de averiguarlo. A principios de este mes, anunció una subvención de cinco años y $ 7.5 millones para financiar investigaciones en las universidades Tufts, Brown, Yale y Georgetown y el Instituto Politécnico Rensselaer (RPI) sobre si las máquinas pueden algún día elegir lo correcto de lo incorrecto.

La Marina quiere evitar la situación a la que se enfrenta ahora el automóvil sin conductor de Google: tener una tecnología que se lanza con mucha anticipación a cualquier claridad sobre los problemas legales y éticos que plantea. Antes de que los robots autónomos salgan al campo, los militares quieren saber si realmente pueden aprender a hacer lo correcto.

Como lo ve Selmer Bringsjord, jefe del Departamento de Ciencia Cognitiva de RPI, la inteligencia artificial de un robot podría diseñarse para funcionar en dos niveles de moralidad. El primero se basaría en una lista de verificación de opciones éticas claras, como "si te encuentras con un soldado herido, deberías ayudarlo". Pero, ¿qué pasa si esta acción entra en conflicto con su misión principal, como entregar municiones críticamente necesarias para otros soldados? En ese punto, dice Bringsjord, el robot necesitaría tener la capacidad de participar en un "razonamiento moral más profundo" para tomar decisiones en situaciones que sus programadores podrían no haber anticipado.

Los investigadores necesitarían desarrollar algoritmos únicos y mecanismos computacionales que pudieran integrarse en la arquitectura existente de robots autónomos, un "proceso de pensamiento" que permitiría a una máquina anular el comportamiento planificado en función de su capacidad de aplicar el razonamiento moral.

Si esto parece extraordinariamente ambicioso, bueno, lo es. Para comenzar, los investigadores necesitarán aislar los elementos básicos de la moralidad humana (¿en qué principios estamos todos de acuerdo?) Y luego descubrir cómo incorporarlos en algoritmos que les darían a los robots cierto nivel de competencia moral.

Esa no es una empresa pequeña. Por esa razón, es probable que las máquinas no controladas por humanos, en el futuro previsible, se limiten a funciones que no sean de combate, como vigilancia, seguridad, búsqueda y rescate o atención médica. Pero inevitablemente, los planificadores militares querrán una respuesta a la pregunta que se cierne sobre todo esto: ¿deberían los robots, actuando por su cuenta, alguna vez permitir matar a un humano?

Si una máquina está 90 por ciento segura de que todos en un vehículo que intenta disparar son terroristas, ¿es eso suficiente? ¿Podría un robot disparar un arma a un niño si determina que es el enemigo? Si algo sale mal y un robot autónomo explota por error una aldea, ¿quién es el responsable? ¿El comandante que ordenó la operación? ¿La persona que programó el robot? O nadie?

Si cree que esto sigue siendo materia de ciencia ficción, considere que a principios de este mes, expertos en temas que van desde inteligencia artificial hasta derechos humanos y derecho internacional intervinieron en “robots asesinos” en una conferencia de las Naciones Unidas en Ginebra. Grupos como Human Rights Watch y funcionarios de un puñado de países, incluidos Pakistán, Egipto, Cuba y El Vaticano, pidieron una prohibición total de los robots con autoridad para matar. Pero la mayoría de los países, particularmente aquellos con los robots más avanzados, no están listos para llegar tan lejos.

Eche un vistazo, por ejemplo, al WildCat, un robot de cuatro patas que se está desarrollando para correr a altas velocidades en todo tipo de terrenos.

Por ahora, el ejército de los Estados Unidos sigue una directiva del Departamento de Defensa de 2012 de que ninguna máquina con el poder de matar puede ser completamente autónoma. Un humano tiene que, literalmente, tomar las decisiones. Pero eso podría no ser cierto en todos los lugares: en marzo, New Scientist citó a un funcionario ruso que dijo que los centinelas robot en cinco instalaciones de misiles balísticos podrán detectar y destruir objetivos sin que un humano dé el visto bueno.

La Garra Foster-Miller, que se ve a continuación, es una de las muchas máquinas en todo el mundo desarrolladas para el combate.

Reglas de guerra

Se presentará un informe sobre la conferencia del robot asesino al comité de Armas Convencionales de la ONU en noviembre. Pero no parece que venga una prohibición en el corto plazo.

Entre los que se unieron a la discusión en Ginebra se encontraba Ronald Arkin, un experto en inteligencia artificial de Georgia Tech, que durante mucho tiempo ha abogado por dar a las máquinas la capacidad de tomar decisiones morales. Él cree que si los robots pueden aprender a seguir el derecho internacional, en realidad podrían comportarse de manera más ética que los humanos en la guerra porque serían infaliblemente consistentes. No podrían responder con ira o con pánico o prejuicio. Entonces Arkin se opone a una prohibición, aunque está abierto a una moratoria de armas autónomas hasta que las máquinas tengan la oportunidad de ver si pueden dominar las reglas de la guerra.

Otro científico de IA, Noel Sharkey, que debatió sobre Arkin en Ginebra, tiene una opinión muy diferente. No cree que a los robots se les debe dar la autoridad para tomar decisiones de vida o muerte.

Recientemente le dijo a Defense One : “No creo que alguna vez terminen con un robot moral o ético. Para eso necesitamos tener agencia moral. Para eso necesitamos entender a los demás y saber lo que significa sufrir ".

"Un robot puede instalarse con algunas reglas de ética, pero realmente no le importará", dice.

¿Pueden los robots asesinos aprender a seguir las reglas de la guerra?