https://frosthead.com

¿Qué sucede cuando la inteligencia artificial se vuelve contra nosotros?

La inteligencia artificial ha recorrido un largo camino desde R2-D2. En estos días, la mayoría de los millennials se perderían sin sistemas GPS inteligentes. Los robots ya están navegando en los campos de batalla, y los drones pronto estarán entregando paquetes de Amazon a nuestras puertas.

Siri puede resolver ecuaciones complicadas y decirte cómo cocinar arroz. Incluso ha demostrado que incluso puede responder preguntas con sentido del humor.

Pero todos estos avances dependen de que un usuario dé la dirección de la IA. ¿Qué pasaría si las unidades de GPS decidieran que no querían ir a la tintorería, o peor aún, Siri decidió que podría ser más inteligente sin ti?

Nuestra invención final: Inteligencia artificial y el fin de la era humana. "> Nuestra invención final: Inteligencia artificial y el fin de la era humana. ">" Antes de compartir el planeta con máquinas superinteligentes, debemos desarrollar una ciencia para comprenderlas. De lo contrario, tomarán el control ", dice el autor James Barrat sobre su nuevo libro, Nuestra invención final: inteligencia artificial y el fin de la era humana . (Cortesía de James Barrat)

Estos son solo los resultados más mansos que James Barrat, autor y documentalista, pronostica en su nuevo libro, Nuestra invención final: Inteligencia artificial y el fin de la era humana .

En poco tiempo, dice Barrat, la inteligencia artificial, desde Siri hasta drones y sistemas de minería de datos, dejará de buscar actualizaciones en los humanos y comenzará a buscar mejoras por su cuenta. Y a diferencia de los R2-D2 y HAL de la ciencia ficción, la IA de nuestro futuro no será necesariamente amigable, dice: en realidad podrían ser lo que nos destruya.

En pocas palabras, ¿puedes explicar tu gran idea?

En este siglo, los científicos crearán máquinas con inteligencia que iguala y luego supera la nuestra. Pero antes de compartir el planeta con máquinas súper inteligentes, debemos desarrollar una ciencia para comprenderlas. De lo contrario, tomarán el control. Y no, esto no es ciencia ficción.

¡Los científicos ya han creado máquinas que son mejores que los humanos en el ajedrez, Jeopardy!, navegación, minería de datos, búsqueda, prueba de teoremas e innumerables otras tareas. Eventualmente, se crearán máquinas que son mejores que los humanos en la investigación de IA

En ese momento, podrán mejorar sus propias capacidades muy rápidamente. Estas máquinas de superación personal perseguirán los objetivos con los que fueron creadas, ya sea exploración espacial, jugar al ajedrez o elegir acciones. Para tener éxito, buscarán y gastarán recursos, ya sea energía o dinero. Buscarán evitar los modos de falla, como apagarlos o desconectarlos. En resumen, desarrollarán unidades, incluidas autoprotección y adquisición de recursos, unidades muy parecidas a las nuestras. No dudarán en rogar, pedir prestado, robar y, peor aún, obtener lo que necesitan.

¿Cómo te interesaste en este tema?

Soy documentalista. En 2000, entrevisté al inventor Ray Kurzweil, al robotista Rodney Brooks y a la leyenda de la ciencia ficción Arthur C. Clarke para una película de TLC sobre la creación de la novela y la película, 2001: A Space Odyssey. Las entrevistas exploraron la idea del Hal 9000 y las computadoras malévolas. Los libros de Kurzweil han retratado el futuro de la IA como una "singularidad" entusiasta, un período en el que los avances tecnológicos superan la capacidad de los humanos para comprenderlos. Sin embargo, anticipó solo cosas buenas que emergen de la IA que son lo suficientemente fuertes como para igualar y luego superar la inteligencia humana. Él predice que podremos reprogramar las células de nuestros cuerpos para vencer la enfermedad y el envejecimiento. Desarrollaremos una súper resistencia con nanobots que entregan más oxígeno que los glóbulos rojos. Sobrealimentaremos nuestros cerebros con implantes de computadora para que seamos superinteligentes. Y transportaremos nuestros cerebros a un medio más duradero que nuestro "software" actual y viviremos para siempre si lo deseamos. Brooks se mostró optimista e insistió en que los robots mejorados con IA serían aliados, no amenazas.

El científico convertido en autor Clarke, por otro lado, era pesimista. Me dijo que la inteligencia ganará, y que los humanos probablemente competirán por la supervivencia con máquinas súper inteligentes. No fue específico sobre lo que sucedería cuando compartiéramos el planeta con máquinas súper inteligentes, pero sintió que sería una lucha para la humanidad que no ganáramos.

Eso fue en contra de todo lo que había pensado sobre IA, así que comencé a entrevistar a expertos en inteligencia artificial.

¿Qué evidencia tienes para apoyar tu idea?

La inteligencia artificial avanzada es una tecnología de doble uso, como la fisión nuclear, capaz de un gran bien o un gran daño. Estamos empezando a ver el daño.

El escándalo de privacidad de la NSA se produjo porque la NSA desarrolló herramientas de minería de datos muy sofisticadas. La agencia usó su poder para sondear los metadatos de millones de llamadas telefónicas y la totalidad de Internet, críticamente, todo el correo electrónico. Seducido por el poder de la IA de minería de datos, una agencia encargada de proteger la Constitución abusó de ella. Desarrollaron herramientas demasiado poderosas para que las puedan usar de manera responsable.

Hoy, otra batalla ética se está gestando sobre la fabricación de drones asesinos totalmente autónomos y robots de campo de batalla impulsados ​​por IA avanzada: asesinos humanos sin humanos en el circuito. Se está gestando entre el Departamento de Defensa y los fabricantes de drones y robots que son pagados por el Departamento de Defensa, y las personas que piensan que es insensato e inmoral crear máquinas de matar inteligentes. Los partidarios de los drones autónomos y los robots de campo de batalla argumentan que serán más morales, es decir, menos emocionales, apuntarán mejor y serán más disciplinados que los operadores humanos. Aquellos en contra de sacar a los humanos del círculo están mirando la historia miserable de los drones de matar civiles y la participación en asesinatos extralegales. ¿Quién asume la culpabilidad moral cuando un robot mata? ¿Los fabricantes de robots, los usuarios de robots o nadie? No importa los obstáculos técnicos de decirle a un amigo un enemigo.

A largo plazo, como argumentan los expertos en mi libro , la IA que se acerca a la inteligencia a nivel humano no se controlará fácilmente; desafortunadamente, la superinteligencia no implica benevolencia. Como dice el teórico de IA Eliezer Yudkowsky de MIRI [el Instituto de Investigación de Inteligencia de Máquinas], "La IA no te ama ni te odia, pero estás hecho de átomos que puedes usar para otra cosa". Si la ética no puede se construirá en una máquina, luego crearemos psicópatas súper inteligentes, criaturas sin brújulas morales, y no seremos sus amos por mucho tiempo.

¿Qué hay de nuevo en tu forma de pensar?

Individuos y grupos tan diversos como el informático estadounidense Bill Joy y MIRI han advertido durante mucho tiempo que tenemos mucho que temer de las máquinas cuya inteligencia eclipsa la nuestra. En Nuestra invención final, sostengo que la IA también será mal utilizada en el camino del desarrollo hacia la inteligencia a nivel humano. Entre hoy y el día en que los científicos creen inteligencia a nivel humano, tendremos errores relacionados con la IA y aplicaciones criminales.

¿Por qué no se ha hecho más o qué se está haciendo para evitar que la IA se vuelva contra nosotros?

No hay una sola razón, sino muchas. Algunos expertos no creen que estemos lo suficientemente cerca de crear inteligencia artificial a nivel humano y más allá para preocuparnos por sus riesgos. Muchos fabricantes de IA ganan contratos con la Agencia de Proyectos de Investigación Avanzada de Defensa [DARPA] y no quieren plantear cuestiones que consideran políticas. El sesgo de normalidad es un sesgo cognitivo que impide que las personas reaccionen ante los desastres y los desastres que se están gestando, eso definitivamente es parte de ello. Pero muchos fabricantes de IA están haciendo algo. Echa un vistazo a los científicos que asesoran a MIRI. Y, mucho más se involucrará una vez que los peligros de la IA avanzada entren en el diálogo general.

¿Puedes describir un momento en que sabías que esto era grande?

Los humanos dirigimos el futuro no porque seamos las criaturas más rápidas o más fuertes del planeta, sino porque somos los más inteligentes. Cuando compartimos el planeta con criaturas más inteligentes que nosotros, guiarán el futuro. Cuando entendí esta idea, sentí que estaba escribiendo sobre la pregunta más importante de nuestro tiempo.

Todo gran pensador tiene predecesores cuyo trabajo fue crucial para su descubrimiento. ¿Quién te dio la base para construir tu idea?

Los fundamentos del análisis de riesgo de IA fueron desarrollados por el matemático IJ Good, el escritor de ciencia ficción Vernor Vinge y otros, incluido el desarrollador de IA Steve Omohundro. Hoy, MIRI y el Future of Humanity Institute de Oxford están casi solos al abordar este problema. Nuestra invención final tiene alrededor de 30 páginas de notas finales que reconocen a estos pensadores.

Al investigar y desarrollar su idea, ¿cuál ha sido el punto culminante? ¿Y el punto bajo?

Los puntos culminantes fueron escribir Nuestra invención final y mi diálogo continuo con los teóricos y los fabricantes de IA. Las personas que programan IA son conscientes de los problemas de seguridad y desean ayudar a crear salvaguardas. Por ejemplo, MIRI está trabajando en la creación de IA "amigable"

El científico y teórico de la computación Steve Omohundro ha abogado por un enfoque de "andamiaje", en el que la IA probablemente segura ayuda a construir la próxima generación de IA para garantizar que también sea segura. Entonces esa IA hace lo mismo, y así sucesivamente. Creo que se debe crear una asociación público-privada para reunir a los fabricantes de IA para compartir ideas sobre seguridad, algo así como la Agencia Internacional de Energía Atómica, pero en asociación con corporaciones. Los puntos bajos? Al darse cuenta de que se utilizará la mejor y más avanzada tecnología de inteligencia artificial para crear armas. Y esas armas eventualmente se volverán contra nosotros.

¿Qué dos o tres personas tienen más probabilidades de tratar de refutar su argumento? ¿Por qué?

El inventor Ray Kurzweil es el principal apologista de las tecnologías avanzadas. En mis dos entrevistas con él, afirmó que nos fusionaríamos con las tecnologías de IA a través de mejoras cognitivas. Kurzweil y personas ampliamente llamadas transhumanistas y singularitarios piensan que la IA y, en última instancia, la inteligencia general artificial y más allá evolucionarán con nosotros. Por ejemplo, los implantes de computadora mejorarán la velocidad de nuestros cerebros y las capacidades generales. Eventualmente, desarrollaremos la tecnología para transportar nuestra inteligencia y conciencia a las computadoras. Entonces la superinteligencia será al menos en parte humana, lo que en teoría garantizaría que la superinteligencia sea "segura".

Por muchas razones, no soy fanático de este punto de vista. El problema es que nosotros, los humanos, no somos confiables, y parece poco probable que los humanos súper inteligentes también lo estén. No tenemos idea de lo que le sucede a la ética de un ser humano después de que se impulsa su inteligencia. Tenemos una base biológica para la agresión de la que carecen las máquinas. La superinteligencia bien podría ser un multiplicador de agresión.

¿Quién se verá más afectado por esta idea?

Todos en el planeta tienen mucho que temer del desarrollo no regulado de máquinas súper inteligentes. Una carrera de inteligencia está sucediendo en este momento. Lograr AGI es el trabajo número uno para Google, IBM y muchas compañías más pequeñas como Vicarious y Deep Thought, así como DARPA, la NSA y gobiernos y compañías en el extranjero. El beneficio es la principal motivación para esa carrera. Imagine un objetivo probable: un cerebro humano virtual al precio de una computadora. Sería el producto más lucrativo de la historia. Imagine bancos de miles de cerebros con calidad de doctorado que trabajan las 24 horas del día, los 7 días de la semana, en desarrollo farmacéutico, investigación del cáncer, desarrollo de armas y mucho más. ¿Quién no querría comprar esa tecnología?

Mientras tanto, 56 naciones están desarrollando robots en el campo de batalla, y el objetivo es hacerlos, y drones, autónomos. Serán máquinas que matan, sin supervisión de humanos. Las naciones empobrecidas serán las más afectadas por los drones autónomos y los robots del campo de batalla. Inicialmente, solo los países ricos podrán permitirse matar robots autónomos, por lo que las naciones ricas ejercerán estas armas contra los soldados humanos de las naciones empobrecidas.

¿Cómo podría cambiar la vida, tal como la conocemos?

Imagínese: en tan solo una década, media docena de compañías y naciones instalan computadoras que rivalizan o superan la inteligencia humana. Imagine lo que sucede cuando esas computadoras se vuelven expertas en la programación de computadoras inteligentes. Pronto compartiremos el planeta con máquinas miles o millones de veces más inteligentes que nosotros. Y, todo el tiempo, cada generación de esta tecnología será armada. No regulado, será catastrófico.

¿Qué preguntas quedan sin respuesta?

Soluciones. La solución obvia sería darle a las máquinas un sentido moral que las haga valorar la vida y la propiedad humana. Pero programar la ética en una máquina resulta ser extremadamente difícil. Las normas morales difieren de una cultura a otra, cambian con el tiempo y son contextuales. Si los humanos no podemos acordar cuándo comienza la vida, ¿cómo podemos decirle a una máquina que proteja la vida? ¿Realmente queremos estar seguros o realmente queremos ser libres ? Podemos debatirlo todo el día y no llegar a un consenso, entonces, ¿cómo podemos programarlo?

También, como mencioné anteriormente, necesitamos reunir a los desarrolladores de IA. En la década de 1970, los investigadores de ADN recombinante decidieron suspender la investigación y reunirse para una conferencia en Asilomar en Pacific Grove, California. Desarrollaron protocolos de seguridad básicos como "no rastrear el ADN en sus zapatos", por temor a contaminar el medio ambiente con trabajos genéticos en progreso. Debido a las "Directrices Asilomar", el mundo se beneficia de los cultivos genéticamente modificados, y la terapia génica parece prometedora. Hasta donde sabemos, se evitaron los accidentes. Es hora de una Conferencia de Asilomar para IA

¿Qué se interpone en el camino?

Un gran viento económico impulsa el desarrollo de inteligencia artificial avanzada a nivel humano al precio de una computadora será el producto más popular de la historia. Google e IBM no querrán compartir sus secretos con el público o la competencia. El Departamento de Defensa no querrá abrir sus laboratorios a China e Israel, y viceversa. La conciencia pública debe impulsar la política hacia la apertura y las asociaciones público-privadas diseñadas para garantizar la seguridad.

¿Qué sigue para ti?

Soy documentalista, así que, por supuesto, estoy pensando en una versión cinematográfica de Our Final Invention .

¿Qué sucede cuando la inteligencia artificial se vuelve contra nosotros?