¿Será Alpha Go el verdadero padre de Terminator?
Isaac Asimov formuló sus Tres Leyes de la Robótica en su relato El Círculo Vicioso de 1942. El primero de esos mandamientos prohíbe a las máquinas hacer daño a los humanos y les obliga a impedirlo.
Y sin embargo, ese mismo año, un primitivo robot –la mira automatizada Norden—se incorporó a los bombarderos B-17 y B-24 norteamericanos que arrasaron las ciudades alemanas durante la Segunda Guerra Mundial. Por primera vez, el piloto entregaba el control del avión a una máquina y dejaba que ésta decidiera el momento preciso de soltar su carga de explosivos.
Siete décadas después, una noticia –tratada más en clave de anécdota que de hito por gran parte de los medios— evocó el universo del célebre autor y la urgencia de aplicar una versión corregida y aumentada de sus leyes si no queremos acabar entregando el control total de la raza humana a las máquinas en un par de generaciones.
Hace escasas fechas, del súper programa AlphaGo, desarrollado por la división Deep Mind (Mente Profunda) de Google logró vencer en el milenario juego de go al maestro surcoreano Lee Sedol, noveno dan (el más alto posible) y auténtico Roger Federer de la disciplina.
Con 2.500 años de historia conocida, el go es el juego de mesa más difícil que existe. Se juega con fichas blancas y negras sobre un tablero de 19 x 19 casillas que permiten una cantidad astronómica de permutaciones (10 elevado a la 170ª potencia, para quienes sepan apreciar la magnitud).
Esas capacidades esencialmente humanas ha hecho mucho más difícil crear software capaz de batir a los mejores jugadores, como hiciera hace justamente dos décadas el ordenador Deep Blue de IBM frente al gran maestro de ajedrez Gary Kasparov. En el go, a diferencia del ajedrez, no basta potencia bruta de computación para predecir movimientos sobre el tablero. Es necesario el pensamiento abstracto.
La victoria de AlphaGo sobre Sedol –o en su día la de Deep Blue sobre Kasparov— es sin duda un triunfo del progreso tecnológico. Sin embargo, algunas de las mentes más brillantes –y conocidas—de nuestros tiempos comienzan a advertir, en términos nada ambiguos, sobre los peligros de la inteligencia artificial (AI) y reclaman controles antes de que sea demasiado tarde.
¿Qué tienen en común el físico Stephen Hawking, el emprendedor (automóviles y acumuladores eléctricos Tesla y nave suborbital Space X) Elon Musk y el fundador de Microsoft y filántropo global Bill Gates? Además de brillantes y mundialmente conocidos, los tres han advertido que el acelerado avance de la inteligencia artificial representa un peligro real para la humanidad en las próximas décadas «si no garantizamos que las máquinas hagan lo que queremos que hagan«.
Hawking es además parte interesada. Postrado por la esclerosis lateral amiotrófica, el científico utiliza un software predictivo basado en IA que le permite ‘hablar’ a través de su ordenador. Pese a ello, teme que un día no muy lejano los supercompudadores «emprendan su propio camino» y que los humanos «mucho más limitados por la evolución biológica», no les puedan seguir.
El científico y otros académicos firmaron en 2015 un manifiesto en favor de una prohibición total de robots militares ofensivos dotados con capacidades de IA autónoma. El fantasma de Skynet –el sistema de computadores y robots-guerreros de la saga Terminator—tiene un fuerte poder evocador a la hora de representar un futuro apocalíptico en el que las máquinas subyuguen a los humanos. Pero la aplicación de la IA abarca todos los campos.
Por eso, un número aún mayor de científicos y personalidades (cerca de 9.000 de momento) se han se adherido al documento del Instituto para el Futuro de la Vida que propugna estrictas directrices para controlar la investigación y aplicación de la inteligencia artificial: «Dado su gran potencial es importante investigar cómo lograr sus beneficios al tiempo que se evitan sus riesgos«.
Los signatarios apuntan criterios para que los sistemas y aparatos controlados por IA no sean capaces de desarrollar comportamientos indeseados, no sean susceptibles de manipulación por personas no autorizadas y garanticen siempre un control humano final sobre la máquina.
Estas exigencias –tímidas—no son nimias. No es que la máquina haya ganado al go, es que ya es mucho más barato, seguro y políticamente aceptable mandar un dron a eliminar a un dirigente del Estado Islámico en el Kurdistan iraquí que una unidad de Navy Seals que puede sufrir bajas o ser capturada. Pero, ¿se puede enseñar moralidad, discernimiento o la correcta aplicación del derecho internacional humanitario a un robot de combate?
Existe software que no solo identifica los rasgos faciales y el lenguaje gestual de quienes escanea en la calle o un establecimiento sino su estado de ánimo, su susceptibilidad de compra o su propensión a la violencia. Y, mientras los datos no se almacenen, su uso el legal. Pero, ¿donde está la frontera entre predecir un comportamiento o provocarlo?
Tenemos coches sin conductor capaces de atravesar la península ibérica y robots quirúrgicos más diestros que el mejor cirujano. Por no hablar de fábricas cada vez más automatizadas en las que las máquinas –que ni cobran, ni protestan ni cometen errores—eliminan progresivamente la presencia humana y van cambiando inexorablemente el modelo productivo y el contrato social de los últimos 100 años.
Raymond Kurzweil, científico laureado, inventor de varios sistemas de IA y divulgador incansable, sitúa en torno a 2045 lo que llama la singularidad: el momento en que la convergencia de genética, nanotecnología, telecomunicaciones e inteligencia artificial acelera de tal modo que escapan de la capacidad humana no ya de control sino siquiera de comprensión.
El reto que plantean estas tecnologías es ético, social, económico, geopolítico y estratégico. Su dimensión es global, urgente y vital. Es un desafío auténticamente «existencial», en palabras de Elon Musk.
AlphaGo ganó a Lee Sedol no sólo porque piensa, sino porque es capaz de aprender de sus errores, inferir conclusiones y aplicarlas en sucesivas partidas. Esa capacidad de aprender de las máquinas, y su aceleración, comienza a parecerse a la sigularidad de Kurzweil y es lo que quita el sueño a los científicos.
Ese es el verdadero Skynet. Si no queremos vernos obligados a viajar en tiempo, como John Connor, para destruir el malévolo mundo de máquinas que controle nuestro despótico futuro quizá sea hora de hacer hoy, como aconsejan nuestras mejores mentes, algo al respecto.