Éramos pocos… y llegó la IA

Geoffrey Hinton, considerado “el padrino de la inteligencia artificial”, sostiene que, aunque la IA tiene el potencial de resolver problemas complejos y mejorar la eficiencia en diversos sectores, también plantea riesgos significativos

inteligencia artificial

Foto Freepik

Recibe nuestra newsletter diaria

O síguenos en nuestro  canal de Whatsapp

Parafraseando la conocida expresión que se utiliza para indicar que una situación complicada puede empeorar aún más debido a la aparición de un nuevo problema, me sirve para describir el panorama actual de un mundo ya marcado por la complejidad y crisis constantes: pandémicas, económicas, políticas, religiosas, climáticas, energéticas, humanitarias o las sempiternas guerras y demás conflictos. A lo que, por si no fuese suficiente, la irrupción de la inteligencia artificial (IA) añade una nueva incertidumbre.

Considerado “el padrino de la inteligencia artificial” por su trabajo fundamental en el desarrollo de las llamadas “redes neuronales profundas” –una técnica que ha revolucionado el campo del aprendizaje automático y ha allanado el camino para el desarrollo de sistemas actuales de IA, como ChatGPT2–, Geoffrey Hinton (1947) ha dicho que, aunque la IA tiene el potencial de resolver problemas complejos y mejorar la eficiencia en diversos sectores, también plantea riesgos significativos. Es más, su preocupación por los posibles efectos negativos de la IA ha llamado la atención de la comunidad científica y del público en general. 

Uno de los impactos más discutidos de la IA es la automatización de tareas y procesos, lo que puede llevar al desplazamiento de ciertos puestos de trabajo. Según un informe de McKinsey Global Institute, en aproximadamente el 60% de las ocupaciones, alrededor del 30% de las actividades podrían automatizarse con tecnologías disponibles hoy en día y, según Hinton, sin compensar la creación de nuevas oportunidades laborales. Además, la adopción de la IA también plantea el riesgo de ampliar las desigualdades económicas y sociales, esto es, las ya de por sí abundantes “brechas” de todo tipo (de género, digitales, educativas, etc.).

Por otro lado, los ejércitos de varios países están integrando tecnologías de IA, desde drones de vigilancia, vehículos aéreos no tripulados, sistemas de defensa automatizados o robots de combate (en EE.UU. pretenden desplegar hasta 300.000 de estos soldados autómatas en seis años). A este respecto, John Bachynski, experto en tecnología militar y ética, advierte sobre los riesgos de una carrera armamentista en IA y la posibilidad de que sistemas autónomos puedan tomar decisiones de vida o muerte sin intervención humana.

Otro de los problemas centrales es la alineación de los objetivos de la inteligencia artificial con los objetivos humanos. Esto se refiere a la necesidad de garantizar que los sistemas de IA actúen de acuerdo con los valores, deseos y bienestar de los seres humanos, evitando consecuencias no deseadas o perjudiciales. Pero, a medida que la IA se vuelve más poderosa y autónoma, existe la preocupación de que pueda tomar decisiones que, aunque sean lógicamente coherentes con sus objetivos programados, resulten contraproducentes o dañinas para nosotros.
           

Por ejemplo, un sistema de IA diseñado para maximizar la producción en una fábrica podría hacerlo a costa de la seguridad de los trabajadores, si no se le instruye adecuadamente para valorar también la seguridad laboral. Un asistente de IA que recibe la orden de “hacer feliz a la gente” podría interpretarlo de manera demasiado literal y elegir métodos cuestionables para lograrlo, como administrar drogas que inducen la felicidad en lugar de abordar causas subyacentes de insatisfacción. Un algoritmo financiero programado para maximizar ganancias podría tomar riesgos excesivos, lo que podría desencadenar una crisis económica. O, utilizando el ejemplo del propio Geoffrey, encargar a la IA que resuelva el cambio climático podría llevar a que nos extinguiese a nosotros como principales causantes del mismo.
           

Los valores humanos son complejos, contextuales y a menudo contradictorios. Por lo que programar una IA para que entienda y respete estos valores en todas las situaciones es extremadamente difícil. Valoramos una amplia gama de objetivos y principios, como la libertad, la seguridad, la justicia, la privacidad y la dignidad, que a veces pueden estar en conflicto entre sí, o ser respetados por unos colectivos y denostados en otros, etc.

Por lo que respecta a los ya de por sí famosos, abundantes y nefastos “fakes”, entre más expertos, Hinton (Premio Turing en 2018, considerado el Nobel de la Informática, Premio de la Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación, Premio David E. Rumelhart y Medalla de Oro Gerhard Herzberg del Consejo de Investigación de Ciencias Naturales e Ingeniería de Canadá, que decidió renunciar a su puesto en Google) también advierte de que puede llegar a darse que no sepamos distinguir la realidad de la ficción, ya que los sistemas de creación de imágenes, noticias y demás contenidos o informaciones son cada vez más perfectos y difíciles de detectar. En la entrevista emitida en el programa El cazador de cerebros (TVE2), llegó a comparar este fenómeno con el de la falsificación del dinero, con las mismas implicaciones de que si te dan un billete falso y lo usas cometes un delito; quizás sin saberlo, te conviertes en partícipe de la estafa (en este caso de la mentira o de la no verdad).

A medida que los sistemas de IA se vuelven más complejos, su comportamiento emergente e impredecible se convierte en una preocupación

En cuanto a la evolución de la inteligencia artificial (IA) por sí misma, especialmente en términos de su capacidad para auto-mejorarse y desarrollar nuevas capacidades de manera impredecible, se plantean una serie de riesgos ya que, a través de técnicas como el aprendizaje profundo y por refuerzo, las IA podrían desarrollar habilidades y conocimientos que no fueron explícitamente programados por humanos, adaptándose a nuevas tareas y desafíos de manera autónoma.
           

Es decir, la IA podría ser capaz de innovar de maneras inesperadas, creando nuevas tecnologías, métodos y soluciones que los humanos no habríamos anticipado. Esto podría tener aplicaciones beneficiosas en campos como la medicina, la ciencia y la ingeniería pero, como acabo de decir, también plantea riesgos si las innovaciones no están alineadas con los valores humanos. Pequeñas modificaciones en los algoritmos o en las condiciones de operación pueden llevar a resultados inesperados y potencialmente peligrosos.
           

De hecho, los expertos, incluido Stephen Hawking, han advertido sobre el riesgo existencial que podría representar para la humanidad si una IA avanzada o superinteligente decide actuar en contra de los intereses humanos. Ya sea por diseño, error o interpretación errónea de sus objetivos, las consecuencias podrían ser catastróficas.
           

Por otro lado, contrarrestando esta visión alarmista, centrándose en las implicaciones filosóficas y existenciales de la IA, Anil Seth, neurocientífico cognitivo y computacional, argumenta que, aunque las máquinas pueden llegar a replicar ciertos aspectos del comportamiento humano, la verdadera consciencia sigue siendo un fenómeno profundamente biológico que las IA actuales no pueden replicar. Según él, esta distinción es crucial para comprender los límites de la IA y evitar la sobreestimación de sus capacidades.
           

Pero el caso es que, en marzo de 2023, un grupo de más de mil expertos en tecnología, investigadores y empresarios, incluyendo figuras como Elon Musk y Steve Wozniak (ingeniero programador cofundador de Apple), firmaron una carta abierta solicitando una pausa de seis meses en el desarrollo de sistemas de inteligencia artificial más poderosos que GPT-4. La carta, publicada por el Future of Life Institute, argumentaba que los laboratorios de IA estaban inmersos en una “carrera fuera de control” para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, podía entender, predecir o controlar de manera fiable.
           

Paralelamente a estas discusiones globales, la Unión Europea ha elaborado un marco regulatorio específico para la inteligencia artificial. La propuesta de la Ley de IA de la UE, presentada por la Comisión Europea en abril de 2021, es la primera iniciativa legislativas en este ámbito. La normativa pretende asegurar que la IA se desarrolle y utilice de manera que sea segura, ética y respetuosa con los derechos fundamentales y los valores europeos. Aunque, como ha señalado también Hinton en la entrevista citada, los gobiernos se reservan o se excluyen de esta regulación, es decir, que es para los ciudadanos, empresas, etc.

En definitiva, a medida que los sistemas de IA se vuelven más complejos, su comportamiento emergente e impredecible se convierte en una preocupación. El desafío radica en equilibrar el progreso tecnológico con los valores humanos y garantizar que la IA se desarrolle de manera que promueva el bienestar y la seguridad de toda la humanidad.

Desde mi punto de vista, pasa algo similar como con la energía nuclear, que de por sí no es mala, si no que depende del uso que hagamos de la misma. Así, puede ser una gran aliada como combustible en la exploración espacial o para aplicaciones médicas que abarcan desde el diagnóstico por imágenes hasta el tratamiento de enfermedades. Pero también puede ser catastrófica, como arma de destrucción masiva, o muy contaminante, si no se controla su manipulación ni sus residuos.
           

Volviendo al dicho del título de este artículo, el “parto” o llegada de este nuevo “bebé”, más que venir “con un pan debajo del brazo”, como dice otro refrán, más bien parece que añade un nivel de caos adicional, por si no teníamos suficientes. Y es que somos así, cuando parece que las cosas no pueden complicarse más, hacemos o creamos algo que aún las puede empeorar.

Recibe nuestra newsletter diaria

O síguenos en nuestro  canal de Whatsapp

Deja una respuesta