lunes, 27 de enero de 2025

La Inteligencia Artificial, lo mejor o lo peor que le puede pasar a la humanidad.

La Inteligencia Artificial, lo mejor o lo peor que le puede pasar a la humanidad 

«Lo mejor o lo peor que le puede pasar a la humanidad». Con estas palabras describió Stephen Hawking, físico teórico y cosmólogo de fama mundial, la Inteligencia Artificial (IA) hace una década en la inauguración del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge. La IA, si se desarrolla y utiliza de forma responsable, puede representar una oportunidad sin precedentes para mejorar la vida humana, pero sus posibles implicaciones negativas asustan y dividen. ¿De dónde viene este miedo y cómo podemos afrontarlo conscientemente? 

Seguramente una de las raíces del miedo a la Inteligencia Artificial está en la pérdida de control. Uno de los temores más extendidos es que la Inteligencia Artificial pueda desarrollar una voluntad autónoma, actuando en contra de los intereses humanos. Este escenario, popularizado por la ciencia ficción, sigue siendo teórico por el momento, pero la creciente complejidad de los sistemas de IA lo convierte en tema de debate. 

El concepto de «caja negra», según el cual el funcionamiento interno de los modelos de IA es opaco incluso para los expertos, alimenta la desconfianza y lleva a muchos a preguntarse cómo mantener el control sobre unas tecnologías cada vez más avanzadas. En este contexto, las tres leyes de la robótica de Isaac Asimov, introducidas en 1942, reclaman un planteamiento ético y responsable en el desarrollo de los robots y la IA. Aunque son ficción literaria, proporcionan una base conceptual para pensar en cómo la IA puede trabajar en armonía con los seres humanos. 

Sin embargo, la realidad actual dista mucho de la Inteligencia Artificial General (IAG), una tecnología hipotética con un entendimiento y un pensamiento similares a los humanos. Según expertos como Andrew Ng (fundador de Google Brain) y Stuart Russell (autor de Human Compatible), la IA actual está estrechamente especializada y entra en la categoría de Inteligencia Artificial Estrecha (IAN). 

Esta forma de IA incluye sistemas diseñados para tareas específicas, como: Reconocimiento de voz (por ejemplo, Siri, Alexa); Algoritmos de recomendación (por ejemplo, Netflix, Spotify). 

La IA puede realizar tareas específicas (como el reconocimiento de voz, la recomendación de contenidos o el análisis predictivo), pero no posee conciencia, intencionalidad ni autonomía de decisión. Por tanto, la responsabilidad sigue estando totalmente en manos de los desarrolladores y los usuarios humanos. 

Uno de los principales retos es diseñar sistemas de IA que sean «explicables» y transparentes, para reducir el riesgo de un uso inadecuado o perjudicial. Esta explicabilidad es esencial para generar confianza en las aplicaciones de IA, especialmente en ámbitos críticos como la educación, las finanzas, la justicia, la sanidad… Además, la colaboración entre gobiernos, empresas tecnológicas e instituciones es crucial para garantizar que el desarrollo de la IA se hace de forma responsable y en línea con los valores éticos universales. 

Gran parte del miedo a la IA procede de la ciencia ficción, que durante décadas ha presentado escenarios distópicos en los que las máquinas se rebelan contra sus creadores. Películas como Terminator o Matrix han alimentado el imaginario colectivo de que la IA podría adquirir una voluntad autónoma y actuar de forma impredecible. Este enfoque emocional de la tecnología impide a menudo comprender sus limitaciones técnicas actuales. 

Las innovaciones tecnológicas a lo largo de la historia siempre han generado ansiedad y resistencia porque representan un cambio respecto al orden existente. Como señala el historiador David Nye, la idea de una «tecnología fuera de control» es un mito cultural que ha acompañado a la humanidad durante siglos. La electricidad y los primeros automóviles también despertaron temores similares, hoy olvidados. 

La percepción de que la IA es una «caja negra» alimenta la sensación de falta de control. Esto es especialmente cierto en el caso de los modelos de aprendizaje automático, que producen resultados basados en miles de millones de datos sin tener siempre clara su lógica interna. La falta de transparencia aumenta la desconfianza, especialmente cuando la IA se aplica en ámbitos sensibles como la educación, las finanzas, la justicia, la sanidad… 

El temor a que la IA pueda ser mal utilizada por gobiernos autoritarios o empresas sin escrúpulos añade otra dosis de preocupación. Los algoritmos de vigilancia, por ejemplo, plantean dudas sobre el derecho a la intimidad y la posibilidad de manipulación masiva. Además, la ausencia de una normativa mundial uniforme exacerba estos temores, dejando margen para posibles abusos. 

La Inteligencia Artificial se alimenta de datos personales para mejorar su rendimiento, pero esto plantea importantes cuestiones éticas. 

¿Cómo garantizar que no se haga un mal uso de estos datos? 

Los sistemas de reconocimiento facial y los algoritmos predictivos son ejemplos concretos de tecnologías que corren el riesgo de violar la intimidad de las personas. Una normativa clara y una mayor transparencia en la gestión de los datos son cruciales para equilibrar el progreso y la protección de los derechos. 

Los temores relacionados con la IA no siempre son racionales, sino que a menudo se derivan de sesgos cognitivos. Uno de ellos es el sesgo cognitivo que nos lleva a buscar respuestas o soluciones sólo en los lugares más obvios, descuidando alternativas menos inmediatas pero potencialmente más eficaces. El sesgo cognitivo de la “falacia del poste de la luz” deriva de aquella anécdota en la que una persona busca sus llaves perdidas debajo de una farola, no porque las haya perdido allí, sino porque es el único lugar iluminado. Del mismo modo, quienes temen que la IA «robe puestos de trabajo» suelen ignorar la historia y las pruebas de que el mercado laboral es un sistema dinámico, capaz de expandirse y adaptarse a las nuevas tecnologías. 

El temor a que la IA provoque un desempleo masivo es una de las preocupaciones más extendidas. Este temor se centra sobre todo en los empleos que podrían automatizarse, olvidando tres aspectos fundamentales: la creación de nuevos sectores, la evolución de las competencias y la expansión económica. 

El miedo a la Inteligencia Artificial, a menudo alimentado por la desinformación y las imágenes distópicas, puede abordarse con un enfoque consciente e informado. Y algunos pasos básicos para gestionar esta transición tecnológica pueden ser por ejemplo: 

1.- Información y concienciación. Entender cómo funciona la IA es el primer paso para superar los temores infundados. Saber lo que la IA puede y no puede hacer ayuda a distinguir la realidad de los mitos. La educación sobre estas cuestiones debe ser accesible a todos, desde los profesionales a los novatos, para construir una cultura tecnológica que reduzca la desconfianza y promueva un uso responsable. 

2.- Formación y adaptabilidad. El mundo laboral está cambiando rápidamente, y la inversión en competencias digitales y sociales es más importante que nunca. El reciclaje y la mejora de las cualificaciones son herramientas esenciales para hacer frente a los retos del mercado. No se trata solo de aprender nuevas tecnologías, sino de desarrollar la capacidad de adaptarse a funciones que evolucionan gracias a la colaboración entre personas y máquinas. 

3.- Ética y regulación. El desarrollo de la IA debe guiarse por principios éticos y normativos claros que garanticen un uso responsable de esta tecnología. Un ejemplo concreto de esfuerzo normativo en este sentido es la Ley de IA, una propuesta legislativa de la UE que pretende regular el uso de la inteligencia artificial. Esta normativa clasifica las aplicaciones de IA en función de su nivel de riesgo, estableciendo requisitos específicos para garantizar la transparencia, la privacidad y la seguridad. La Ley de IA promueve la protección de los derechos fundamentales y la adopción de sistemas de IA explicables y libres de discriminación. Además, exige que los sistemas de IA de alto impacto se sometan a evaluaciones de conformidad antes de su comercialización. 

Este marco regulador es un paso clave en la construcción de un ecosistema tecnológico al servicio del interés humano, que requiere una estrecha colaboración entre gobiernos, empresas tecnológicas e instituciones para garantizar el equilibrio entre la innovación y la protección de los ciudadanos. 

El miedo a la IA es comprensible, pero no debe paralizarnos. La historia nos enseña que el progreso tecnológico, si se gestiona de forma responsable, aporta beneficios duraderos y mejora la calidad de vida. Seguramente va llegando la hora, si es que no ha llegado ya, de abrazar el cambio con curiosidad y conciencia, preparándonos para aprovechar las oportunidades que ofrece la IA para construir una sociedad más inclusiva e innovadora. La reflexión puede ayudarnos a acercarnos a esta tecnología con mentalidad abierta y la debida preparación nos permitirá utilizarla como una herramienta al servicio de la humanidad. 

P. Joseba Kamiruaga Mieza CMF

No hay comentarios:

Publicar un comentario

Hoy y ahora es el momento oportuno de rezar por la paz.

Hoy y ahora es el momento oportuno de rezar por la paz   El Papa León XIV ha invitado a todos los fieles a vivir el viernes 22 de agosto en ...