El término Inteligencia Artificial (IA) hoy en día te lo puedes encontrar hasta en la sopa. Su uso está tan extendido que deja de tener sentido, si alguna vez lo ha tenido. Porque lo cierto es que cuando se habla de Inteligencia Artificial lo que hay detrás no es más que un programa, es decir, unos algoritmos y unas estructuras de datos (un recuerdo para el recientemente fallecido Niklaus Wirth).
El problema de fondo es que se ha creado un relato por el que se quiere asignar a la inteligencia artificial unas capacidades que no tiene, mal que las pese a los acólitos de su secta. Como ejemplo de caso extremo lo tenemos en la propuesta de Reglamento de Inteligencia Artificial, que esta semana se ha aprobado en el Parlamento Europeo, y en unos meses estará en vigor. En este caso se pretende legislar sobre ese tipo de programas que se denominan de “inteligencia artificial”. Parafraseando la mítica frase de Keyzer Sozé podría decir que “El mejor truco de la inteligencia artificial es hacernos creer que existe”.
Lo que en mi opinión es preocupante es que en demasiados artículos, entrevistas o jornadas se hable sobre la IA como instrumento para tomar decisiones que ya no deban hacer los humanos. Se llega a decir que la “responsabilidad de la toma de decisiones y del aprendizaje ya no es del programador, sino que es de la propia IA”. Y a partir de esto ¿que se pretende, que la IA sea responsable de las decisiones que toma? ¿se pretende que quién la ha programado no sea responsable civil subsidiario? Seria como si en el Código Penal desapareciera la figura del inductor del delito porque no es quién lo prepara, ni lo ejecuta.
Se discute sobre la idoneidad de la IA como instrumento de autoridad para decidir sobre el devenir de la humanidad, pero estoy de acuerdo con lo que escribía John Carlin en un reciente, y muy recomendable, artículo sobre IA frente a IH (Inteligencia Humana). Un artículo en el que en su parte final exponía: “Un mundo bajo la autoridad de la IA quizá nos aporte la previsible serenidad del reloj de cuco. Pero prefiero jugármela con la IH”, y yo también.
Cuando se habla de dar autoridad a la IA antes habría que ser consciente de los interrogantes que plantea el funcionamiento de las bases sobre las que se sustenta la IA, es decir, sobre el hardware y el software.
Por un lado, el hardware cuyo núcleo principal son los microprocesadores que son los componentes en los que se ejecutan los algoritmos y dónde se hacen los cálculos con los que la IA obtienen los resultados que en muchos casos suponen decisiones (autónomas o sugerencias para terceros). Un factor que hay que tener en cuenta en el funcionamiento de los microprocesadores es el incremento de temperaturas que se produce en estos elementos cuando están funcionando y, en especial, cuando realizan cálculos de forma repetida y rápida. Al respecto John Markoff, periodista jubilado del The New York Times experto en tecnología, exponía en un artículo de febrero de 2022 la preocupación de los ingenieros que diseñan procesadores respecto de los errores de cálculos en los núcleos de los procesadores debidos a cuestiones relacionadas con la mayor miniaturización, es decir, a medida que las tecnologías de fabricación trabajan a menores dimensiones aumenta el riego de que los procesadores sean menos confiables y, en algunos casos, menos predecibles. Se ha llegado a decir que hay procesadores que en fabrica superan los test de los fabricantes pero que cuando son operativos entonces tienen errores. Se sospecha que los defectos de fabricación están vinculados a los llamados errores silenciosos que no se pueden detectar con facilidad, aquí la complejidad es que los sistemas de microprocesadores llevan habitualmente componentes de diferentes fabricantes con lo que la detección de dónde viene el problema es compleja. Además, puede ocurrir que en una placa el problema lo genere p.ej. un condensador y en otra placa lo genere una resistencia. Como saben los que se dedican a fabricar productos físicos en todo sistema de fabricación pueden existir microgrietas que en muchos sistemas no tienen importancia pero que cuando se opera con sistemas que trabajan con micromagnitudes sí que es relevante. Esto es un tema que, por tanto, puede ser sustancial en las decisiones que puedan tomar los sistemas de IA si el hardware presenta errores que den lugar a fallos en los cálculos de esos sistemas.
Y, por otro lado, tenemos el software, que se fundamenta en algoritmos y estructuras de datos. Unos algoritmos que se programan usando un software basado en otros algoritmos, y a menudo usando otros algoritmos (ubicados en bibliotecas de algoritmos en muchos casos de libre acceso). En todos los casos no hay la garantía de que la programación está libre de errores o que, de forma preocupante, en un determinado momento desaparezca una biblioteca que pueda provocar el paro de la IA. A título de ejemplo en 2016 un programador rompió internet al borrar un pequeño fragmento de código en un paquete de JavaScript de código abierto que usaban multitud de programadores web, lo que provocó innumerables aplicaciones repartidas por el mundo dejaron de funcionar. Es habitual en el desarrollo de software que se utilicen bibliotecas con algoritmos que han hecho otros programadores para evitar volver a reescribirlos, y eso también se hace en los sistemas de IA. Por tanto, ¿quién garantiza que en el futuro no se borre, o algo peor como es que se altere, un algoritmo externo a nuestro sistema con el cual se calculan los resultados para tomar determinadas decisiones?
Además, en el ámbito del software de IA se pueden usar diferentes líneas conceptuales para desarrollar los sistemas.
Una de esas líneas es la que da lugar a los denominados “sistemas de IA basados en conocimientos”, que se basan en utilizar la lógica y la heurística. Aquí es donde ubicaríamos el programa Deep Blue, conocido por derrotar a Garry Kasparov, que está especializado en ajedrez. Este es un programa de IA que sólo sabe jugar al ajedrez, si lo ponemos a jugar a póker ni empieza.
Otra línea conceptual es la de los “sistemas de IA basados en datos”. En este caso lo que se hace es desarrollar algoritmos que utilizan gran cantidad de datos para que el sistema aprenda. Es lo que se utiliza en los programas de reconocimiento de objetos o animales, y para que aprendan a diferenciar somos nosotros los que ayudamos cuando resolvemos un captcha. En esta línea conceptual es donde se ubicaría el AlphaGo, que se programó para ganar en el juego del go. Esta es una línea conceptual que se basa en el uso de las denominadas redes neuronales que lo que pretenden es simular el comportamiento de las neuronas del cerebro humano para que los sistemas aprendan y puedan decidir basándose en su aprendizaje. Estas redes neuronales tienen una mayor o menor complejidad en base a como se programan los algoritmos que las desarrollan. Pero sobre las redes neuronales en un artículo del IEEE Spectrum se citaban los resultados de líneas de investigación que exponían las limitaciones de lo que pueden hacer las redes neuronales profundas. Unas limitaciones que tendrían incidencia sobre los límites de los sistemas de IA basados en redes neuronales y en lo que podrían hacer.
En estos sistemas que aprenden en base a los datos, es en los datos donde está el principal problema de sus decisiones. Si los datos de partida están sesgados, el sistema va a tomar decisiones sesgadas. Y ya hay muchos casos en que sistemas de IA han tomado decisiones racistas o sexistas, con potenciales demandas por discriminación para las empresas que los usasen, que las llevaron a cancelar proyectos de IA para selección de personal.
Otra de las líneas conceptuales es la que se denomina “sistemas basados en la experiencia”. En esta línea lo que se pretende es que los programas de IA aprendan sobre su experiencia. Así una de las estrategias es que el sistema juegue contra si mismo. Algo que no es un concepto novedoso puesto que ya se anticipaba en la película de 1982, Juegos de Guerra, en su escena final donde el superordenador juega contra si mismo simplemente porque se decide poner como número de jugadores, cero.
Todos estas líneas conceptuales pretenden emular la inteligencia humana para trasladarla a unos sistemas que denominan de inteligencia artificial. Pero ninguno de ellos tiene la rapidez de una persona para reconocer una cara, o con un fragmento saber que es un autobús.
No sabemos cómo funciona el cerebro, no tenemos ni idea de cómo se guardan los datos, las imágenes, la información, ni como se genera el conocimiento. El cerebro es un sistema bioquímico, eléctrico y magnético. Que además tiene un consumo energético de entre 15 y 20W al día para hacer todo lo que sabemos qué hace. Se ha calculado que en los sistemas de IA la generación de imágenes es el mayor consumidor de energía, muy superior al texto. En cambio, las imágenes en el cerebro humano son más sostenibles energéticamente.
Otra de las cuestiones más debatidas sobre la IA es la necesidad de que sean sistemas éticos. Pero ¿quién va a programar esa ética?
Si tenemos en consideración que la ética es una cuestión cultural ¿Quién va a decidir cuáles son los criterios éticos para los sistemas de inteligencia artificial?
A título de ejemplo recuerdo una conversación con una persona que había estudiado un programa internacional en una universidad inglesa con personas de diferentes países. Durante ese programa una de las cosas que le sorprendió era la diferencia de cómo se consideraban las cuestiones relacionadas con la privacidad individual dependiendo del país o la cultura de procedencia. En determinadas culturas el individuo está por debajo del colectivo mientras que en otra priman los derechos individuales. Entonces ¿cuál es la ética que va a decidir, la individual o la colectiva?
Un país con ética colectiva ¿va a aceptar una IA de ética individual? ¿y al revés?
Ahora bien, es evidente que cualquier que desarrolla sistemas con IA puede saber cuáles son los potenciales riesgos que puede plantear su programa, y como se puede comportar en base a los algoritmos de decisión. Y también debe plantearse cuál va a ser el mecanismo por el que va a actuar el SCRAM.
Alrededor de la marca “inteligencia artificial” se ha creado una industria y un elemento de marketing intentar vender cualquier cosa que puede llevar incorporado una aplicación o que se pueda conectar a internet. Al paso que vamos no me extrañaría ver calculadoras escolares con un logotipo que ponga “IA development” tal como en muchos productos pone “Patent Pending” cuando la patente ni está pendiente, ni se la espera.
Ante la gran cantidad de apóstoles y acólitos de la IA me preocupa que los que no tienen suficientes conocimientos de tecnologías y programación puedan creer en sus mensajes. Lo que ya me ha llevado a conversaciones con mis hijos o familiares en las que intento hacerles entender que no es oro todo lo que reluce. Y les recuerdo lo que Publio Cornelio Tácito escribió “Omne ignotum pro magnifico est” es decir “Todo lo que no se conoce se considera prodigioso”, una frase que pronto tendrá dos mil años, pero que aún es vigente.
Para evaluar si un sistema de IA seria el equivalente a la IH a la hora de tomar decisiones trascendentes debería planteársele el que denomino “Test de Petrov”. Este test estaría basado en plantear la decisión que tuvo que tomar Stanislav Petrov en el que se conoce, por una minoría de personas, como el incidente del equinoccio de otoño. La historia de la actuación de Petrov fue desconocida durante muchos años, pero hemos de reconocer que gracias a su decisión la humanidad contina existiendo.
Lo que debería plantearse con el Test de Petrov en que ante unos datos que recibe el sistema para los que la decisión que debe tomar tiene consecuencias relevantes, el sistema debería decidir que los datos que recibe no son correctos y que en consecuencia no debería actuar.
La cuestión es ¿cómo se enseña a un sistema a detectar esa anomalía sin que haya datos para los que pueda aprender?
¿Se puede enseñar a un sistema programado para obedecer a desobedecer?
¿Es esa la característica que diferencia la Inteligencia Humana de la Inteligencia Artificial?
La inteligencia humana es lo que hace que haya quien bloquee un sistema de IA en un vehículo autónomo, quién es el genio que piensa como hacer que un sistema sea incapaz de entender que un cono sobre el capó no es un obstáculo en su camino, sino una argucia para que se pare. Y también la inteligencia humana es capaz de diseñar un conjunto de imágenes sobre un jersey para evitar que los sistemas de reconocimiento detecten la cara de su portador para conseguir la “invisibilidad digital”, es decir, mientras que al más tonto de los humanos ese jersey no lo confundiría a un sistema de IA sí.
En el fondo es porque digo que “No es inteligencia artificial, sino que es un puto programa”.
Foto: Image by Gordon Johnson from Pixabay