El fracaso de la inteligencia artificial

El fracaso de la inteligencia artificial

IVÁN CANTERO

Este es un tema que me apetecía tratar desde hace mucho tiempo, pero la actualidad y la propia vida me lo habían impedido hasta ahora. Deformaciones profesionales aparte, lo cierto es que el Big data y el Machine Learning son disciplinas emparentadas de manera muy estrecha entre sí (los grandes volúmenes de datos no se recopilan sino es para inferir otros datos a partir de ellos usando alguna técnica de inteligencia artificial) y con las propias ciencias sociales, especialmente la política; y estoy convencido de que en ellas mismas tendrá su perdición.

Es justo empezar desgranando los conceptos básicos y poniendo de relevancia, pues mucha gente lo ignora, que la inteligencia artificial es un invento netamente español. Su origen se remonta más allá de lo que cualquiera podría imaginar, mucho antes de que los autómatas más o menos programables iniciasen la prehistoria de la propia computación: se trata de la Corona de Aragón en baja Edad Media, a caballo entre los siglos XIII y XIV, donde el célebre beato Ramón Llull construye su Ars Magna, ingenio capaz de combinar proposiciones teológicas y filosóficas representadas en piezas mecánicas, de modo que el mecanismo indicaba si éstas eran ciertas o falsas. Aunque el objeto de su trabajo sí tuvo impacto en el intelectualismo de la época, el mérito de su máquina pasó bastante desapercibido hasta que Leibniz trató en vano de construir (reconociendo basarse en el de Llull) un mecanismo similar de propósito general, capaz de demostrar la veracidad de cualquier predicado, tres siglos más tarde. De este modo, con su Ars Magna, Llull había implementado el primer sistema experto de la historia.

Explicado de manera simplificada, un sistema experto es un ingenio basado en reglas diseñadas por expertos de una determinada materia, que parte de unos predicados iniciales capaces de hacer cumplir las condiciones de algunas de esas reglas. Las reglas cumplidas, a su vez, generan como resultado nuevos predicados que pueden hacer cumplir reglas que antes no se habían disparado; de modo que, tras varias iteraciones, termina por no dispararse ya ninguna regla más y se obtienen finalmente los predicados resultado del cumplimiento de las últimas reglas disparadas. Así, los predicados de salida constituirían un resultado del razonamiento inteligente del sistema experto a partir de los predicados de entrada. Con su amplia variedad y matices, este tipo de sistemas eran los más comunes en el mundo de la inteligencia artificial hasta hace unos diez o quince años, cuando la madurez de Internet y la progresiva informatización de los procesos en grandes compañías permitió contar, por fin, con grandes cantidades de información digitalizada para poder empezar a utilizar de manera razonable otras técnicas más prometedoras y fascinantes: ciertos métodos estadísticos y, sobre todo, las redes de neuronas artificiales (que en los más recientes escaparates de la mercadotecnia se presenta como Deep Learning).

Las redes de neuronas artificiales o sistemas conexionistas pretenden ser emulaciones matemáticas del funcionamiento orgánico del cerebro, formadas por elementos de cálculo (neuronas), y las entradas/salidas en forma de valores para esos cálculos (sinapsis); que las conectan entre sí con la capacidad de aprender a hacer cosas como clasificar información o inferirla a partir de otra. Esta aparente taumaturgia científica ocupó, antes de ponerse de moda, el lugar que ahora tiene la física cuántica como ofuscadora de ceporros que, tras haber leído en diagonal un mal artículo de divulgación popular sobre el tema, creen tener respuesta para todos los enigmas del universo.

Aunque existen muchos modelos de redes neuronales con sus particularidades, la mayoría aprende con un entrenamiento, presentando al sistema con un conjunto grande de ejemplos a la entrada con el resultado esperado a la salida (en general, formados en ambos casos por un número importante de variables), de modo que su algoritmo de aprendizaje  trata de minimizar el error entre la salida obtenida en el momento actual por el sistema y la esperada que se presenta. Si el ejercicio tiene sentido (y luego volveremos sobre ello), tras el entrenamiento, el sistema será capaz de dar la salida esperada ante nuevas entradas con un error muy pequeño; resultando que una red neuronal no será nada más que una vulgar (aunque compleja) función de cálculo numérico multivariable. Aquí cabe añadir que, aunque los algoritmos y los modelos son muy posteriores, quien estableció el punto de partida definiendo la neurona formal con sentido físico y matemático que fundamenta las redes neuronales fue nuestro inefable Santiago Ramón y Cajal.

Tras esta breve introducción, quizás el lector profano se sienta un tanto decepcionado. Y le faltarán todavía menos razones cuando descubra que, antes de que se construyese la primera computadora, Kurt Gödel ya demostró que existen funciones matemáticas que no se pueden plasmar en un algoritmo… Estableciendo, sin saberlo, una severa limitación (al margen de la potencia de cálculo de la máquina en que se ejecute) para cualquier modelo de red neuronal, que por lo demás no llega a tener siquiera las capacidades de una máquina de Turing o representación formal de un programa de ordenador, frente a las capacidades del cerebro. Estamos, por tanto, muy lejos de la cacareada singularidad, término que los filósofos han propuesto para nombrar el evento tecnológico en el que la inteligencia artificial supere a la humana; y si algún día se alcanzase, sería mediante técnicas que no tendrán nada que ver con las actuales.

La inteligencia artificial tiene infinidad de usos concretos que prevalecerán en el tiempo, en forma de herramientas que simplifican tareas, u otras que ayudan a tomar decisiones… En definitiva, recursos que suben otro nivel de abstracción (no eliminan) la actividad en muchos puestos de trabajo con la promesa de aumentar la productividad, como ha ocurrido en todas las llamadas revoluciones industriales. Sin embargo, el motor que ha hecho expandirse rápidamente la adopción de científicos de datos en todas las empresas de cierto tamaño (amén de grandes inversiones en infraestructura computacional) ha sido el márquetin, como otrora había ocurrido con los comunity managers. Los mercadotécnicos, a los que en general se les hace demasiado caso para tomar decisiones empresariales, confiaban en que el machine learning les otorgase al fin una cierta base de tecnicismo a sus volátiles postulados, esto es, que lo suyo pasase a ser una ciencia respetable. Consiguieron convencer a sus directivos de que invertir en el cocinado del dato «aportaría valor», aunque no tuviesen demasiado claro cómo: quizás de los datos digitalizados pudiera extraerse una adaptación más personalizada a los gustos del cliente; o tal vez sirviesen para optimizar procesos y descubrir «nuevas oportunidades de negocio». Pero lo cierto es que los paganos de todo esto empiezan a despertar de su embrujo, con frecuencia sin ver grandes resultados; a veces porque su negocio no tiene siquiera datos suficientes como para extraer algo de ellos, y la mayoría por haber fantaseado con causalidades esotéricas entre la información disponible y la que se quiere inferir que las tercas matemáticas que entrenan las redes neuronales niegan si estas no existen. Después de todo, probablemente solo ciertos sectores muy concretos (dejando aparte los nativos digitales) dispongan de datos suficientes y significativos como para hacer cosas interesantes con ellos.

Otras veces el fracaso no es tan burdo y llega en la fase técnica, aunque se disponga de información valiosa para alimentar a cacharros inteligentes; con unas implicaciones más profundas. Reconozco que en la primera explosión de la era Big Data me ilusioné, pensando que la ingeniería informática recuperaba por fin su dignidad profesional: la complejidad técnica de lo que había entre manos garantizaba que tanto en la infraestructura como en la analítica no quedaría más remedio que contar con personal formado como Dios manda, en lugar de los habituales con un simple curso de programación… La siniestra razón por la que el Estado se ha negado siempre a establecer competencias exclusivas al colegio profesional: poder reciclar a cualquiera dentro del pozo sin fondo que parece ser el mundillo de la computación. Sin embargo, al poco tiempo también los profanos empezaron a hacer cursillitos porque empezaba a picarles la curiosidad sobre el tema; y al entender que la materia era inasequible sin una penosa curva de aprendizaje, entendieron que había que buscar alternativas para democratizar el uso de la inteligencia artificial entre usuarios no expertos. Entonces, lo que antes era virtuosismo de conservatorio pasó a ser el reguetón de la informática: llegaron ciertas aplicaciones y nuevos perfiles de científicos de datos que presumían de poder hacer machine learning calzado y vestido partiendo de información cruda, o lo que es lo mismo, analítica sin analizar. Al abrigo del abandono de los sistemas expertos, se extendió la superstición de que tan inteligentes eran las redes de neuronas por su capacidad de aprender que se podía prescindir también «de los expertos», es decir, aquellos que tenían el conocimiento técnico de la materia sobre la que versaban los datos. Si bien en la era conexionista ya no era necesario que los expertos trasladasen su conocimiento al sistema para que este pudiera tener un comportamiento inteligente, en realidad seguían siendo imprescindibles para ayudar a los científicos de datos a entender y trabajar la información de partida, de modo que el resultado o siquiera el planteamiento del problema a solucionar con una red neuronal tuviera sentido. Pero esta nueva generación de analistas (y usuarios empresariales ceporros) creía en las herramientas de inteligencia artificial de segunda generación como en una suerte de magia que, aunque no terminan de entender bien, es capaz de ahorrar el ridículo trabajo previo de entender la información que se maneja antes de trabajar con ella. Ustedes mismos se imaginarán el resultado.

Para finalizar, tenemos que añadir que, además de las circunstancias técnicas y empresariales, la inteligencia artificial recibe otra gran estocada que la relegará pronto a un segundo plano de la vida pública cuando no sea para mostrar algún gracioso vídeo de robot saltarín americano, chino o japonés. Cuando se utiliza de manera correcta, los sistemas inteligentes tienen el fastidioso hábito de ser objetiva; llegando a identificar, por ejemplo, aquellas variables que resultan influyentes en la ocurrencia de un hecho. Así, uno de estos sistemas se atrevió a significar que la concurrencia de personas de ciertas razas estaba relacionada con un mayor índice de algunos delitos en Estados Unidos; y otro se arrogaba capaz de reconocer la orientación sexual de un individuo a partir de sus rasgos faciales. Dicho de otro modo, los sistemas inteligentes van contra corriente, mostrando la realidad innegable en lugar de someterla al filtro previo de la dialéctica postmoderna, que define un concepto difuso y fluido de verdad que enamora a la mayoría de los políticos actuales. Naturalmente, estos resultados pueden ningunearse u ocultarse (de hecho, así se hace a menudo con conclusiones científicas incómodas); e incluso puede tomarse la decisión «por cuestiones éticas» de prescindir de variables o datos políticamente incómodos para los análisis, pero en cuanto estos sistemas mutilados o malnutridos empiecen a no dar resultados interesantes, se abandonarán. Nadie considerará la posibilidad de volver a usarlos de manera racional y la inteligencia artificial quedará, para la opinión pública, relegada al ámbito académico.

Podemos concluir entonces que los sistemas inteligentes actuales son a la vez subversivos, esotéricos y decepcionantes. El uso del Big Data se racionalizará en el mundo empresarial, dejará de aplicarse a cualquier ámbito civil ajeno a la vigilancia ilegal y volverá al ámbito en el que ha estado siempre en sus diferentes formas sin hacer demasiado ruido: la industria especializada. Volverá a ser la eterna promesa en el futuro de la computación que ya era cuando comencé mis estudios universitarios… Y que, en el fondo, el ser humano no necesita que sea nada más.


close

Deja un comentario

A %d blogueros les gusta esto: