Las IA sirven para pensar (historia, teoría, metáfora).

En los últimos meses he leído unos cuantos textos sobre inteligencias artificiales (siempre en minúsculas y plural, por favor) que merecían ser comentados en esta espacio digital que me acompaña desde hace 17 años. Hipermediaciones.com nació como extensión del libro homónimo publicado por Gedisa en 2008 y sigue siendo un campo de entrenamiento para comentar ideas de otros, tirar algunas propias y compartir los textos que voy publicando o leyendo.

Mis lecturas sobre las IA (siendo una sigla, acá sí te acepto las mayúsculas) se dividen en tres grandes grupos: papers con estudios comparativos de los diferentes modelos o análisis de la acelerada evolución de este sector (se publican 100 por minuto), tuits y otros contenidos snack para estar al tanto de lo que pasa (se publican 10.000 por minuto) y libros de largo aliento con análisis más o menos trabajados de los procesos en curso (se publican 10 por minuto, la mayoría descartables y escritos por las mismas IA). Cuesta moverse en esta selva textual y no hay que tener miedo a abandonar la lectura cuando percibimos que no hay nada nuevo, viejo. Pero ese no es el caso de estos tres textos que quiero compartirles.

Una teoría crítica de la inteligencia artificial (Daniel Innerarity, Galaxia Gutenberg)

Este es sin dudas el libro más ambicioso publicado sobre las IA no sólo en España: es un volumen que debería ser traducido a otros idiomas tanto por su planteo como por alcance. Una teoría crítica de la IA se suma a la línea de reflexión que venía desarrollando Innerarity sobre sociedad, democracia y complejidad en los últimos años. Es un libro ambicioso y tiene un valor indiscutible: no está ligado al ultimísimo Large Language Model (LLM) o sistema de generación de contenidos. Innerarity piensa a largo plazo y, a diferencia de la mayoría de los volúmenes, no queda atrapado en la frenética tecnocoyuntura. A lo largo de 548 páginas Innerarity despliega una ambiciosa crítica de la razón algorítmica que vale la pena repasar a vuelo de pájaro.

El libro arranca con una reflexión sobre la “externalización de decisiones humanas” hacia sistemas algorítmicos, lo que plantea una pregunta crucial: ¿quién decide cuando, aparentemente, nadie decide? Innerarity identifica tres enfoques iniciales para afrontar los dilemas de la IA: la moratoria artificial (pausa el desarrollo de las IA), el complemento ético (orientar la tecnología mediante principios normativos) y la perspectiva crítica (indagar en las condiciones estructurales que permiten o impiden un uso legítimo de la IA ). En su análisis Innerarity evita tanto la ingenuidad tecnofílica como el catastrofismo apocalíptico. Yo compro este planteo a ojos cerrados. ¿Y ustedes?

En la primera parte, Innerarity desarrolla una teoría de la razón algorítmica que examina cómo las IA son comparadas y se confrontan con la inteligencia humana. Analiza sus limitaciones frente al conocimiento generado por humanos, subrayando aspectos como el sentido común, la reflexividad, el conocimiento implícito, la inexactitud y la inteligencia corporal. El autor aborda también la cuestión del arte, contrastando la creatividad humana con la “generatividad artificial”, y advierte sobre los riesgos de asumir que el Big Data equivale a mejor conocimiento, desmontando los mitos de la neutralidad y defendiendo la privacidad como bien público. Finalmente, Innerarity critica la analítica predictiva basada en el Big Data y señala la necesidad de preservar espacios para lo impredecible, lo discontinuo y lo democrático. En este marco, propone un horizonte normativo: “un humanismo de la incertidumbre”, como vía para enfrentar los excesos del determinismo algorítmico.

En la segunda parte del libro, dedicada a la sociedad de la razón algorítmica, Innerarity analiza cómo las IA transforman instituciones y prácticas colectivas. Examina la democracia en un contexto donde los algoritmos median deliberación e información, advirtiendo que la búsqueda e eficiencia puede erosionar la pluralidad política. En la economía, describe cómo los sistemas algorítmicos generan nuevas desigualdades y dependencias, reconfigurando producción y trabajo en un marco de creciente automatización. También reflexiona sobre la cultura, señalando que las plataformas no solo distribuyen contenidos, sino que moldean la creatividad y la atención. Por otra parte, el exceso de datos no garantiza mejores explicaciones, sino que se pueden producir diferentes formas de “opacidad” que dificultan la comprensión.

En la tercera parte, dedicada a la filosofía política de la razón algorítmica, Innerarity analiza cómo la delegación del control a máquinas e instituciones redefine los marcos de legitimidad y la inevitabilidad de decidir en un entorno automatizado. También examina la gobernanza algorítmica, señalando sus promesas de objetividad pero también sus límites, y propone repensar la política en un contexto dominado por los datos. Entre otros temas, Innerarity aborda la democracia de las recomendaciones, mostrando cómo los algoritmos construyen y condicionan nuestras preferencias, y diferencia entre libertad de preferencias y libertad frente a las preferencias. En cuanto a la justicia, defiende una «autodeterminación deliberativa» y «parlamentarizar la digitalización» frente a las lógica spuramente técnicas. Además, Innerarity propone politizar los algoritmos para garantizar el pluralismo, y replantea la democracia en clave algorítmica, reconociendo la ambigüedad, la contingencia y la incertidumbre que caracterizan la vida política. Un primer paso -y me sumo con entusiasmo a la propuesta- es abandonar los conceptos que nos remiten a modelos lineales o causa-efecto que no sirven para comprender la complejidad de los procesos en curso.

«Dejemos de hablar de ‘impacto’ y examinemos el ‘condicionamiento’, es decir, no entendamos la transformación digital como un meteorito que viene de afuera sino que una evolución d enuestras tecnologías y prácticas sociales (con elementos disruptivos, ciertamente). En los análisis dominantes hay una perspectiva unidireccional que habla del influjo de lo digital sobre la democracia, en vez de pensar que la democracia y la digitalización son dos procesos que coevolucionan.» (Daniel Innerarity, Una teoría crítica de la IA)

A contrapelo de los discursos apocalípticos o festivos que nos rodean, Innerarity concluye que la digitalización no implica el fin de la democracia, sino una ocasión única para revisarla críticamente. La histeria digital y el determinismo tecnológico deben ser reemplazados por una idea de control compatible con la complejidad, quizás el concepto basilar de toda la obra reciente de Innerarity. El libro está sembrado de ideas filosas, desde la privacidad entendida como un «bien público» hasta la necesidad de un nuevo «contrato social tecnológico». A diferencia de otros libros sobre las IA que quedarán desfasados en pocas horas, todo me lleva a pensar que Una teoría crítica de la IA seguirá estando por un buen tiempo sobre nuestra mesa de trabajo y en las conversaciones institucionales y académicas sobre las IA.

Cálculo de metáforas (Lluís Nacenta, Endebate)

Como diría Alejandro Piscitelli, Lluís Nacenta apunta a polímata. Es comisario (de exposiciones), escritor, músico e investigador en el espacio de confluencia de la música, el arte, la tecnología y la ciencia. Es licenciado en matemáticas, titulado superior en piano, máster en estudios comparativos de literatura, arte y pensamiento y doctor en humanidades con una tesis sobre la repetición musical. Ha comisariado numerosas exposiciones, entre ellas «Inteligencia artificial» del CCCB, cuyas imágenes ilustran este texto.

En este pequeño gran libro de la serie Endebate Nacenta, por un lado, reinvindica el poder del storytelling y la capacidad del lenguaje para dar cuenta de «la complejidad que nos abruma». Así es, my friends, la complejidad vuelve a aparecer en este texto. El lenguaje no es el mundo, pero se le parece mucho. Ambos son complejos y el lenguaje nos permite acercarnos a la comprensión de esa otra complejidad. «Sospecho que entre la indefinición del lenguaje y la complejidad del mundo puede haber una correspondencia lúcida. ¿Podría ser que el lenguaje tuviera el grado de imprecisión exacto, correspondiente al grado de complejidad innombrable del mundo?», se pregunta Nacenta. Y aquí viene el otro lado de la moneda: «La imprecisión del lenguaje literario es metafórica, y la del lenguaje matemático, estadística». Las IA están consumando el matrimonio de estos dos sistemas, el lenguaje literario y el estadístico.

«Nada parecía más alejado que la metáfora y la estadística hasta que los grandes modelos de lenguaje de la inteligencia artificial hallaron una correspondencia asombrosa entre ellas. Esos modelos calculan estadísticamente las metáforas. La reconexión entre el lenguaje literario y el matemático, de consecuencias insospechadas, llama a nuestra puerta.» (Lluís Nacenta, Cálculo de metáforas)

A partir de ahí, el libro nos lleva a los orígenes de la escisión entre el lenguaje literario y el matemático, un proceso que comenzó en Europa «en los albores de la física moderna, a finales del siglo XVIII». A partir de ese momento la ciencia «dejó de hablar de todo» y se dedicó a modular con mayor precisión la lengua estadística. «Necesitamos que la ciencia vuelva a hablar de todo, como hacía cuando Newton la escindió de la filosofía para esclarecerla», reclama Nacenta. Según el autor «es posible una ciencia escrita en lenguaje literario, o una filosofía escrita en lenguaje matemático«. Es más, ya existen y las encontramos en los Large Language Models (LLM) de nuestras queridas IA generativas. A partir de aquí Nacenta se mete de lleno en la exploración de este territorio de frontera donde metáforas y algoritmos (lenguaje y ciencia) se combinan dando lugar a fenómenos y procesos que piden a gritos ser explicados. Humanistas y programadores del mundo, uníos!

Si las IA pueden ser consideradas formidables máquinas traductoras (ver mi artículo «Las IA como máquinas de traducir ¿Hacia una poética de la traición?»), Nacenta lleva ese planteo a un nivel epistemológico superior:

«Hemos construido un algoritmo que es capaz de traducir la complejidad metafórica en la complejidad estadística, y viceversa, y ello es una prueba de facto de que son equiparables, de que una no es más grande, intrincada o insondable que la otra. No hemos dilucidado ninguna de las dos complejidades, siguen siendo igual de misteriosas, pero ahora sabemos que constituyen un solo misterio, que podemos abordar metafóricamente o estadísticamente, según nos convenga».

Nacenta deja de lado los discursos banales sobre las IA y hace confluir dos caminos hasta ahora separados. Ahora somos conscientes de que «lo que las palabras no pueden decir puede describirse estadísticamente, y lo que los números no pueden medir, expresarse metafóricamente». En la parte final del libro Nacenta aboga por una exploración más valiente de las metáforas científicas, superando la «prudencia metodológica» y fortaleciendo la abducción como forma de conocimiento. Parece increíble que un volumen tan pequeño contenga tantas ideas y propuestas. Lo sintetizaría en una frase: las IA sirven para pensar.

El ojo del amo (Matteo Pasquinelli, FCE)

Hay muchos libros dedicados a la historia de las IA (yo mismo he recomendado alguno de ellos en «10 textos sobre IA»), pero el de Matteo Pasquinelli adopta un camino diferente que vale la pena explorar. Por lo general, las historias de las IA se encuadran en describir la sucesión de «invernos» y «veranos» desde los años de la posguerra. Pasquinelli, en sintonía con otros autores como Dennis Yi Tennen (Literary Theory for Robots), propone un recorrido diferente: una genealogía de las máquinas que intentaron mecanizar el trabajo mental. Pasquinelli se inspira en la epistemología histórica (Bachelard, Canguilhem, Renn) y en la economía política:

«Mientras que el constructivismo social hace hincapié genéricamente en la influcencia de factores externos sobre la ciencia y la tecnología, la epistemología histórica se ocupa del despliegue dialéctico de la praxis social, los instrumentos de trabajo y las abstracciones científicas dentro de una dinámica económica global.» (Matteo Pasquinelli, El ojo del amo).

La primera parte de El ojo del amo examina el origen de la inteligencia artificial a partir de la mecanización del trabajo mental en la Inglaterra del siglo XIX. Pasquinelli parte de la hipótesis de que la IA no es una invención repentina de mediados del siglo XX, sino la continuación de un proceso iniciado con la división industrial del trabajo. Charles Babbage, con su differential engine, es uno de los personajes que mejor encarna ese intento de trasladar la organización de tareas intelectuales a la máquina.

La llamada Machinery Question —el debate público sobre la sustitución de obreros por máquinas— es central en ese periodo. Como muestra Pasquinelli, los trabajadores no solo denunciaron el desempleo tecnológico, sino que reclamaron control sobre el rumbo del progreso técnico y una distribución más justa de sus beneficios . En este contexto, los socialistas ricardianos como W. Thompson y T. Hodgskin argumentaban que el conocimiento era la primera fuente de trabajo, anticipando una concepción de la inteligencia colectiva que Marx retomaría en la noción de general intellect.

Pasquinelli, con un ojo puesto en el amo y el otro en Gramsci, subraya que toda labor es cognitiva y productora de conocimiento, y que la acumulación originaria del capitalismo industrial implicó la expropiación de esta inteligencia técnica de los trabajadores . De ahí que las IA contemporáneas puedan entenderse como un avatar tardío del Gesamtarbeiter (trabajador colectivo) de Marx: una sistemática mecanización y capitalización del saber colectivo en forma de algoritmos, modelos estadísticos y aprendizaje automático. Esta genealogía muestra que la cuestión política de las IA no se limita a su dimensión técnica, sino a las relaciones sociales de cooperación y explotación que la sostienen.

La segunda parte de El ojo del amo se centra en la era de la información y la emergencia del conexionismo en los Estados Unidos entre los años 1940-60. Aquí Pasquinelli reconstruye cómo la cibernética y la teoría de la información impulsaron la automatización del “trabajo visual”, es decir, el reconocimiento de patrones. Este giro amplió el horizonte de la mecanización: ya no se trataba solo de replicar cálculos humanos, sino de imitar funciones perceptivas y cognitivas a través de redes neuronales artificiales.

El libro muestra cómo la noción de autoorganización se convirtió en un puente entre cibernéticos y movimientos sociales. Mientras Norbert Wiener y otros ingenieros defendían sistemas capaces de regularse solos con fines militares o industriales, los movimientos contraculturales de los años sesenta reinterpretaron el concepto en clave emancipadora, vinculándolo a la autonomía política y comunitaria. Así, las IA se situaron en el cruce de las utopías tecnocráticas y los proyectos sociales alternativos, revelando la ambivalencia de su genealogía.

Pasquinelli también analiza figuras clave como Friedrich Hayek (sí, el mismo economista austríaco admirado por Javier Milei), cuyo enfoque sobre el conocimiento distribuido inspiró el conexionismo, o Frank Rosenblatt, creador del perceptrón, el modelo que inauguró la era del aprendizaje automático. En este marco, la inteligencia se redefine como la capacidad de procesar señales en redes, desplazando la frontera entre trabajo manual y mental, y reforzando la tendencia al despojo de saber tácito de los trabajadores.

En pocas palabras: las modernas IA surgen de un largo ciclo de abstracción del trabajo humano, en el que la información reemplaza a la energía como principio organizador. La historia de las redes neuronales, más allá de lo técnico, encarna la tensión entre autonomía y control, deskilling y reskilling, emancipación y explotación. Al rastrear estas raíces, Pasquinelli nos ofrece una crítica que desmonta las visiones tecnodeterministas y subraya que las máquinas inteligentes son siempre expresión de relaciones sociales e históricas de poder.

Coda

No uno sino varios hilos invisibles unen estos tres libros: todos abordan la emergencia y difusión de las IA desde una mirada lateral, lejos de los enfoques maniqueos que saturan los medios de comunicación y redes sociales. Se trata de enfoques de alta densidad teórica y elevada creatividad intelectual. Ahí donde Innerarity apuesta por un gran marco teórico-crítico integrador de las inteligencias artificiales, como si fuera una fotografía fish-eye, Nacenta reconcilia de la mano de los modelos generativos dos tradiciones -el lenguaje metafórico y el estadístico- escindidas hace más de dos siglos. Pasquinelli también apuesta al recorrido diacrónico, pero reconstruye una tradición diferente para proponer una «teoría laboral de la inteligencia de las máquinas».

No sabemos bien qué pasa dentro de las IA. Son cajas negras que ni siquiera sus creadores comprenden. Pero como sucede con cualquier otra tecnología, lo más importante no se encuentra en su interior sino en lo que pasa fuera, cuando esas tecnologías compiten, chocan, se fusionan o convergen con otros actores de la red sociotecnológica. Y en esas fusiones y fisiones, siempre se libera una energía cognitiva fundamental para comprender lo que está pasando y alimentar nuestras conversaciones.

One Comment

Add yours →

  1. Avatar de Jorge Camacho Camacho

    Dónde adquirir el libro

Responder a Jorge Camacho CamachoCancelar respuesta

Descubre más desde Hipermediaciones

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo