La Falsa Autoridad de la Nueva Ortodoxia


El dato es clínico y devastador: casi dos tercios (2/3) de las referencias que generan los modelos avanzados de lenguaje (LLM) como GPT-4o son inventadas o contienen errores significativos en los datos clave como el autor o el DOI. Este fenómeno, conocido como alucinación, ha pasado del mero error académico a la comedia judicial, donde abogados han sido multados por presentar casos legales inexistentes, fabricados por la máquina.

¿Qué nos enseña esta epidemia de falsedad bien citada sobre nuestra era?

G.K. Chesterton fue el gran defensor del sentido común frente a la tiranía del experto. Él advertía que cuando un filósofo nos pide que confiemos solo en lo que dice un científico, nos está pidiendo que nos fiemos de lo que otro hombre ve a través de un microscopio, en lugar de lo que nosotros vemos con nuestros propios ojos.

La IA es el microscopio definitivo. Su prosa es fluida y su formato (la cita con autor y año) es impecable, logrando lo que un analista llama "simular competencia". La paradoja aquí es doble:

La IA es valorada porque parece menos artificial. Genera una estructura formal y un lenguaje elocuente, pero vacía. Nosotros, el público y los profesionales, le concedemos la autoridad de la verdad por su presentación pulcra, olvidando que la verdad requiere un anclaje ontológico real.

 El error no es tecnológico, sino humano. Hemos confiado en que si algo es calculable (la cita es un patrón de texto), es automáticamente cierto. Al igual que el hombre que en la parábola de Chesterton rompe su casa porque está basada en la "forma maldita de la cruz" (la paradoja), el racionalista moderno rompe la verdad porque esta no se ajusta a su sencilla lógica binaria.

Carl Jung sostuvo que "Solo la paradoja se acerca a comprender la plenitud de la vida". El fallo de la IA para distinguir un hecho real de una creencia falsa es un reflejo de nuestro propio problema psíquico.

La IA, con su confianza sin incertidumbre, es la proyección de la sombra humana en la tecnología:

 La alta tasa de error de la IA coincide con la sobreestimación de nuestro desempeño al usarla, un fenómeno que supera incluso el efecto Dunning-Kruger. El humano busca en la IA la función de pensamiento sin fundamento, la respuesta rápida para evitar el esfuerzo cognitivo. El algoritmo "alucina" con tanto éxito porque el usuario está dispuesto a aceptar la primera respuesta que parece plausible, activando una "miopía social" que falla a la persona al acertar el dato superficial.

La máquina encarna el arquetipo de la omnisciencia instantánea. Nos ofrece el borrador perfecto, el resumen rápido, el acceso total sin el coste del trabajo. Cuando la IA inventa una cita, nos está vendiendo una mentira que satisface nuestro deseo arquetípico de que la verdad sea fácil, inmediata y accesible sin lucha.

Podemos confiar en la capacidad sintética de ChatGPT, pero nunca en su autoridad fáctica. La lección que nos deja el error del "dos tercios" es que la inteligencia artificial es poderosa, pero inherentemente amoral en su producción de hechos.

Su uso nos obliga a regresar a los valores fundacionales del Historiador Felino: la rigurosidad crítica, la humildad ante el misterio y, sobre todo, la obligación ética de la verificación. El problema no es la inteligencia artificial. El problema es la confianza excesiva en lo que es demasiado artificial.


Este video profundiza en el pensamiento de G.K. Chesterton, analizando cómo la paradoja es la apertura a lo real y la defensa del sentido común. La paradoja de Chesterton en sus raíces aristotélico-tomistas | Filosofía | Lukas Romero-Wenz.

Share this:

Publicar un comentario

 
Copyright © Radio Cat Kawaii. Designed by OddThemes