En estos tiempos donde el miedo a la inteligencia artificial está tocando notas que oscilan entre la preocupación legítima y lo absurdo, los detectores de texto generado por IA han empezado a dar resultados que parecen sacados de una novela de Valle-Inclán. El escritor Pedro Torrijos (aprovecho para recomendar sus hilos «La brasa Torrijos») ha demostrado, y publicado en Twitter, lo hilarante que puede ser confiar ciegamente en estos sistemas. Su experimento dejó a más de uno rascándose la cabeza: el detector calificó el primer párrafo de El Quijote, de Miguel de Cervantes, como «86% generado por IA». Así que, según esta herramienta, Cervantes era un visionario o... un robot.
Por supuesto, esto no fue un caso aislado. Torrijos también introdujo un texto propio de 2013, completamente humano y escrito mucho antes del auge de las IA generativas. El veredicto de la máquina fue implacable: «99% IA». En cambio, cuando pegó un párrafo generado por Gemini al que solo le cambió tres palabras, el detector decidió que era «48% IA». ¿Estamos ante un mundo donde escribir demasiado bien es sospechoso de ser robótico, y los robots pueden disimular mejor que los humanos? Todo apunta a que sí.
Detrás de la broma se esconden cuestiones serias. Estos detectores, que han proliferado en sectores como el educativo o el empresarial, están siendo usados para evaluar la originalidad de textos e incluso decidir sanciones en casos de presunto plagio. Sin embargo, experimentos como el de Torrijos dejan en evidencia su falta de fiabilidad. Si un texto de hace más de 400 años es «86% inteligencia artificial» y un párrafo contemporáneo de un humano es «99% IA», ¿qué criterios están usando para dictar sentencia? Y lo más inquietante: ¿quién les dio semejante autoridad?
El problema no es únicamente técnico; es filosófico y práctico. Estos sistemas están basados en modelos probabilísticos que detectan patrones estadísticos asociados a las producciones de inteligencia artificial. Pero cuando esos patrones coinciden con los estilos literarios humanos, especialmente en textos elaborados, los detectores tienden a fallar estrepitosamente. Lo que parece «demasiado perfecto» o «demasiado uniforme» se etiqueta como robótico, ignorando siglos de tradición literaria que precisamente valora esa perfección estilística.
Por otro lado, estos detectores también pueden ser fácilmente engañados. Con modificaciones mínimas, un texto generado por IA puede pasar como humano, y viceversa. En este contexto, la herramienta se convierte más en un juego de adivinanzas que en un recurso fiable. Y mientras tanto, los usuarios —estudiantes, escritores y profesionales— terminan siendo juzgados por un sistema que ni siquiera entiende el significado de lo que evalúa.
Este tipo de situaciones deja claro que aún estamos lejos de entender y controlar las herramientas que hemos desarrollado. Mientras tanto, los escritores y estudiantes tendrán que convivir con la sombra de la sospecha, enfrentándose a algoritmos que ven robots donde no los hay. Y quién sabe, quizás algún día un detector declare que esta misma noticia es 100% IA. Si pasa, solo puedo decir: «Cervantes, bienvenido al club«.