OpenAI presenta o1, un modelo con capacidad de razonamiento

Un nuevo modelo que promete un avance importante en una métrica que, hasta ahora, no había recibido tanto foco como para protagonizar un avance de este tipo.

Es cierto, sí, que en los últimos días habían circulado algunos rumores (bastante pocos, en realidad) que afirmaban que los creadores de ChatGPT estaban ultimando los detalles para la presentación de algo nuevo, pero por otra parte, y dada la frecuencia con la que la compañía suele presentar novedades, esto es algo que era casi deducible en base a la experiencia previa.

Después de que se filtrara, durante el primer semestre del año pasado, que OpenAI había decidido dejar en pausa la finalización y el lanzamiento de GPT-5, han sido dos las grandes preguntas que han estado en el aire. La primera es, claro, cuando finalizará esa moratoria autoimpuesta, y la segunda es qué ofrecerá la compañía durante dicho impasse. Para la primera, de momento no tenemos respuesta pero, para la segunda, ya tuvimos una primera demostración con la presentación de GPT-4o, el pasado mes de mayo.

Así las cosas, cabía esperar que la siguiente novedad fuera la revisión de alguno de sus modelos, quizá una actualización relevante de GPT-4o, con la llegada al mismo de nuevas mejoras, la ampliación de funciones del mismo disponibles para los usuarios de cuentas gratuitas de ChtGPT o algo similar, es decir, revisiones sobre lo ya existente, no un nuevo modelo de lenguaje, y menos aún uno que plantee un cambio relevante en un aspecto que es, a día de hoy, una asignatura pendiente en el mundo de la inteligencia artificial.

Sin embargo, eso es exactamente lo que ha hecho OpenAI con la presentación de o1, un modelo de IA que pone el foco en la capacidad de razonamiento. La tecnológica define este nuevo modelo y su manera de proceder de una manera que no deja indiferente a nadie, y es que afirma que o1 no pretende destacar por su rapidez en las respuestas, sino porque «pensará» las mismas antes de ofrecérselas al usuario. Es decir, que emulando el comportamiento humano, realizará un proceso de análisis más completo del prompt, lo que al menos en teoría se traducirá en respuestas más acertadas y, en función de las preguntas, es posible que también más complejas.

Más interesante aún es que, según OpenAI, la capacidad de aprendizaje de o1 tendrá, como consecuencia, que el modelo sea capaz de identificar sus propios errores y, tras identificarlos, tenerlos en cuenta para no repetirlos en el futuro. Esta novedad puede no resultar especialmente relevante para muchos usuarios, que no necesitan de respuestas especialmente precisas y correctas, pero sí que resulta imprescindible para su implantación y uso en determinados entornos, en los que la fiabilidad juega un papel clave, más aún en estos tiempos, en los que vemos que servicios esenciales van adoptando estas tecnologías.