🧠 Así es como razona ChatGPT: qué cambia cuando lo hace (1/2)
En esta primera entrega te explico de forma sencilla y accesible cómo funcionan los LRM, modelos de lenguaje razonadores
Hola, aquí Edgar Otero.
Hace tiempo que hemos puesto a las máquinas a razonar. En esta edición de 💡 Entendiendo la IA quiero explicar de forma sencilla y para todo el mundo cómo funcionan los LRM, modelos de lenguaje razonadores, porque son el futuro de la IA generativa, cómo puedes sacarle partido y cuáles son los que tienes disponibles.
Si no estás suscrito a este boletín y quieres aprender más acerca de cómo funciona la IA, entender sus fundamentos y aplicaciones, déjame tu correo más arriba. Además, te recomiendo leer las últimas ediciones:
¿Qué pueden hacer por nosotros los LRM y en qué son mejores que los LLM? Veamos.
🧠 ¿Qué es eso de un "modelo de lenguaje razonador" (LRM)?
Para entender qué es un LRM (Language Reasoning Model), primero hay que pensar en su hermano simplón, el LLM (Large Language Model).
Un LLM normal, como GPT-4, funciona como el autocompletado predictivo del teclado del móvil, pero con muchos más conocimientos y patrones aprendidos.
El principal objetivo de un LLM es predecir cuál es la siguiente palabra más probable en una frase. Es increíblemente rápido y eficiente para tareas como resumir un texto, escribir un correo o extraer patrones de un conjunto de datos, pero cuando le pides algo complejo, no es difícil que tropiece.
Los LLM empiezan a componer su respuesta justo después de que el usuario envíe la petición o el prompt. Un LRM, en cambio, se toma su tiempo para "pensar" en la tarea encomendada.
En lugar de ir directamente a la solución, descompone el problema en pasos intermedios, creando una cadena de pensamiento, en inglés, Chain of Thought, antes de dar una respuesta final.
Por lo tanto, esta es la principal diferencia entre un LLM y un LRM:
Un LLM responde inmediatamente. Compone una respuesta de forma inmediata basada en los patrones aprendidos y la petición recibida.
Un LRM tarda más en dar la respuesta. Dedica tiempo a descomponer la petición, hacerse preguntas sobre cada fragmento y a elegir una respuesta más conveniente.
🙋🏻 Pero, ¿cómo hemos logrado que una máquina razone?
Es más sencillo de lo que parece, pero hay algo que debes tener claro antes de continuar:
Al igual que los LLM simulan el lenguaje humano gracias a modelos probabilísticos, los LRM simulan el razonamiento humano. Pero la máquina sigue sin saber qué está haciendo en realidad.

Bien, cuando le das una instrucción compleja a un LRM, este, en segundo plano, hace algo así:
Recibe la pregunta.
Por ejemplo, un hombre vive en el décimo piso de un edificio. Cada día, toma el ascensor hasta la planta baja para ir a trabajar. Cuando vuelve, sube en el mismo ascensor hasta el séptimo piso y luego sube los tres pisos restantes por las escaleras. ¿Por qué no sube hasta el décimo piso directamente?
Genera un plan interno, es decir, establece una línea de razonamiento:
Paso 1: Analizar las constantes del problema. El ascensor funciona correctamente, ya que lo usa para bajar hasta la planta baja y subir hasta el séptimo. La rutina es diaria. La acción clave es por qué se detiene en el 7.
Paso 2: Descartar hipótesis obvias pero incorrectas. ¿Quiere hacer ejercicio? Podría ser, pero parece una forma extraña e inconsistente de hacerlo. ¿Los botones del 8, 9 y 10 están rotos? No, porque otros vecinos podrían usarlos.
Paso 3: Buscar una restricción física o una variable no mencionada. La única acción que el hombre no puede completar es pulsar el botón de su propio piso. ¿Qué podría impedirle físicamente pulsar un botón? Que no llegue a él.
Da la respuesta final. El hombre es una persona de baja estatura y no llega al botón del décimo piso. Solo llega a pulsar el botón del séptimo piso.
Este proceso de pensar paso a paso es lo que le permite resolver problemas de lógica, matemáticas o planificación con mucha más precisión que un LLM tradicional. La clave es que usa más tiempo de cómputo para analizar el problema en lugar de solo predecir texto.
🔑 Un punto clave. Un LLM también puede resolver este tipo de problemas si ha aprendido los patrones necesarios durante su entrenamiento o si el prompt lo guía bien. La ventaja de los LRM es que están diseñados para descomponer y razonar de forma más consistente, incluso ante problemas nuevos o complejos, aumentando las posibilidad de que la respuesta final no contenga alucinaciones.
🥺 ¿Todavía tienes ganas de más? Es normal
Hay muchas otras cosas que quiero explicarte sobre los modelos de lenguaje razonadores, pero lo voy a dejar para una segunda entrega. Esta saldrá el lunes 30 de junio. Te contestaré, entre otras, cuestiones como estas:
¿Qué modelos razonadores hay actualmente disponibles?
¿Cuándo deberías optar por un modelo razonador?
¿Pueden los modelos de razonamiento ser perezosos como los humanos? (¡Esta no te la esperabas!)
Si no quieres perderte esta segunda entrega, suscríbete:
Hoy ya sabes un poco más sobre cómo las máquinas están empezando a razonar. Y esto es solo el principio. Nos leemos en la próxima entrega 😉.
Espero que estés bien,
Edgar O.