El modelo europeo que sabe cuándo pensar despacio (y cuándo no hace falta)
El nuevo modelo de Mistral usa 6 de cada 119 millones de parámetros. Eso es más importante de lo que crees
Hola,
Aquí Edgar Otero.
Cuando Mistral publica algo, me relajo un poco. No sé si es alegría, si es alivio o simplemente la sensación de que el mapa no está tan desequilibrado como parece.
Esta semana anunciaron Mistral Small 4. No he podido probarlo todavía, así que me fío de lo que dicen. Pero hay dos cosas dentro que no puedo dejar de pensar desde que lo leí.
Hoy, como es domingo, lo que te propongo es que te sientes y leas todo lo que este nuevo modelo tiene que ofrecer. Te avanzo que merece la pena.
El modelo que no se despierta entero
Mistral Small 4 tiene 119.000 millones de parámetros. Sin embargo, la parte interesante es otra:
Cuando procesa tu mensaje, solo activa 6.000 millones. El resto, dormidos.
Imagínalo así. Tienes un edificio con 128 especialistas. Cada vez que entra una consulta, solo cuatro de ellos se levantan de su silla. El modelo decide quiénes son los más útiles para ese problema concreto y solo despierta a esos. Los 124 restantes, simplemente, se quedan sentados. Descansan y no consumen energía. Se reservan.
Esto se llama Mixture of Experts. No es nada nuevo, pero lo que hace que merezca atención aquí es lo que implica en la práctica: procesas menos, gastas menos, respondes más rápido. Para alguien que trabaja con IA a diario, esto no es un dato técnico. Es la diferencia entre una herramienta que fluye y una que te hace esperar.
El modulador de razonamiento
Lo segundo que no he podido dejar de pensar es algo que llaman reasoning_effort.
La idea es simple. Con este parámetro puedes decirle al modelo cuán profundo quieres que piense. En modo rápido, responde como cualquier asistente: ágil, directo, sin pausas. En modo profundo, se toma su tiempo, razona paso a paso, y lo que recibes se parece más a un análisis que a una respuesta.
Para quien construye herramientas sobre la IA, esto tiene una lectura muy concreta. Redactar un asunto de email no necesita lo mismo que revisar un contrato o estructurar una propuesta. Poder calibrar ese nivel sin cambiar de herramienta ni abrir otra pestaña es exactamente el tipo de flexibilidad que suele faltar.
No sé todavía cómo funciona esto en la práctica, pero revela mucho sobre la filosofía de Mistra. Es una empresa que ha entendido que el problema no es hacer modelos más potentes, sino hacer modelos más útiles.
¿Por qué importa que sea código abierto?
En los últimos dos años, las grandes compañías han ido cerrando sus modelos uno tras otro. OpenAI dejó de ser open hace tiempo. Google publica benchmarks, no pesos. Los términos de servicio cambian en silencio.
Mistral sigue publicando sus modelos bajo Apache 2.0. Cualquiera puede descargarlo, modificarlo, desplegarlo. Sin cuotas, sin dependencia de una infraestructura que no controlas.
¿Por qué importa esto si usas Claude o ChatGPT y estás contento? Importa porque el código abierto es lo que mantiene honesto al resto del mercado. Cuando alguien puede replicar lo que haces, no puedes permitirte ser descuidado. La existencia de Mistral hace mejores a los demás, aunque nunca uses Mistral.
Y otra cosa: en un ecosistema donde la soberanía digital empieza a ser una conversación seria, que una empresa europea lleve esa bandera no es un detalle menor.
No sé si Mistral Small 4 va a ser el modelo que uses el lunes. Probablemente no. Pero me alegra saber que existe. Que alguien, en algún lugar de Europa, está haciendo bien las preguntas.
A veces eso es suficiente para un domingo.
Nos vemos en la trinchera,
Edgar


