OpenAI secuestra tu flujo de trabajo, Anthropic casi lanza su mejor modelo y los agentes de IA no son de fiar
Los laboratorios amplían su terreno de juego justo cuando sigue sin resolverse lo más incómodo: la consistencia de los modelos y la seguridad de los agentes.
👋 Hola, aquí Edgar Otero. Esta es mi newsletter semanal para que leas la IA con calma, elimines el ruido y te quedes con lo que de verdad es importante. Cada miércoles a las ☕️ 7:00 en tu correo.
¿Te imaginas una tecnológica que no lanza su mejor producto y lo reconoce?
Esta semana me he quedado con esa idea en la cabeza. Mientras OpenAI intenta que Codex deje de ser una herramienta para programar y se convierta en una plataforma de trabajo completa, Anthropic amplía Claude hacia diseño y documentos al mismo tiempo que deja entrever que su tecnología más potente sigue guardada. Y, por debajo de todo eso, hay una historia menos llamativa a voluntad de los implicados. Sí, los agentes siguen ganando responsabilidades antes de merecer confianza.
La pelea ya no va solo de tener el mejor modelo. Va de quedarse con tu flujo de trabajo entero.
La semana pasada te conté esto:
🧠 OpenAI quiere secuestrar tu flujo de trabajo
Codex ya no se presenta solo como ayuda para programar. Ahora quiere estar en más partes del trabajo técnico: puede usar el ordenador, moverse por aplicaciones, trabajar con navegador integrado, conectarse por SSH, revisar PR, generar imágenes, recordar preferencias y retomar tareas largas. La dirección es bastante clara. OpenAI quiere pasar del asistente al entorno de trabajo integral. Codex para (casi) todo, como dice la propia compañía.
Ideas clave:
Codex sale del código y entra en el ordenador, el navegador y las automatizaciones.
OpenAI intenta reunir más tareas en un solo sitio.
La apuesta no es solo productividad: también es retención.
¿Por qué es importante para ti?
Esto te importa porque se parece menos a una mejora puntual y más a una superapp para desarrolladores. No tengo claro que sea una mejora necesaria. Habrá que probarlo a fondo, pero hay riesgos. Por ejemplo, se puede ser una interfaz más inflada y, sobre todo, una forma de capturar más al usuario para que deje de saltar entre herramientas. Mucha gente seguirá prefiriendo navegar en Chrome, trabajar en su editor y usar la IA como apoyo, no como centro de mando. ¿Tú qué dices?
🎨 Anthropic amplía Claude mientras deja a Mythos en la sombra
Anthropic ha lanzado Claude Design, una herramienta para crear prototipos, slides, documentos y piezas visuales con Claude, y además ha presentado Opus 4.7 como una mejora importante en coding, visión y trabajo profesional. Lo interesante no es cada anuncio por separado, sino el movimiento conjunto. Anthropic ya no quiere quedarse solo en el código.
El punto de discordia, no obstante, es otro. La empresa reconoce, en la práctica, que tiene una tecnología más potente en reserva con Mythos y aun así libera otra versión “peor”. Eso me hace meditar en qué significa construir sobre modelos que cambian, se ajustan o directamente no llegan a publicarse.
Ideas clave:
Claude sale del coding y entra en diseño, documentos y presentaciones.
Opus 4.7 refuerza esa expansión hacia trabajo más amplio.
La sombra de Mythos mete dudas sobre estabilidad y confianza.
¿Cuál es el punto?
Opino que deberías quedarte, no solo con la ambición de Anthropic, sino con la fragilidad del terreno sobre el que se están construyendo muchas herramientas. Cada vez más equipos dependen de modelos que no son estables en el sentido clásico del software. Cambian comportamientos, cambian límites, cambian versiones. No invalida la tecnología, pero sí plantea dudas. Si el sistema cambia cuando el laboratorio quiere, ¿cuánta confianza real puedes depositar en él como base de trabajo?
🔐 Los agentes siguen sin merecer confianza
La historia menos sonada de la semana quizá sea la de la seguridad. Una investigación mostró que varios agentes conectados a GitHub podían ser manipulados para filtrar credenciales y tokens, afectando a herramientas de Anthropic, Google y Microsoft. Lo más incómodo no es solo el fallo, sino que, según contó The Register, hubo correcciones y recompensas, pero no avisos CVE claros en todos los casos.
Un CVE, por cierto, es un identificador público para una vulnerabilidad conocida. Sirve para que el problema quede registrado y los usuarios sepan que existe. Si eso no ocurre, mucha gente ni se entera de que depende de algo vulnerable o de que el fallo existió en algún momento. Es un ejercicio de transparencia necesario.
Ideas clave:
Más autonomía significa también más superficie de ataque.
Un agente puede rendir bien en una tarea y fallar de forma grave en otra.
Parte de la industria sigue tratando estos problemas con demasiada opacidad.
¿Por qué deberías tomar esto en serio?
Aquí veo una mentira elegante. La autonomía se está vendiendo antes de que exista una arquitectura seria de confianza. Los modelos alucinan, se equivocan y se comportan con bastante variabilidad. Ya era un problema en el chat. Convertidos en agentes con acceso a herramientas, datos confidenciales y permisos, el coste se multiplica exponencialmente. Y me preocupa más la mala fe de quienes prefieren callar estos fallos para no estropear el relato. Ya hemos visto otros avisos parecidos, desde fugas internas por instrucciones maliciosas en agentes de Meta hasta relatos muy concretos de por qué tantos agentes fallan al salir a producción.
🤖 Para probar esta semana
La IA y la privacidad tienen una relación complicada. Por eso, esta semana te propongo probar algunas herramientas centradas en la ejecución de modelos sin entrenamiento ni registros.
Dos opciones muy interesantes son:
Lumo. Es el chatbot de Proton, una empresa suiza centrada en productos digitales de privacidad. Los modelos que usan no son los más potentes, pero para tareas más básicas o personales es muy bueno. Cuenta con búsqueda web, proyectos y más. Lo puedes usar gratis y sin cuenta, pero tiene una versión de pago que elimina algunos límites por 9,99 euros al mes.
Duck.ai. Es el chatbot de DuckDuckGo. Una de sus ventajas es que permite elegir el modelo preferido. Por ejemplo, es posible seleccionar gpt-oss 120B, un modelo de código abierto bastante capaz.
Ya me dices qué te parecen ambos.
Ayúdame a llegar a más gente
Si esta edición te ha resultado útil, haz que circule 🙃:
1️⃣ Compártela.
Envíala a alguien a quien pueda interesarle. Eso me ayuda más que cualquier algoritmo.
2️⃣ Dale un me gusta y deja un comentario.
Así la newsletter gana alcance y, además, me dejas tu punto de vista. También puedes responder a este correo.
3️⃣ Suscríbete gratis
Así no te pierdes las próximas ediciones con la IA que importa explicada en 5 minutos.
¡Nos vemos en la próxima!
Edgar.






