¿Por qué OpenAI ha cerrado Sora?
OpenAI no se retira del vídeo generado por IA. Se retira de una versión especialmente cara, tóxica y difícil de gobernar
Hola.
👋 Aquí Edgar Otero.
OpenAI ha anunciado que apaga Sora. Pero conviene empezar por lo importante. No pienses que desaparece el modelo de generación de vídeo. Lo que cierra es la app de Sora, ese intento de convertir el vídeo generado por IA en un producto de consumo rápido, con feed vertical, scroll infinito y lógica de red social.
Y, sinceramente, lo raro no es que la hayan cerrado. Lo raro es que alguien pensara que esto podía sostenerse mucho tiempo.
Razón 1. No era solo una herramienta, era una app pensada para retenerte
Sora no se diseñó como un simple editor creativo. OpenAI buscó meter el vídeo generado por IA dentro de una experiencia mucho más parecida a TikTok que a un software profesional. La idea no era solo crear clips, sino consumirlos, compartirlos y quedarse dentro de la app el mayor tiempo posible.
Eso explica por qué la aplicación subió tan rápido en el App Store de Estados Unidos. Era vistosa, viral y perfecta para captar atención. También era la forma más rápida de convertir una tecnología delicada en una máquina de retención basada en contenido completamente sintético.
Ahí ya había un problema, pero pronto aparecieron otros.
Razón 2. La app era un nido de basura generada por IA
En cuanto Sora 2 llegó al público, empezaron a aparecer personajes con copyright, imitaciones de figuras públicas y vídeos que jugaban con estilos reconocibles. No era una excepción. Era una señal bastante clara de hacia dónde iba a derivar el producto.
A mí, desde el principio, Sora me produjo bastante malestar. No por lo que podía hacer técnicamente, que era impresionante, sino por lo que la gente se puso a hacer con ello casi de inmediato. Ridiculizar a personas fallecidas, usar imágenes protegidas, empujar la violencia un poco más, convertir todo en meme sin demasiado filtro moral.
Lo realmente turbio no era solo el modelo. Era empaquetarlo todo en una app adictiva.
Razón 3. El vídeo generativo realista es mucho más difícil de gobernar
Con texto aún puedes discutir intención, contexto o margen de interpretación. Con vídeo, sobre todo cuando el resultado es convincente, el impacto es mucho más directo. También lo es el potencial de engaño.
Ese era el verdadero agujero. Una app así requiere responsabilidad y de eso Sam Altman tiene poco. No solo moderar contenido ofensivo o ilegal. También gestionar deepfakes, material protegido, rostros reales y clips pensados para circular rápido antes de que nadie los revise. Y cuando la app dio el salto a Android con generación basada en rostros reales, la dirección era todavía más evidente.
No creo que el cierre resuelva gran cosa. Hay otros modelos capaces de conseguir un realismo parecido. El problema sigue ahí. Lo que desaparece es una de sus envolturas más visibles.
Razón 4. OpenAI ha decidido qué parte del hype ya no quiere financiar
Aquí está lo importante de verdad. No creo que OpenAI cierre Sora porque se haya dado cuenta, de repente, de que aquello era un nido de basura generada por IA.
Es evidente que la cierra por dinero.
Toda la IA es ahora mismo un pozo sin fondo. La diferencia está en qué tipo de pozo te interesa seguir excavando. Anthropic, por ejemplo, lleva tiempo enfocando Claude hacia empresas y profesionales, hacia gente que quiere escalar trabajo y negocio con IA. Ahí, al menos, se intuye una vía de sostenibilidad.
OpenAI ha tocado demasiadas teclas. Y una app viral de vídeo sintético, con costes altos, problemas de moderación y mucho riesgo reputacional, era una de las más difíciles de defender a largo plazo.
Así que no, esto no suena a rectificación ética. Suena a ajuste de prioridades. OpenAI empieza a decidir qué partes del hype sí monetiza y cuáles prefiere soltar antes de que sigan drenando caja y reputación.
Hasta la próxima,
Edgar.




