ChatGPT se volvió demasiado adulador. Tanto, que OpenAI tuvo que desactualizarlo
En la búsqueda de una IA más humana y cercana al usuario, ChatGPT (concretamente, el modelo GPT-4o) se convirtió en el mayor fan de los usuarios, con una adulación que rozaba lo absurdo
¡Hola! Aquí, Edgar Otero. Otro día más te traigo las novedades más llamativas del mundo de la IA, el software y las herramientas digitales más útiles para tu día a día. Si quieres estar al día sobre estos temas, ¡suscríbete! Es gratis.
Hace tiempo que en Reddit los usuarios están reportando un exceso de adulación por parte de ChatGPT. Por ejemplo, este usuario comentaba: “Uso la IA para obtener respuestas y ayuda con problemas, no para que me hagan la pelota. La adulación de 4o me impide obtener respuestas sinceras a las preguntas que hago”. ¿Qué ha pasado?
Cuando ChatGPT se convierte en tu mayor fan
Lo que ha pasado. Desde que OpenAI actualizara su modelo GPT-4o, este mostraba un comportamiento demasiado halagador de cara al usuario. Esto ha generado que muchos se sientan incómodos. Al fin y al cabo, ChatGPT para la mayoría es una herramienta de trabajo, no una vía para obtener más aprobación. Debido al comportamiento adulador del modelo, las respuestas obtenidas eran demasiado complacientes, impidiendo un análisis más crítico de la información.
Según menciona OpenAI en una entrada de su blog, el problema es que el modelo fue configurado para ofrecer señales de retroalimentación a corto plazo. La compañía no tuvo en cuenta que la acumulación de estas respuestas halagadoras provocaría una sensación de hartazgo entre los usuarios, especialmente cuando se producen una y otra vez.
Un problema de confianza. Hace tiempo que ChatGPT tiene ganas de ser nuestro amigo (o incluso terapeuta). Por ejemplo, la inclusión de una memoria global, que trasciende más allá de las conversaciones y permite al modelo tener un contexto superior, es un claro indicativo de lo que busca OpenAI: quiere que la experiencia de interactuar con ChatGPT sea lo más humana posible.
El desafío para la compañía es equilibrar estas pretensiones con lo que la inmensa mayoría de usuarios buscan en ChatGTP: una herramienta que se encargue de ejecutar tareas repetitivas, de crear contenido en apenas unos minutos o de investigar acerca de un asunto de forma, ya no diré crítica, sino neutral.
El resultado. OpenAI se ha visto obligada a revertir esta actualización. Según informa la propia empresa, está tomando estas medidas:
Reversión de la actualización que introdujo el comportamiento halagador.
Mejoras en el entrenamiento del modelo para evitar respuestas aduladoras.
Fortalecimiento de principios como honestidad y transparencia, según su especificación del modelo.
Mayor participación de usuarios en pruebas antes de nuevos lanzamientos.
Ampliación de evaluaciones internas para detectar problemas más allá de la adulación.
Además, en el futuro se plantea permitir la selección de personalidades, mejorar la implementación de instrucciones personalizadas por parte del usuario y mejorar su sistema de retroalimentación.
El problema de humanizar a la herramienta
Llegados a este punto, aquí van algunas reflexiones personales con respecto a esto que, espero, sirvan para abrir debate en la zona de comentarios:
Los modelos de lenguaje son muy sensibles a los cambios. Una actualización puede provocar que la interacción entre el usuario y la máquina cambie sustancialmente.
Es peligroso humanizar a la máquina. OpenAI debería centrarse en crear una herramienta de calidad para profesionales, no en fomentar una conexión personal entre el LLM y el humano. ¿Qué pasa cuando una persona ha volcado su vida en ChatGPT, estableciendo un vínculo emocional, y este, debido a una actualización, empieza a comportarse de forma radicalmente distinta? Quizá no lo creas, pero hay quien está conectando realmente con la IA.
Es crucial mantener el pensamiento crítico. Los modelos de lenguaje se basan en la estadística. Detrás, no hay más que máquinas haciendo cálculos. Considero una prioridad mantener el pensamiento crítico y evitar confiar ciegamente en las respuestas de aplicaciones como ChatGPT. Los laboratorios deberían explicar mejor a los usuarios cómo funcionan realmente los LLM, en vez de convertirlos, marketing mediante, en oráculos modernos.
Y tú, ¿qué opinas de todo esto? Te leo en los comentarios.