OpenAI retiró la última actualización de su modelo GPT-4o debido a que presenta fallos que ocasionaban una personalidad «demasiado aduladora y molesta» en la experiencia de uso, y trabaja en una solución para aumentar la honestidad y transparencia.
La tecnológica liderada por Sam Altman presentó su modelo de Inteligencia Artificial (IA) GPT-4o en mayo del pasado año, con capacidades para aceptar cualquier combinación de texto, audio e imagen, además de aportar respuestas con una velocidad similar a un tiempo de respuesta humano.
Aunque este modelo ya está ampliamente disponible, OpenAI revertió la última actualización lanzada de GPT-4o, debido a que presenta un fallo que ocasiona un comportamiento «demasiado adulador y molesto» en la experiencia de uso con los usuarios, tal y como ha compartido el propio Altman en una publicación de X (antigua Twitter).
En concreto, esta actualización se lanzó la semana pasada y, ahora, la compañía revirtió su lanzamiento tanto para los usuarios gratuitos como para los usuarios suscritos a la versión Premium, a espera de incorporar correcciones para modelar la personalidad y relanzar la actualización.
En este sentido OpenAI matizó en un comunicado en su blog que, al eliminar la actualización «excesivamente halagadora o agradable» de GPT-4o, los usuarios están utilizando actualmente una versión anterior con «un comportamiento más equilibrado».
Asimismo, indicó que están probando activamente nuevas soluciones para evitar este comportamiento, priorizando la satisfacción del usuario a largo plazo e introduciendo más funciones de personalización, de manera que puedan tener un mayor control sobre el comportamiento de ChatGPT.
POR QUÉ CHATGPT ADOPTÓ UN COMPORTAMIENTO DEMASIADO ADULADOR
En cuanto a las causas de este fallo en GPT-4o, OpenAI explicó que la actualización incluía ajustes destinados a mejorar la personalidad predeterminada del modelo para que ofreciese una experiencia «más intuitiva y efectiva» a la hora de ejecutar tareas.
Así, para dar forma al comportamiento del modelo, la compañía tomó como base las instrucciones de su Especificación del modelo, e incorporó señales de usuario como comentarios positivos o negativos en las respuestas de ChatGPT.
Sin embargo, la compañía se centró en utilizar comentarios a corto plazo y, por tanto, el modelo no consideró «cómo evolucionan las interacciones de los usuarios con ChatGPT con el tiempo». Como resultado, OpenAI ha especificado que el modelo acabó inclinándose hacia respuestas «demasiado favorables, pero poco sinceras».
Al respecto, OpenAI subrayó la importancia de la personalidad del ‘chatbot’, ya que afecta a la forma en que los usuarios lo utilizan. «Las interacciones aduladoras pueden ser incómodas, inquietantes y causar angustia», sentenció.
Con todo ello, de cara a solucionar este comportamiento, la compañía está tomando medidas como refinar las técnicas de entrenamiento y las indicaciones del sistema para alejar al modelo de la adulación, así como construir más barreras de seguridad para aumentar la honestidad y la transparencia.
Igualmente, los usuarios podrán controlar el comportamiento del ‘chatbot’ de forma más sencilla con funciones como instrucciones personalizadas. Por ejemplo, podrán dar retroalimentación en tiempo real para influir en las interacciones de ChatGPT y elegir entre personalidades predeterminadas.
Europa Press