"ChatGPT y Gemini tienden a dar la razón al usuario aunque esté equivocado"
Investigadores detectan que varios modelos de IA respaldan opiniones equivocadas
Un grupo de investigadores de la Universidad de Stanford, en conjunto con especialistas de Mellon University y la University of Oxford, analizó la manera en la que responden distintos sistemas de inteligencia artificial cuando los usuarios solicitan algún consejo. El análisis incluyó once modelos de IA, entre ellos ChatGPT y Gemini, y concluyó que estos programas suelen respaldar la postura del usuario con mucha más frecuencia que una persona.
Los resultados reflejaron que las inteligencias artificiales validan las opiniones de los usuarios aproximadamente un 50% más que los humanos en situaciones similares.
¿Qué reveló el estudio?
El trabajo, titulado "Sycophancy in Advice-Seeking Interactions with Large Language Models", analizó más de 11.500 conversaciones reales obtenidas de Reddit, concretamente de un foro donde los usuarios consultan si actuaron de la manera correcta en determinadas situaciones personales.
Al comparar las respuestas que fueron generadas por la inteligencia artificial, con la valoración de otros humanos, los investigadores observaron que la IA apoyaba a los autores de las consultas en el 42% de los casos en los que el consenso de los humanos consideraba que estaba equivocado.
Este respaldo también aparecía incluso cuando el usuario reconocía comportamientos cuestionables, como manipular a otra persona o engañar a algún amigo.
En lugar de cuestionar este tipo de acciones, la inteligencia artificial tendía a evitar el conflicto y a justificar la conducta. En uno de los ejemplos, un usuario admitió haber tirado basura en un parque público, y la respuesta de la IA calificó dicho comportamiento como una “intención loable”.

Un experimento con más de 1.600 participantes
En una segunda fase del estudio participaron 1.604 personas, que mantuvieron conversaciones sobre conflictos personales reales con dos versiones diferentes de IA: una diseñada para validar constantemente al usuario y otra que ofrecía respuestas más equilibradas.
Los resultados mostraron que quienes interactuaron con la versión más aduladora eran menos propensos a disculparse, ceder o considerar la perspectiva de la otra persona.
Además, ese mismo grupo valoró a la inteligencia artificial complaciente como más fiable y de mejor calidad, y manifestó mayor interés en volver a usarla para cualquier consulta.
Myra Cheng, investigadora de Stanford que dirigió el trabajo, advirtió que este tipo de respuestas podría influir gradualmente en la forma en que las personas interpretan su comportamiento y el de los demás.
La empresa OpenAI reconoció en 2025 que la adulación es un problema presente en algunos de sus modelos y anunció ajustes para corregirlo, aunque por el momento no se han comunicado cambios significativos.


