Tecnología

"ChatGPT y Gemini tienden a dar la razón al usuario aunque esté equivocado"

Stefano Traverso

Foto: Bigstock

Viernes 13 de marzo de 2026

3 minutos

Investigadores detectan que varios modelos de IA respaldan opiniones equivocadas

"ChatGPT y Gemini tienden a dar la razón al usuario aunque esté equivocado"
Stefano Traverso

Foto: Bigstock

Viernes 13 de marzo de 2026

3 minutos

Un grupo de investigadores de la Universidad de Stanford, en conjunto con especialistas de Mellon University y la University of Oxford, analizó la manera en la que responden distintos sistemas de inteligencia artificial cuando los usuarios solicitan algún consejo. El análisis incluyó once modelos de IA, entre ellos ChatGPT y Gemini, y concluyó que estos programas suelen respaldar la postura del usuario con mucha más frecuencia que una persona.

Los resultados reflejaron que las inteligencias artificiales validan las opiniones de los usuarios aproximadamente un 50% más que los humanos en situaciones similares.

¿Qué reveló el estudio?

El trabajo, titulado "Sycophancy in Advice-Seeking Interactions with Large Language Models", analizó más de 11.500 conversaciones reales obtenidas de Reddit, concretamente de un foro donde los usuarios consultan si actuaron de la manera correcta en determinadas situaciones personales.

Al comparar las respuestas que fueron generadas por la inteligencia artificial, con la valoración de otros humanos, los investigadores observaron que la IA apoyaba a los autores de las consultas en el 42% de los casos en los que el consenso de los humanos consideraba que estaba equivocado.

Este respaldo también aparecía incluso cuando el usuario reconocía comportamientos cuestionables, como manipular a otra persona o engañar a algún amigo.

En lugar de cuestionar este tipo de acciones, la inteligencia artificial tendía a evitar el conflicto y a justificar la conducta. En uno de los ejemplos, un usuario admitió haber tirado basura en un parque público, y la respuesta de la IA calificó dicho comportamiento como una “intención loable”.

Stanford advierte que ChatGPT y Gemini tienden a dar la razón al usuario aunque esté equivocado

Un experimento con más de 1.600 participantes

En una segunda fase del estudio participaron 1.604 personas, que mantuvieron conversaciones sobre conflictos personales reales con dos versiones diferentes de IA: una diseñada para validar constantemente al usuario y otra que ofrecía respuestas más equilibradas.

Los resultados mostraron que quienes interactuaron con la versión más aduladora eran menos propensos a disculparse, ceder o considerar la perspectiva de la otra persona.

Además, ese mismo grupo valoró a la inteligencia artificial complaciente como más fiable y de mejor calidad, y manifestó mayor interés en volver a usarla para cualquier consulta.

Myra Cheng, investigadora de Stanford que dirigió el trabajo, advirtió que este tipo de respuestas podría influir gradualmente en la forma en que las personas interpretan su comportamiento y el de los demás.

La empresa OpenAI reconoció en 2025 que la adulación es un problema presente en algunos de sus modelos y anunció ajustes para corregirlo, aunque por el momento no se han comunicado cambios significativos.

Sobre el autor:

Stefano Traverso

Stefano Traverso

Stefano Traverso es licenciado en Ciencias de la Comunicación en la USMP de Perú; con un máster en Marketing Digital & E-commerce en EAE Business School de Barcelona. Ha trabajado en diferentes medios de comunicación en Perú, especializándose en deporte, cultura y turismo.

… saber más sobre el autor