Actualidad

¿Existe aversión a la Inteligencia Artificial en las interacciones sociales?

Patricia Matey

Foto: Bigstock

Domingo 20 de julio de 2025

4 minutos

Las personas son menos propensas a ser confiadas al interactuar con ella que con otros humanos

Más del 50% de los españoles confían en la IA para tomar sus decisiones de compra. Bigstock
Patricia Matey

Foto: Bigstock

Domingo 20 de julio de 2025

4 minutos

La equidad, la reciprocidad, la confianza, la cooperación y la coordinación son fundamentales para el bienestar humano, ya que promueven resultados socialmente deseables y eficiencia. Los avances recientes en el desarrollo de grandes modelos de lenguaje (LLM) han demostrado su potencial para transformar radicalmente muchos aspectos de la vida en las sociedades modernas, incluyendo estas facetas del comportamiento humano.

Según IBM, "los LLM son una categoría de modelos básicos entrenados sobre inmensas cantidades de datos, lo que los hace capaces de comprender y generar lenguaje natural y otros tipos de contenido para realizar una amplia variedad de tareas. Se han convertido en un nombre muy conocido gracias al papel que han desempeñado en llevar la Inteligencia Artificial (IA) generativa a la vanguardia del interés público, así como al punto en el que se están centrando las organizaciones para adoptarlal en numerosas funciones empresariales y casos prácticos.

Si bien es evidente que la IA en general, y los LLM en particular, tienen un enorme potencial para mejorar la vida humana como demuestran algunos estudios, como el publicado en 'Nature Biotechnology' y aumentar la productividad económica, se sabe menos sobre cómo responden los humanos a su uso en las interacciones sociales. Y este es el enfoque de un nuevo estudio que acaba de publicarse en 'PNAS Nexus'.

El comportamiento social humano depende no solo de las consecuencias esperadas de nuestras acciones para los demás, sino también de nuestras creencias sobre el comportamiento de los demás, como aclara una investigación de 'Trends in Cognitive Sciences', que en conjunto explican la variabilidad de la cultura y las normas sociales. Cuando las decisiones en la interacción social se delegan a los modelos de interacción social (LM), las creencias y preconcepciones de los individuos sobre la naturaleza de estos modelos y las circunstancias en las que se implementan se convierten en factores relevantes que influyen en las decisiones humanas. 

Nuevas evidencias

Pues bien, en el nuevo ensayo en el que se incluyó a 2. 905 participantes (edad media: 39,9 años, 49,6 % mujeres, 47% con título universitario) participan en interacciones directas ya sea con otros participantes o con el LLM ChatGP. 

Es estudio sugiere que las personas son menos propensas a comportarse de manera confiada y cooperativa al interactuar con IA que al interactuar con otros humanos.

 

Una mujer utilizando la IA. Bigstok

 

Los científicos utilizaron juegos experimentales para investigar cómo los humanos toman decisiones sociales que requieren pensamiento tanto racional como moral. Fabian Dvorak, Centro de Estudios Avanzados del Comportamiento Colectivo, Universidad de Constanza (Alemania), y el equipo compararon cómo actúan los humanos en juegos clásicos de dos jugadores cuando juegan con otro humano con cómo actúan los humanos cuando juegan con un modelo de lenguaje extenso que actúa en nombre de otro humano.

Varios juegos

Los participantes jugaron al Juego del Ultimátum, al Juego de la Confianza Binaria, alJuego del Dilema del Prisionero, al Juego de la Caza del Ciervo y al de la Coordinación. Los juegos se jugaron en línea con 3.552 humanos y el LLM ChatGPT. En general, los jugadores exhibieron menos equidad, confianza, confiabilidad, cooperación y coordinación cuando sabían que estaban jugando con un LLM, a pesar de que las recompensas irían a la persona real por la que jugaba la IA. La experiencia previa con ChatGPT no mitigó las reacciones adversas.

Los jugadores que podían elegir si delegaban o no su toma de decisiones en la IA a menudo lo hacían, especialmente cuando el otro jugador no sabía si lo habían hecho. Cuando los jugadores no estaban seguros de si jugaban con un humano o con un LLM, se apegaban más al comportamiento mostrado hacia jugadores humanos. Según los autores, los resultados reflejan una aversión a la interacción social con una IA, un ejemplo del fenómeno más amplio de la aversión a los algoritmos.

Sobre el autor:

Patricia Matey

Patricia Matey

Licenciada en Ciencias de la Información (Universidad Complutense de Madrid. 1986-1991), es periodista especializada en información de salud, medicina y biociencia desde hace 33 años. Durante todo este tiempo ha desarrollado su profesión primero en el suplemento SALUD de EL MUNDO (22 años), luego como coordinadora de los portales digitales Psiquiatría Infantil y Sexualidad en el mismo diario. Ha colaborado en distintos medios como El País, La Joya. la revista LVR, Muy Interesante, Cambio 16, Indagando TV o El Confidencial. En este último ejerció de jefa de sección de Alimente durante cuatro años. Su trayectoria ha sido reconocida con los premios de periodismo de la Sociedad Española de Oncología Médica, premio Boehringer-Ingelheim, premio de la Asociación Española de Derecho Farmacéutico, premio Salud de la Mujer, premio de Comunicación del Colegio Oficial de Psicólogos de Madrid o Premio de Periodismo de Pfizer. Actualmente es la responsable de la sección Cuídate+ sobre longevidad saludable de 65YMÁS.

… saber más sobre el autor