
¿Existe aversión a la Inteligencia Artificial en las interacciones sociales?
Las personas son menos propensas a ser confiadas al interactuar con ella que con otros humanos

La equidad, la reciprocidad, la confianza, la cooperación y la coordinación son fundamentales para el bienestar humano, ya que promueven resultados socialmente deseables y eficiencia. Los avances recientes en el desarrollo de grandes modelos de lenguaje (LLM) han demostrado su potencial para transformar radicalmente muchos aspectos de la vida en las sociedades modernas, incluyendo estas facetas del comportamiento humano.
Según IBM, "los LLM son una categoría de modelos básicos entrenados sobre inmensas cantidades de datos, lo que los hace capaces de comprender y generar lenguaje natural y otros tipos de contenido para realizar una amplia variedad de tareas. Se han convertido en un nombre muy conocido gracias al papel que han desempeñado en llevar la Inteligencia Artificial (IA) generativa a la vanguardia del interés público, así como al punto en el que se están centrando las organizaciones para adoptarlal en numerosas funciones empresariales y casos prácticos.
Si bien es evidente que la IA en general, y los LLM en particular, tienen un enorme potencial para mejorar la vida humana como demuestran algunos estudios, como el publicado en 'Nature Biotechnology' y aumentar la productividad económica, se sabe menos sobre cómo responden los humanos a su uso en las interacciones sociales. Y este es el enfoque de un nuevo estudio que acaba de publicarse en 'PNAS Nexus'.
El comportamiento social humano depende no solo de las consecuencias esperadas de nuestras acciones para los demás, sino también de nuestras creencias sobre el comportamiento de los demás, como aclara una investigación de 'Trends in Cognitive Sciences', que en conjunto explican la variabilidad de la cultura y las normas sociales. Cuando las decisiones en la interacción social se delegan a los modelos de interacción social (LM), las creencias y preconcepciones de los individuos sobre la naturaleza de estos modelos y las circunstancias en las que se implementan se convierten en factores relevantes que influyen en las decisiones humanas.
Nuevas evidencias
Pues bien, en el nuevo ensayo en el que se incluyó a 2. 905 participantes (edad media: 39,9 años, 49,6 % mujeres, 47% con título universitario) participan en interacciones directas ya sea con otros participantes o con el LLM ChatGP.
Es estudio sugiere que las personas son menos propensas a comportarse de manera confiada y cooperativa al interactuar con IA que al interactuar con otros humanos.

Los científicos utilizaron juegos experimentales para investigar cómo los humanos toman decisiones sociales que requieren pensamiento tanto racional como moral. Fabian Dvorak, Centro de Estudios Avanzados del Comportamiento Colectivo, Universidad de Constanza (Alemania), y el equipo compararon cómo actúan los humanos en juegos clásicos de dos jugadores cuando juegan con otro humano con cómo actúan los humanos cuando juegan con un modelo de lenguaje extenso que actúa en nombre de otro humano.
Varios juegos
Los participantes jugaron al Juego del Ultimátum, al Juego de la Confianza Binaria, alJuego del Dilema del Prisionero, al Juego de la Caza del Ciervo y al de la Coordinación. Los juegos se jugaron en línea con 3.552 humanos y el LLM ChatGPT. En general, los jugadores exhibieron menos equidad, confianza, confiabilidad, cooperación y coordinación cuando sabían que estaban jugando con un LLM, a pesar de que las recompensas irían a la persona real por la que jugaba la IA. La experiencia previa con ChatGPT no mitigó las reacciones adversas.
Los jugadores que podían elegir si delegaban o no su toma de decisiones en la IA a menudo lo hacían, especialmente cuando el otro jugador no sabía si lo habían hecho. Cuando los jugadores no estaban seguros de si jugaban con un humano o con un LLM, se apegaban más al comportamiento mostrado hacia jugadores humanos. Según los autores, los resultados reflejan una aversión a la interacción social con una IA, un ejemplo del fenómeno más amplio de la aversión a los algoritmos.