Miriam Gómez Sanz
Sociedad
Preocupación por el creciente uso de chatbots de IA para evitar la soledad
1 de cada 3 adolescentes elegiría la IA en lugar de un humano para conversaciones serias
Cada vez es más frecuente utilizar los chatbot de inteligencia artificial (IA) —ChatGPT, Claude o Copilot— como confidentes y para obtener compañía y apoyo emocional, especialmente entre jóvenes. Este problema ha sido advertido por expertos de Great Ormond Street Hospital for Children (Reino Unido) en la edición de Navidad de The BMJ.
"Podríamos estar presenciando una generación que está aprendiendo a formar vínculos emocionales con entidades que carecen de capacidades de empatía, cuidado y sintonía relacional similares a las humanas" y dicen que las estrategias basadas en evidencia para reducir el aislamiento social y la soledad son primordiales.
Epidemia de soledad
En 2023, el director general de Salud Pública de Estados Unidos declaró que el país estaba experimentando una epidemia de soledad, que constituía un problema de salud pública comparable al tabaquismo y la obesidad.
En el Reino Unido, casi la mitad de los adultos (25,9 millones) afirman sentirse solos ocasionalmente, a veces, siempre o a menudo; y casi 1 de cada 10 experimenta soledad crónica (definida como sentirse solo "a menudo o siempre"). Los jóvenes (de 16 a 24 años) también se ven afectados.
Dadas estas tendencias, para los autores no es de extrañar que muchos busquen fuentes alternativas de compañía y apoyo emocional. ChatGPT, por ejemplo, cuenta con alrededor de 810 millones de usuarios activos semanales en todo el mundo y algunos informes sitúan la terapia y la compañía como una de las principales razones de uso.

Elegir la IA antes que una persona
Según el estudio, un tercio de los adolescentes usan compañeros de IA para la interacción social; 1 de cada 10 considera que las conversaciones con la IA son más satisfactorias que las conversaciones humanas; y 1 de cada 3 elegiría la IA en lugar de un humano para conversaciones serias. A la luz de esta evidencia, los investigadores recomiendan considerar el uso problemático de chatbots como un nuevo factor de riesgo ambiental al evaluar a un paciente con alteración del estado mental.
En estos casos, proponen que los médicos comiencen con una pregunta amable sobre el uso problemático del chatbot, en particular durante los períodos de vacaciones cuando las poblaciones vulnerables corren mayor riesgo. A continuación, si es necesario, formular preguntas más específicas para evaluar los patrones de uso compulsivo, la dependencia y el apego emocional.
Reconocen que la IA podría mejorar la accesibilidad y el apoyo a las personas que experimentan soledad. Se necesitan estudios empíricos "para caracterizar la prevalencia y la naturaleza de los riesgos de las interacciones entre humanos y chatbots, desarrollar competencias clínicas para evaluar el uso de IA por parte de los pacientes, implementar intervenciones basadas en evidencia para la dependencia problemática y defender marcos regulatorios que prioricen el bienestar a largo plazo sobre métricas de participación superficiales y miopes", exponen los autores.



