Tecnología

El reflejo de sacar el móvil antes que ayudar: un experto explica por qué ocurre

Miriam Gómez Sanz

Sábado 25 de octubre de 2025

4 minutos

El morbo y los algoritmos cambian nuestra forma de mirar el mundo

El reflejo de sacar el móvil antes que ayudar: un experto explica por qué ocurre. Fuente: freepik.
Miriam Gómez Sanz

Sábado 25 de octubre de 2025

4 minutos

En la era de los teléfonos móviles, es casi automático: ante un suceso, nuestro primer instinto suele ser sacar el móvil. Así lo explica Pavel Sidorenko, investigador y profesor del Máster en Comunicación Transmedia de la Universidad Internacional de La Rioja (UNIR): "Nuestro primer instinto pasa por sacar el móvil" y cubrir lo que allí sucede.

Sidorenko analiza cómo esta conducta se ha intensificado en la actualidad, especialmente al navegar por redes sociales y encontrarse con contenidos relacionados con la muerte o actos violentos. "Tenemos una cultura prosumidora ya muy arraigada en el comportamiento de la sociedad, es decir, ya no nos limitamos a consumir directamente los contenidos que nos provienen de Internet, sino también a producirlos en correspondencia", señala.

Esto se combina con lo que el investigador llama amplificación algorítmica, que nos empuja a convertirnos en creadores de contenidos: "Lo que ocurre en muchas ocasiones, porque todos ahora tenemos un dispositivo móvil, el primer instinto que tenemos en lugar de intentar socorrer es sacar el dispositivo y cubrir aquello, pero no con una idea periodística, sino simplemente como que 'mira, está pasando esto'", pero se hace "sin filtro ni nada".

Antes, los medios de comunicación filtraban estas escenas para que el público no se encontrara con imágenes demasiado duras sin contexto. Sidorenko lo recuerda así: "Era un trabajo que anteriormente realizaban los medios de comunicación, que lo monopolizaban, porque eran, sobre todo, los que tenían accesos a cámaras o más medios", que hacía que "limitasen escenas fuertes que, sin un debido contexto y sin una debida explicación, podían ser muy duras y difíciles de comprender por parte de grandes audiencias".

Hoy, cualquiera puede publicar contenidos, a veces buscando difundir la situación o ganar relevancia, aunque no siempre de forma consciente: "Esta persona no tiene planificado ser un influencer pero ya forma parte de estas dinámicas y esta cultura digital actual que es que hay que aportar en correspondencia a lo que consumimos".

Sidorenko también apunta al componente humano: el morbo. "Cuando vas por una carretera y hay un accidente, y ves que están las autoridades, se ralentiza la marcha por ver qué ha ocurrido, aunque la escena sea poderosamente dantesca y no tengamos la capacidad de asimilarla de forma adecuada". Esto es lo que sería "el morbo intrínseco, que está implícito en el ser humano".

Además, algunas plataformas recompensan este comportamiento. El ejemplo que pone el investigador es Kick, donde "la humillación es monetizada; donde personas que se autolesionan; personas que se humillan como consecuencia de que otros le arenguen, siendo estos últimos los que arengan los que pagan". El morbo y el algoritmo trabajan juntos: "Los algoritmos recompensan el contenido que genere más engagement, porque es el que genera mayor retención dentro de la plataforma. Aquí quien ha ganado realmente es la plataforma y el algoritmo, y como la gente se queda hasta el final pues yo le voy a todavía dar más visibilidad".

2149155182
El algoritmo nos vuelve creadores de contenido. Fuente: freepik.

Posibles soluciones

En cuanto a frenar este tipo de contenidos, la tarea no es sencilla. Según Sidorenko, "tenemos legislaciones, marcos normativos comunitarios y también nacionales, pero el problema deriva de que hay varias aristas, porque podríamos recurrir a la misma herramienta del algoritmo para que haga de árbitro y de censor, pero entonces ocurriría lo que ocurre en TikTok, que el algoritmo de TikTok, a diferencia de otras plataformas, es una IA, es una inteligencia artificial, pero la inteligencia artificial no interpreta contexto, no interpreta sarcasmo, no interpreta sátira, no interpreta matices culturales".

Con ello, "no puede censurar algo que realmente es censurable, pero te puede también censurar algo que no lo es". Por ello, propone un enfoque combinado: "lo ideal [sería] contar con una primera instancia de algoritmos de inteligencia artificial que sirvieran de un primer filtro, pero que sea el ser humano el que tenga la última palabra".

Por este motivo, concluye Sidorenko, "hay conducta humana, hay una actuación de los actores tecnológicos, y luego como tercero los actores gubernamentales o los actores estatales, que provoca que entre los tres estén en constante pugna".

Sobre el autor:

Miriam Gómez Sanz

Redactor

… saber más sobre el autor