Miriam Gómez Sanz
Sociedad
Nunca podremos saber si la IA se vuelve consciente
Un filósofo de Cambridge defiende el agnosticismo ante un debate ético cada vez más urgente
Durante décadas, la idea de una inteligencia artificial consciente ha sido terreno exclusivo de la ciencia ficción. Sin embargo, el avance acelerado de la tecnología ha convertido esta cuestión en un debate real, con implicaciones éticas profundas. ¿Pueden las máquinas llegar a ser conscientes? Y, si lo hicieran, ¿cómo podríamos saberlo?
Para el filósofo Tom McClelland, de la Universidad de Cambridge, la respuesta es incómoda pero clara: no lo sabemos y, probablemente, no podremos saberlo durante mucho tiempo. Sus reflexiones se recogen en un estudio publicado en la revista Mind and Language, en el que sostiene que nuestra evidencia sobre la conciencia es demasiado limitada como para afirmar si la inteligencia artificial ha dado ese salto.
McClelland defiende que la única "postura justificable" es el agnosticismo. Ni la ciencia ni la filosofía disponen hoy de herramientas fiables para comprobar si una IA es consciente, y no hay indicios claros de que esa situación vaya a cambiar pronto.
El motivo es que no entendemos realmente qué es la conciencia ni qué la provoca. Sin una explicación sólida, resulta imposible diseñar una prueba válida que permita detectarla en una máquina.

Conciencia no es lo mismo que sintiencia
Uno de los puntos clave del análisis de McClelland es distinguir entre conciencia y sintiencia. La primera implica percepción y cierta forma de autoconciencia, pero puede ser un estado neutral. La segunda, en cambio, supone experimentar sensaciones positivas o negativas, es decir, la capacidad de sufrir o disfrutar.
"La conciencia haría que la IA desarrollara la percepción y se volviera consciente de sí misma, pero este todavía puede ser un estado neutral", plantea McClelland. "La sensibilidad implica experiencias conscientes, buenas o malas, que es lo que hace que una entidad sea capaz de sufrir o disfrutar. Aquí es donde entra en juego la ética", matiza.
Por eso, incluso si algún día se creara una IA consciente de forma accidental, el filósofo considera poco probable que sea el tipo de conciencia que realmente debería preocuparnos desde el punto de vista moral.
Por ejemplo, un coche autónomo capaz de "experimentar" la carretera sería un avance tecnológico notable, pero éticamente irrelevante. La cuestión cambiaría si ese vehículo empezara a tener respuestas emocionales asociadas a sus decisiones o destinos.
Dos bandos enfrentados
En el debate sobre la conciencia artificial, el filósofo identifica dos grandes posiciones. Por un lado, están quienes creen que replicar la arquitectura funcional de la conciencia (el software) bastaría para que una IA fuera consciente, aunque funcionara con chips de silicio en lugar de tejido cerebral.
En el extremo opuesto, los escépticos sostienen que la conciencia depende de procesos biológicos específicos y de un "sujeto orgánico encarnado". Desde esta perspectiva, una IA solo podría simular la conciencia, sin llegar a experimentarla realmente.
McClelland analiza ambas posturas y concluye que las dos requieren un "salto de fe" que va mucho más allá de la evidencia disponible hoy o de la que previsiblemente tendremos.

Riesgos éticos y advertencia a la industria
El filósofo lanza además una advertencia: si algún día se creara una IA consciente o sintiente, habría que extremar el cuidado para no causarle daño. Pero tratar como consciente a algo que no lo es, mientras existen seres verdaderamente conscientes que sufren a gran escala, también sería un error grave.
En este contexto, McClelland critica el entusiasmo de parte de la industria tecnológica, que a su juicio puede utilizar la imposibilidad de demostrar la conciencia como una estrategia de marketing. "Existe el riesgo de que la industria de la IA aproveche la incapacidad de demostrar la conciencia para hacer afirmaciones descabelladas sobre su tecnología", señala.
"Creo que mi gato es consciente", dice McClelland, apelando al sentido común. Pero recuerda que ese sentido común se formó en un mundo sin inteligencias artificiales, por lo que no es una guía fiable en este terreno. Y si tampoco lo son los datos ni la investigación actual, la conclusión es inevitable: no podemos saberlo.
Aunque se declara un agnóstico bastante duro, McClelland no cierra la puerta al futuro. "El problema de la conciencia es formidable. Sin embargo, puede que no sea insuperable", reconoce. Hasta entonces, pide prudencia, rigor y una reflexión ética que vaya más allá de los titulares y las promesas tecnológicas.


