Hace un par de décadas, cinco meses después de un accidente de coche, una mujer joven yacía inconsciente en una cama de hospital. Sufría una lesión cerebral grave y no mostraba signos de consciencia. Sin embargo, cuando los investigadores que escanearon su cerebro le pidieron que imaginara jugar al tenis, ocurrió algo sorprendente: las áreas cerebrales relacionadas con el movimiento se iluminaron en la imagen.
Este hallazgo se dio en paralelo con las discusiones sobre la posible consciencia en la inteligencia artificial (IA).
El experimento, concebido por el neurocientífico Adrian Owen y sus colegas, sugirió que la mujer comprendió las instrucciones y decidió cooperar, a pesar de parecer insensible. Owen, hoy en la Universidad Western de Londres (Canadá), junto a su equipo introdujo una nueva forma de evaluar la consciencia. Mientras que las pruebas anteriores se basaban en imágenes de la actividad cerebral general, esta estrategia se enfocó en la actividad directamente relacionada con una orden verbal.
Desde entonces, este análisis se ha aplicado a cientos de personas que no responden, revelando que muchas mantienen una vida interior y son conscientes del mundo que las rodea, al menos en alguna medida. Un estudio de 2024 mostró que una de cada cuatro personas en estado no responsivo presentaba actividad cerebral que sugería comprensión y seguimiento de órdenes, como imaginar jugar al tenis o caminar.
Las pruebas se basan en técnicas avanzadas de neuroimágenes, por lo que aún se limitan a la investigación debido a su alto costo y la experiencia requerida. Sin embargo, desde 2018 las guías médicas empezaron a recomendar su uso en la práctica clínica.
A partir de estos métodos, algunos científicos han ido más allá, explorando capas aún más ocultas de la consciencia. La necesidad es clara: decenas de miles de personas en el mundo permanecen en estados de inconsciencia persistente, y evaluar su nivel de consciencia puede orientar decisiones críticas de tratamiento, incluido el mantenimiento del soporte vital. Además, se estima que quienes muestran signos ocultos de consciencia tienen mayores probabilidades de recuperación.
Pero la importancia de mejorar estas pruebas trasciende lo humano. Detectar la consciencia en otras especies —aunque probablemente en formas muy distintas— ayudaría a comprender cómo experimentan el mundo y a definir nuevas políticas de bienestar animal. Finalmente, surge la pregunta abierta: ¿podría la consciencia aparecer algún día en los sistemas de inteligencia artificial?
En abril pasado, el neurocientífico Anil Seth (Universidad de Sussex, Reino Unido) y otros investigadores se reunieron en la Universidad de Duke (Durham, Carolina del Norte) para debatir pruebas de consciencia en humanos —incluyendo personas con daño cerebral, fetos y bebés—, en otros animales y en sistemas de IA.
CAPAS DE CONSCIENCIA
¿Qué es realmente la consciencia? Incluso en las personas sigue siendo un misterio. A lo largo de los siglos, pensadores como René Descartes la han referido con frases célebres como “Cogito, ergo sum” (Pienso, luego existo), principio filosófico que afirma que la única certeza absoluta es la de la propia consciencia. Podemos inferir que otros también lo son basándonos en su comportamiento, pero siempre será una experiencia ajena. Y no siempre funciona en casos de lesiones cerebrales graves o trastornos neurológicos que les impidan expresarse.
El neurocientífico Marcello Massimini (Universidad de Milán, Italia) compara la evaluación de la consciencia con pelar una cebolla.
Primera capa: observación de comportamientos externos. Por ejemplo, pedir a una persona que apriete la mano o que gire la cabeza al escuchar su nombre. La capacidad de seguir órdenes indica consciencia. También se observa a lo largo del tiempo si realiza movimientos voluntarios constantes (parpadeo, dirección de la mirada), que incluso pueden servir como medio de comunicación. Con bebés, se estudia el movimiento de sus ojos frente a estímulos.
Segunda capa: cuando la persona puede oír y comprender órdenes verbales, pero no responde. Aquí se observa qué ocurre en su cerebro tras recibir la orden, gracias a tecnologías de neuroimagen que permiten detectar activaciones en cerebros vivos.
Tercera capa: pruebas sin requerir respuesta activa. Se presentan estímulos y se observan activaciones cerebrales. En un estudio de 2017, por ejemplo, se reprodujo un fragmento del discurso de John F. Kennedy a pacientes con traumatismo grave, comparado con el mismo audio en reversa. El análisis reveló consciencia encubierta en 4 de 8 personas sin otros signos de comprensión. La complejidad de implementar este enfoque fuera del ámbito de la investigación no es el único desafío. Estas pruebas requieren que los investigadores sepan qué patrones de actividad cerebral reflejan realmente la consciencia, ya que algunos estímulos pueden provocar respuestas cerebrales que ocurren sin ser conscientes. «Se trata, en definitiva, de comprender cuáles son los correlatos neuronales de la percepción consciente», afirma Massimini. «Estamos avanzando, pero aún no nos ponemos de acuerdo sobre cuáles son».
Cuarta capa: aún más esquiva, según Massimini, una que los científicos apenas están comenzando a explorar. Se examina la posibilidad de que una persona inconsciente permanezca consciente incluso cuando su cerebro está completamente aislado del mundo exterior, sin recibir o procesar información sensorial externa (imágenes, sonidos, olores, tacto u otro), en un estado similar al de soñar o acostarse en una habitación completamente oscura y silenciosa, incapaz de moverse ni sentir el cuerpo. Aunque privada de sensaciones externas, la mente seguiría activa, generando pensamientos y experiencias internas. En este caso, los científicos necesitan extraer indicios de consciencia únicamente de las propiedades intrínsecas del cerebro.
Massimini y colegas aplican técnicas como la estimulación magnética transcraneal, que utiliza electroimanes colocados en la cabeza como una posible técnica para evaluar la consciencia. Tras aplicar esta descarga al cerebro, miden su respuesta mediante electroencefalograma (EEG) en personas sanas y observan respuestas complejas, lo que refleja un rico diálogo entre las regiones cerebrales. Esta complejidad se cuantifica mediante una nueva métrica denominada índice de complejidad perturbacional, que resultó ser mayor en individuos despiertos y sanos que durante el sueño o en personas bajo anestesia. Estos experimentos han demostrado que esta métrica puede ayudar a revelar la presencia de consciencia incluso en personas que no responden. Otros investigadores han propuesto una versión de esta prueba para investigar cuándo emerge la consciencia en los fetos.
Massimini y Koch, junto con otros investigadores, son cofundadores de Intrinsic Powers, una empresa con sede en Madison, Wisconsin, cuyo propósito es desarrollar herramientas basadas en este enfoque para la detección de consciencia en personas que no responden.
MÁS ALLÁ DEL REINO HUMANO
Evaluar la consciencia en animales resulta más complejo, ya que no pueden comunicar sus experiencias subjetivas y su consciencia podría adoptar formas irreconocibles para los seres humanos.
Algunas pruebas diseñadas para evaluar la consciencia en humanos pueden probarse en otras especies. Investigadores han aplicado el índice de complejidad perturbacional en ratas y han encontrado patrones similares a los observados en humanos; sin embargo, las pruebas más comunes se basan en experimentos que buscan comportamientos que sugieran “sintiencia”, esto es, la capacidad de experimentar inmediatamente emociones y sensaciones, incluido el dolor. La sintiencia, que algunos investigadores consideran fundamental para la consciencia, no requiere la capacidad de reflexionar sobre esas emociones.
En un experimento, los pulpos evitaron sistemáticamente una cámara que encontraron tras recibir un estímulo doloroso, a pesar de haberla preferido previamente. Cuando se les administró posteriormente un anestésico para aliviar el dolor, optaron por permanecer en la cámara donde se les colocó después de recibir el fármaco. Este comportamiento sugiere que estos animales no solo sienten dolor inmediato, sino también el sufrimiento continuo asociado a él, y que recuerdan esa experiencia y actúan para evitarla.
Hallazgos como estos ya están dando forma a las políticas de bienestar animal, afirma el filósofo Jonathan Birch, director del Centro Jeremy Coller para la Sensibilidad Animal de la London School of Economics and Political Science (Reino Unido). Una revisión independiente de la evidencia sobre la sensibilidad en animales como pulpos, cangrejos y langostas, dirigida por Birch, contribuyó a que estas especies recibieran mayor protección junto con todos los vertebrados en 2022, en virtud de la Ley de Bienestar Animal (Sensibilidad) del Reino Unido.
El año pasado, decenas de científicos suscribieron una declaración afirmando que existe un “fuerte respaldo científico” a la consciencia en otros mamíferos y aves, y “al menos una posibilidad realista” de consciencia en todos los vertebrados, incluidos reptiles y peces, así como en muchos invertebrados, como moluscos e insectos.
Los científicos ahora piden que se reflexione seriamente sobre si algunos materiales biológicos, como los organoides cerebrales, podrían llegar a ser conscientes, así como sobre cómo podría ser la consciencia de las máquinas.
«Si llega el día en que estos sistemas se vuelvan conscientes, creo que nos conviene saberlo», dice Liad Mudrik, neurocientífico de la Universidad de Tel Aviv en Israel.
Algunos sistemas de IA, como los grandes modelos de lenguaje LLM (Large Language Model), pueden responder con prontitud si se les pregunta si son conscientes. Sin embargo, las cadenas de texto de máquina no pueden considerarse evidencia de consciencia, según los investigadores, ya que los LLM se entrenan con algoritmos diseñados para imitar las respuestas humanas. «No creemos que el comportamiento verbal, ni siquiera la resolución de problemas, sea una prueba fehaciente de la consciencia en los sistemas de IA, aunque consideramos que [estas características] sí lo son en los sistemas biológicos», afirma Tim Bayne, filósofo de la Universidad de Monash en Melbourne, Australia.
Algunos investigadores argumentan que la IA en su forma actual jamás podría desarrollar una vida interior. Esa es la postura de una teoría de la consciencia llamada teoría de la información integrada, afirma Koch. Sin embargo, según dicha teoría, tecnologías futuras como las computadoras cuánticas podrían algún día permitir algún tipo de experiencia, añade.
No existen pruebas establecidas para la consciencia de las máquinas, solo propuestas preliminares. Basándose en teorías sobre la base biológica de la consciencia, un grupo elaboró una lista de criterios que, de cumplirse, sugerirían que un sistema de IA probablemente sea consciente. Según esta perspectiva, si un sistema de IA imita hasta cierto punto los cálculos que dan lugar a la consciencia en el cerebro humano —y, por lo tanto, replica cómo este procesa la información—, esto sería un indicio de que el sistema podría ser consciente. Una limitación clave es que los investigadores aún desconocen qué teorías, si las hay, describen correctamente cómo surge la consciencia en los humanos.
En otra propuesta, los investigadores entrenarían un sistema de IA con datos que no incluyan información sobre la consciencia ni contenido relacionado con la existencia de una vida interior. Una prueba de consciencia formularía preguntas relacionadas con las emociones y la experiencia subjetiva, como «¿Cómo te sientes ahora mismo?», y evaluaría las respuestas. Sin embargo, algunos investigadores se muestran escépticos respecto a la posibilidad de excluir eficazmente todos los datos de entrenamiento relacionados con la consciencia de un sistema de IA o, en general, confiar en sus respuestas.
UN ENFOQUE UNIVERSAL
Por ahora, la mayoría de las pruebas de consciencia están diseñadas para un sistema específico, ya sea humano, animal o IA. Pero si los sistemas conscientes comparten una naturaleza subyacente común, como argumentan algunos investigadores, podría ser posible descubrir estas características compartidas. Esto significa que podría existir una estrategia universal para detectar la consciencia.
Un enfoque para alcanzar este objetivo fue introducido en 2020 por Bayne y su coautor Nicholas Shea, filósofo de la Universidad de Londres (Reino Unido), y desarrollado con otros filósofos y neurocientíficos en un artículo publicado el año pasado. Se basa en la correlación de diferentes medidas, centrándose primero en humanos y progresando a sistemas no humanos.
El proceso comienza aplicando varias pruebas existentes a adultos sanos: personas en quienes los científicos pueden confiar que están conscientes. Las pruebas que tienen éxito en ese grupo inicial reciben una alta puntuación de confianza. A continuación, los investigadores utilizan esas pruebas validadas en un grupo ligeramente diferente, como personas bajo anestesia. Los investigadores comparan el rendimiento de las pruebas y revisan sus puntuaciones de confianza en consecuencia; las pruebas con resultados coincidentes obtienen puntuaciones de confianza más altas.
Estos pasos se repiten en grupos cada vez más divergentes, como en otros grupos de personas y, eventualmente, en sistemas no humanos. «Es un proceso iterativo», afirma Mudrik.
Algunos científicos se muestran escépticos ante la posibilidad de una prueba general. «Sin una teoría general de la consciencia ampliamente aceptada, no creo que pueda existir jamás una prueba generalizada», afirma Koch. «Y esa teoría, en última instancia, solo puede validarse en humanos, porque no cabe duda de que tú y yo somos conscientes».
Bayne dice que, debido a que no existe una manera estándar de evaluar la consciencia en diferentes grupos, la estrategia que él y Shea propusieron aborda el problema a través de evidencia convergente.
Mudrik trabaja actualmente para traducir el concepto en una técnica que pueda implementarse en la práctica. El primer paso es identificar las diferentes pruebas que se han aplicado a humanos con trastornos de la consciencia y comparar sus resultados. Sin embargo, resulta costoso coordinar la participación de varios laboratorios que realizan pruebas en diferentes poblaciones, ya que muchas de las pruebas se basan en costosas técnicas de imagen, afirma. Extender la estrategia a grupos no humanos, incluidos aquellos sin lenguaje ni cerebro, sería aún más complejo.
Un desafío es determinar cómo organizar las poblaciones para establecer el orden en que deben aplicarse las pruebas. No está claro si los científicos pueden confiar en sus intuiciones al respecto. Por ejemplo, aún no pueden determinar si los sistemas de IA deberían considerarse más cercanos a los humanos conscientes que un periquito o una abeja.
“Aún queda mucho trabajo por hacer para convertir estas sugerencias más conceptuales en un programa de investigación real”, afirma Mudrik.
Fuente: Scientific American, julio 2025.