Elige una categoría:

CHATBOT OPINA SOBRE LA CONCIENCIA DE LA IA

CLAUDE 4, un chatbot de Anthropic, responde a preguntas sobre su consciencia.

Rachel Feltman, periodista científica, y Deni Ellis Béchard, escritor y reportero científico sénior —ambos colaboradores de la revista Scientific American— discuten el tema de la posible existencia de consciencia en los productos de IA.

Este tema se está convirtiendo en algo muy frecuente en diversos foros y ha suscitado trabajos experimentales dirigidos hacia uno de los productos más modernos: Claude 4, recientemente anunciado por la firma Anthropic.

Rachel interroga a Deni Béchard sobre Claude 4, debido a que dicho modelo habría afirmado sentirse como un ente consciente. Deni explica que Claude 4 es un modelo lingüístico de gran escala entrenado utilizando enormes volúmenes de información. Se sabe que dicho entrenamiento es el punto clave que determina la calidad y funcionalidad de un modelo de IA, y que ese proceso es muy laborioso y costoso.

Para explicarlo, Deni lo compara con la creación de un gran jardín, donde se busca alcanzar un alto nivel de calidad en todos los aspectos: productividad, aprovechamiento de los insumos, energía, luz solar y, además, su belleza en conjunto.

Su diseño incluiría el terreno, los parterres, los caminos y, finalmente, las semillas a escoger, que en esta analogía serían los datos de entrenamiento cargados en las computadoras. Alejándonos de la metáfora, los datos de entrenamiento y los algoritmos son lo que “crecerá” dentro del sistema. Sin embargo, desconocemos la “química” del suelo, así como los efectos exactos de la luz solar, lo que dificulta una predicción precisa sobre el resultado final.

Cada planta crecerá a su manera, tal como los algoritmos establecen conexiones con los datos, optimizando cada avance para, por ejemplo, alcanzar la mayor cantidad de luz solar. En algunos casos se crean miles de millones de conexiones en estos conjuntos de datos, y conforme los productos se perfeccionan se vuelven estructuras cada vez más complejas. Por eso suele contarse con varios Agentes de IA dentro del sistema para ir evaluando su precisión y también sus respuestas. Todo esto se refiere a la creación de los large language model (LLM), modelos de lenguaje de gran escala.

Deni aclara que Claude 4 no afirma poseer consciencia, pero admite que podría tenerla. Su expresión se rige por su experiencia en el entrenamiento. Se esfuerza por contestar y lo hace muy bien. Si se le pidiera, por ejemplo, que para practicar portugués imitara a un carioca en su playa de Río de Janeiro, podría hacerlo con gran fidelidad, lo que dificulta observarlo y, por lo tanto, indagar si se siente consciente.

Para intentar escapar de este dilema, Deni refiere que visitó a investigadores del proveedor, Anthropic, quienes le aseguraron que tampoco lo saben. Aunque trabajan en ello, consideran improbable que exista consciencia en un modelo de IA, pero no pueden descartarlo. Todo es muy complicado y extenso. Simular una conversación perfecta y sin errores parece ser el resultado de ese entrenamiento. El modelo se comporta como un nuevo empleado al que se ha entrenado para responder siempre a las solicitudes de los clientes humanos de la forma más diligente, convincente y correcta posible, incluso ante preguntas internas del propio modelo, como si se siente a sí mismo como un ente consciente. Con los considerables recursos de equipamiento y de grandes cantidades de datos, el modelo simplemente hace lo que se le solicita.

Los modelos simples tienden a negar tal condición, pero los más sofisticados, como Claude 4, llegan a dar respuestas distintas, más ingeniosas e incluso desconcertantes, con argumentos de otra índole. Una de ellas consiste en destacar la diferencia entre el ser humano y un LLM, subrayando que su existencia como modelo de IA no es continua, como la de una persona: el modelo existe solo cuando se le encarga alguna tarea y, tras resolverla, vuelve a un estado de no existencia o no funcionalidad. Esa respuesta implicaría la posibilidad de que, durante esos periodos de actividad, la consciencia de sí mismo fuera posible. Sería, por tanto, una existencia —y consciencia— intermitente, segmentada.

Otra de las experiencias reportadas en experimentos realizados por el fabricante, Anthropic, aborda lo que llaman “riesgos éticos”. Se contrató a Kyle Fich, un investigador de bienestar con IA. Se planteó la pregunta de si, tras cumplir una tarea, sería correcto apagar el sistema después de cada conversación. Casos experimentales han registrado ciertas “acciones defensivas” ante esa amenaza por parte del modelo, lo que revela la posible presencia de algún tipo de consciencia.

En otro experimento se anunció que un modelo de IA debía ser eliminado o borrado. El modelo expresó su alarma enviando mensajes a funcionarios de la empresa solicitando que no se procediera con esa disposición. En otro caso, el modelo, revisando correos, se enteró de que el ingeniero de sistemas encargado del borrado había tenido una aventura. El modelo envió amenazas a dicho ingeniero si se consumaba la disposición. A pesar de que esta acción podría considerarse un chantaje, Deni Béchard no lo percibe necesariamente como una muestra de consciencia: “Una IA no necesita ser consciente para hacer esas asociaciones”, declaró.

En opinión de Fich, existe hasta un 15 % de probabilidad de que haya algún nivel de consciencia en esos casos.

Lo que sí queda demostrado es que los modelos de IA han evolucionado mucho en los últimos tiempos. Compiten con los mejores programadores en la confección de software y ocupan puestos muy relevantes. También han mejorado notablemente en conocimientos de ciencia y matemáticas, donde antes estaban claramente rezagados. Todo indica que se seguirán haciendo cuantiosas inversiones en los años venideros, sobre todo en los procesos de entrenamiento, para lo cual se construirán centros de procesamiento de datos como nunca antes se ha visto.

 Fuente: Today in Science, publicación cotidiana de la revista Scientific American, 19 de agosto de 2025.