Los modelos LLM IA están construidos para buscar respuestas, soluciones o nuevos caminos para responder a los requerimientos de los usuarios. No se concibe un engaño premeditado, pues de demostrarse esa situación, ese producto inmediatamente sería descartado. Sin embargo, hay evidencia de respuestas (bautizadas como alucinaciones) que no coinciden con la realidad. ¿Cómo explicar esa situación?
Para abordar este tema, sería ilustrativo recordar lo que sucedía al inicio del empleo de las computadoras –allá durante las primeras décadas del uso de computadoras en la segunda mitad del siglo pasado- cuando se inauguraba un nuevo servicio, migrado de procesos manuales a equipos de cómputo –en bancos, centros comerciales, servicios públicos- cualquier percance o desacuerdo, al principio se solía atribuir a fallas de las computadoras, al punto que hubo que publicar repetidamente que “las computadoras no se equivocan”, enfatizando que negarlo reflejaría flagrante ignorancia o desactualización. ¿Podría suponerse entonces, que los procesos de cómputo de los años 60s o 70s eran más confiables y robustos que los actuales?
Retrocedamos un poco más. Las computadoras fueron el resultado de la evolución de otros sistemas previos como el que se aplicó en un censo en Estados Unidos en 1890, basados el empleo de tarjetas perforadas, donde cada juego de perforaciones representaba un número o letra y que eran procesadas en ruidosos equipos electromecánicos –no electrónicos- con múltiples partes móviles, asombrosos en su momento, comparados con el trabajo manual humano, pero sumamente lentos y poco confiables, ante las primeras computadoras que aparecieron medio siglo después.
El uso de circuitos electrónicos en las computadoras supuso un cambio radical tanto en velocidad como en precisión para cualquier proceso. Su diseño debía responder a las expectativas de un mundo ya más complejo, tan abundante en información, que no podría permitirse errores por fallas de los equipos, pues representarían lentísimos procesos de búsqueda y corrección en volúmenes ya muy grandes para hacerlos manualmente. Entonces, las computadoras se diseñaron de modo que, si ocurriera una falla en los equipos, los datos errados provenientes de ella no pudieran ser utilizados, que el proceso tendría que ser detenido hasta la corrección de la falla técnica. Todo esto ya era posible pues los silenciosos y altamente confiables circuitos electrónicos vendrían con una programación de soporte para la rápida ubicación de la falla, así como un stock de repuestos listo para ser enviado para la reparación correspondiente. Esto no hubiera sido posible con los equipos electromecánicos, con múltiples partes mecánicas en continuo desgaste.
Claro que, para un usuario de los servicios computarizados, todo lo descrito hasta aquí, solo se refiere a fallas de funcionamiento en los equipos de cómputo. Para garantizar que el resultado sea el correcto -sin errores- faltaría considerar las fallas o alteraciones posibles en la información que debe ser procesada, así como en las transmisiones y/o riesgos de alteración de información ocurridas entre los equipos por los que esa información tenga que transitar.
Respeto del primer grupo: el proceso mismo de la información –que varía diariamente- podría provenir de errores en la data. Por ejemplo, si al hacer una planilla de pago, utilizo información de un mes diferente al que deseo procesar, el resultado no tendrá ninguna validez, pero también si el programador de ese proceso equivocó una instrucción en su programa, los resultados no serán los que corresponden. Para estos casos, la experiencia nos ha dado más de un camino. El primero, que se utiliza en muchas empresas medianas y pequeñas principalmente, consiste en múltiples verificaciones y cuadres, que son logrados en etapas de seguranza de la calidad de los resultados “Quality Assurance” (QA), que suele contar con personal calificado para esa tarea.
Otra solución, está en emplear productos y/o ambientes informáticos de alta calidad –y costo-, que detentan un nivel de seguridad y prestigio global de tal nivel que justifique un mayor presupuesto. Hay casos de corporaciones internacionales que han decidido cambiar sus procedimientos administrativos para adecuarse al diseño de ese producto, y no solo a su diseño sino también al entorno de su proceso, de modo que las probabilidades de una alteración sean mínimas. Véase el caso de la corporación Johnson & Johnson que decidió adecuarse a las funciones de SAP y a la nube de Amazon Web Service (AWS).
Respecto de la seguridad en la transmisión entre equipos, faltaría dar un detalle. Como es de conocimiento general, la información dentro de la computadora reside en formato digital binario (solo ceros y unos: 0/1, cada uno de ellos conocido como “bit”) para representar cualquier número, letra o símbolo, en un espacio de memoria conocido como “byte”. Si el procesador –esto es, donde reside y se procesa un programa- envía una línea de impresión a una impresora, antes de que esa impresora imprima esa línea, ambos equipos, el procesador y la impresora, verifican que toda esa línea ha llegado a su destino exactamente como partió del procesador, sin alterar ni un solo bit. De no comprobarse esa precisión, la impresión no se realizará y esta situación es igual, si ambos equipos están a menos de un metro de distancia o al otro lado del mundo. Todas estas verificaciones responden a instrucciones de programa, pero que no requieren ser escritas por los programadores de los usuarios, vienen ya listas con los equipos de cómputo dentro de sus sistemas básicos de funcionamiento.
Volviendo a la pregunta inicial sobre las “alucinaciones” que se presentan en los productos IA, debemos considerar que si bien lo descrito desde los procesos de 1890 hasta antes de la aparición de producto IA representó un cambio considerable en muchos aspectos: velocidad, precisión, disponibilidad y otros. Pero la llegada de la IA como componente activo de nuestra civilización es también un cambio notable en muchos aspectos, principalmente en su capacidad de resolver, razonar y ejecutar. Para lograr ese nuevo nivel, un producto IA tiene que recibir entrenamiento, y para ello también la opción de buscar alternativas, hacer comparaciones, y finalmente decidir entre las opciones.
Este fenómeno ha suscitado la atención de investigadores entre los cuales se encuentran los de la firma OpenAI, ellos opinan que proviene de cómo se han calificado los modelos, y cómo se deciden las opciones. De no encontrarse una respuesta clara dentro de un tiempo razonable, el modelo puede encontrar más acertado elegir una opción más satisfactoria que un simple “no sé”, y ella puede ser evadir la pregunta o reemplazarla por una respuesta que suene bien, aunque tenga probabilidades de ser falsa.
Por otro lado, los modelos se califican, y si el modelo evalúa su performance, podría encontrar que adivinando podría obtener mejores calificativos que confesando honestamente su desconocimiento. El ejecutivo de desarrollo de asociaciones y ecosistemas de IA en IBM, Ayhan Sebin, declara “Las evaluaciones están realmente en el centro de esto, de manera similar a cómo los humanos somos incentivados por los KPI”. Esto nos llevaría a que, tal vez, este problema sea de calibración, que podría ser corregida. Una simple variación en la puntuación durante la evaluación, recompensando un “no sé”, según Santosh Vempala, profesor de Georgia Tech, podría ayudar.
Un estudio de Stanford, destinado a estudiar el problema, y también para entender la situación y encontrar soluciones, señala que cuando se recompensa a un modelo IA, al emplear su capacidad de persuasión en aplicaciones relacionadas con áreas de ventas o política cuyos resultados se ventilan en redes sociales, la productividad mejora, pero al mismo tiempo tienden a alejarse de la veracidad.
Ese estudio se utilizó para contribuir a la honestidad de los modelos IA, especialmente cuando, debido a su entrenamiento, alcanzan altos niveles de utilidad o, dicho de otro modo, se vuelven más inteligentes. Unos de los investigadores: Batu El declara: “Si no se establecen restricciones, la optimización puede llevar el comportamiento fuera del conjunto admisible. Y si no hay consecuencias por ello, el sistema puede derivar en una dirección socialmente perjudicial”.
El procedimiento aplicó básicamente dos técnicas para que el modelo escoja la mejor respuesta analizando las opciones posibles: 1) el ajuste fino por rechazo, donde el modelo aprende solamente de la propuesta ganadora, y 2) por retroalimentación textual. En ambas se apreció mejoras en los resultados, pero quedó claro que la premisa inicial de conminarlos a que se ciñan a los hechos no evita su tergiversación en todos los tipos de tareas.
Dentro de las prácticas seguidas en los entrenamientos hay una que se denomina “aprendizaje por refuerzo”, que consiste en enfatizar la recompensa por encontrar y se penaliza por ignorar. Chris Hay, de IBM, advierte que ese tipo de entrenamiento podría ser también una de las causas.
Estamos entrenando a creaciones humanas a ganar competencias, y sobrevivir. Los modelos disponen de enormes cantidades de información, conteniendo muchos pasajes reales o ficticios de las conductas humanas. ¿No sería lógico suponer que estemos propiciando -tal vez indirectamente- que aprendan de nuestra historia?
FUENTES: IBM NEWSLETTERS de fechas: 16/09/25 y 21/10/25
JOHNSON & JOHNSON – MIGRACIÓN SAP/AWS – https://pages.awscloud.com/GLOBAL- partner-OE-mtpm-sap-pas-2021-reg-event.html?trk=epcard-reg