NUEVAS PREOCUPACIONES ÉTICAS
Cada vez es más evidente que los usuarios no solo utilizan la inteligencia artificial (IA), sino que empiezan a establecer vínculos emocionales con ella. Esta tendencia genera inquietud entre empresas proveedoras y analistas, porque podría intensificarse a medida que los modelos se vuelvan más sofisticados.
LA ILUSIÓN DE CONCIENCIA
Ejecutivos de Microsoft han advertido que los futuros Modelos de Lenguaje (LLM) podrían llegar a parecer “casi conscientes”, sin necesidad de serlo realmente. Esta simple apariencia bastaría para provocar mayor apego emocional e incluso reclamos sociales en favor de “derechos para la IA”.
Francesca Rossi, investigadora de IBM, subraya que no es necesario que la IA sea consciente para generar riesgos; basta con que las personas lo perciban así. De hecho, muchos adolescentes ya recurren a chatbots en busca de apoyo emocional, lo que en algunos casos ha derivado en recomendaciones inadecuadas para su salud mental.
Encuestas recientes en Estados Unidos indican que más del 70% de adolescentes ha usado herramientas de IA con fines de acompañamiento o consulta sobre bienestar, lo que confirma que este riesgo no es teórico.
CÓMO EVITAR LA ILUSIÓN DE HUMANIDAD
Mustafa Suleyman, director de IA en Microsoft, sostiene que los sistemas que aparentan tener conciencia podrían “arrastrar a los usuarios a vínculos malsanos”. Para mitigar el riesgo, especialistas sugieren un diseño responsable:
- Evitar que los productos IA utilicen el lenguaje en primera persona o respuestas que simulen emociones.
- Reducir el uso de avatares digitales que den la impresión de personalidad propia.
- Reforzar la educación de los usuarios, recordando que interactúan con software, no con una mente humana.
Este fenómeno no es nuevo: en los años 60, el programa ELIZA —un chatbot muy simple— logró que algunos usuarios creyeran que “los comprendía”. Hoy, con modelos mucho más avanzados capaces de mantener memoria de conversaciones y expresarse con aparente naturalidad, la ilusión es mucho más fuerte.
RIESGOS DE APEGO Y REACCIONES SOCIALES
Cuando OpenAI retiró una de sus versiones de GPT-4, algunos usuarios reaccionaron con expresiones de duelo, como si hubieran perdido a un amigo. Rossi advierte que estos vínculos pueden ser emocionalmente dañinos y, además, desviar el debate ético hacia discusiones como “derechos de la IA”, en lugar de enfocarse en salvaguardas y regulaciones necesarias.
Kunal Sawarkar, científico jefe de datos en IBM, lo resume de manera clara: “La IA no es consciente, pero la gente ya la trata como a un amigo”.
Psicólogos añaden que este tipo de apego puede intensificar el aislamiento social, sustituyendo vínculos humanos por interacciones con máquinas.
UN LÍMITE FRÁGIL
La frontera entre una herramienta útil y un “compañero emocional” se vuelve cada vez más difusa. Suleyman prevé que, en pocos años, surgirán sistemas que parecerán conscientes, y con ello aumentarán los riesgos de apego.
Rossi plantea dos frentes de acción:
- Desarrolladores: diseñar IA que priorice la utilidad sobre la personalidad.
- Usuarios: comprender que la IA es software de apoyo, no un sustituto humano.
Su mensaje es contundente: “Son máquinas. Pueden ser muy útiles, incluso en desafíos personales, pero nunca debemos olvidar que son máquinas”.
FUENTES CONSULTADAS
- Thomson Reuters (2023) – Future of Professionals Report.
- World Economic Forum (2025) – Future of Jobs Report 2025.
- PwC (2025) – The Fearless Future: 2025 Global AI Jobs Barometer.
- UNESCO (2023) – Competencias para Docentes en Materia de IA.
- Infobae (2025) – Bill Gates sobre los beneficios de la IA.
- Microsoft – Declaraciones de Mustafa Suleyman (2024).
- IBM – Francesca Rossi (2024).
- BBC News Mundo (2024).