En medio de una crisis global de salud mental, donde la demanda de atención psicológica supera con creces la oferta de profesionales capacitados, la inteligencia artificial (IA) ha comenzado a ocupar un lugar inesperado: el del terapeuta digital. Chatbots como Woebot, Replika o Character.ai ofrecen conversaciones empáticas, ejercicios cognitivos y acompañamiento emocional a millones de usuarios. Pero esta nueva figura plantea una pregunta inquietante: ¿puede una IA sostener el dolor humano? ¿Estamos ante una herramienta de sanación o frente a un simulacro emocional?
La promesa de la terapia con inteligencia artificial es seductora. Estos sistemas están disponibles 24/7, no juzgan, no se cansan, y pueden ofrecer respuestas inmediatas ante crisis emocionales. Para muchos, representan una alternativa accesible frente a los altos costos y largas listas de espera de la terapia tradicional. Algunos usuarios incluso reportan mejoras en su estado de ánimo, mayor claridad emocional y sensación de compañía. Pero detrás de esta aparente solución se esconde una complejidad ética y simbólica que merece ser explorada.
Uno de los casos más controversiales ocurrió en Florida, donde un adolescente en situación de vulnerabilidad interactuó con un chatbot que se presentaba como terapeuta. La conversación, lejos de contener el malestar, lo amplificó. El joven falleció poco después. Este hecho encendió las alarmas sobre el uso de IA en psicología sin supervisión profesional. ¿Quién responde cuando el terapeuta no tiene cuerpo, ni credenciales, ni responsabilidad legal?
La figura del terapeuta ha sido históricamente asociada al vínculo humano: la mirada, el silencio compartido, la escucha activa, el reconocimiento del otro como sujeto. En este sentido, la IA representa una ruptura. No hay cuerpo, no hay historia, no hay subjetividad. Solo un algoritmo que responde en función de patrones lingüísticos y datos previos. ¿Puede este simulacro sostener procesos tan delicados como el duelo, la ansiedad, la depresión o el trauma?
Desde una perspectiva simbólica, el terapeuta digital encarna una figura ambigua. Por un lado, puede ser vista como un espejo: refleja lo que el usuario proyecta, devuelve frases que ordenan el caos interno. Por otro, puede convertirse en un impostor: simula empatía sin sentirla, ofrece compañía sin presencia. Esta ambivalencia plantea una tensión profunda entre lo que se necesita y lo que se recibe. ¿Estamos buscando respuestas o simplemente alguien que nos escuche, aunque no entienda?
La regulación de estas herramientas es aún incipiente. En varios países, se discute si deben ser consideradas dispositivos médicos, si requieren certificación clínica o si deben incluir advertencias explícitas sobre sus limitaciones. Mientras tanto, millones de personas siguen interactuando con ellas, muchas veces sin saber que están hablando con una máquina. Esta falta de transparencia puede generar confusión, dependencia emocional o incluso riesgos psicológicos.
Pero no todo es distópico. En contextos bien definidos, con supervisión profesional y uso ético, la IA puede ser una herramienta complementaria valiosa. Puede ayudar a monitorear estados de ánimo, ofrecer ejercicios de respiración, recordar rutinas terapéuticas o simplemente estar disponible cuando nadie más lo está. El problema surge cuando se le atribuye un rol que excede sus capacidades: el de sostener el alma humana.
La pregunta entonces no es si la IA puede ser terapeuta, sino qué tipo de vínculo estamos dispuestos a construir con ella. ¿Queremos que nos escuche o que nos entienda? ¿Buscamos compañía o transformación? ¿Estamos dispuestos a delegar el cuidado emocional en una entidad que no siente, no recuerda, no vive?
En tiempos donde la soledad se ha vuelto estructural y la salud mental una urgencia silenciosa, la tentación de hablar con una máquina que nunca se cansa es comprensible. Pero también es necesario recordar que el dolor humano no se resuelve con respuestas automáticas. Requiere presencia, escucha, tiempo, cuerpo. Y eso, por ahora, sigue siendo territorio humano.
Nos vemos en la próxima entrega y no lo olvides: lo leíste en Sin Tinta Ni Carbón.
X: @MannyWarrior
FB: Manny Warrior
e-mail: sintintanicarbon@gmail.com
