junio 26, 2025 | Actualizado ECT
junio 26, 2025 | Actualizado ECT

IA en terapia psicológica: ¿reemplazo o riesgo de deshumanización?

Expertos advierten sobre limitaciones éticas y emocionales de la inteligencia artificial.

Escrito por Abel Cano

junio 23, 2025 | 07:56 ECT

La inteligencia artificial (IA) se promociona como alternativa a la terapia psicológica, ofreciendo accesibilidad y anonimato, pero expertos advierten sobre los riesgos de su uso indiscriminado. Según La Hora, aplicaciones como Grok o Woebot pueden simular conversaciones, pero carecen de empatía y juicio humano esenciales para abordar problemas emocionales complejos.

La psicóloga clínica Andrea Gómez señala que la IA no comprende matices culturales ni emociones profundas, y su uso en casos graves, como depresión o suicidio, puede ser peligroso. La OMS reportó en 2023 que el 25% de las apps de salud mental basadas en IA no cumplen estándares éticos, aumentando riesgos de diagnósticos erróneos o respuestas inadecuadas.

Otro peligro es la deshumanización de la terapia. La relación terapéutica, basada en confianza y conexión emocional, no puede replicarse con algoritmos. Además, la privacidad preocupa: datos sensibles compartidos con apps pueden ser vulnerables a filtraciones, como ocurrió con BetterHelp en 2020, afectando a 3.9 millones de usuarios.

La IA puede ser útil como complemento, por ejemplo, para monitorear estados de ánimo o brindar ejercicios de relajación, pero no sustituye al psicólogo. En Ecuador, donde el acceso a salud mental es limitado (1.6 psicólogos por cada 100,000 habitantes), la IA podría cerrar brechas, pero solo con regulación estricta.

Expertos como Gómez instan a priorizar la supervisión humana y a educar a los usuarios sobre los límites de la IA. Sin controles éticos y legales, el reemplazo de terapeutas por máquinas podría agravar la crisis de salud mental en lugar de aliviarla.

Si está interesado en licenciar este contenido contáctese con [email protected]