La incorporación de herramientas de inteligencia artificial en el campo de la salud ha dado lugar a un debate tan profundo como necesario. En particular, dentro del campo de la salud mental la aparición de estas tecnologías abre interrogantes y oportunidades que deben ser analizadas. Por ejemplo, estas herramientas prometen beneficios relevantes —como su utilización para la realización de ejercicios entre sesiones y como apoyo a la psicoeducación por parte de los pacientes, como recurso para el diseño de intervenciones personalizadas por parte del terapeuta y la posibilidad de compilar y analizar datos generados entre sesiones, que pueden aportar información útil para un seguimiento más personalizado—. Sin embargo, también cabe preguntarse: ¿qué sucede con la empatía, la confidencialidad y la responsabilidad profesional?
Este artículo propone examinar el impacto que la inteligencia artificial puede tener en el vínculo humano que constituye la esencia misma de la psicoterapia, y propone una mirada ética, crítica y situada sobre su integración en contextos clínicos.
Al final del texto encontrarás ejemplos concretos de aplicaciones valiosas y de riesgos potenciales de la IA en el ámbito de la salud mental. Pero antes, te invitamos a revisar el marco conceptual que permite comprender su verdadero alcance, sus limitaciones y los dilemas que plantea.
Diagnósticos y seguimiento: eficiencia con límites
La inteligencia artificial (IA) ha mostrado una capacidad diagnóstica elevada en múltiples áreas médicas, incluyendo patología digital, radiología y hepatología, donde en varios estudios ha alcanzado o superado el desempeño de profesionales de la salud. Su utilización como herramienta de apoyo suele mejorar la precisión diagnóstica, especialmente cuando se combina con la pericia clínica del especialista.
En el campo de la salud mental también se ha documentado un rendimiento prometedor: algunos sistemas han sido capaces de detectar trastornos depresivos o de ansiedad a partir de lenguaje natural y patrones conductuales con niveles de sensibilidad y especificidad comparables a evaluaciones clínicas tradicionales.
Sin embargo, la evidencia también muestra limitaciones y riesgos. Entre ellos, se han señalado problemas de generalización fuera de los contextos de entrenamiento, sesgos asociados a los datos, dificultades para captar matices emocionales y culturales relevantes en la interacción terapéutica, y el riesgo de que el uso continuado de la IA conduzca a una pérdida progresiva de habilidades diagnósticas en los profesionales. Estos hallazgos sugieren que la IA puede ser un recurso valioso en la práctica clínica, siempre que se utilice bajo supervisión profesional, con criterios éticos claros y reconociendo sus limitaciones.
Terapias automatizadas: conveniencia vs contenido emocional
La investigación sobre chatbots y asistentes virtuales en salud mental muestra que pueden ofrecer apoyo accesible, disponible en todo momento y con bajo costo, lo que resulta útil para la gestión de síntomas leves y como complemento entre sesiones presenciales. Ensayos controlados han documentado reducciones en síntomas de depresión y ansiedad con su uso, así como buena aceptación y adherencia por parte de los usuarios. No obstante, las revisiones sistemáticas y estudios cualitativos señalan limitaciones importantes: la falta de empatía genuina, la dificultad para abordar casos complejos o situaciones de crisis, y el riesgo de sesgos algorítmicos que puedan comprometer la seguridad del paciente. Por ello, la literatura enfatiza que los chatbots deben entenderse como herramientas de apoyo y no como sustitutos de la atención profesional.
La relación terapeuta-paciente implica una alianza terapéutica y una comprensión del otro como ser individual y social no reproducible (aún) por las tecnologías disponibles.
Privacidad, ética y responsabilidad legal
Otro eje fundamental es el de la confidencialidad. A diferencia de un psicólogo, que está sujeto al secreto profesional y a marcos éticos claramente establecidos, la inteligencia artificial opera a través de sistemas y servidores cuya seguridad no siempre está garantizada. Además, muchas veces el usuario desconoce quién accede a sus datos y con qué fines se utilizan.
¿Qué ocurriría, por ejemplo, si una plataforma de IA comparte información sensible con fines comerciales y, como resultado de sus interacciones, el usuario comienza a recibir publicidad de medicamentos psicotrópicos? Este tipo de situaciones no solo vulneran la privacidad, sino que exponen al paciente a riesgos éticos y clínicos significativos.
Otro aspecto crítico a considerar es la responsabilidad frente al daño. En caso de que un diagnóstico automatizado resulte erróneo y perjudique al paciente, ¿quién asume la responsabilidad? ¿El desarrollador del sistema? ¿El profesional que utilizó la herramienta? ¿La institución que la promovió? Estas preguntas subrayan la necesidad urgente de contar con marcos legales y éticos robustos que regulen el uso de inteligencia artificial en contextos de salud mental. Ante la ausencia de estos marcos, la capacitación profesional sobre los riesgos y ventajas de la implementación de la IA en el quehacer terapéutico se vuelve imperiosa,
El valor del contacto humano en terapia
El corazón de la psicoterapia no está solo en palabras acertadas, sino en la presencia, el tono, la mirada y el intercambio emocional. Este vínculo se construye en momentos compartidos, gestos, empatía genuina. Son precisamente estos elementos los que la IA no puede reproducir, por más sofisticada que sea.
En una sesión donde el paciente rompe en llanto tras relatar una pérdida reciente, lo terapéutico no es solo lo que se dice, sino el estar ahí, validar las emociones, sostener con la presencia, tal vez ofrecer un pañuelo o permitir el silencio sin interrumpir. La IA no puede, ni debe, ocupar ese espacio.
Este vínculo humano es, además, el espacio donde el paciente aprende a confiar, a poner en palabras lo que duele, a reconocerse vulnerable sin temor. En contextos de salud, pero en particular en aquellos relacionados con la salud mental, estos aspectos relacionales son insustituibles.
Antes de comenzar a usar la IA, debemos detenernos a pensar
La inteligencia artificial puede ser una aliada poderosa en la práctica psicológica, siempre que se utilice con criterio ético, sentido común y supervisión clínica. Sus aportes son indudables: permite automatizar tareas administrativas, agilizar procesos, ampliar el acceso a herramientas terapéuticas entre sesiones por parte del paciente.
Sin embargo, su implementación debe estar siempre subordinada a una comprensión profunda de lo humano, de lo relacional y de los principios éticos que guían la práctica clínica. El riesgo no radica en la tecnología en sí, sino en la forma en que decidimos integrarla.
No se trata de elegir entre terapeutas o máquinas. La verdadera pregunta es cómo incorporar herramientas digitales que puedan acompañar y apuntalar —sin reemplazar— el trabajo terapéutico. En un campo donde la empatía, la escucha activa y el vínculo interpersonal son el núcleo del proceso de transformación, ninguna innovación tecnológica puede sustituir lo que ocurre en el encuentro humano.
El desafío es doble:
- por un lado, formar profesionales capaces de comprender el alcance y los límites de estas herramientas;
- por otro, resguardar aquello que las máquinas no pueden ofrecer: la presencia genuina, la ética del cuidado y la sensibilidad frente al sufrimiento.
Los humanos somos seres intrínsecamente sociales, como profesionales de la salud, tenemos el deber de resguardar aspectos del quehacer clínico desde una ética fundada en el cuidado del otro.
Porque la salud mental no se programa: se acompaña, se escucha y se construye en el vínculo humano.
Usos positivos de la IA en salud mental
- Seguimiento entre sesiones: aplicaciones que permiten registrar emociones o pensamientos diarios facilitan la continuidad del proceso terapéutico y ayudan a monitorear recaídas.
- Psicoeducación personalizada: chatbots diseñados éticamente pueden enseñar técnicas de relajación, gestión emocional o higiene del sueño como complemento a la terapia tradicional.
- Acceso en contextos desfavorables: en zonas rurales o con alta demanda, plataformas con IA pueden brindar contención inicial o derivar a servicios adecuados cuando no hay disponibilidad inmediata.
Usos negativos o riesgosos de la IA en salud mental
- Sustitución de la relación terapéutica: confiar exclusivamente en IA para tratar a personas en crisis o con cuadros clínicos complejos puede generar abandono emocional y aumentar el riesgo de diagnósticos o abordajes erróneos.
- Vulneración de la privacidad: herramientas que no garantizan la protección de datos pueden exponer información altamente sensible, afectando la confianza del paciente.
- Reproducción de sesgos: modelos entrenados con datos desbalanceados o aplicados a contextos para los que no fueron entrenados pueden ofrecer respuestas inapropiadas, dañando la experiencia terapéutica.
- Despersonalización del cuidado: un uso excesivo de herramientas automáticas puede alejar al terapeuta de la experiencia emocional del paciente, reduciendo el proceso a una lógica de eficiencia que ignora la singularidad del sufrimiento humano.
Recomendación ética ejemplificada
Un profesional del ámbito psicológico puede sugerir a su paciente el uso de una aplicación de registro emocional diario que haya sido desarrollada con metodologías validadas. La aplicación puede permitir al paciente reflexionar sobre sus estados afectivos entre sesiones y compartir esa información de forma segura con el terapeuta. Esta práctica podría mejorar conjuntamente la autoconciencia del paciente, facilita la planificación terapéutica y fortalece el vínculo clínico. Al mismo tiempo, debe ser indispensable clarificar en qué condiciones se utiliza: con consentimiento, respeto por la privacidad y entendimiento de que es un recurso complementario, nunca un reemplazo del tratamiento presencial ni del acompañamiento humano.
Diplomatura Universitaria en Inteligencia Artificial con Enfoque Humano
Una propuesta 100% online, certificada por la Universidad Abierta Interamericana, diseñada para profesionales que desean aplicar la inteligencia artificial con ética y sensibilidad en contextos de cuidado, educación y acompañamiento humano.
Bibliografía:
- Astill Wright, L., Moore, M., Reeves, S., Vallejos, E. P., & Morriss, R. (2025). Improving the Utility, Safety, and Ethical Use of a Passive Mood-Tracking App for People With Bipolar Disorder Using Coproduction: Qualitative Focus Group Study. JMIR Formative Research, 9, e65140. https://doi.org/10.2196/65140
- Bulten, W., Balkenhol, M., Belinga, J. A., Brilhante, A., Çakır, A., Egevad, L., Eklund, M., Farré, X., Geronatsiou, K., Molinié, V., Pereira, G., Roy, P., Saile, G., Salles, P., Schaafsma, E., Tschui, J., Vos, A. M., ISUP Pathology Imagebase Expert Panel, van Boven, H., Vink, R., … Litjens, G. (2021). Artificial intelligence assistance significantly improves Gleason grading of prostate biopsies by pathologists. Modern pathology: an official journal of the United States and Canadian Academy of Pathology, Inc, 34(3), 660–671. https://doi.org/10.1038/s41379-020-0640-y
- Inkster, B., Sarda, S., & Subramanian, V. (2018). Digital health management for mental health: Case study of a digital health platform to support mental health. JMIR Mental Health, 5(4), e10048. https://doi.org/10.2196/10048
- Shatte, A. B. R., Hutchinson, D. M., & Teague, S. J. (2019). Machine learning in mental health: A scoping review of methods and applications. Psychological Medicine, 49(9), 1426–1448. https://doi.org/10.1017/S0033291719000151
- London, A. J. (2019). Artificial intelligence and black‐box medical decisions: Accuracy versus explainability. Hastings Center Report, 49(1), 15–21. https://doi.org/10.1002/hast.973
- Inkster, B., Sarda, S., & Subramanian, V. (2018). Digital health management for mental health: Case study of a digital health platform to support mental health. JMIR Mental Health, 5(4), e10048. https://doi.org/10.2196/10048
- Fulmer, R., Joerin, A., Gentile, B., Lakerink, L., & Rauws, M. (2018). Using psychological artificial intelligence (Tess) to relieve symptoms of depression and anxiety: Randomized controlled trial. JMIR Mental Health, 5(4), e64. https://doi.org/10.2196/mental.9782
- Vaidyam, A. N., Wisniewski, H., Halamka, J. D., Kashavan, M. S., & Torous, J. B. (2019). Chatbots and conversational agents in mental health: A review of the psychiatric landscape. Canadian Journal of Psychiatry, 64(7), 456–464. https://doi.org/10.1177/0706743719828977
Cómo citar esta publicación: Calero, A. D. (2025). Inteligencia Artificial en salud mental: una mirada ética al vínculo terapeuta-paciente. Asociación Educar para el Desarrollo Humano. www.asociacioneducar.com/blog/inteligencia-artificial-en-salud-mental-una-mirada-etica-al-vinculo-terapeuta-paciente
Artículos relacionados
