En plena revolución digital se ha abierto debate sobre si es plausible o seguro usar ChatGPT como terapeuta. Como psicóloga he revisado investigaciones científicas y declaraciones de organizaciones profesionales para poder explicar qué respaldo existe, cuáles son las ventajas reales, y también los límites éticos, clínicos y técnicos que emergen.
Y es que están surgiendo estudios que analizan a ChatGPT como terapeuta, y me lleva a reflexionar: ¿puede realmente la inteligencia artificial reemplazar o complementar la intervención humana en salud mental? ¡Te lo cuento!
¿Qué significa utilizar ChatGPT como herramienta de intervención terapéutica?
Cuando hablamos de ChatGPT como terapeuta nos referimos al uso del modelo de lenguaje para sostener diálogos con personas que buscan apoyo emocional, explorar pensamientos, procesar estados de ánimo o incluso recibir sugerencias de autocuidado.
Quiero ser clara: esto no es terapia profesional. La terapia implica un profesional licenciado, con formación clínica, supervisión y un marco ético‑legal. En cambio, ChatGPT puede ofrecer acompañamiento, generar preguntas de exploración y sugerir técnicas sencillas, pero no reemplaza la evaluación de un profesional.
Apoyo emocional vs. terapia profesional
En la terapia convencional, el profesional puede evaluar riesgos como la ideación suicida, realizar diagnóstico diferencial y ofrecer un acompañamiento basado en evidencia y supervisión ética. Sin emabrgo, la IA, por sí sola, no cumple esos requisitos.
Por eso, cuando alguien dice “voy a usar ChatGPT como terapeuta”, siempre les explico que se trata de autoayuda o acompañamiento digital, no de psicoterapia clínica.
Evidencia científica actual sobre chatbots e IA en salud mental
Para valorar el potencial de ChatGPT en salud mental, revisé estudios sobre chatbots, IA conversacional y terapias digitales.
Resultados sobre chatbots genéricos
Un metaanálisis de 18 ensayos aleatorizados encontró mejoras modestas en depresión y ansiedad tras intervenciones de chatbots durante unas pocas semanas, pero a los 3 meses no se detectaron efectos sostenibles. Otra revisión sistemática concluyó que la evidencia era “débil” para afirmar efectos clínicamente relevantes.
En un ensayo con 285 personas que usaron un chatbot temático durante 10 días, se observaron mejoras en alfabetización en salud mental, intención de autocuidado y síntomas, pero no hubo efectos a un mes.
Estudios específicos con ChatGPT y modelos generativos
Analizando usuarios reales, se encontró que ChatGPT se empleaba para gestión de salud mental, autoexploración y acompañamiento entre sesiones. En ejercicios simulados de terapia de pareja, las respuestas de ChatGPT fueron valoradas más positivamente que las de terapeutas humanos, aunque esto no significa que el modelo sea terapeuta realmente.
Interpretación de los datos
Los chatbots muestran potencial, especialmente en accesibilidad y disponibilidad inmediata, pero los efectos clínicos son modestos y la evidencia de largo plazo es débil. Hoy no existe respaldo robusto para que un modelo como ChatGPT cumpla todas las funciones de un terapeuta cualificado.
Beneficios potenciales del uso de ChatGPT en salud mental
Aunque no sustituye la terapia profesional, el uso de ChatGPT como herramienta digital de apoyo puede aportar ciertas ventajas:
- Accesibilidad y escala. En contextos con escasez de profesionales, una IA conversacional puede ofrecer una primera línea de interacción y reducir la barrera de acceso.
- Complemento entre sesiones. Para quienes ya reciben terapia, ChatGPT puede ser un recurso útil entre sesiones para registrar ideas, reflexionar sobre lo trabajado, ensayar técnicas de autocuidado o explorar pensamientos con bajo coste.
- Apoyo temprano y promoción de autocuidado. Los estudios muestran que los chatbots pueden mejorar la alfabetización en salud mental y fomentar conductas de autocuidado, especialmente en el corto plazo. Esto sugiere un papel de IA psicología de apoyo, más que terapia clínica.
Límites, riesgos y aspectos éticos críticos
El uso de ChatGPT como terapeuta plantea desafíos importantes.
- Ausencia de licencia, confidencialidad y regulación. ChatGPT no es un terapeuta licenciado. No está sujeto a supervisión clínica, ni hay garantía de confidencialidad profesional. Algunos estudios advierten que los chatbots violan estándares éticos de prácticas profesionales de salud mental.
- Manejo de crisis, emergencia y diagnóstico. La IA actual no puede hacer diagnósticos clínicos complejos ni gestionar crisis suicidas de manera segura. Solo alrededor del 44 % de chatbots analizados respondían de forma adecuada ante ideación suicida.
- Riesgo de dependencia, reforzamiento de creencias erróneas y “pseudoempatía”. ChatGPT puede generar respuestas empáticas superficiales, pero carece de juicio clínico y experiencia humana. Existe riesgo de reforzar creencias negativas o crear dependencia con la herramienta.
- Sesgos, privacidad y cumplimiento. Como cualquier IA, ChatGPT puede presentar sesgos culturales, lingüísticos o de género, además de implicar riesgos de privacidad y legales.
- No todos los usuarios son adecuados. Personas con trastornos graves requieren intervención humana directa. El uso exclusivo de ChatGPT como terapeuta podría retrasar la atención adecuada.
Usos apropiados e inapropiados de ChatGPT como herramienta de apoyo
Cuándo puede tener sentido
- Personas con síntomas leves a moderados que buscan apoyo entre sesiones.
- Promoción de salud mental, alfabetización digital, autocuidado y bienestar.
- Como recurso complementario, no como sustituto.
Cuándo no conviene
- Personas en crisis activa, ideación suicida o trastornos graves.
- Evitar acudir a un profesional por coste o comodidad.
- Como única forma de terapia sin supervisión humana.
Recomendaciones para su empleo responsable
- Dejar claro que la IA no es un terapeuta licenciado.
- Garantizar rutas de derivación a profesionales si se identifica riesgo.
- Usar la IA como herramienta complementaria, dentro de un ecosistema que incluya humanos.
- Verificar privacidad y seguridad de los datos.
Postura de organizaciones profesionales
La American Psychological Association (APA) ha solicitado investigación sobre riesgos de los chatbots de IA en salud mental, destacando malos usos, falta de licencia y supuesta “terapia” no regulada.
Otras asociaciones, como la American Psychoanalytic Association y la University of Washington School of Medicine, advierten que los chatbots actuales no están probados ni regulados y que su despliegue autónomo en salud mental no es seguro.
En resumen, la postura profesional actual es de cautela, reconociendo el potencial de la IA, pero subrayando que no sustituye al profesional humano.
Futuro de la IA en salud mental y terapia
Mirando hacia adelante, el uso de ChatGPT y modelos similares podría evolucionar así:
- Hibridación humano‑IA. Lo más probable es ver modelos donde la IA actúe como apoyo entre sesiones y el terapeuta humano continúe a cargo del caso clínico. Esto permitiría ampliar alcance y accesibilidad.
- Mejora de especialización y regulación. Con estudios clínicos, regulación y supervisión, la calidad de las intervenciones de IA podría elevarse.
- Investigación y evidencia de largo plazo. Faltan ensayos controlados con modelos avanzados y mediciones sostenidas en el tiempo.
- Precaución sobre expectativas. Aunque algunos hallazgos sugieren que ChatGPT ofrece respuestas valoradas comparables a terapeutas en ejercicios controlados, no reemplaza la terapia humana.
En definitiva, plantear ChatGPT como terapeuta abre un horizonte interesante dentro de la IA psicología, pero con matices fundamentales. La evidencia indica que los chatbots pueden ofrecer apoyo, mejorar autocuidados y alfabetización en salud mental, pero no sustituyen la terapia profesional ni asumen sus responsabilidades éticas y clínicas.
Como psicóloga, recomiendo usar ChatGPT como complemento: accesible y útil para autocuidado, pero siempre manteniendo la puerta abierta a la intervención humana cuando los síntomas son persistentes, graves o existe algún riesgo.
Fuentes citadas
- Effectiveness and Safety of Using Chatbots to Improve Mental Health: Systematic Review and Meta‑Analysis. PubMed
- The therapeutic effectiveness of artificial intelligence‑based chatbots in alleviation of depressive and anxiety symptoms in short‑course treatments. PubMed
- Effectiveness of Topic‑Based Chatbots on Mental Health Self‑Care and Mental Well‑Being: Randomized Controlled Trial. PubMed
- «Shaping ChatGPT into my Digital Therapist»: A thematic analysis of social media discourse on using generative artificial intelligence for mental health PubMed
- New study: AI chatbots systematically violate mental health ethics standards. Brown University.
- Using ChatGPT for Therapy: Risks, Limits, and Safer Alternatives Explained. Healthline
- APA Calls for Investigation into Unreasonable Risk of Injury Posed by Generative Artificial Intelligence Chatbots as Consumer Products. APA Services Update.
- Why ChatGPT Shouldn’t Be Your Therapist. Scientific American
¿Me compartes? 💖
Ayuda a que el contenido llegue más lejos ✈️
¿Quieres ser el primero en conocer los misterios de la Psicología?
Únete a la tribu de Neurita, con la newsletter y disfruta de supercontenidos exclusivos.

Deja tu comentario