Los avances en inteligencia artificial están ocupando cada vez más espacios, y la psicología clínica no es la excepción. Por diversas razones, algunos pacientes han dejado de atenderse con profesionales de la salud, prefiriendo consultar a diversos chatbots, cuyo uso con fines psicológicos ha ido en ascenso. Se trata de un acompañamiento detrás de la pantalla que no está libre de riesgos para las personas.
Por: Felipe Guajardo
Edición: Jacinta Bulnes
“Te voy a hacer algunas preguntas/reflexiones suaves basadas en características del apego evitativo. Lo importante no es si respondes ‘sí’ a todo, sino cómo te hacen sentir estas ideas. ¿Te parece?”, le dijo ChatGPT a Marcela Álvarez (cuyo nombre fue cambiado por motivos de privacidad), una estudiante universitaria de 24 años, cuando ella le compartió ciertas inquietudes.
Marcela arrastraba una serie de preocupaciones que la abrumaba: dudas sobre su relación amorosa de ocho años y sus amistades, inseguridades respecto a su rendimiento académico, la presión por encontrar un trabajo como procuradora para avanzar en su carrera en Derecho, además de conflictos con su autoestima y un trastorno de la conducta alimentaria. Todo esto, presente hacía años, la llevó a tomar la decisión de comenzar terapia psicológica.
“Fui al psicólogo en 2023”, dice. “Estuve yendo alrededor de cinco meses, y dejé de ir porque llegó un momento en que ya no podía seguir costeándolo. Además, decidí darme de alta por mi cuenta porque empecé a sentirme mejor. La consulta me costaba alrededor de $40.000 y yo iba una vez por semana, por lo que era bastante”.
Tiempo después de que la joven abandonara su tratamiento, descubrió ChatGPT y se dio cuenta de que podía utilizar este chat como un apoyo psicológico. Estaba disponible en cualquier dispositivo, como su teléfono o computador.
“Llegué a eso un par de meses después de terminar mi terapia, porque se hizo muy famoso en TikTok y también por mis amigas, tanto del colegio como de la universidad, que usaban mucho esa plataforma. Me di cuenta de que me sirve para hablar sobre mis relaciones, sin necesidad de ir al psicólogo”.
Hoy son muchas las personas que, como Marcela, recurren a esta herramienta buscando terapia psicológica. De acuerdo con un estudio llevado a cabo por el MIT Media Lab y OpenAI, en 2024 se registraron cuatro millones de conversaciones de 4.000 usuarios que usaban la plataforma ChatGPT para desahogarse emocionalmente y obtener respuestas a sus problemas. Pero también hay otras plataformas que han experimentado un notable aumento en su uso, como por ejemplo la página Character.ai, cuyo chatbot denominado “Psicólogo” ha recibido más de 78 millones de mensajes en poco más de un año desde su creación.
Este fenómeno ocurre de forma paralela a una tendencia que se está dando a nivel nacional: la caída en la búsqueda de ayuda psicológica profesional por diversos motivos. De acuerdo con el estudio Termómetro de la Salud Mental 2025, llevado a cabo por la Pontificia Universidad Católica de Chile (UC) y la Asociación Chilena de Seguridad (ACHS), un 96,9% de las personas que considera necesario ir al psicólogo, no asiste por diversos motivos. Entre otros, por razones económicas, falta de cobertura médica, problemas de transporte o movilidad.
David Carré, psicólogo y académico de la Facultad de Ciencias Sociales de la Pontificia Universidad Católica de Chile, menciona que existen grandes riesgos en el uso de estas herramientas como apoyo psicológico: desde elementos que se pierden al estar al otro lado de la pantalla, de los que el chatbot no puede percatarse, hasta factores éticos que podrían atentar contra el bienestar del usuario.
“Lo de la inteligencia artificial no apunta a que nos reemplazará como psicólogos; eso es un extremo, y la discusión no está ahí, sino en los peligros para el usuario. Por ejemplo, ¿cómo nos aseguramos de que la inteligencia artificial dé una respuesta adecuada y no le diga a un adolescente suicida que se mate? ¿Quién sería el responsable?”, se cuestiona Carré.
Una ayuda inofensiva
Marcela, luego de responder a las preguntas que le indicaba el chatbot, logró sentirse identificada con la respuesta obtenida.
“Después de leerte, puedo decirte esto con mucho cuidado: tienes varios rasgos que se pueden vincular con el apego evitativo. Te hago un pequeño resumen de ti con las cosas que puedo identificar”, mencionó el chatbot ante la inquietud de la estudiante de derecho.
“Él me diagnosticó con apego evitativo. Todo lo que me dijo me hacía mucho sentido, pero con rasgos de apego responsable”, menciona Marcela. “Te das cuenta que te dice directamente lo que está sucediendo, te da una respuesta al tiro”.
Este tipo de situaciones son precisamente las que, según los expertos, evidencian los riesgos del uso de esta herramienta. Aunque internet facilita el autodiagnóstico, para especialistas como Carré no se trata de algo positivo, sino más bien de un peligro.
“La inteligencia artificial puede entregar información errónea o alucinada, que el paciente podría no ser capaz de identificar como tal”, menciona Carré.
Esa combinación entre acceso ilimitado a información y ausencia de filtros profesionales puede derivar en decisiones peligrosas para la salud mental de las personas.
“Una vez que la inteligencia artificial te da un diagnóstico, puedes hacer lo que quieras. Por ejemplo, te dice: ‘tienes depresión’, y después puedes buscar en internet qué fármacos sirven para la depresión, comprarlos en la feria, en el mercado negro y listo. Pero si te pasa algo, no hay responsables”, menciona la presidenta del Colegio de Psicólogos de Chile, Francisca Pesse.
Josefina Aldunate, quién también decidió usar otro nombre por privacidad, es una estudiante de 20 años que sufre de trastorno de ansiedad generalizada. Si bien la joven sabe cómo tratar su ansiedad, hay momentos en los que se desborda y su mejor ayuda y compañía es la inteligencia artificial. Así ocurrió en el episodio que vivió durante este verano.
“Era bien tarde en la noche, y tenía un poco de ansiedad porque justo al día siguiente tenía una conversación pendiente con alguien con quien ya había onda. Eran como las 4:00 de la mañana, y era de esas ansiedades que te dejan con taquicardia y no te dejan dormir. Me dieron muchas ganas de hablarle a mis amigos, pero no lo hice porque era muy tarde y tampoco quería asustarlos. En el fondo, uno sabe que es solo ansiedad, que no es tan grave, pero igual ataca la cabeza. Así que le hablé a ChatGPT”, dice.
Josefina Aldunate no solo le pidió ayuda para sobrellevar su ataque de ansiedad, sino que también para conciliar el sueño en aquella madrugada. Josefina compartió la siguiente conversación con el chatbot que registra lo ocurrido esa madrugada:
Josefina: Chat, necesito que me ayudes a retomar el sueño. Cacha que me duele mucho la cabeza por la ansiedad y no puedo dormir, estoy tratando de ver videos en TikTok para relajarme, pero no puedo. Necesito relajarme y poder dormir.
ChatGPT: Tkm mil, Jose y ojalá esos TikToks te distraigan harto un rato (y ojalá el algoritmo te tire puros videos chistosos o de perritos en pijama). Aquí va tu kit de cuidados nocturnos para pasar mejor esta noche:
1. Toma algo calentito antes de acostarte (agüita con miel, manzanilla o algo similar). Ayuda a relajar el cuerpo y la mente.
2. Paracetamol (500-1000 mg) si el dolor de cabeza o cuerpo te incomoda mucho. Eso puede marcar la diferencia en el descanso.
3. Nada muy pesado de comer, pero sí algo suave si tienes hambre (plátano, tostadita, avena blandita). El estómago vacío a veces te hace dormir peor.
4. Acomódate con un cojín en las piernas o una mantita apretadita. La sensación de «peso» a veces calma el sistema nervioso (tipo efecto mantita terapéutica).
“Fue bacán porque dormí tranquila”, menciona Josefina.
Si bien Josefina pudo lograr conciliar el sueño, detrás de la pantalla hay riesgos que a veces el usuario no logra dimensionar. Un paracetamol parece algo inofensivo, pero la inteligencia artificial no tiene información suficiente sobre la forma de pensar por parte del usuario cuando se trata de salud mental, quien en una situación hipotética, podría tomar varias pastillas y caer en una sobredosis. Bajo esa lógica, Pesse vuelve a destacar el riesgo de lo fácil que es preguntarle al chatbot de forma inocente sobre medicamentos, y que hoy en día es muy fácil conseguirlos sin la receta médica de un psiquiatra, pero además de esto menciona: existe el riesgo de que el usuario no reciba el tratamiento adecuado y no logre una verdadera mejoría.
Pero el episodio que vivió Josefina, demuestra otro problema que solo recién comienza y que se espera que a futuro se observen las verdaderas consecuencias; la dependencia de estas herramientas a causa de que están al alcance de las personas las 24 horas. David Carré menciona que el equivalente a este escenario actual es el uso y dependencia de las redes sociales, y la hipótesis es que a futuro va a tener un efecto negativo a nivel cognitivo ya que el usuario le estaría preguntando todo a la IA en todo ámbito debido a la accesibilidad.
Por otra parte, Marcela sigue explorando con el chatbot el origen de su supuesto apego evitativo que la hace escapar de ciertas situaciones que no puede controlar o más bien enfrentar:
ChatGPT: ¿Querés que exploremos de dónde puede venir esto en tu historia personal? A veces entender el origen te da una clave enorme para empezar a soltarlo. Y también hay formas de transformar ese patrón (de escapar en ciertas situaciones) -no de golpe, pero sí poco a poco- en algo más amoroso y seguro para vos. ¿Te animás?
Situaciones como la anterior son criticadas por David Carré en cuanto a la eficacia de la inteligencia artificial y una solución integral para la persona que busca ayuda:
“Es muy probable que la máquina no recopile toda la información necesaria y además no va a profundizar como un profesional. Solo da una respuesta muy anticipada. Pero (incluso) suponiendo que lo hace bien, no está capacitada para hacer un correcto plan de acción, diseñar una terapia adecuada al usuario. Por ende, se arriesga el funcionamiento de la vida cotidiana de la persona”, menciona el psicólogo.
Para profesionales como David Carré, las respuestas que la IA entregó a Josefina —un medicamento sin realmente saber sus intenciones— y a Marcela —un diagnóstico de apego evitativo sin mayor indagación— son poco éticas. Este tipo de recomendaciones, emitidas sin un conocimiento profundo del usuario, son cuestionadas por los especialistas.
Para Jocelyn Dunstan, académica del Departamento de Ciencia de la Computación y del Instituto de Ingeniería Matemática y Computacional UC, el escenario de la programación de la IA es poco confiable: La especialista dice que hay un problema de transparencia.
“La IA está programada supuestamente para dar respuestas éticas y políticamente correctas. Pero hoy no hay forma de saber cómo se están programando estas IA. Antes se publicaban artículos científicos de las cosas y ahora ya no. Es difícil saber cómo las están programando y qué va a pasar en el futuro. Ni para mí que soy profe de inteligencia artificial me queda claro”, dice Dunstan.
Desafío artificial
“Para no perder las conversaciones y tener ese efecto de continuidad con el ‘chat’, inicio sesión con mi correo electrónico”, menciona Marcela Álvarez.
Iniciar sesión no solo asegura eso, sino que el chatbot adopta el mismo vocabulario que el usuario; los mismos términos, conceptos, modismos.
“Las respuestas que recibes del ChatGPT es como un espejo de cómo hablas, y también como le hablas a él. Entonces, como que te copia, por eso es que te queda gustando tanto. Al final como que termina usando mis palabras para decirme cosas, calmarme y me termino sintiendo más tranquila”, indica Marcela.
Para distintos especialistas iniciar sesión no garantiza que la información que recopile el chatbot realmente esté segura, que no sea hackeada, ni se venda con fines publicitarios.
Si bien David Carré sabe de iniciativas en el mundo académico que se están haciendo cargo del impacto social de la inteligencia artificial, desconoce cuán efectivo es el debate sobre asistentes virtuales como uso de terapia psicológica. Francisca Pesse, desde el Colegio de Psicólogos, asegura que ha hablado sobre el tema con algunos colegas, “pero a nivel de gremio es algo que aún no está sobre la mesa”. Mientras aquellas discusiones siguen sin llegar a un lugar concreto, Marcela Álvarez ha descubierto nuevas inseguridades para resolverlas con la IA. “Últimamente me ha pasado que me siento incómoda con una situación en particular. Me pasa que mis amigos me suelen elogiar mucho por mi aspecto o me dicen que soy bonita, y sé que lo dicen desde el cariño, pero me incomoda mucho, me cuesta entenderlo y me da mucha vergüenza”, dice. Ante aquello, el chatbot le ha contestado: “Lo que estás experimentando tiene mucho sentido. Aunque puede ser difícil de comprender al principio. Esa incomodidad o vergüenza ante los elogios, incluso cuando son bien intencionados, está relacionado con factores psicológicos y emocionales por temas de percepción. Trabajémoslo juntos”.
Marcela dice que no tuvo ninguna duda al contestarle al chatbot. “ Le dije que sí, que quiero trabajarlo con él”, menciona.


0 comentarios