“Muchos de mis pacientes me han confesado que, cuando se sienten en crisis, le mandan un mensaje a ChatGPT o acuden al asistente con inteligencia artificial (IA) de WhatsApp“, aseguró Frania León George, terapeuta y maestra en psicoterapia.
Elevenha, usuaria argentina de Reddit, confesó en octubre de 2024 que había padecido de ansiedad por tres años, por lo que acudía al psicólogo cuando necesitaba hablar con alguien; sin embargo, encontró un nuevo aliado en la IA.
“ChatGPT se ha convertido en ese alguien al que puedo consultar y contar mis cosas en cualquier momento”, escribió en la red de foros y preguntó: “¿Alguien más lo hace?“.
La publicación de Elevenha recibió al menos 179 respuestas de usuarios que, en su mayoría, declararon haber cambiado la terapia psicológica por conversaciones con robots conversacionales de inteligencia artificial.
“Tengo un problema de una relación tóxica y, básicamente, he sentido más mejora con ChatGPT que con la psicóloga, porque prácticamente es tener alguien al lado”, respondió Arielinho1991.
Tomatecute dijo: “Muchas veces necesito un consejo ya o poder responder algo y no a sobrepensar. Entonces le envío contexto y cómo podría responder ese mensaje o qué hacer en tal situación. La verdad es de bastante ayuda”.
¿Qué pasa si cambias al psicólogo por ChatGPT?
Frania León George, licenciada en psicología por la Universidad Gestalt, señaló en entrevista con que reemplazar a la terapia psicológica por consultas a herramientas como ChatGPT o Gemini perjudican a la capacidad de solución de problemas de los jóvenes.
“No lo considero adecuado porque perdemos toda relación social para buscar soluciones, pero a la vez también perdemos nuestra capacidad de pensamiento crítico para seguir buscando soluciones”.
Frania León George, psicóloga
Desde su punto de vista, la sobredependencia a herramientas de inteligencia artificial como ChatGPT están haciendo daño a las juventudes, pues está llevándolas a no pensar y, simplemente buscar lo que dice la IA para aplicarlo directamente.
“Hay que buscar alguna forma en la que puedan seguir utilizándola como una herramienta, pero que esta herramienta sea válida para ellos y que no les haga más daño”, señaló.
¿Cuál es el problema con las inteligencias artificiales generativas?
Uno de los posibles problemas al momento de consultar a la IA como apoyo psicológico es que estas herramientas no cuentan con una especialización ni las herramientas suficientes para apoyar profesionalmente a los pacientes.
“A pesar de que hay muchas personas que utilizan ChatGPT como un terapeuta de forma independiente, no cuenta con las herramientas suficientes para entonces tratar este modelo cognitivo que tenemos los seres humanos”.
Frania León George, psicóloga
A partir de su experiencia, la especialista señaló que si una persona acude a una IA en un momento de desmotivación, cansancio o decaimiento, la tecnología puede ofrecer respuestas como: “Descansa, todo va a estar bien”.
“Realmente no te está ayudando a identificar estos pensamientos o ideologías para modificarlas”, remató Frania León George.
Además, Frania León precisó: “Tú le puedes preguntar qué clima está haciendo y te lo va a contestar, porque los modelos de lenguaje grandes como Gemini, de Google, están enfocados en la información que recaban de internet”, dijo la experta.
De esta forma, León George consideró que pueden existir sesgos en las respuestas de la inteligencia artificial. “Las fuentes pueden ser páginas que a veces ni siquiera consultan las fuentes reales”.
“Al final de cuentas, es un algoritmo y si tú le vas preguntando lo que sea, tú vas alimentándolo y te va a responder lo que quieres escuchar. En un proceso terapéutico, esto no es así“, destacó.
¿La IA podría tener beneficios en psicología?
La IA también podría convertirse en una herramienta en psicología para aliviar la saturación del sistema público de salud mental y ofrecer apoyo emocional cotidiano, según Mireia Cabero, profesora colaboradora de Psicología en la Universitat Oberta de Catalunya (UOC).
Según la experta, la inteligencia artificial puede usarse para hacer un primer filtro de urgencia en casos graves, derivar a especialistas y apoyar unidades como las de prevención del suicidio o trastornos juveniles severos, de acuerdo con la experta.
La profesora de la UOC también planteó que una IA bien diseñada podría ofrecer acompañamiento diario, especialmente en procesos agravados por la soledad. Una voz familiar, experta y amable podría ser reconfortante en situaciones de duelo, trauma o crisis personales.
Además, la IA podría facilitar el autoconocimiento al ayudar a reflexionar sobre emociones, conflictos o malestares. “Puede convertirse en un apoyo reflexivo que permita replantear estrategias ante dificultades emocionales”, señaló Cabero.
Rubén Nieto, también profesor de la UOC, amplía este enfoque con aplicaciones en el ámbito profesional. Por ejemplo, menciona que la inteligencia artificial puede ayudar a los psicólogos a buscar y organizar información para la investigación, siempre bajo supervisión.
“Nos preguntamos si los instrumentos clásicos de evaluación de personalidad pueden aplicarse para analizar si ChatGPT tiene personalidad propia o rasgos identificables”, comenta.
¿Qué limitaciones tiene la inteligencia artificial?
A pesar de su potencial, los expertos reconocen que la IA aún no puede replicar cualidades humanas como la empatía profunda, la intuición o la lectura emocional entre líneas.
“Estas habilidades se desarrollan con años de experiencia terapéutica, y aún no hay certeza de que la IA pueda igualarlas”, aclara Cabero.
Por su parte, Pablo Vallejo, profesor de la UOC, señaló que la IA actual opera en el nivel de machine learning, donde los algoritmos aprenden patrones a partir de los datos que les damos.
Aún no se ha llegado al deep learning más avanzado, que permitiría que la IA decidiera qué datos usar sin intervención humana. “Seguimos siendo los humanos quienes decidimos cómo debe entrenarse la IA”, concluyó Vallejo.