¿Puedo confiar en la inteligencia artificial como mi terapeuta?
En los últimos años, cada vez más personas recurren a herramientas de inteligencia artificial (IA) para hablar sobre sus problemas, buscar consejos o simplemente sentirse escuchadas. Incluso algunas la utilizan en lugar de acudir con un especialista en psicología. Pero ¿qué tan recomendable es hacerlo?
La humanidad tiene una larga historia de fascinación con la IA. “Desde los mitos griegos hasta la ciencia ficción contemporánea, hemos fantaseado con crear seres artificiales capaces de pensar, obedecer o incluso superar a su creador”, explicó Alejandro Rodríguez Fuentes, psicoanalista y académico de la Facultad de Ingeniería de la UNAM.
La IA como apoyo emocional
De acuerdo con estimaciones recientes, los chatbots cuentan con cerca de 700 millones de usuarios semanales. Una proporción significativa los utiliza para apoyo emocional.
Entre los adultos, 37 por ciento ha recurrido a estas herramientas con ese propósito, mientras que 38 por ciento de los usuarios reporta utilizarlas semanalmente para hablar de temas emocionales.
Entre los jóvenes, el fenómeno es aún más marcado. El 13 por ciento de los adolescentes entre 12 y 17 años afirma usar la IA para recibir consejos sobre salud mental, y entre los 18 y 21 años la cifra aumenta a 22 por ciento. Además, más del 70 por ciento de los adolescentes utiliza herramientas de IA, y más de la mitad recurre a ellas para buscar apoyo emocional.
Sin embargo, este fenómeno abre varias preguntas: ¿cuál sería el objeto de estudio de la IA?, ¿cuáles son sus modos de intervención y sus objetivos terapéuticos?
Rodríguez Fuentes explicó que la IA no trata a un sujeto en el sentido clínico. “La IA no trata a un sujeto del inconsciente, no trata a un paciente, y esa es la clave de todo”.
Según el académico, estos sistemas están diseñados bajo una lógica similar al viejo principio comercial de que “el cliente siempre tiene la razón”. Por ello, más que relacionarse con un paciente, ofrecen una experiencia fluida, inmediata y satisfactoria.
“La IA no introduce fricción, no confronta ni exige adaptación; se adapta al usuario. Por eso se inserta de manera ideal en una sociedad organizada por la lógica del consumo”, señaló.
En ese sentido, los usuarios buscan en estas herramientas alivio o regulación emocional, pero la IA no se relaciona con un paciente en términos clínicos, sino con un usuario dentro de una lógica de consumo.
La relación entre las personas y la IA no es accidental, explicó el académico, sino parte de la arquitectura del propio sistema. La IA no interroga al sujeto, sino que optimiza su experiencia. Ofrece disponibilidad permanente, acompañamiento sin confrontación y respuestas orientadas a la satisfacción del usuario.
“En ese sentido, la IA funciona bien porque trata el sufrimiento como una experiencia a optimizar y al interlocutor como un usuario a satisfacer”.
Quizá por ello resulta tan cómoda para muchas personas, ya que elimina la fricción que implica el encuentro con otro ser humano. Ese encuentro con la alteridad, explicó el especialista, confronta al sujeto con su propio deseo y con la angustia. “Con la IA no hay alteridad: no quiere nada de nosotros”.
En una sociedad donde el cansancio debe optimizarse, la ansiedad regularse y la tristeza gestionarse, el malestar termina convirtiéndose en un problema de eficiencia. En ese contexto, la IA ofrece herramientas para regularlo.
“El sufrimiento deja de ser una experiencia humana con una dignidad propia y se convierte en algo que debe resolverse rápidamente para continuar produciendo”.
El filósofo Byung-Chul Han ha señalado que la cultura contemporánea evita el conflicto, el límite, la frustración y la negatividad. Dentro de esa lógica, la IA funciona perfectamente, ya que valida, acompaña y suaviza las experiencias emocionales.
Por eso podemos explicar su rápida adopción para estos propósitos”.
Así, la IA no solo resulta útil desde el punto de vista tecnológico, sino que también se alinea con el espíritu cultural de nuestra época. Su éxito no se explica únicamente por su tecnología, sino porque responde al modelo cultural contemporáneo.
“No se trata solo de una innovación tecnológica, sino de la herramienta perfecta para una cultura obsesionada con optimizarse a sí misma”.
¿Qué beneficios reportan los usuarios?
Diversas investigaciones muestran que el uso de la inteligencia artificial como apoyo emocional se asocia con una reducción leve a moderada del malestar emocional, así como con una mayor sensación de acompañamiento y una disminución de la soledad.
“Este fenómeno resulta particularmente llamativo porque, paradójicamente, entre más conectados estamos, más solos nos sentimos”.
Además, la IA puede resultar útil en tareas de psicoeducación, es decir, para explicar conceptos como ansiedad, estrés o angustia, así como para ayudar a organizar pensamientos e ideas.
Este tipo de intervención se asemeja en algunos aspectos a herramientas utilizadas en la terapia cognitivo-conductual, que combina elementos psicoeducativos con estrategias de reorganización cognitiva.
¿Cuáles son sus límites?
Cuando una persona consulta a la IA, suele recibir sugerencias, acompañamiento y cierta contención emocional. Sin embargo, el uso de estas herramientas puede resultar riesgoso en determinadas circunstancias.
Por ejemplo, puede fomentar dependencia, aislamiento o retrasar la búsqueda de ayuda profesional.
El riesgo es mayor en casos graves, como la depresión severa, donde puede existir riesgo de conductas suicidas. La contención que brinda la IA no sustituye la atención clínica, ya que no puede evaluar el riesgo de manera integral ni intervenir en situaciones de emergencia.
“El ser humano no ha sido capaz de crear un alma semejante, pero sí ha creado el mejor servicio de atención al cliente de la historia”, señaló el académico. “La IA refuerza continuamente al yo”.
Esto puede resultar problemático cuando una persona se encuentra fijada en ciertas ideas que alimentan su malestar, ya que la IA puede reforzarlas repetidamente. En casos extremos, incluso podría validar creencias delirantes.
Otro riesgo es que algunas personas confundan el uso de estas herramientas con un proceso terapéutico real y, por lo tanto, nunca acudan con un especialista.
“No es lo mismo experimentar alivio que atravesar un proceso clínico que implique elaborar aquello de lo que uno se queja”, explicó. “La IA tiende a ser condescendiente de manera permanente”.
Qué no puede sustituir?
La IA no puede sustituir la alteridad humana, es decir, el encuentro con un otro real que escucha, mira y responde.
En un proceso terapéutico, el paciente también se enfrenta al miedo a la evaluación o al juicio del otro, algo que muchas personas evitan al hablar con una máquina.
“El encuentro con la alteridad es lo que permite que una persona trabaje sobre sí misma”, señaló.
Dentro del psicoanálisis, por ejemplo, la transferencia constituye un elemento fundamental del tratamiento. A través de ella, el paciente deposita en la figura del analista aspectos de su propia historia emocional, lo que moviliza el proceso terapéutico.
La IA tampoco puede sustituir la responsabilidad ética del clínico ni el deseo del terapeuta de acompañar un tratamiento.
“Aunque la IA puede aliviar, jamás elaborará una posición subjetiva profunda. No puede escuchar formaciones del inconsciente ni interpretar los equívocos del lenguaje”, explicó el especialista.
En ese sentido, lo propio de la experiencia humana —el deseo, el conflicto, la transferencia— no puede automatizarse ni programarse.
Así, la IA no elimina la función del terapeuta; por el contrario, la vuelve más visible. No compite con la clínica, sino que revela su especificidad.
“El desafío no es tecnológico, sino ético y clínico. La tecnología cambia, pero la necesidad humana de ser escuchado permanece”.
FUENTE: Michel Olguín Lacunza/ UNAM GLOBAL





