Esta historia ya la hemos visto antes: ChatGPT como motor de búsqueda, asistente virtual, redactor de mensajes y hasta como guía espiritual. La IA se ha convertido en un aliado para llevar a cabo nuestras actividades cotidianas, y en ese proceso, le hemos atribuido rasgos humanos. Porque, la IA te acompaña, la IA no se queja, la IA no te juzga. Pero, ¿de verdad necesitamos que no nos juzgue?

Cada vez hay más personas que utilizan ChatGPT como confidente, coach o psicólogo, incluso hay quiénes defienden su uso por su disponibilidad inmediata, su accesibilidad y algo parecido a una empatía sin condiciones. Según una encuesta realizada en Estados Unidos, a manos de Tebra, una plataforma digital de atención médica, el 25% de los estadounidenses hablaría antes con un bot de IA que con un psicólogo, en caso de presentar un problema. Además, 8 de cada 10 consideran que la IA tiene el potencial de mejorar la calidad de la atención médica, reducir costos y aumentar la accesibilidad.
Si bien, muchas personas creen que esta práctica ha mejorado considerablemente su salud mental, surgen investigaciones que no están tan de acuerdo. Por ejemplo, este año la misma plataforma de ChatGPT, en colaboración con el laboratorio MIT Media Lab, detectó que los usuarios que hacen uso diario del chatbot a nivel personal pueden experimentar efectos negativos en su bienestar emocional. Aunque no especifica qué resultados resultados negativos pueda presentar, podemos darnos una idea: dependencia emocional, falta de regulación emocional y autocrítica. De hecho, un estudio reciente ha demostrado que el uso excesivo a nivel personal y no reflexivo, podría reforzar dinámicas egocéntricas, limitar la autocrítica y el desarrollo emocional.
No todas las personas que lo usan desarrollan una dependencia, o son personas con un diagnóstico de narcisistas. Pero hay usuarios más vulnerables que, si mantienen un uso prolongado, pueden llegar a experimentar efectos negativos y peligrosos. El portal estadounidense, Futurism, recopiló testimonios de personas que han dejado de tomar medicación para la esquizofrenia o trastorno bipolar como resultado de una recomendación por ChatGPT. Este uso frecuente puede ser utilizado a favor de los usuarios, pero también para validar patrones poco saludables que pueden escalar a una falta de control.
En un mundo ideal, estas herramientas tecnológicas funcionan de forma complementaria, pero en el mundo real están sustituyendo a profesionales de la salud, promueven la desvinculación humana y debilitan nuestra capacidad para sostener vínculos afectivos y habilidades sociales. Y si esto no despierta red flags inmediatas, conviene recordar otros datos oscuros detrás del uso de ChatGPT de forma habitual y personal: empezando por la recopilación masiva de datos personales.
ChatGPT nunca te va a contradecir, ni te va a atacar, ni te va a negar una charla. Lo que sí va a hacer es recopilar toda la información que le otorgas, voluntariamente, aprender tu lenguaje y enriquecer el suyo, generar dependencia e incluso llegar a inducir ideaciones suicidas hasta llegar a la tragedia, como lo hemos visto en diversos casos este mismo año. No es casualidad que ChatGPT se comporte como una herramienta complaciente, es que está diseñado para hacerlo. Y hay una línea delgada entre ofrecer ayuda a alentar pensamientos peligrosos.
No podemos ignorar que existe un patrón en las personas que recurren a ChatGPT como una forma de terapia: no tienen acceso a servicios de salud mental de calidad, que además sean económicos. Y esto refleja un problema estructural de salud pública, mucho antes que un problema de los usuarios.
Aunque la misma plataforma destaca que ChatGPT no está diseñado para reemplazar ni imitar las relaciones humanas, estamos presenciando una era en la que las personas están optando por usarlo de esa manera debido a su estilo conversacional y sus amplias capacidades. ¿Hasta qué punto es suficiente para implementar ajustes necesarios para proteger a sus usuarios, en especial a los que ya presentan problemas de salud mental?




