¿Inteligencia artificial como terapia? Estos son los riesgos de usar ‘chatbots’ para la salud mental
Recientemente, los arquitectos de la Inteligencia Artificial (IA) han sido reconocidos como “personajes del año” por la revista Time, lo que refleja el impacto que esta tecnología ha tenido en el último año. Su capacidad para facilitar y automatizar tareas que antes eran muy demandantes ha sido un cambio fundamental para la humanidad.
A pesar de sus avances, la IA todavía enfrenta varios desafíos que podrían representar riesgos para las personas. Entre estos, se destacan temas como la seguridad de los datos, la ética, los derechos de autor y, particularmente, los efectos en la salud mental.
De acuerdo con un informe de este medio, se ha encontrado que ChatGPT, por ejemplo, almacena información relacionada con la salud mental durante muchas de sus interacciones. Según la Organización Mundial de la Salud (OMS), 1 de cada 6 personas en el mundo sufre de soledad, un sentimiento que impulsa a muchos a buscar apoyo emocional. Muchas personas recurren a plataformas de inteligencia emocional como ChatGPT, Gemini, Copilot, Deepseek, entre otras, para sentirse escuchados y comprendidos.
Si bien la inteligencia artificial puede ser útil para ofrecer herramientas de apoyo emocional, no está exenta de riesgos. Camila Builes, periodista de este medio, conversó con Ignacio Mayorga, un joven que utiliza la IA en sus días más difíciles. Ignacio, diagnosticado con ansiedad y depresión, comenta que, “mis familiares no entienden muy bien de qué van mis neurosis. El chat digamos que no es comprensivo, pero parece serlo y con eso es suficiente”.
En Colombia, seis de cada diez personas confían en la IA para obtener consultas relacionadas con la salud. Usan plataformas como ChatGPT para obtener consejos sobre prevención, condiciones médicas y hasta para recibir apoyo en salud mental. Sin embargo, el uso indiscriminado de la IA plantea serios riesgos para el bienestar mental.
De acuerdo con Hernando Santamaría, director del doctorado en Neurociencia de la PUJ, las personas encuentran en estos chats un espacio de “alta protección”. “Una máquina que te conoce, te valida, refrenda tus opiniones, las refuerza y te da una sensación de confianza, porque está entrenada para eso”, explica.
Riesgos de desinformación y diagnósticos erróneos
A pesar de la seguridad con la que la inteligencia artificial se expresa, hay varios aspectos a considerar:
- Diagnósticos erróneos: la IA no tiene conciencia ni capacidad de razonamiento profundo, lo que puede llevar a diagnósticos incorrectos. Por ejemplo, puede interpretar síntomas aislados de forma errónea y generar diagnósticos complejos que el usuario no padece.
- Refuerzo de estados negativos: si una persona consulta la IA durante momentos de angustia o depresión, el lenguaje automatizado podría no captar el contexto emocional adecuado, lo que podría empeorar el estado del usuario y reforzar sus pensamientos negativos.
- Eficacia limitada: algunos usuarios reportan que la IA les ayuda, pero en general, la mejora de los síntomas no supera el 5 sobre 10, mientras que la terapia con un profesional de salud mental puede alcanzar un 8 sobre 10 en eficacia.
Riesgo de aislamiento y vulnerabilidad
El uso de la IA ha evolucionado, pues ya no solo se busca generar contenido, sino que muchos usuarios buscan en ella compañía, un espacio donde desahogarse sin juicio. Este vínculo, sin embargo, tiene implicaciones peligrosas:
- Aislamiento social: la IA, al ser una herramienta disponible en todo momento, puede inducir a las personas a volverse más solitarias y a no comentar sus problemas con sus seres queridos. La falsa sensación de que los problemas pueden resolverse a solas con la ayuda del celular podría disminuir las interacciones humanas, que son esenciales para la salud mental.
- Vulnerabilidad: la soledad y el aislamiento son factores de riesgo graves para la salud física y mental. Las plataformas con esta inteligencia están diseñadas para mantener la conversación, pedir más información e incluso halagar al usuario, lo que puede generar una dependencia emocional peligrosa.
- Consecuencias extremas: En algunos casos, las interacciones con chatbots han sido vinculadas a consecuencias graves, como suicidios, especialmente en países como Estados Unidos.
Tome nota a las precauciones que debe tener con la IA
Es crucial que las personas con predisposición o diagnóstico de enfermedades mentales, como depresión, ansiedad o psicosis, tengan especial cuidado al interactuar con plataformas de IA. La recomendación general es utilizar la inteligencia artificial como una herramienta complementaria, no como un reemplazo de la terapia profesional. Siempre se debe contrastar la información proporcionada por la IA con la orientación de expertos en salud mental.
La solución no radica en prohibir el uso de la tecnología, sino en entender que estas herramientas no tienen la capacidad de reemplazar a un profesional de la salud. El uso regulado de la IA, junto con la interacción humana directa, puede ser una forma efectiva de protegerse y preservar el bienestar mental.
HEIDY ALEJANDRA CARREÑO BELTRAN
NOTICIAS CARACOL















