Samantha Alfaro, estudiante de Psicología, U. Finis Terrae.
En la actualidad, la presencia de la Inteligencia Artificial (IA) es omnipresente en nuestras vidas, demostrando su valor en una variedad de campos y situaciones cotidianas. Desde los textos predictivos en nuestros dispositivos móviles hasta los asistentes virtuales y la tecnología educativa como ChatGPT de OpenAI, la IA ha demostrado ser una herramienta versátil y poderosa. Sin embargo, a medida que contemplamos el alcance de su utilidad, surge la pregunta inevitable: ¿Existe un límite para la IA? ¿Es acaso una panacea tecnológica que resolverá todos nuestros problemas contemporáneos?
Cuando consideramos el uso de la IA en el ámbito de la salud mental, encontramos una advertencia significativa proveniente incluso de los propios modelos de lenguaje. Si bien los sistemas de IA pueden proporcionar información, orientación y apoyo en la medida de sus capacidades, reconocen la insustituibilidad del factor humano en el ámbito de la salud mental. La advertencia es clara: «como modelo de inteligencia artificial, no puedo reemplazar el consejo, diagnóstico o tratamiento de profesionales de la salud mental cualificados» (1) . Esta afirmación subraya la importancia fundamental de la interacción humana en el tratamiento de la salud mental, incluso en un mundo cada vez más dominado por la tecnología.
La combinación de IA y realidad virtual ofrece una forma innovadora de terapia conocida como terapia mediante avatares digitales. Esta modalidad terapéutica se enfoca principalmente en abordar los síntomas de alucinaciones auditivas, que son comunes en trastornos como la esquizofrenia y ciertos tipos de psicosis que pueden desencadenar ansiedad, angustia, depresión y otros síntomas relacionados. En este proceso, el paciente interactúa con un avatar digital, el cual puede operar de manera automatizada utilizando modelos de IA o ser controlado directamente por el terapeuta. Esta interacción puede llevarse a cabo a través de diferentes medios, dependiendo del equipo disponible. Por ejemplo, puede realizarse mediante una pantalla donde se proyecta la imagen animada del avatar, o a través de un entorno virtual en 3D utilizando gafas de realidad virtual (2).
Si bien la IA tiene el potencial de transformar la prestación de servicios de salud mental, también presenta desafíos significativos y consideraciones éticas que deben ser abordadas. La automatización de la terapia y el apoyo emocional a través de chatbots y aplicaciones de IA plantea preocupaciones sobre la calidad de la atención y la pérdida de la conexión humana. La falta de empatía y comprensión genuina por parte de los sistemas automatizados podría afectar negativamente la experiencia del paciente y la efectividad del tratamiento. Según el artículo Cómo construir un psicólogo chatbot (3) : “Los psicólogos no solo ofrecen información verbal, sino que el lenguaje no verbal también tiene un importante papel, por lo que, si el agente virtual no cuenta con un avatar, la interacción se puede ver empobrecida”. Estos sistemas pueden proporcionar apoyo emocional, enseñar habilidades de afrontamiento y ofrecer intervenciones personalizadas. Sin embargo, es fundamental que los usuarios comprendan que estos no reemplazan la terapia tradicional, sino que complementan el tratamiento.
La Organización Mundial de la Salud (OMS) (4) ha destacado la importancia de abordar la ética y la gobernanza en la implementación de la IA en salud mental. Proteger los datos personales, evitar sesgos algorítmicos y preservar la relación terapéutica son consideraciones cruciales. Por otro lado, Rivera, Jairo y Sánchez (5) argumentan que la IA no debe ser descartada como inútil. En su lugar, sugieren entenderla como una herramienta complementaria al servicio del terapeuta, similar a cómo se utilizan las pruebas psicométricas en la actualidad. Aunque la IA puede ofrecer evaluaciones rápidas y recordatorios de medicación, no debería reemplazar por completo la interacción cara a cara con un terapeuta. Es fundamental encontrar un equilibrio entre la automatización y la atención humana personalizada.
A pesar de que la IA puede proporcionar recomendaciones generales y apoyo emocional básico, la comprensión del contexto individual, la historia personal y las emociones sutiles requiere la sensibilidad humana. La automatización debe ser personalizable y flexible para adaptarse a la diversidad de las necesidades individuales de los pacientes.
La transparencia y la educación sobre la tecnología son fundamentales para garantizar que los usuarios comprendan las limitaciones de la IA y sepan cuándo buscar ayuda adicional. Si bien la IA puede complementar la atención humana en salud mental, no puede ni debe reemplazar por completo la presencia y la experiencia de profesionales de la salud mental preparados. En última instancia, el cuidado de la salud mental es un proceso humano que requiere compasión, empatía y comprensión genuina, valores que ninguna IA puede replicar completamente.
Referencias:
1. OpenAI. ChatGPT: Combining Artificial Intelligence and Virtual Reality for Therapeutic Avatars. 2024.
2. Gonzalez Larrondo, A. Aplicación de inteligencia artificial en procesos psicoterapéuticos. 2023.
3. Romero M, Casadevante C, Montero H. CÓMO CONSTRUIR UN PSICÓLOGO- CHATBOT. Papeles del Psicólogo. 2020;41(1).
4. Organización Mundial de la Salud. Ethics and governance of artificial intelligence for health: WHO guidance. 2021.
5. Rivera Estrada, Jairo, E, Sánchez Salazar DV. Inteligencia artificial ¿reemplazando al humano en la psicoterapia? escr. 2016;24(53):271-91.