“La Inteligencia Artificial es un campo de estudio que envuelve a la computación y permite desarrollar sistemas que permiten procesar información para alcanzar objetivos definidos de manera efectiva”, explicó el maestro Daniel Fernando Palma, experto en la intersección entre tecnología y desarrollo humano, con amplia experiencia en inteligencia artificial aplicada a la salud, quien también expresó: “La IA tiene potencial para transformar el cuidado de la salud mental mediante la mejora en la exactitud de los diagnósticos, la personalización de las terapias y la facilitación de un tratamiento más efectivo, económico y accesible”. 

Como parte del Seminario de Actualización en Salud Mental que se realiza todos los viernes, el pasado 6 de junio se transmitió por YouTube https://www.youtube.com/live/de-AGzCX-4U?si=68uoPwsvEgtsbf_e la sesión titulada “Ética e inteligencia artificial en salud mental”, organizada por la doctora  Ingrid Vargas, Coordinadora de Investigación del Departamento de Psiquiatría y Salud Mental, y moderada por el ingeniero Gerardo Luna, técnico académico.

El maestro Palma abordó la creciente necesidad de soluciones innovadoras en salud mental ante el aumento del 20% en trastornos mentales desde 2019 y la escasez de profesionales (un psicólogo por cada 3 mil habitantes). “Aproximadamente un 25% de las personas sufrirán algún trastorno mental en su vida, con un impacto económico de 1 billón de dólares y listas de espera de hasta 6 meses”, advirtió.

  Asimismo, señaló que la inteligencia artificial, a través de chatbots terapéuticos como Chat GPT y Perplexity, ofrecen la posibilidad de mejorar la exactitud de diagnósticos, personalizar terapias y hacer el tratamiento más accesible y económico.  Mencionó ejemplos de aplicaciones como Headspace, y la integración de tecnologías como la realidad virtual para el tratamiento de estrés postraumático.

El maestro Palma también alertó sobre los riesgos éticos de la IA en salud mental, incluyendo la confidencialidad de los datos, la equidad en el acceso y la necesidad de una regulación similar a la GDPR europea (Reglamento General de Protección de Datos) o la HIPAA estadounidense (Ley de Portabilidad y Responsabilidad del Seguro de Salud), así como la responsabilidad legal, y la posibilidad de sesgos en la IA. También destacó la importancia de un enfoque híbrido, donde la IA actúe como herramienta complementaria al terapeuta humano, manteniendo la empatía y la responsabilidad profesional. El ponente mencionó algunos casos de éxito en el Reino Unido y Suecia, donde la IA ha reducido las listas de espera para la atención, hasta en un 70%.  

Finalmente, enfatizó la necesidad de una regulación en México para el uso de la IA en salud mental, considerando la responsabilidad legal y la protección de la privacidad del paciente, concluyendo que la IA se presenta como una herramienta complementaria, no un sustituto del terapeuta. 

Jorge Ugalde