“Estamos muy acostumbrados a hacer clic en ‘sí acepto’, pero eso no significa que comprendamos cómo se van a usar nuestros datos. Si nosotros, como médicos, no lo entendemos, mucho menos los pacientes. Y tenemos la obligación de explicarles con claridad cómo se usarán sus datos para entrenar modelos de inteligencia artificial”, expresó la doctora Dania Nimbe Lima Sánchez, médica psiquiatra del Departamento de Salud Digital de la Facultad de Medicina.
Durante la conferencia “La Ética de la Inteligencia Artificial en Salud”, organizada por el Programa Institucional de Ética y Bioética de la Facultad de Medicina y moderada por su responsable, la licenciada Indrani Morales Astudillo, se abordó el tema de la inteligencia artificial (IA) desde un punto de vista médico. En ese sentido, la ponente planteó que los modelos de IA son comparables a “una hidra, no porque sea malo, sino porque debemos aprender a trabajar con él y domarlo”. Donde subrayó la importancia de analizar los dilemas bioéticos que genera su aplicación en la medicina.


En la sesión realizada por la plataforma Zoom y YouTube el pasado 4 de septiembre, la doctora Lima Sánchez mencionó que los principios éticos tradicionales de la medicina: “autonomía, confidencialidad, justicia y no maleficencia”, siguen vigentes, pero deben sumarse otros como transparencia, responsabilidad, equidad y atención a la brecha digital.
A su vez, advirtió que actualmente no existen protocolos estandarizados para recabar el consentimiento informado en este campo, lo cual puede vulnerar la confianza de los pacientes y tener consecuencias éticas graves.
La experta detalló cómo los sesgos en los algoritmos se originan desde la selección de datos hasta su aplicación clínica. Expuso que la subrepresentación de ciertos grupos poblacionales afecta directamente la sensibilidad y especificidad de los modelos. “Ningún modelo de inteligencia artificial está entrenado por género. Es preocupante que no existan predicciones diferenciadas, y más aún cuando se trata de población trans o de mujeres con infarto agudo al miocardio, que reciben hasta 40 minutos más tarde la atención médica porque los modelos no predicen bien su sintomatología”, ejemplificó.
De ese modo, hizo un llamado a desarrollar modelos con datos latinoamericanos: “Tenemos una gran falta en toda Latinoamérica de modelos entrenados en población propia y finalmente en cada país. De lo contrario, perpetuamos desigualdades”.





Otro aspecto clave de la ponencia fue la necesidad de supervisión clínica y de marcos regulatorios nacionales: “La inteligencia artificial debe pensarse como un fármaco que requiere estudios clínicos, validación continua y ensayos multicéntricos. No podemos aplicarla sin un proceso riguroso”.
Recordó que, en el contexto mexicano, la responsabilidad final de un diagnóstico o tratamiento asistido por IA recae en el médico, “el juicio clínico siempre tiene que tomarlo la persona, el humano en la decisión médica. La IA es sólo un complemento”.
La especialista alertó sobre el riesgo de que la inteligencia artificial amplíe la desigualdad: “Generalmente las áreas con menos recursos van a tener limitaciones significativas para acceder a la tecnología y, en vez de disminuir la brecha en la atención, la vamos a aumentar”.
Propuso políticas públicas que aseguren acceso equitativo, infraestructura accesible, alfabetización digital en comunidades y la inclusión de poblaciones vulnerables en las bases de datos.
Finalmente, la doctora Lima indicó: “La inteligencia artificial siempre es un complemento. El juicio clínico no se delega. Lo que tenemos que hacer es trabajar para garantizar equidad, rendición de cuentas, privacidad y consentimiento en el uso de la inteligencia artificial. Eso nos toca a todos”.
María Morales


