Porqué los médicos no quieren usar inteligencia artificial.
Las promesas de la IA no se cumplen en el trabajo diario.
Una de las promesas más subrayadas de la IA es superar la capacidad humana. Si en su totalidad, que eso se deja al futuro, sí en algunos logros inmediatos que, técnicamente, ya se pueden conseguir. Uno de ellos es la interpretación de pruebas médicas que dan como resultado una imagen. Mamografías, resonancias, hasta la clásica radiografía, al mostrar los órganos internos de un cuerpo revelan tumores y lesiones. Si son cancerígenos y han alcanzado un gran tamaño serán detectables con facilidad, algo que un médico podría pasar por alto en caso de tumores más pequeños y más susceptibles de ser curados en una fase temprana. Los melanomas, por ejemplo, son una de las indicaciones a las que más señalan las empresas que comercializan este tipo de IA, aunque aquí la imagen sea fotográfica y superficial, y no interna. Ellos hablan de reducir el error de diagnóstico entre un 27% y un 40%.
El algoritmo aporta además algo que ningún doctor tendrá en origen, la experiencia. Mientras el humano habrá adquirido ojo clínico con el pasar de los años, la máquina, entrenada con millones de imágenes de cánceres, tumores y lesiones reales, no pasará por alto ninguno. El despiste o el cansancio no entran en sus capacidades, y por eso las empresas que comercializan las IAs médicas, después de presentar sus ventajas, rematan añadiendo que aumentan la productividad humana en alrededor de un 40%. Si aplicar el programa a hospitales y clínicas es más barato que una nómina, supondrá un ahorro capaz de eliminar puestos de trabajo. O, si queremos verlo de una forma más positiva, hará que los mejores doctores atiendan a más pacientes, y consigan más curaciones. Se harán famosos, eminencias, formarán parte de esa élite por la que todos quieren ser atendidos.
Visto así, las IAs médicas deberían haber triunfado en el país donde primero y más masivamente se han puesto en marcha, Estados Unidos. Dado que su modelo de sanidad es mayoritariamente privado, generar más beneficios ahorrando costes, mejorar el rendimiento de sus trabajadores y atender un mayor número de pacientes es prioritario. Por eso ya han sido añadidas a numerosos centros médicos, clínicas y hospitales. Pero tras una primera oleada de implantación, su uso se ha desinflado. La razón: el personal médico no quiere usarla. Y no porque teman por sus puestos de trabajo. Qué ha ocurrido.
El primer obstáculo es una cuestión de confianza. Los doctores se fían de su formación y experiencia, pero no del criterio de una máquina de la que ignoran los motivos para tomar sus decisiones. Recordemos que las inteligencias artificiales son cajas negras, por motivos de patentes comerciales y protección de secretos, pero también porque en el aprendizaje profundo ni siquiera los programadores saben porqué las máquinas llegan a determinadas conclusiones. De acuerdo, la IA ha diagnosticado un cáncer pero ¿puedo fiarme de ella? Y si no puedo fiarme, y tengo que revisar yo mismo el historial y las pruebas, ¿para qué demonios he perdido el tiempo con la maquinita?
Uno de los mejores ejemplos de este proceso es la inteligencia artificial desarrollada por Google para ¡ayudar a los doctores a confiar en el diagnóstico de la IA! ¿Una IA para usar otra IA? Efectivamente. Se llama CoDoC, y juzga cómo de potente ha sido el diagnóstico de la máquina para decidir si tiene que involucrar o no en el proceso a un ser humano. Es decir, para indicar al médico «mejor lo miras tú, que yo no estoy segura». Un comportamiento muy humano y positivo entre colegas, pero para el que las IAs no están diseñadas. No alucinarían tanto decepcionando al usuario medio si no se empeñaran siempre en responder. Obligadas a proporcionar un dato, porque esa es su naturaleza, a veces parece que se lo inventan. Cuñadus máximos.
CoDoC está en marcha desde este verano, así que quizá sea pronto para medir su impacto. Lo que no ha variado es la escasez de uso de la IA de diagnóstico entre doctores estadounidenses. Y es que hay otro problema por resolver, todavía más grave que el primero. El sesgo.
La ciencia pone una objeción al entrenamiento de la IA, y en general a la aplicación de criterios de detección de enfermedades. Los datos proceden en su mayoría de caucásicos blancos, porque la mayoría de personas de esta etnia, la nuestra, viven en los países occidentales, donde la medicina está más desarrollada. Adicionalmente la mayoría de historiales de pacientes son masculinos, menos por el machismo histórico que por una tendencia a aplicar los criterios de diagnóstico masculinos al grupo femenino. Como si los metabolismos y cuerpos fueran idénticos sin diferencia de sexo, algo que se ha descubierto recientemente que no es así. Tampoco evolucionamos igual ni envejecemos de la misma forma las etnias negras, asiáticas o caucásicas, pero por el momento la ciencia carece de un corpus médico de pruebas que permita adaptarlo a tu población. Es decir, no tenemos datos para entrenar al algoritmo e impedir que la población negra, mesoamericana, o asiática de nuestro país no esté peor diagnosticada por la IA que por un médico. Así que ese 27 a 40% de reducción del error tiene como contraparte un aumento del mismo cuyo porcentaje desconocemos. ¿Compensa entonces aplicar una IA en lugar de un humano cuando los algoritmos tienen sesgos tan grandes? No lo sabemos. Pero ya hemos recibido la primera pista.
El 19 de diciembre se publicó en JAMA, The Journal of the American Medical Association, una investigación que demuestra que la IA rebaja la precisión del diagnóstico en determinados tipos de pacientes. Si para solucionarlo añadían explicaciones a su diagnóstico, lo llenaban de datos irrelevantes sin conseguir que fueran más precisos. Los casos clínicos seleccionados para la investigación eran de pacientes con obstrución pulmonar crónica, neumonía, o fallo cardíaco, y además del texto de su historial, la IA contaba con radiografías del pecho. ¿El sesgo? Neumonía para los enfermos de más de ochenta años y fallo cardíaco para los obesos, en lugar de un análisis objetivo de síntomas, que es precisamente lo que las máquinas prometen.
La conclusión de este artículo científico es que los doctores no deben confiar demasiado en la IA para su diagnóstico, que en realidad es lo que ya están haciendo, al menos en Estados Unidos.