IA enfocada en las personas

Conclusiones del Paquete de Trabajo sobre IA federada y explicable (9)

Artículo

Conclusiones del Paquete de Trabajo sobre IA federada y explicable (9)

Título:

Inteligencia artificial federada y explicable para aplicaciones médicas avanzadas

Socios:

Capgemini Engineering, Barcelona Supercomputing Center (BSC) y la Universitat Politècnica de Catalunya (UPC).

Reto inicial:

El desafío principal fue desarrollar modelos de inteligencia artificial que ofrecieran precisión, seguridad y transparencia en aplicaciones médicas. Esto implicaba garantizar la privacidad de los datos de los pacientes mediante técnicas de aprendizaje federado, mitigar sesgos en los datos y mejorar la interpretabilidad de las predicciones con métodos avanzados de explicabilidad.

Potenciales beneficiarios:

El proyecto está dirigido a profesionales médicos y especialistas que requieren apoyo en la toma de decisiones clínicas. Los pacientes se benefician de diagnósticos y tratamientos más precisos, mientras que las instituciones de salud optimizan recursos y procesos de análisis.

Tecnologías empleadas:

Se implementaron soluciones de aprendizaje federado para entrenar modelos colaborativos sin necesidad de compartir datos sensibles. El BSC trabajó en métodos de análisis y mitigación de sesgos en los datos, así como en el desarrollo de modelos mediante Transfer Learning. La UPC se centró en la generación de datos sintéticos y en la implementación de Redes Generativas Adversarias (GANs), lo que permitió mejorar la calidad y diversidad de los datos disponibles.

Para garantizar la privacidad de los datos, se aplicaron métodos de cifrado avanzados, destacando LogisticMap por su equilibrio entre seguridad y eficiencia. La explicabilidad de los modelos se logró mediante técnicas como SHAP, Grad-CAM y Saliency Map, que permiten visualizar y comprender las decisiones del modelo. Además, para optimizar el análisis de imágenes médicas de alta resolución, se dividieron en mosaicos o «tiles», seleccionando únicamente las áreas con mayor información relevante para reducir el uso de memoria y acelerar el entrenamiento.

Beneficios obtenidos o potenciales de la aplicación:

El desarrollo garantiza la privacidad de los datos de los pacientes al aplicar aprendizaje federado, evitando transferencias de información sensible. La incorporación de técnicas de mitigación de sesgos y generación de datos sintéticos asegura que los modelos sean más equitativos y precisos. Los modelos resultantes son interpretables y transparentes, lo que incrementa la confianza de los profesionales médicos en los resultados obtenidos. La optimización en el análisis de imágenes médicas permite diagnósticos más rápidos y precisos, mientras que la adaptabilidad de los modelos asegura un rendimiento robusto en entornos con datos variados y desbalanceados.

Descripción del desarrollo:

El proyecto implementó soluciones de aprendizaje federado que permiten entrenar modelos de inteligencia artificial en entornos descentralizados, preservando la privacidad de los datos mediante estrategias de cifrado como LogisticMap. Se optimizaron algoritmos de agregación, destacando FedProx, FedAdam y FedYogi, por su robustez en escenarios con datos complejos y desbalanceados.

El BSC desarrolló métodos para mitigar sesgos en los datos y aplicó Transfer Learning para mejorar la generalización de los modelos. La UPC trabajó en la creación de datos sintéticos con Redes Generativas Adversarias (GANs), aumentando la calidad y diversidad de los datos.

En el ámbito de explicabilidad, se aplicaron métodos como SHAP y Grad-CAM para interpretar predicciones en modelos de imágenes médicas, facilitando la comprensión de las zonas relevantes. Además, se optimizó el análisis de imágenes de biopsias dividiéndolas en mosaicos eficientes, mejorando el rendimiento y reduciendo el uso de memoria.

El desarrollo integró privacidad, mitigación de sesgos y explicabilidad, asegurando modelos robustos y transparentes para aplicaciones médicas avanzadas.