Interpretabilidad y transparencia de las plataformas de Inteligencia Artificial  

Continuando con nuestra serie formativa en Inteligencia Artificial y Machine Learning para mejorar la gestión sanitaria orientada a organizaciones sanitarias de Chile, Colombia, Argentina, Uruguay, Perú, México y Costa Rica, en esta ocasión profundizaremos en los conceptos de interpretabilidad y transparencia. Existe mucho miedo a las “cajas negras” que hay detrás de los modelos de machine learning. En este webinar, desmitificaremos este concepto y explicaremos que hay detrás de los modelos realmente y que técnicas se pueden utilizar para entender los resultados que se obtienen de los modelos. Más en detalle, abordaremos algunos de los siguientes temas:

  • Concepto de «caja negra» en ML/IA
  • Diferencias entre algoritmos de lógica clínica como los Grupos Relacionados por el Diagnóstico (GRD) y los algoritmos de machine learning, de lógica matemática.
  • Cómo podemos medir la «confianza» en los modelos y controlar su calidad.
  • Cómo podemos medir «precursores» en las predicciones e interpretar recomendaciones en IA.
  • Limitaciones de los modelos de IA más modernos (Deep Learning, LLMs como ChatGPT…).
  • Metodología y herramientas usadas en Sigesa para logar sistemas de IA más interpretables.
  • Resolución de dudas de los asistentes.

Expositores

Sara de la Rubia

Científica de datos en Sigesa

Arantxa Unda

CEO de Sigesa