3 razones por las que la interpretabilidad está cobrando importancia en el mundo del aprendizaje automático

¿Qué es el aprendizaje automático?

El aprendizaje automático, ML por sus siglas en inglés, es un concepto que, junto a otros como el Big Data o el Deep Learning, han visto su popularidad aumentada exponencialmente en los últimos años. El área de aprendizaje automático es una rama de la Inteligencia Artificial cuyo objetivo es construir sistemas que aprendan automáticamente de los datos. Existen múltiples ejemplos de aplicaciones de ML en nuestra vida diaria, como pueden ser:

  • Netflix: Cuando, una vez logados en la plataforma, Netflix nos recomienda una lista de películas y series, el cálculo para decidir estas recomendaciones se realiza con aprendizaje automático, en concreto un tipo de modelos conocidos como sistemas de recomendación.

  • Coches autónomos: Una de las tecnologías que más titulares han recabado en los últimos años, por ejemplo este. Estos vehículos son una combinación de diversas ramas de la inteligencia artificial, pero el ML tiene un peso especialmente relevante. Se usa, por ejemplo, para reconocer si un objeto en la carretera es un coche, una bicicleta, un peatón u otro tipo de elemento… También para distinguir si un semáforo está verde, rojo o ámbar, etc.

  • Predicción de producción con energías renovables: Actualmente, la mayor parte de los modelos utilizados para predecir el volumen de producción eléctrica que se generará en un territorio, por ejemplo España, en un determinado horizonte temporal, por ejemplo el día de mañana, con fuentes de energía renovable, se realiza utilizando técnicas de aprendizaje automático. Conseguir unas predicciones ajustadas permite controlar cuánta energía se deberá generar con sistemas “tradicionales” para poder cubrir toda la demanda del país. Esto conlleva un gran ahorro de costes, ya que generar por debajo de la demanda implica tener que comprar energía en mercados externos, más caros, y generar por encima implica un gasto evitable.

Interpretabilidad en los modelos de aprendizaje automático

En los problemas de aprendizaje automático, habitualmente los modelos más precisos son los más complejos. Esto es así porque precisamente estos modelos buscan patrones que capten relaciones de un alto número de variables en espacios de alta dimensionalidad y, por tanto, son capaces de “ver” relaciones e información muy difícil de captar e interpretar por un ser humano. Esta es su principal fortaleza, pero también presenta quizá uno de los principales obstáculos a superar: los mejores modelos son normalmente los menos interpretables.

Hasta hace no mucho tiempo, la interpretabilidad de estos modelos no se había considerado muy relevante en el mundo académico. Habitualmente el objetivo de la mayor parte de las líneas de investigación era buscar nuevos modelos o formas de aplicarlos que consiguieran una mejora en la precisión o bondad del modelo. El que esto provocara una pérdida sensible en la capacidad de interpretabilidad de los resultados del modelo de ML no se consideraba significativo. Por tanto, a la hora de aplicar un modelo de aprendizaje automático en problemas reales, se presentaba siempre la siguiente dicotomía: ¿precisión o interpretabilidad? ¿Modelo simple, menos preciso pero fácilmente entendible, o modelo complejo, muy preciso pero estilo “caja negra”, es decir, sé lo que entra y lo que sale, pero no lo que pasa entre medias?

Afortunadamente, esta forma de pensar ha cambiado en los últimos años y actualmente la extracción de interpretabilidad es una línea de investigación muy popular.

Interpretabilidad en el aprendizaje automático aplicado a medicina

En Sigesa creemos que esta es la línea a seguir, especialmente en el ámbito sanitario. Entre los motivos por los que creemos en la importancia de la interpretabilidad en el mundo del aprendizaje automático aplicado a medicina podemos destacar tres:

  • 1. Extracción de conocimiento: Los modelos de ML en medicina no solo pueden ser útiles por generar predicciones precisas, sino para generar insights que permitan generar conocimiento nuevo o detectar posibles líneas susceptibles de investigación. Como veremos en un futuro artículo, Interpretabilidad vs. Casualidad ¿Son lo mismo?, es importante no confundir interpretabilidad con causalidad, pero aun así la interpretación de modelos ML puede proporcionarnos información clínica o de gestión relevante.

  • 2. Criticidad: El área de la medicina tiene algunas particularidades con respecto a otros sectores. Una de ellas es la especial criticidad en la toma de decisiones. Recuperando el ejemplo anterior, no tiene el mismo impacto negativo el que Netflix se equivoque a la hora de recomendarnos una película, que el hecho de que un modelo que intente predecir, por ejemplo, la presencia de una determinada enfermedad, erre en su predicción. Por este motivo es especialmente importante ser capaz de analizar a qué se han debido los posibles errores o predicciones no ajustadas de un modelo de ML que se utilice en el ámbito médico.

  • 3. Control ético: El analizar qué factores han contribuido en la decisión de un modelo predictivo de aprendizaje automático nos permite detectar posibles sesgos, por género, raza, edad, etc., de una manera efectiva, lo cual es especialmente relevante en el ámbito sanitario por la gran criticidad asociada a la que hacíamos referencia en el punto anterior.

Algoritmos para extraer interpretabilidad en ML

La interpretabilidad de modelos de aprendizaje automático se encuentra aún en una fase inicial de investigación. Sin embargo, ya se han desarrollado algunos algoritmos que han mostrado muy buenos resultados en distintas investigaciones y simulaciones:

  • Árboles de decisión para explicar las predicciones del modelo.
  • Predicción basada en ensembles de reglas.
  • Métodos estadísticos basados en insertar ruido a los input y observar variaciones en el output. Un ejemplo puede encontrarse aquí.

En Sigesa hemos desarrollado nuestros propios algoritmos explicativos, mezcla de los métodos anteriores y desarrollos internos en el equipo de Machine Learning, para generar interpretabilidad de cada uno de nuestros modelos de ML, tanto Enara MLS como Enara MLP.

Para más información sobre nuestros modelos de aprendizaje automático o sobre cómo estos algoritmos pueden ayudarles a ganar interpretabilidad sobre sus predicciones, póngase en contacto con nosotros.