Machine Learning para la toma de decisiones clínicas: abordando el riesgo de Sesgos.

En la era de la Inteligencia Artificial, los modelos de Machine Learning (ML) están cada vez más integrados en diversos ámbitos, incluido el sector de la atención médica. Los recientes avances usando complejas arquitecturas de Redes Neuronales demuestran un rendimiento similar al humano en tareas como el diagnóstico por imagen1. Sin embargo, simultáneamente surgen inquietudes de relevancia: ¿Cómo se puede garantizar la imparcialidad y neutralidad de estos algoritmos? ¿Por qué el algoritmo no funciona bajo ciertas condiciones? Estas preguntas están muy relacionadas con la existencia de Sesgos en los datos.

El sesgo en el contexto de los modelos de ML se refiere a cualquier distorsión o inclinación sistemática en los datos o algoritmos que puede influir en las decisiones o predicciones del modelo de manera injusta o inexacta. Pueden derivar de diversas fuentes, como los conjuntos de datos empleados para su entrenamiento o las decisiones tomadas durante el proceso de diseño y desarrollo. Un tipo habitual de sesgo es el sesgo de selección de datos, caracterizado por la falta de representatividad respecto a la población objetivo. Esta situación puede dar lugar a la obtención de predicciones discriminatorias hacia determinados grupos o individuos.

Por ejemplo, un modelo de diagnóstico de enfermedades de piel podría funcionar mejor para tonos de piel claros que para tonos de piel oscuros. O un estimador de riesgo de enfermedad cardiovascular podría ser más preciso en casos de hombres que en casos de mujeres, debido a la diferencia de muestras de entrenamiento.

Como impacto, los sesgos pueden generar repercusiones significativas en la atención sanitaria. Pueden contribuir a prolongar disparidades existentes proporcionando decisiones o recomendaciones sesgadas que favorezcan a ciertos grupos sobre otros, así como marginación a ciertos grupos minoritarios, desigualdad en la calidad de la atención, etc. Por ello, abordar estos problemas resulta crucial para garantizar que los modelos de ML aplicados al sector sanitario sean justos, equitativos y precisos.

Actualmente, se están llevando a cabo esfuerzos significativos para atenuar los sesgos presentes en los modelos. Esto abarca desde el desarrollo de técnicas destinadas a evaluar y mitigar los sesgos en los conjuntos de datos empleados para el entrenamiento de los modelos, hasta la implementación de algoritmos de ML intrínsecamente más equitativos e imparciales. Paralelamente, se están estableciendo estándares y directrices éticas para el desarrollo y despliegue de modelos con el propósito de garantizar que estos modelos respeten la equidad y justicia.

En conclusión, los sesgos presentes en los modelos de ML representan una preocupación de gran envergadura, en especial en sectores como la Sanidad, donde la precisión y la imparcialidad son aspectos fundamentales para brindar una atención de calidad. Abordar estos sesgos exige un enfoque multidisciplinar que abarque desde la recolección y selección de datos hasta el diseño e implantación de algoritmos. Únicamente mediante estos esfuerzos se puede aprovechar plenamente el potencial de la Inteligencia Artificial para mejorar la atención médica y promover el bienestar de los pacientes.

[1] [https://www.nature.com/articles/s41746-021-00438-z]

Sigesa