Evaluación de Técnicas de Explicabilidad en Modelos de Aprendizaje Automático Aplicados a Decisiones Críticas en Instituciones

Palabras clave: explicabilidad, interpretabilidad, aprendizaje automático, auditoría algorítmica, transparencia institucional

Resumen

El uso creciente de modelos de aprendizaje automático en instituciones públicas y privadas ha impulsado la automatización de procesos y la mejora en la toma de decisiones, pero también ha generado preocupaciones relacionadas con la transparencia y la capacidad de auditar decisiones críticas. En contextos donde las predicciones afectan directamente a personas o recursos institucionales, la falta de explicabilidad en modelos complejos puede limitar la confianza, dificultar la detección de sesgos y comprometer la validez de los resultados. El objetivo de este trabajo es evaluar diversas técnicas de explicabilidad aplicadas a modelos de aprendizaje automático utilizados en decisiones institucionales de alto impacto. La metodología incluye el entrenamiento de modelos predictivos sobre un conjunto de datos institucional y la aplicación sistemática de técnicas como SHAP, LIME, modelos sustitutos e Integrated Gradients, evaluando métricas de fidelidad, estabilidad, tiempo de cómputo y utilidad práctica para la auditoría algorítmica. Los resultados muestran diferencias significativas entre las técnicas analizadas, evidenciando que algunas ofrecen explicaciones más consistentes y útiles para la interpretación de decisiones críticas. Los hallazgos sugieren que la integración de técnicas de explicabilidad puede fortalecer la transparencia, mejorar la confianza institucional y apoyar la toma de decisiones informadas, en concordancia con los lineamientos éticos y metodológicos recomendados por APA 7

Descargas

La descarga de datos todavía no está disponible.

Citas

Barredo Arrieta, A., & Del Ser, J. (2022). Explainable artificial intelligence: A practical guide for interpreting machine learning models and deep learning. Springer.

Burkart, N., & Huber, M. F. (2021). A survey on the explainability of supervised machine learning. Springer.

Cisneros Estupiñán, M., & Olave Arias, G. (2012). Cómo se escribe un artículo científico: Guía para la redacción académica. Universidad de Antioquia.

Gunning, D., & Aha, D. (2021). Explainable artificial intelligence: Understanding, visualizing and interpreting deep learning models. Springer.

Lundberg, S. M., & Lee, S.-I. (2017). A unified approach to interpreting model predictions. En Advances in neural information processing systems (pp. 4765–4774).

Molnar, C. (2019). Interpretable machine learning: A guide for making black box models explainable. Independently published.

Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why should I trust you?”: Explaining the predictions of any classifier. En Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 1135–1144).

Samek, W., Montavon, G., Vedaldi, A., Hansen, L. K., & Müller, K.-R. (Eds.). (2019). Explainable AI: Interpreting, explaining and visualizing deep learning. Springer.

Vilone, G., & Longo, L. (2021). Explainable artificial intelligence: Foundations, methods and applications. Springer.

Doshi Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. https://doi.org/10.48550/arXiv.1702.08608

Publicado
2026-03-29
Cómo citar
Ortega Ovalle , M. T. (2026). Evaluación de Técnicas de Explicabilidad en Modelos de Aprendizaje Automático Aplicados a Decisiones Críticas en Instituciones. Ciencia Latina Revista Científica Multidisciplinar, 10(2), 1129-1139. https://doi.org/10.37811/cl_rcm.v10i2.23172
Sección
Ciencias y Tecnologías