Aprendizaje Automático en Dispositivos Edge Para Análisis en Tiempo Real

Palabras clave: aprendizaje automático, edge computing, análisis en tiempo real, optimización de modelos, internet de las cosas

Resumen

El aprendizaje automático en dispositivos Edge se ha consolidado como una estrategia fundamental para habilitar análisis en tiempo real en entornos donde la latencia, la privacidad y la disponibilidad de red son determinantes. Este enfoque desplaza parte del procesamiento desde la nube hacia dispositivos locales como sensores, cámaras inteligentes, microcontroladores y plataformas embebidas, permitiendo ejecutar inferencias directamente en el punto de captura de los datos. Esta proximidad reduce los tiempos de respuesta y disminuye la dependencia de la conectividad, lo que resulta especialmente relevante en aplicaciones críticas como la manufactura automatizada, la vigilancia inteligente, la salud digital y la movilidad autónoma. Sin embargo, la implementación de modelos en el borde enfrenta desafíos asociados con las limitaciones de memoria, capacidad de cómputo y consumo energético de los dispositivos

El presente estudio analiza el rendimiento de modelos de aprendizaje automático optimizados para su ejecución en dispositivos Edge, evaluando técnicas como la cuantización, la poda estructurada y la distilación de conocimiento. Se examinan métricas de precisión, tiempo de inferencia y eficiencia energética en distintos tipos de hardware, desde microcontroladores de bajo consumo hasta aceleradores especializados. Los resultados muestran que la optimización adecuada permite alcanzar un equilibrio entre velocidad y precisión, posibilitando análisis confiables en tiempo real. El estudio concluye que la adopción de Edge AI requiere una selección cuidadosa de modelos, técnicas de compresión y plataformas de hardware, así como el desarrollo de métricas estandarizadas que faciliten la comparación y la toma de decisiones en contextos institucionales y operativos diversos

Descargas

La descarga de datos todavía no está disponible.

Citas

Han, S., Mao, H., & Dally, W. J. (2016). Deep compression: Compressing deep neural networks with pruning, trained quantization and Huffman coding. MIT Press.

Lane, N. D., Bhattacharya, S., Mathur, A., & Kawsar, F. (2020). Squeezing deep learning into mobile and embedded devices. Morgan & Claypool.

Reddi, V. J., Cheng, C., Kanter, D., Mattson, P., Schmuelling, G., Wu, C. J., ... & Zhou, Y. (2020). MLPerf Tiny Benchmark. IEEE Computer Architecture Letters, 19(1), 14–17.

Sze, V., Chen, Y.-H., Yang, T.-J., & Emer, J. S. (2020). Efficient processing of deep neural networks. Morgan & Claypool.

Warden, P., & Situnayake, D. (2019). TinyML: Machine learning with TensorFlow Lite on Arduino and ultra low power microcontrollers. O’Reilly Media.

Publicado
2026-03-29
Cómo citar
Ortega Ovalle , M. T. (2026). Aprendizaje Automático en Dispositivos Edge Para Análisis en Tiempo Real. Ciencia Latina Revista Científica Multidisciplinar, 10(2), 1140-1152. https://doi.org/10.37811/cl_rcm.v10i2.23173
Sección
Ciencias y Tecnologías