ANÁLISIS DEL IMPACTO DE LAS HERRAMIENTAS
DE SUPERVISIÓN DIGITAL EN EL RENDIMIENTO
ACADÉMICO ESTUDIANTIL MEDIANTE
TÉCNICAS DE CIENCIA DE DATOS
ANALYSIS OF THE IMPACT OF DIGITAL SUPERVISION
TOOLS ON STUDENT ACADEMIC PERFORMANCE USING
DATA SCIENCE TECHNIQUES
Jonathan Alexis Romero López
Universidad Estatal Amazónica, Ecuador
Andrea Daniela Mejía López
Universidad Estatal Amazónica, Ecuador
Gabriela Tamia Grefa López
Universidad Estatal Amazónica, Ecuador
Sonia Jeanneth Vásquez Pánchez
Universidad Estatal Amazónica, Ecuador

pág. 11220
DOI: https://doi.org/10.37811/cl_rcm.v9i5.20465
Análisis del Impacto de las Herramientas de Supervisión Digital en el
Rendimiento Académico Estudiantil Mediante Técnicas de Ciencia de Datos
Jonathan Alexis Romero López1
ja.romerol@uea.edu.ec
https://orcid.org/0000-0001-9043-2357
Universidad Estatal Amazónica
Ecuador
Andrea Daniela Mejía López
anmejia@uea.edu.ec
https://orcid.org/0000-0002-6905-4969
Universidad Estatal Amazónica
Ecuador
Gabriela Tamia Grefa López
gt.grefal@uea.edu.ec
https://orcid.org/0009-0009-5540-5324
Universidad Estatal Amazónica
Ecuador
Sonia Jeanneth Vásquez Pánchez
sj.vasquezp@uea.edu.ec
https://orcid.org/0009-0002-1383-914X
Universidad Estatal Amazónica
Ecuador
RESUMEN
Este estudio analiza el impacto de la supervisión digital mediante Proctorizer en el rendimiento
académico de estudiantes universitarios en cursos virtuales. La muestra incluyó a 53 estudiantes de un
curso de Física, quienes realizaron ocho evaluaciones: cuatro sin supervisión y cuatro con Proctorizer.
A partir de la depuración e integración de la base original de aproximadamente 35 000 registros de
eventos de Moodle y de Proctorizer, se consolidaron 424 observaciones para el análisis. El análisis de
covarianza (ANCOVA) evidenció que el uso de Proctorizer tuvo un efecto estadísticamente
significativo sobre las calificaciones (p = 0.006), aun considerando la variable tiempo como
covariable. Los promedios ajustados mostraron un mejor rendimiento en las evaluaciones sin
supervisión (M = 9.05) en comparación con las supervisadas (M = 8.31). En contraste, el tiempo de
resolución no demostró un impacto significativo en el desempeño académico (p=0.316). Durante las
evaluaciones con Proctorizer se registraron 430 incidencias técnicas y conductuales, tales como
desconexiones y bloqueos de pantalla, los cuales incrementaron la presión sobre los estudiantes. La
encuesta de percepción evidenció que el 42% experimentó mayor nerviosismo, el 26% reconoció
pérdida de concentración y el 42% reportó problemas técnicos, de los cuales un 29% consideró que
afectaron directamente su desempeño. En conjunto, los hallazgos sugieren que factores técnicos y
emocionales asociados a la supervisión pueden reducir el rendimiento en línea y resaltan la necesidad
de diseñar estrategias de evaluación más robustas y sensibles a estas condiciones.
Palabras clave: supervisión digital, ciencia de datos, educación en línea
1 Autor principal
Correspondencia: ja.romerol@uea.edu.ec

pág. 11221
Analysis of the Impact of Digital Supervision Tools on Student Academic
Performance Using Data Science Techniques
ABSTRACT
This study analyzes the impact of digital supervision through Proctorizer on the academic
performance of university students in virtual courses. The sample included 53 students from a Physics
course who completed eight assessments: four without supervision and four with Proctorizer. After
cleaning and integrating the original database of approximately 35,000 event records from Moodle
and Proctorizer, 424 observations were consolidated for analysis. An analysis of covariance
(ANCOVA) revealed that the use of Proctorizer had a statistically significant effect on grades (p =
0.006), even when considering time as a covariate. Adjusted means indicated better performance in
unsupervised assessments (M = 9.05) compared to supervised ones (M = 8.31). In contrast, resolution
time did not show a significant impact on academic performance (p = 0.316). During the Proctorizer-
supervised assessments, 430 technical and behavioral incidents were recorded, such as disconnections
and screen freezes, which increased pressure on students. The perception survey showed that 42%
experienced greater nervousness, 26% reported loss of concentration, and 42% reported technical
problems, of which 29% considered them to have directly affected their performance. Overall, the
findings suggest that technical and emotional factors associated with supervision may reduce online
performance and highlight the need to design more robust assessment strategies sensitive to these
conditions.
Keywords: digital monitoring, data science, online education
Artículo recibido 02 setiembre 2025
Aceptado para publicación: 29 setiembre 2025

pág. 11222
INTRODUCCIÓN
El acelerado avance tecnológico y la pandemia del COVID-19 consolidaron la educación en línea
como una modalidad flexible, accesible y global (Ramírez García et al., 2021). Este crecimiento,
potenciado por el auge de la inteligencia artificial generativa, ha planteado nuevos desafíos para la
integridad académica (Plata et al., 2023), lo que obliga a las instituciones a establecer políticas claras
que garanticen la calidad y credibilidad en entornos digitales (Fidas et al., 2023).
Las investigaciones recientes en educación superior demuestran una correlación positiva entre el uso
eficaz de las competencias digitales y el rendimiento académico (Ginger Kimberly Salguero Alcalá,
2024). Aunque el concepto de «vicios digitales» no se correlaciona directamente con el rendimiento
académico, se hace hincapié en el uso responsable de la tecnología (Flores Zavaleta, 2024). De hecho,
el uso frecuente de las tecnologías de la información y la comunicación (TIC) para el aprendizaje y la
colaboración ha demostrado ser beneficioso para el rendimiento de los estudiantes (Agüero Corzo &
Dávila Morán, 2023)
En este contexto de integración digital, han surgido tecnologías de supervisión electrónica para
exámenes a distancia. La investigación actual se centra en comprender su eficacia, su impacto en la
dinámica educativa y la percepción que tienen de ellas estudiantes y profesores (Zavaleta, 2024).
Estos resultados ponen de manifiesto la importancia de integrar las TIC de manera estratégica y de
comprender a fondo su papel en el rendimiento académico.
Uno de los principales retos en este escenario es la evaluación en entornos virtuales, lo que ha
impulsado la adopción de herramientas de supervisión digital o proctoring. Estas soluciones utilizan
cámaras, micrófonos y algoritmos de detección para identificar conductas irregulares, reduciendo la
necesidad de presencia física y buscando asegurar la transparencia en los procesos evaluativos
(González-González et al., 2020). Entre ellas, Proctorizer se ha posicionado como una alternativa
escalable, con integración en plataformas LMS y funcionalidades de autenticación biométrica y
monitoreo inteligente (Tweissi et al., 2022; Labayen et al., 2021). No obstante, su implementación
también conlleva riesgos asociados a la privacidad, la dependencia tecnológica y la generación de
estrés o ansiedad en los estudiantes (Marano et al., 2024; Flores Zavaleta, 2024).

pág. 11223
En este estudio, este componente emocional fue considerado mediante la aplicación de una encuesta
de percepción sobre estrés y concentración, con el fin de evaluar si la supervisión digital afecta el
bienestar estudiantil y cómo se vincula con el rendimiento académico.
La literatura previa muestra hallazgos contradictorios: mientras algunos estudios concluyen que el
proctoring no genera diferencias significativas en el rendimiento académico (Oeding et al., 2024; Lee,
2020), otros destacan efectos indirectos como ansiedad, problemas técnicos y percepciones negativas
de confianza (Infante et al., 2022; Henry & Oliver, 2022). Esta divergencia evidencia la necesidad de
definir en qué condiciones estas herramientas contribuyen o, por el contrario, limitan el desempeño
estudiantil.
En paralelo, las analíticas de aprendizaje y la Ciencia de Datos se han consolidado como enfoques
relevantes para estudiar patrones de interacción en plataformas virtuales. Variables como el número
de accesos, las revisiones de recursos y la participación en actividades se han asociado con el
compromiso y rendimiento académico (Rivas et al., 2021; Cervantes López et al., 2020; Nieuwoudt,
2020). Integrar estas métricas con los registros de supervisión digital permite un análisis más
completo de los factores que inciden en el desempeño (Maraza et al., 2020; Calderón et al., 2022; Prat
et al., 2021).
En este contexto, la presente investigación propone un estudio comparativo real en un curso
universitario conformado por 53 estudiantes, quienes realizaron ocho evaluaciones: cuatro sin
supervisión y cuatro con Proctorizer. El objetivo general es analizar el impacto del uso de
herramientas de supervisión digital en el rendimiento académico mediante técnicas de Ciencia de
Datos, comparando las calificaciones en ambas condiciones, explorando la relación con el uso de
recursos pedagógicos y el tiempo de resolución, e incorporando además la percepción de estrés
académico, con el fin de identificar patrones diferenciados de comportamiento en entornos
supervisados y no supervisados.
METODOLOGÍA
Diseño y Enfoque del Estudio
El presente trabajo adopta un enfoque cuantitativo, de tipo comparativo y correlacional no
experimental, orientado a analizar el impacto del uso de la supervisión digital mediante Proctorizer en

pág. 11224
el rendimiento académico de estudiantes universitarios en entornos virtuales. El estudio se sustenta en
la comparación de evaluaciones realizadas con y sin supervisión digital, considerando además
variables complementarias relacionadas con el comportamiento de estudio, los incidentes técnicos y la
percepción de estrés de los participantes. Este enfoque permite obtener una visión integral del
fenómeno, evaluando tanto los efectos directos en las calificaciones como los factores contextuales
que influyen en el desempeño.
Población y Muestra
La población corresponde a estudiantes universitarios matriculados en un curso virtual de Física I. La
muestra está compuesta por 53 participantes, quienes realizaron un total de ocho evaluaciones: cuatro
sin supervisión digital (semanas 1–4) y cuatro con supervisión mediante Proctorizer (semanas 5–8).
En total, se recopilaron 424 observaciones (53 estudiantes × 8 evaluaciones). Las bases de datos
iniciales, integradas desde Moodle y Proctorizer, generaron aproximadamente 35 000 registros brutos
de eventos de acceso y supervisión. Tras un proceso de depuración y simplificación, se consolidó un
conjunto de datos analíticos que conserva la riqueza del registro original, pero enfocado en las
variables de interés para el análisis comparativo.
Variables de Análisis
El estudio consideró tanto variables individuales como contextuales. La variable independiente
principal fue el uso de Proctorizer, las variables dependientes incluyeron la calificación obtenida en
cada evaluación y el tiempo de resolución. Adicionalmente, se contempló el comportamiento de
estudio, representado por la interacción con recursos pedagógicos que abarca la revisión de
diapositivas, grabaciones, tareas y materiales complementarios.
Se incorporaron también variables complementarias de carácter agregado: los incidentes reportados
por Proctorizer durante las evaluaciones y los resultados de una encuesta de percepción de estrés
académico aplicada a los estudiantes. Estas fuentes adicionales no se vincularon a registros
individuales, sino que se analizaron de forma global para contextualizar los resultados del
rendimiento. Finalmente, se controló la homogeneidad de las evaluaciones en términos de formato,
dificultad y contenidos, con el fin de evitar sesgos en la comparación.

pág. 11225
Fuentes de Datos
La información utilizada provino de tres fuentes principales. Desde Moodle se extrajeron los registros
de calificaciones, los tiempos de permanencia y los accesos a recursos académicos. Desde Proctorizer
se obtuvieron los reportes globales de incidencias generadas durante los exámenes supervisados.
Finalmente, se aplicó una encuesta de percepción a los estudiantes, en la que se midieron niveles de
estrés y concentración durante las evaluaciones bajo supervisión digital. La integración de estas
fuentes permitió combinar datos objetivos con percepciones subjetivas, enriqueciendo la
interpretación de los hallazgos.
Procedimiento y Técnicas de Datos
El procesamiento y análisis de los datos se realizaron en RStudio, siguiendo un flujo de trabajo
estructurado. En la fase inicial se llevó a cabo la recopilación y exploración de la información,
seguida de la depuración de los datos, lo que incluyó la corrección de valores atípicos y la unificación
de la información en un único conjunto de datos. Posteriormente, se desarrolló un análisis descriptivo
que incluyó medidas de tendencia central y dispersión, así como representaciones gráficas
comparativas de las variables de interés en ambas condiciones de supervisión.
En la etapa inferencial se aplicó un Análisis de Covarianza (ANCOVA) para evaluar el efecto del uso
de Proctorizer sobre el rendimiento académico, controlando el tiempo como covariable. La variable
independiente fue el Uso_Proctorizer (Con_Proctorizer/ Sin_Proctorizer), la covariable Tiempo
(continua) y la variable dependiente el promedio de calificaciones. Se eligió ANCOVA en lugar de
ANOVA por su capacidad de aislar el efecto de Proctorizer de la influencia del tiempo.
Adicionalmente, se realizó un Análisis de Regresión Simple para evaluar la relación entre la revisión
de recursos y el rendimiento académico.
De manera complementaria, se realizaron pruebas t para muestras relacionadas y análisis de varianza
de medidas repetidas, con el fin de confirmar la consistencia de los resultados. Los reportes de
incidencias y los resultados de la encuesta se analizaron mediante estadística descriptiva, incluyendo
frecuencias, porcentajes y medias, los cuales se integraron como evidencia contextual en la discusión,
para ello se emplearon los paquetes de R tidyverse (dplyr, tidyr, ggplot2), car (ANCOVA), emmeans
(medias ajustadas e intervalos de confianza) y effectsize (magnitudes de efecto).

pág. 11226
La Figura 1 muestra el flujo de trabajo del estudio.
Figura 1. Flujo de trabajo de los datos (Recolección, limpieza, análisis e interpretación).
Encuesta de Estrés Académico
Como complemento a los datos objetivos, se aplicó un cuestionario de percepción con carácter
anónimo y voluntario. El instrumento estuvo conformado por nueve ítems en escala Likert de cinco
puntos, orientados a evaluar la experiencia de los estudiantes durante las evaluaciones con supervisión
digital. Las preguntas se organizaron en torno a cinco dimensiones principales: estrés y nerviosismo,
capacidad de concentración, confianza en el desempeño, dificultades técnicas asociadas al sistema de
supervisión y percepción de la dificultad de la prueba.
Los resultados se analizaron a nivel grupal, sin asociarse a registros individuales, y se incorporaron
como evidencia complementaria en la interpretación de los hallazgos cuantitativos. De esta manera, la
encuesta permitió contextualizar los efectos del uso de Proctorizer desde la perspectiva subjetiva de
los estudiantes.
Consideraciones Éticas
La investigación respetó los principios éticos de confidencialidad y anonimización de datos. Toda
información personal fue eliminada o sustituida por códigos antes del análisis. Los registros obtenidos
de Moodle y Proctorizer fueron utilizados exclusivamente con fines académicos, y la encuesta incluyó
consentimiento informado explícito.
RESULTADOS Y DISCUSIÓN
Rendimiento académico con y sin Proctorizer
El análisis de las calificaciones (Tabla 1), mostró diferencias entre las evaluaciones realizadas sin
supervisión digital y aquellas con supervisión mediante Proctorizer. En promedio, las notas de los
cuestionarios con Proctorizer fueron ligeramente inferiores a las obtenidas sin supervisión.

pág. 11227
Este hallazgo coincide con estudios previos (Lee, 2020; Infante et al., 2022), que señalan que el
monitoreo remoto puede generar un efecto inhibidor o de estrés que repercute en el desempeño.
Los tiempos de resolución presentaron mayor dispersión bajo condiciones de vigilancia, lo que indica
que algunos estudiantes necesitaron más tiempo para completar sus evaluaciones (Tabla 2), mientras
que otros apresuraron su finalización, posiblemente por ansiedad o dificultades técnicas.
Tabla 1. Extracto de datos de notas y tiempos de estudiantes.
Notas Tiempo Uso Proctorizer
7.42 21.3 Sin Proctorizer
5.9 22.2 Con Proctorizer
9.07 19.7 Sin Proctorizer
9.32 19.8 Con Proctorizer
9.88 19.2 Sin Proctorizer
9.88 24.1 Con Proctorizer
Tabla 2. Resultados de ANCOVA
Df Sum Sq Mean Sq F value Pr(>F)
Uso_Proctorizer 1 17.61 17.609 7.885 0.00615
Tiempo 1 2.27 2.267 1.015 0.31645
Residual 87 194.28 2.233
El modelo ANCOVA mostró que, el uso de Proctorizer tuvo un efecto significativo en las
calificaciones (F(1,87)=7.885; p=0.006), con un tamaño de efecto medio (ηp²=0.083; f≈0.30). El
tiempo de resolución no mostró efecto (p=0.316), indicando que dedicar más o menos tiempo no
influyó en las notas una vez considerada la variable de supervisión
Tabla 3. Promedios ajustados
Uso_Proctorizer emmean SE df lower.CL upper.CL
Con_Proctorizer 8.31 0.234 87 7.85 8.78
Sin_Proctorizer 9.05 0.234 87 8.58 9.51
Los promedios ajustados (Tabla 3) confirmaron un mejor rendimiento sin supervisión (M=9.05,
IC95% [8.58, 9.51]) en comparación con la supervisión mediante Proctorizer (M=8.31, IC95% [7.85,
8.78]) (Figura 2).

pág. 11228
Figura 2. Promedio del rendimiento académico ajustado por uso de Proctorizer
De forma complementaria, se evaluó la relación entre la revisión de recursos y el rendimiento
académico (Tabla 4).
Tabla 4. Análisis de Regresión Simple
Estimate Std. Error t value Pr(>|t|)
Intercept 7.8183 0.4148 18.850 <2e-16
Revisión de recursos 0.4481 0.2250 1.991 0.0518
La revisión de recursos mostró una tendencia positiva sobre el rendimiento (β=0.448, EE=0.225;
t=1.991; p=0.052), aunque no alcanzó la significancia convencional. El modelo explicó una
proporción reducida de la variabilidad (R²=0.072; R² ajustado=0.054; F(1,51)=3.97), lo que sugiere la
conveniencia de utilizar mediciones más detalladas de estudio (p. ej., minutos dedicados o tipo de
recurso) en investigaciones futuras.
Análisis de Incidencias en Proctorizer
Durante las cuatro evaluaciones con supervisión digital, el sistema Proctorizer reportó un total de 430
incidencias (Figura 3). Las categorías más frecuentes fueron los intentos con incidentes (37,6%) y la
detección de usuarios ausentes (29,1%). En menor medida, se registraron problemas de identificación
(5,3%), salidas del examen (4,4%) e intentos de bloqueo del sistema (1,6%). La detección de personas
adicionales y cámaras virtuales fue prácticamente nula.
pág. 11229
Estos resultados permiten identificar que, si bien el sistema cumple la función de control y monitoreo,
muchas corresponden a problemas técnicos o interrupciones sin implicaciones de fraude, lo que
genera un factor adicional de presión para los estudiantes.
Este panorama sugiere que las incidencias registradas constituyen un factor adicional de presión y
estrés para los estudiantes, lo que se complementa con la evidencia obtenida en la encuesta de
percepción sobre ansiedad durante los exámenes.
En conjunto, estos hallazgos respaldan la hipótesis de que la caída en el rendimiento académico bajo
supervisión digital podría estar asociada tanto a la vigilancia como a los problemas técnicos del
sistema.
Figura 3. Frecuencia total de incidencias en las 4 evaluaciones con Proctorizer
Encuesta de Estrés Académico
De los 53 estudiantes que conformaron la muestra, 38 completaron el cuestionario de percepción
sobre Proctorizer, lo que representa una tasa de respuesta del 72%.

pág. 11230
Figura 4. Resultados de la encuesta sobre el uso de Proctorizer en las evaluaciones
Los resultados reflejan un impacto relevante en la experiencia de los estudiantes al rendir
evaluaciones bajo supervisión digital con Proctorizer:
▪ Nerviosismo y ansiedad: El 42% de los estudiantes manifestó sentirse más nervioso al rendir las
evaluaciones supervisadas digitalmente.
▪ Confianza y concentración: El 26% señaló que la grabación continua afectó su concentración,
mientras que un 24% indicó que la supervisión redujo su confianza en las respuestas.
▪ Problemas técnicos: El 42% reportó haber enfrentado problemas técnicos (desconexiones, fallos
de cámara o micrófono), de los cuales un 29% afirmó que estos incidentes afectaron
directamente su rendimiento académico.
▪ Dificultad percibida: El 34% opinó que los exámenes con Proctorizer resultaron más difíciles en
comparación con los que no tuvieron supervisión digital.
▪ Facilidad de uso: El 66% consideró que la plataforma fue fácil de utilizar, aunque algunos
estudiantes señalaron dificultades asociadas a la compatibilidad técnica.
▪ Tiempo asignado: El 71% coincidió en que el tiempo otorgado para completar las evaluaciones
fue suficiente.
Estos resultados no deben interpretarse únicamente como una reducción de notas, sino también como
un indicador de mayor validez y confiabilidad en el proceso evaluativo.

pág. 11231
La supervisión digital restringe el uso de apoyos externos y favorece una medición más fiel de las
competencias reales del estudiante. Así, aunque las calificaciones bajo Proctorizer sean más bajas,
reflejan un aprendizaje más genuino y éticamente consistente.
Integración de hallazgos
La triangulación de resultados (calificaciones, incidencias y percepción estudiantil) revela un patrón
consistente:
▪ Calificaciones más bajas en condiciones de supervisión digital.
▪ Alta frecuencia de incidencias técnicas, que contribuyen al estrés.
▪ Percepción negativa de los estudiantes, marcada por nerviosismo y pérdida de confianza.
Estos hallazgos sugieren que el impacto de Proctorizer va más allá de su función técnica de vigilancia:
afecta la experiencia emocional de los estudiantes y condiciona su rendimiento académico.
CONCLUSIONES
El presente estudio evidenció que la implementación de herramientas de supervisión digital como
Proctorizer tiene un impacto significativo en el rendimiento académico de los estudiantes
universitarios. El análisis estadístico mostró una disminución en las calificaciones bajo supervisión
digital, incluso al controlar el tiempo de resolución de las pruebas, lo que indica que la variación en el
desempeño no obedece únicamente a factores técnicos, sino también al efecto de la vigilancia misma.
Los resultados de la encuesta complementaria confirmaron que la supervisión digital incrementa los
niveles de nerviosismo y ansiedad, reduce la confianza en las respuestas y afecta la concentración,
además de generar dificultades asociadas a problemas técnicos recurrentes. Estos hallazgos resaltan la
dimensión emocional como un factor determinante que debe considerarse en el diseño de
evaluaciones en entornos virtuales.
Asimismo, las evaluaciones realizadas sin supervisión reportaron calificaciones más altas. Si bien este
hallazgo podría interpretarse como un mejor desempeño, también sugiere la posibilidad de que, en
ausencia de control, los estudiantes recurran a apoyos externos (incluidas herramientas de inteligencia
artificial), lo que introduce un sesgo que compromete la validez de los resultados y plantea un dilema
ético en la evaluación en línea.

pág. 11232
Los resultados obtenidos mediante el modelo ANCOVA, muestran que existe una diferencia en el
rendimiento académico entre los dos grupos, por lo cual resulta ser estadísticamente significativa. Es
importante destacar que la diferencia de rendimiento no se debe a la cantidad de tiempo que los
estudiantes dedicaron, sino al uso de la herramienta de supervisión en sí.
A partir del análisis de regresión simple, no podemos concluir que la revisión de recursos tenga un
impacto estadísticamente significativo en las notas finales, basándonos en el nivel de significancia de
0.05. Aunque el valor p está muy cerca de ser significativo, la regla general es que si p>α, el resultado
no se considera significativo. Además, el bajo valor de R-squared indica que la relación, aunque
exista, es débil.
En consecuencia, más allá de la implementación de tecnologías de supervisión, se hace indispensable
fortalecer la moral académica y el compromiso ético de los estudiantes, promoviendo que el
aprendizaje y la evaluación se desarrollen de manera autónoma, transparente y sin dependencia de la
inteligencia artificial. Solo a partir de una formación que combine integridad académica,
responsabilidad personal y acompañamiento pedagógico será posible alcanzar procesos evaluativos
justos, sostenibles y coherentes con la misión formativa de la educación superior.
REFERENCIAS BIBLIOGRAFICAS
Agüero Corzo, E. d., & Dávila Morán, R. C. (2023). Efectos cuantitativos del uso de TIC en el
rendimiento. https://doi.org/10.46502/issn.1856-7576/2023.17.04.2
Calderón Valenzuela, J., Payihuanca Mamani, K., & Bedregal Alpaca, N. (2022). Educational data
mining to identify the patterns of use made by the university professors of the moodle platform.
International journal of advanced computer science and applications: IJACSA, 13(1), 321-328.
https://doi.org/10.14569/ijacsa.2022.0130140
Cervantes López, M. J., Llanes Castillo, A., Peña Maldonado, A. A., & Cruz Casados, J. (2020).
Estrategias para potenciar el aprendizaje y el rendimiento académico en estudiantes
universitarios. Revista venezolana de gerencia, 25(90), 579-594.
https://doi.org/10.37960/rvg.v25i90.32402
Fidas, C. A., Belk, M., Constantinides, A., Portugal, D., Martins, P., Pietron, A. M., . . . Avouris, N.
(2023). Ensuring academic integrity and trust in online learning environments: A longitudinal

pág. 11233
study of an AI-centered proctoring system in tertiary educational institutions. Education
sciences, 13(6), 566. https://doi.org/10.3390/educsci13060566
Flores Zavaleta, C. E. (2024). Revisión sistemática de la literatura sobre las tecnologías de e-
proctoring para la supervisión de exámenes en educación superior: Entre la innovación y el
daño. Perfiles educativos, 46(185), 90-110.
https://doi.org/10.22201/iisue.24486167e.2024.185.61323
Ginger Kimberly Salguero Alcalá, J. L. (2024). Competencias digitales y rendimiento académico en
los estudiantes universitarios. Horizontes. Revista de Investigación en Ciencias de la Educación.
https://doi.org/10.33996/revistahorizontes.v8i32.713
González-González, C. S., Infante-Moro, A., & Infante-Moro, J. C. (2020). Implementation of E-
proctoring in online teaching: A study about motivational factors. Sustainability, 12(8), 3488.
https://doi.org/10.3390/su12083488
Henry, J. V., & Oliver, M. (2022). Who will watch the watchmen? The ethico-political arrangements
of algorithmic proctoring for academic integrity. Postdigital science and education, 4(2), 330-
353. https://doi.org/10.1007/s42438-021-00273-1
Infante Moro, A., Infante Moro, J. C., Gallardo Pérez, J., & Martínez López, F. (2022). Key factors in
the implementation of E-proctoring in the spanish university system. Sustainability, 14(13),
8112. https://doi.org/10.3390/su14138112
Lee, J. W. (2020). Impact of proctoring environments on student performance: Online vs offline
proctored exams. Journal of Asian Finance Economics and Business, 7(8), 653-660.
https://doi.org/10.13106/jafeb.2020.vol7.no8.653
Marano , E., Newton, P. M., Birch, Z., Croombs, M., Gilbert, C., & Draper, M. J. (2024). What is the
student experience of remote proctoring? A pragmatic scoping review. Higher education
quarterly, 78(3), 1031-1047. https://doi.org/10.1111/hequ.12506
Maraza Quispe, B., Melina , O., Choquehuanca Quispe, W., Caytuiro Silva, N., & Herrera Quispe, J.
(2020). Towards a standardization of learning behavior indicators in virtual environments.
International journal of advanced computer science and applications : IJACSA, 11(11), 146-
152. https://doi.org/10.14569/ijacsa.2020.0111119

pág. 11234
Nieuwoudt, J. E. (2020). Investigating synchronous and asynchronous class attendance as predictors
of academic success in online education. Australasian journal of educational technology, 36(3),
15-25. https://doi.org/10.14742/ajet.5137
Oeding, J., Gunn, T., & Seitz, J. (2024). The mixed-bag impact of online proctoring software in
undergraduate courses. Open praxis, 16(1), 82-93. https://doi.org/10.55982/openpraxis.16.1.585
Plata, S., De Guzman, M., & Quesada, A. (2023). Emerging research and policy themes on academic
integrity in the age of chat GPT and generative AI. Asian journal of university education, 19(4),
743-758. https://doi.org/10.24191/ajue.v19i4.24697
Prat, J., Llorens, A., Salvador, F., Alier, M., & Amo, D. (2021). A methodology to study the
university’s online teaching activity from virtual platform indicators: The effect of the Covid-19
pandemic at Universitat Politècnica de Catalunya. Sustainability, 13(9), 5177.
https://doi.org/10.3390/su13095177
Ramírez García, A. G., Espejel García, A., Pirela Hernández, A. A., & Castillo Escalante, I. C.
(2021). Educación virtual: alternativa en un sistema educativo globalizado. Revista venezolana
de gerencia, 26(6 Edición especial), 376-389. https://doi.org/10.52080/rvgluz.26.e6.23
Rivas, A., González-Briones, A., Hernández, G., Prieto, J., & Chamoso, P. (2021). Artificial neural
network analysis of the academic performance of students in virtual learning environments.
Neurocomputing, 423, 713-720. https://doi.org/10.1016/j.neucom.2020.02.125
Tweissi, A., Al Etaiw, W., & Al Eisawi, D. (2022). The accuracy of AI-based automatic proctoring in
online exams. Electronic journal of e-learning, 20(4), 419-435.
https://doi.org/10.34190/ejel.20.4.2600
Zavaleta, C. E. (2024). Revisión sistemática de la literatura sobre las tecnologías de e-proctoring para
la supervisión de exámenes en educación superior. Perfiles Educativos, 90–110.
https://doi.org/10.22201/iisue.24486167e.2024.185.61323