pág. 4983
EFECTO DE LA MODALIDAD DE

ADMINISTRACIÓN DE PRUEBAS DE INGRESO EN

EL RENDIMIENTO ACADÉMICO DE LOS

ASPIRANTES UNIVERSITARIOS

EFFECT OF TEST ADMINISTRATION MODALITY ON THE

ACADEMIC PERFORMANCE OF UNIVERSITY APPLICANTS

M.A. Karinn Johanna Sandoval Cumes

Universidad de San Carlos de Guatemala
pág. 4984
DOI:
https://doi.org/10.37811/cl_rcm.v9i5.19824
Efecto de la modalidad de administración de pruebas de ingreso en el
rendimiento académico de los aspirantes
universitarios
M.A. Karinn Johanna Sandoval Cumes
1
karinn.sandoval@gmail.com

https://orcid.org/0000
-0002-1617-238X
Universidad de San Carlos de Guatemala

Escuela de Formación de Profesores de Enseñanza Media EFPEM

Guatemala

RESUMEN

La evaluación de ingreso universitaria es una práctica para establecer cohortes de aspirantes con mejor
preparación para iniciar su vida académica y mantener la sostenibilidad de estudiantes matriculados en
las unidades de educación superior. El objetivo de esta investigación fue analizar el efecto que tiene
sobre el rendimiento académico el cambio en la modalidad de aplicación de la prueba de conocimientos
básicos de biología para ingresar a la Universidad de San Carlos de Guatemala. Esta pasó de ser
presencial, en formato papel y lápiz, a virtual, por medio de un dispositivo electrónico. La metodología
se concibió desde el paradigma postpositivista, enfoque cuantitativo, alcance relacional y diseño no
experimental. La población de estudio estuvo constituida por dos cohortes de aspirantes: 9,638
evaluados en 2018, en modalidad papel y lápiz; y 14,277 evaluados en 2021, en modalidad por
computadora. Los resultados indican que se incrementó el número de aspirantes que ganaron la prueba
de ingreso de biología en 2021, así como un promedio estadísticamente superior en la cohorte que realizó
la prueba por medios electrónicos. Sin embargo, esta mejora se realizó en un contexto de no supervisión
durante la adaptación de la educación a los entornos virtuales durante la pandemia por COVID-19.

Palabras clave: educación superior; evaluación en papel y lápiz; evaluación por computadora; pruebas
de ingreso; rendimiento académico.

1
Autor principal
Correspondencia:
karinn.sandoval@gmail.com
pág. 4985
Effect of test administration modality on the academic performance of

university applicants

ABSTRACT

The u
niversity admission test is a practice used to establish cohorts of better-prepared applicants to begin
their academic life and to maintain the sustainability of enrolled students in higher education institutions.

The objective of this research was to analyze the effect on academ
ic performance of the change in the
administration modality of the basic biology knowledge test for admission to the University of San

Carlos de Guatemala. This test transitioned from an in
-person, paper-and-pencil format to a virtual one,
administered via
an electronic device. The methodology was conceived from a post-positivist paradigm,
with a quantitative approach, relational scope, and a non
-experimental design. The study population
consisted of two cohorts of applicants: 9,638 assessed in 2018 in the
paper-and-pencil modality and
14,277 assessed in 2021 in the computer
-based modality. The results indicate an increase in the number
of applicants who passed the biology entrance exam in 2021, as well as a statistically higher average

score in the cohort t
hat took the test by electronic means. However, this improvement occurred in a non-
supervised context during the adaptation of education to virtual environments during the COVID
-19
pandemic.

Keywords
: higher education; paper-and-pencil assessment; computer-based assessment; admission
tests; academic performance

Artículo recibido 09 agosto 2025

Aceptado para publicación: 13 septiembre 2025
pág. 4986
INTRODUCCIÓN

La evaluación educativa es un instrumento utilizado por el sistema escolar para comprobar resultados,
certificar conocimientos y mejorar la calidad de la enseñanza (Hernández Nodarse, 2006; López
Azahares, 2005). En las universidades también se utiliza como mecanismo administrativo que define el
ingreso, mediante cupos, a sus carreras profesionales, especialmente en respuesta a la expansión en la
matrícula y las limitaciones físicas para absorber la creciente demanda (Garduño Madrigal, 2000). Los
mecanismos de admisión universitaria abarcan diferentes modalidades según el país: exámenes
nacionales, de aptitudes y habilidades, de conocimientos generales, evaluaciones psicométricas y
socioeconómicas (Hernández, 1998) aplicadas de forma masiva y en diferentes combinaciones.

La aplicación de este tipo de pruebas fue posible gracias a que a inicios del siglo XX, la psicometría y
la Teoría Clásica de los Test permitieron introducir mediciones más objetivas del aprendizaje,
minimizando el error y garantizando la validez de los constructos (Muñiz, 2018). Además, influyó en el
proceso el desarrollo tecnológico. En un inicio se generaron máquinas que podían evaluar de manera
fiable enormes volúmenes de exámenes en papel marcados con lápiz (Zytowski, 2008). Luego, en los
años 70, las computadoras se empezaron a utilizar para hacer más eficiente la administración de las
pruebas y el procesamiento de los resultados (Cartwright y Derevensky, 1975). Actualmente, los
sistemas informáticos son esenciales para diseñar, implementar y ejecutar los procesos de ingreso a la
educación superior (García Ojalvo et al., 2020).

El paso de las pruebas en papel y lápiz a las realizadas en computadora revolucionó el campo de la
evaluación educativa, abriendo nuevas posibilidades, pero también retos en el diseño, aplicación y
análisis de estas. Entre los problemas, se considera que el cambio de formato puede reducir la
accesibilidad a las pruebas para ciertas poblaciones, hasta la alteraciones de los resultados, sin que esto
esté necesariamente relacionado con la habilidad del estudiante en el tema evaluado. Entre las
principales barreras de acceso a pruebas digitales se encuentran la disponibilidad de computadoras en el
hogar, las limitaciones de acceso a internet, las habilidades digitales en uso de software y hardware y
las actitudes hacia el cambio (Dumbrauskas et al., 2025).

Los factores moderadores que influyen en la magnitud y dirección del impacto del modo de
administración de la prueba sobre el rendimiento estudiantil incluyen la familiaridad con el contenido
pág. 4987
de la prueba (Clariana y Wallace, 2002) y el tipo y formato de sus ítems, como los de elección múltiple,
respuesta corta o ensayos presentados en una forma lineal en una hoja de papel con efectos diversos
(McClelland y Cuevas, 2020), versus los ítems interactivos, las simulaciones o preguntas basadas en
escenarios de una prueba digital.

Las variables demográficas y psicométricas del estudiante, como el género (Bucheli Muñoz y
Betancourt, 2024), la edad (Cáceres Silva, 2023), el nivel socioeconómico (Campoverde Montesdeoca,
2024), la personalidad y el manejo de la ansiedad ante los exámenes, pueden interactuar con la forma
de administración y el rendimiento del estudiante (Brüggemann et al., 2023). Algunos autores sugieren
que la interacción con la tecnología puede suponer una carga cognitiva adicional para el evaluado,
reduciendo recursos de la tarea de interés de la evaluación. Sin embargo, los hallazgos en este ámbito
son heterogéneos, con estudios que no encuentran diferencias o incluso que encuentran una reducción
de la carga en ciertos escenarios digitales (Noyes et al., 2004).

Ante esta diversidad de factores, resultados y desafíos, diferentes grupos de investigación han estudiado
cómo afecta al rendimiento académico, la utilización de los dispositivos electrónicos. Para ello han
compararado las evaluaciones virtuales con las realizadas en forma tradicional, en papel y lápiz, no
llegándose a un consenso. Estos varían de quienes cuentan con evidencia a favor de las pruebas en
computadora (Barrios Pinilla et al., 2023; Kiss y Moreira Bastos, 2025;
Taşkın y Erzurumlu, 2023;
Taşkın y Kokoç, 2025
), de las pruebas en papel y lápiz (Abonobi, 2021; Morsi et al., 2021; Scrimgeour
y Hung, 2022) y de quienes sostienen que no hay diferencia entre ambas modalidades (Abumalik y
Alqahtani, 2024; Burgmanis et al., 2023; Mate y Weidenhofer, 2021; Quintana Roca, 2023; Saleh et al.,
2022; Shahini y Hashemi Toroujeni, 2023; Yu e Iwashita, 2021) para diferentes niveles educativos,
materias y contextos.

Tomando en cuenta lo anterior, este artículo aborda el efecto que tiene sobre el punteo alcanzado por
los aspirantes de ingreso a la Universidad de San Carlos de Guatemala el cambio en la modalidad de
aplicación de una prueba de conocimientos básicos de biología, pasando de un formato tradicional,
presencial, en papel y lápiz en el año 2018 a uno mediado por dispositivos electrónicos como lo son una
computadora, tableta o teléfono inteligente en el año 2021, realizada en el contexto de la pandemia por
COVID-19. Esto en respuesta a la necesidad de conocer la conducta del fenómeno con base en evidencia.
pág. 4988
Las pruebas de conocimientos básicos para ingresar a la Universidad de San Carlos de Guatemala se
iniciaron a aplicar en formato tradicional en el año 2001 (Reyes Hernández, 2015) hasta 2019. A raíz de
la pandemia, en 2020 se llevó a cabo un traslado emergente hacia el formato virtual, a distancia, que
abarcó cuatro años en que las instalaciones universitarias permanecieron cerradas. A partir de 2024 se
practican pruebas digitales, pero presenciales, bajo estándares de supervisión. El diseño, validación,
administración, calificación y publicación de resultados está a cargo del Sistema de Ubicación y
Nivelación (SUN), unidad administrativa creada para tal fin dentro de la estructura de la Universidad de
San Carlos de Guatemala.

La importancia de esta investigación radica en la contribución de los datos empíricos a comprender de
mejor manera la evaluación por medio de tecnologías para grupos masivos en situaciones de emergencia.
A la vez, establecer cómo los resultados y lecciones aprendidas podrían considerarse en el diseño de un
sistema de evaluación mejorado bajo este esquema. Esto es relevante ante el creciente número de
estudiantes que aspiran a ingresar a la educación superior para obtener un título universitario. E incluso
para establecer las bases para la implementación de futuros programas a distancia.

Por lo anterior, esta investigación tiene como pregunta principal: ¿Cómo afecta la modalidad de
aplicación de la prueba de conocimientos básicos de biología el rendimiento académico de los aspirantes
para ingresar a la Universidad de San Carlos de Guatemala? Para responder a la pregunta, se estableció
como objetivo general analizar el efecto de la modalidad de aplicación de la prueba de conocimientos
básicos de biología en el rendimiento académico de los aspirantes de ingreso a la Universidad de San
Carlos de Guatemala. Para su alcance se plantearon los siguientes objetivos específicos:

a) Describir los resultados alcanzados por los aspirantes de ingreso a la Universidad de San Carlos
de Guatemala en la prueba de conocimientos básicos de biología en la modalidad papel y lápiz
(2018) y en computadora (2021).

b) Describir el rendimiento académico de los aspirantes de ingreso a la Universidad de San Carlos
de Guatemala en la prueba de conocimientos básicos de biología en la modalidad papel y lápiz
(2018) y en computadora (2021).

c) Analizar la distribución de frecuencias de las calificaciones alcanzadas por los aspirantes de
ingreso a la Universidad de San Carlos de Guatemala en la prueba de conocimientos básicos de
pág. 4989
biología en la modalidad papel y lápiz (2018) y en computadora (2021).

d) Comparar el rendimiento académico de los aspirantes de ingreso a la Universidad de San Carlos
de Guatemala en la prueba de conocimientos básicos de biología en la modalidad papel y lápiz
(2018) y en computadora (2021).

En respuesta a la pregunta principal que guía este estudio, la hipótesis de investigación establece que un
cambio en la modalidad de aplicación de la prueba de admisión de conocimientos básicos de biología
para ingresar a la Universidad de San Carlos de Guatemala provoca un efecto en el rendimiento
académico de los aspirantes.

METODOLOGÍA

Para responder a la pregunta, lograr los objetivos y verificar la hipótesis de investigación, se concibió el
estudio desde el paradigma postpositivista, enfoque cuantitativo, alcance relacional y diseño no
experimental. La población estuvo constituida por los aspirantes de ingreso a la Universidad de San
Carlos de Guatemala que realizaron la prueba de conocimientos básicos de biología en los años 2018
(9,638) y 2021 (14,277), con un total de 23,915 registros. Estos están distribuidos en doce unidades
académicas, seis de ellas ubicadas en la ciudad de Guatemala y otras seis, en diferentes regiones
geográficas del país. Se trabajó con el total de la población por medio de una base de datos de los
resultados obtenidos por los aspirantes. Esta base de datos fue proporcionada y autorizada para estos
fines por el Sistema de Ubicación y Nivelación de la Universidad de San Carlos de Guatemala.

Para analizar los resultados, se procedió a la limpieza de la base de datos, la conversión de las variables
cualitativas en variables cuantitativas y el análisis estadístico descriptivo e inferencial a través del
programa SPSS de IBM en su versión de prueba gratuita. Para el análisis estadístico descriptivo se
aplicaron porcentajes y análisis de frecuencias; medidas de posición y dispersión que incluyen la media,
la desviación estándar y el rango intercuartílico. Para el análisis inferencial se utilizó la prueba de
normalidad de Kolmogorov-Smirnov en ambas subpoblaciones. El p-valor fue menor a 0.001, por lo
que no tienen una distribución normal. Dado este comportamiento, se utilizó la prueba estadística no
paramétrica U de Mann-Whitney para la comparación de los dos grupos (2018 versus 2021) como
muestras independientes. Para ello se plantearon las siguientes hipótesis estadísticas:
pág. 4990
H0 = No existe diferencia estadística significativa en el rendimiento académico de los aspirantes de
ingreso a la USAC según la modalidad de aplicación de las pruebas de conocimientos básicos de
biología.

H1 = Existe diferencia estadística significativa en el rendimiento académico de los aspirantes de ingreso
a la USAC según la modalidad de aplicación de las pruebas de conocimientos básicos de biología.

RESULTADOS

Resultados alcanzados en las pruebas de conocimientos básicos de biología

Los
resultados de las pruebas de conocimientos básicos de biología se muestran en la Tabla 1. Con
relación a las 9,638 pruebas realizadas en el año 2018, a través de la modalidad presencial, por medio
del formato de papel y lápiz, en las doce unidades académicas bajo estudio, se obtuvo que 4,167 (43%)
aspirantes alcanzaron un resultado satisfactorio; mientras que 5,481 (57%) pruebas no lograron el
resultado satisfactorio en este período. Los resultados obtenidos en las 14,277 pruebas realizadas en
2021 a través de un formato digital accesible por medio de computadora, tableta o teléfono inteligente,
en las doce unidades académicas, indican que 8,118 (57%) aspirantes alcanzaron un resultado
satisfactorio, mientras que 6,159 (43%) pruebas no alcanzaron el resultado satisfactorio.

Tabla 1

Resultado de las pruebas de ingreso de biología, años 2018 y 2021

Resultados por modalidad
Total %
Insatisfactorio / Papel y lápiz
5,481 57
Satisfactorio / Papel y lápiz
4,157 43
Total año 2018
9,638 100
Insatisfactorio / Computadora
6,159 43
Satisfactorio / Computadora
8,118 57
Total año 2021
14,277 100
Como puede observarse al comparar ambos períodos de aplicación de las pruebas de ingreso, se
incrementó el porcentaje de resultados satisfactorios en 14 puntos, pasando de 43% a 57% de aspirantes
que aprobaron la prueba de conocimientos básicos de biología.
pág. 4991
Rendimiento académico en las pruebas de conocimientos básicos de biología

El rendimiento académico alcanzado por los aspirantes en las pruebas de conocimientos básicos de
biología se presenta en la Tabla 2. Al analizar las medidas de tendencia central, se observa un
rendimiento superior en la modalidad en computadora. El promedio obtenido en esta modalidad es de
56.99 puntos, superando los 53.34 de las pruebas en papel y lápiz. Esta tendencia es aún más evidente
al observar la mediana. En la prueba por computadora, el 50% de los aspirantes obtuvo una calificación
de 61.06 o superior. Mientras que, en la modalidad en papel y lápiz, este valor fue de 55. Esta diferencia
de más de 6 puntos en la mediana sugiere que los aspirantes tuvieron un mejor desempeño en la prueba
digital.

A pesar del mayor rendimiento promedio, los resultados en la prueba por computadora muestran una
mayor dispersión, como lo indica la desviación estándar de 16.71, en comparación con los 14.92 de la
prueba tradicional. Esto significa que las calificaciones en las pruebas en modalidad computadora fueron
más heterogéneas, es decir, menos consistentes entre los aspirantes.

Un dato clave es que el rango intercuartílico, que mide la dispersión del 50% central de los datos, es
idéntico en ambas modalidades (20 puntos). Esto sugiere que la variabilidad del grupo intermedio de
aspirantes fue la misma y la mayor desviación estándar en la prueba por computadora se debe a que
hubo calificaciones más extremas en los cuartiles inferior y superior, es decir, estudiantes con
desempeños muy bajos y muy altos.

Tabla 2

Estadísticas descriptivas del rendimiento académico por modalidad de prueba

Estadístico
Papel y lápiz Computadora
Media
54.34 56.99
Mediana
55.00 61.06
Desviación estándar
14.92 16.71
Calificación mínima
0 0
Calificación máxima
100 95
Rango intercuartílico
20 20
pág. 4992
Finalmente, mientras en la prueba en papel y lápiz se alcanzó la calificación máxima de 100 puntos, en
la modalidad en computadora la calificación más alta fue de 95. Ambas modalidades registran una
calificación mínima de cero.

Distribución de frecuencias de calificaciones por modalidad de aplicación de las pruebas de
conocimientos básicos de biología

La distribución de frecuencias de calificaciones obtenidas en las pruebas de conocimientos básicos de
biología en la modalidad papel y lápiz se muestra en la Figura 1. En ella, la distribución de los punteos
se asemeja a una curva normal. Se observa una concentración de las calificaciones, con un pico principal,
en el intervalo de 61 a 70 puntos y un segundo pico en el rango de 41 a 50. Esto indica una
heterogeneidad en el rendimiento de la cohorte de ese año.

Figura 1

Distribución de frecuencias de calificaciones en la prueba en papel y lápiz

L
a distribución de calificaciones en las pruebas modalidad en computadora se muestra en la Figura 2.
En ella, el comportamiento de las notas es marcadamente distinto en comparación con las pruebas en
papel y lápiz. El gráfico presenta un sesgo positivo hacia los rangos de calificaciones más altos. El
intervalo predominante es el de 61 a 70 puntos, seguido de una cantidad considerable en el rango de 71
a 80. La frecuencia de calificaciones bajas, menores a 40 puntos, es mínima en comparación con la

17
51
445
1467
2268
1233
3014
718
343
82
0 500 1000 1500 2000 2500 3000 3500
10
20
30
40
50
60
70
80
90
100
Número de pruebas de conocimientos básicos de biología
Calificación
pág. 4993
cohorte de 2018. El desplazamiento de la distribución es un indicador del incremento general en el
rendimiento académico de los aspirantes.

Figura 2

Distribución de frecuencias de calificaciones en las pruebas por computadora

Comparación del rendimiento académico en las pruebas de conocimientos básicos de biología en
modalidad papel y lápiz y computadora

Para determinar si existe diferencia estadística significativa en el rendimiento académico entre la
modalidad papel y lápiz y la modalidad en computadora, se realizó la prueba no paramétrica U de Mann-
Whitney. Los resultados de la Tabla 3 revelan que el grupo que realizó la prueba en la modalidad en
computadora (rango promedio = 12726.56) obtuvo calificaciones significativamente superiores a las del
grupo que la presentó en papel y lápiz (rango promedio = 10819.51). El análisis dio un p-valor menor
de 0.001, por lo que se rechazó la hipótesis nula.
Esto permite inferir que la modalidad de aplicación
tuvo un efecto significativo en el rendimiento de los aspirantes.

318
152
645
1159
2021
1864
5615
2105
392
6
0 1000 2000 3000 4000 5000 6000
10
20
30
40
50
60
70
80
90
100
Número de pruebas de conocimientos básicos de biología
Calificación
pág. 4994
Tabla 3

Resultados de la prueba de Mann-Whitney

Modalidad
N Rango promedio Suma de rangos
Nota
Papel y lápiz 9638 10819.51 104278416.50
Computadora
14277 12726.56 181697153.50
Total
23915
DISCUSIÓN DE RESULTADOS

Al analizar los datos, se observa un salto en el rendimiento académico de los aspirantes. El porcentaje
de aprobación de la prueba de biología para ingresar a la universidad aumentó 14 puntos, pasando de
43% en las pruebas en papel y lápiz a 57% en las pruebas en computadora. Este porcentaje es
significativo, ya que más de la mitad de los estudiantes obtuvo una calificación superior a 61, lo cual no
se había logrado en la prueba del año 2018, previo a la pandemia. A primera vista, esto podría sugerir
que la modalidad por computadora es un catalizador que propicia el éxito de los estudiantes,
favoreciendo la posibilidad de acceder a la educación terciaria o al menos a continuar en el proceso de
admisión hacia las pruebas específicas.

Sin embargo, no se debe ignorar el contexto bajo el cual se produjo el cambio. La prueba por medio de
dispositivos electrónicos se realizó de manera acelerada, y sin mayor preparación previa, durante el
período de confinamiento por la pandemia ocasionada por el SARS-CoV-2, en un ambiente virtual, a
distancia, sin supervisión. Este factor obliga a reflexionar sobre el resultado de la medición. No se podría
declarar con total certeza que la prueba mide con exactitud el conocimiento de los contenidos del
Currículum Nacional Base de Biología para educación media en Guatemala, si el entorno ha sido
afectado por recursos externos o prácticas no académicas. Por ello, aunque la honestidad académica del
aspirante no se puede medir directamente, se debe considerar como una posible explicación del
incremento en las calificaciones obtenidas en el estudio.

Estos hallazgos no son aislados. Parte de la literatura revisada coincide con estos datos; por ejemplo,
Barrios Pinilla y colaboradores (2023) hallaron resultados similares en las pruebas de admisión de
Panamá, al comparar la cohorte 2019 con la cohorte 2020. Otros autores, en distintas disciplinas,
obtienen resultados muy superiores en los exámenes virtuales (
Taşkın y Erzurumlu, 2023; Taşkın y
pág. 4995
Kokoc, 2025) o ligeramente superiores (Kiss y Moreira, 2025; Vicario et al., 2024). Todos los autores
coinciden en que estas variaciones se pueden atribuir a la falta de supervisión (proctoring), lo que
favoreció que los estudiantes tuvieran acceso a personas o diferentes tipos de herramientas para consulta,
sin el control del profesor. Lo cual es compatible con los retos a los que se enfrentó la educación a nivel
global durante la etapa de emergencia (Bailini, 2024).

Los hallazgos de esta investigación contrastan con los resultados de otros estudios donde se encontró un
mejor rendimiento académico en las pruebas tradicionales en papel y lápiz, como los de Morsi et al.
(2021), Abonobi (2022) y Scrimgeour y Hung (2022), sugiriendo que la interfaz computarizada podría,
en ciertos contextos, afectar negativamente el desempeño de los evaluados al no conocerse la nueva
interfaz tecnológica; presentar mayor ansiedad por los problemas técnicos como la falta de internet o
electricidad; o a la escasez de alfabetización informática. Un aspecto a tomar en consideración para la
interpretación de estos resultados discrepantes a los de los aspirantes de ingreso a la Universidad de San
Carlos es que, en el caso de Abonobi (2021), en ambos formatos hubo supervisión, ya sea de un profesor
o del mismo investigador. En el caso de Scrimgeour y Hung (2022), dado el contexto de aplicación de
pruebas estandarizadas, a gran escala y de alto riesgo, implica que fueron realizadas bajo condiciones
controladas.

Este panorama se vuelve más matizado cuando se considera un tercer grupo de investigadores, que no
encontraron diferencias significativas en el rendimiento promedio de los estudiantes entre ambas
modalidades. Por ejemplo, Abumalika y Alqahtani (2024) en un curso de inglés, en Arabia Saudita;
Burgmanis y otros (2023) en alfabetización numérica de la Universidad de Latvia; Quintana Roca (2023)
en un curso de física con estudiantes de Agronomía en Guatemala; Saleh y otros (2022) en un curso de
medicina en Arabia Saudita; Shahini y Hasehmi Toroujeni (2023) con estudiantes de inglés en Irán; y
Yu e Iwashita (2021) en un curso de inglés en una universidad de China. Aunque llegaron a conclusiones
similares, el contexto de supervisión de las pruebas varió entre ellos.

Burgmanis y otros (2023) y Yu e Iwashita (2021) afirman que ambas modalidades se realizaron bajo
supervisión del profesorado o de los instructores. Saleh y colaboradores (2022), aunque aplicaron
medidas de seguridad como las pruebas cronometradas y el orden aleatorio de las preguntas, no fue
posible realizar una vigilancia a través de las cámaras, ya que culturalmente no está permitido visualizar
pág. 4996
a las niñas en Arabia Saudita, lo que resultó en una limitante, existiendo la posibilidad de malas prácticas
académicas. Abumalika y Alqahtani (2024), aun en Arabia Saudita, lograron mantener entornos
controlados y registraron cualquier evento que pudiera afectar el rendimiento de los estudiantes. Por lo
que en este grupo, el tema de supervisión también fue clave, aunque con resultados diferentes.

Además de lo anterior, hay un estudio que pone esta discusión interesante. El de Mate y Weidenhofer
(2021), las cuales estudiaron tres tipos de modalidad de prueba: papel y lápiz supervisado y en línea no
supervisado sin posibilidad de retroceso en las preguntas, donde obtuvieron una puntuación equivalente.
Mientras que las pruebas en línea no supervisadas con posibilidad de retroceso en las preguntas
obtuvieron mejores punteos. Otro factor que influye es la demanda cognitiva de la pregunta. Las
preguntas que requieren interpretación, aplicación o análisis en un cuestionario en línea pueden ofrecer
el mismo rigor que una evaluación presencial. Mientras que las preguntas diseñadas en niveles
cognitivos inferiores, según la clasificación taxonómica de Bloom, favorecen la búsqueda de respuestas
y, por lo tanto, las malas prácticas académicas.

Los hallazgos de los diferentes autores ponen en evidencia algunas de las limitantes que han afectado
los resultados de esta investigación. Una de ellas es la no supervisión de los aspirantes al momento de
realizar la prueba de conocimientos básicos de biología. Se cree que esto dio pauta a la aplicación de
estrategias no académicas, como la búsqueda de respuestas en materiales adicionales en internet, la
consulta con otros miembros de la familia o amistades a través de las redes de mensajería telefónica e
incluso la posible suplantación de identidad. Aun así, el incremento en el promedio y el porcentaje de
aspirantes que aprobaron la prueba de biología no alcanzó el 100%. Los administradores de la prueba
en el SUN consideran que el sistema permitió mantener un proceso de selección adecuado para las
condiciones bajo las cuales se trabajó.

CONCLUSIONES

La modalidad de aplicación en computadora para llevar a cabo las pruebas de conocimientos básicos de
biología para ingresar a la Universidad de San Carlos de Guatemala durante el período de confinamiento
durante la pandemia por COVID-19 tuvo un efecto incremental sobre el rendimiento académico de los
aspirantes. No solo se aumentó en 14 puntos el porcentaje de aprobación, sino que el rendimiento general
se incrementó en más de seis puntos en la mediana. Tomando en cuenta que estas pruebas se hicieron
pág. 4997
en un contexto de no supervisión, las calificaciones de los aspirantes podrían no reflejar con exactitud
el conocimiento real de la materia.

La evaluación digital durante el confinamiento, según esta investigación, muestra que los mecanismos
implementados necesitan mejoras para asegurar que los resultados obtenidos en las pruebas sean
confiables y válidos. Es importante aprovechar las ventajas de la tecnología como su flexibilidad y
rapidez, sin perder la integridad académica. Se propone como futura investigación comparar el
rendimiento de los estudiantes en la nueva modalidad de evaluación presencial-digital con el método
tradicional de papel y lápiz. También se sugiere estudiar cómo perciben los aspirantes los factores que
influyen en su rendimiento en cada contexto.

REFERENCIAS
BIBLIOGRÁFICAS
Abonobi. C.C. (2022). Comparative analysis of academic achievement scores of secondary school

students exposed to computer
-based test (CBT) and paper and pen test (PPT) in Economics in
Nigeria.
Asian Journal of Advances in Research, 5(1), 754-764.
https://jasianresearch.com/index.php/AJOAIR/article/view/369

Abumalik, A.M. y Alqahtani, F.A. (2024). Effectiveness of Online Testing Versus Traditional Testing: A

Comparative Study of Saudi Female College Students.
Eurasian Journal of Applied Linguistics,
10(1), 151
-159. https://eric.ed.gov/?id=EJ1434565
Bailini, S. (2024). Evaluación y feedback en entornos virtuales de aprendizaje. En La enseñanza del
español mediada por tecnología (pp. 218-244). Routledge.

https://doi.org/10.4324/9781003146391-11

Barrios Pinilla, B.I., Barrios Barrios, D. y Corro, C. (2023). Estudio comparativo de los resultados en
las pruebas de admisión del Centro Regional Universitario de Azuero (CRUA), 2020 y 2021.
Visión Antataura, 7(2), 154-171.
https://dialnet.unirioja.es/servlet/articulo?codigo=9421338
Brüggemann, T., Ludewig, U., Lorenz, R. y McElvany, N. (2023).
Effects of Test Mode and Medium on
Elementary School Students’ Test Experience.
European Journal of Psychological Assessment.
https://econtent.hogrefe.com/doi/10.1027/1015
-5759/a000767
Bucheli Muñoz, J.A. y Betancourt, M.J. (2024). Correlación entre factores personales, familiares e
institucionales y los resultados de las pruebas Saber Once que pueden determinar el ingreso a la
pág. 4998
educación superior desde la ruralidad. Ciencia Latina: Revista Científica Multidisciplinar, 8(1),
4408-4423.
https://dialnet.unirioja.es/servlet/articulo?codigo=9430198
Burgmanis,
Ģ., Mikīte, M., France, I. y Namsone, D. (2023). Development of computer-based
diagnostic assessment system: case study of equivalence of paper
-and-pencil and computer-
based testing.
Society. Integration. Education. Proceedings of the International Scientific
Conference
, 1, 613-622. https://doi.org/10.17770/sie2023vol1.7096
Cáceres Silva, M. (2023). Determinantes del rendimiento académico en las pruebas Saber 11 del PDET
Sur de Bolívar 2021. Universidad Autónoma de Bucaramanga.

https://repository.unab.edu.co/handle/20.500.12749/23133

Campoverde Montesdeoca, M. (2024). La influencia del entorno socioeconómico en el rendimiento
académico. Dominio De Las Ciencias, 10(2), 14881498.

https://doi.org/10.23857/dc.v10i2.3889

Cartwright, G. F. y Derevensky, J. L. (1975).
An attitudinal study of computer-assisted testing as a
learning method.
Psychology in the Schools, 13(3), 317-321. https://doi.org/10.1002/1520-
6807(197607)13:3%3C317::AID
-PITS2310130316%3E3.0.CO;2-T
Clariana, R. B. y Wallace, P. E. (2002).
Paper-based versus computer-based assessment: Key factors
associated with the test mode effect.
British Journal of Educational Technology, 33(5), 593
602.

https://www.academia.edu/5503427/Paper_based_versus_computer_based_assessment_key_fa

ctors_associated_with_the_test_mode_effect

Dambrauskas, A., Wilkins, A., Ruíz, L., Cousillas, L. y Morales, M. (2025). Barreras digitales: los
desafíos de las personas jóvenes y adultas ante la prueba AcreditaCB. (Leticia Pérez, Ed.)
Fundación Ceibal, ANII, Homoludens.

https://redi.anii.org.uy/jspui/bitstream/20.500.12381/5142/1/Barreras%20digitales_versionweb

.pdf

García Ojalvo, I., Galarza López, J. y Sepúlveda Lima, R. (2000). El proceso de ingreso a la educación
superior. Los sistemas informáticos como herramientas para su ejecución. Revista Cubana de
pág. 4999
Educación Superior, 39(3), 1-20.
http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0257-
43142020000300018

Garduño Madrigal, F. (2000). Los exámenes de admisión y la selección a la universidad pública ¿razón
pedagógica o racionalidad técnica? Revista del Centro de Investigación. Universidad La Salle,
4 (14), 11-18.
https://www.redalyc.org/pdf/342/34201402.pdf
Hernández, J. (1998). Requisitos para ingresar a las Universidades en América Latina. En La
Universidad. Boletín Informativo 5(14), 11-13. Ministerio de Cultura y Educación.

http://www.bnm.me.gov.ar/giga1/monitor/La-universidad/La-universidad-N14.pdf

Hernández Nodarse, M. (2006). La evaluación del aprendizaje: ¿estímulo o amenaza? Revista
Iberoamericana de Educación, 38(1), 1-8.
https://doi.org/10.35362/rie3812668
Kiss, G. y Moreira Bastos, S. (2025).
Experiences of online and face-to-face assessment of Artificial
Intelligence subject.
Procedia Computer Science, 263, 385-390.
https://www.sciencedirect.com/science/article/pii/S1877050925020976

López Azahares, H. (2005). La evaluación como componente del proceso de enseñanza-aprendizaje.
EduSol, 5 (13), 38-46.
https://www.redalyc.org/articulo.oa?id=475748652004
Mate, K. E. y Weidenhofer, J. (2021).
Are online examinations a viable alternative to paper-based
examinations for assessment of human physiology? In
Proceedings of the Australian conference
on science and mathematics education
(pp. 78-83).
https://openjournals.test.library.sydney.edu.au/IISME/article/view/15493

McClelland, T. y Cuevas, J. (2020).
A comparison of computer-based testing and paper and pencil testing
in mathematics assessment.
The Online Journal of New Horizons in Education, 10(2), 78-89.
https://www.tojned.net/journals/tojned/articles/v10i02/v10i02
-01.pdf
Mors
i, A.A.I., Khaled, A.M.S. y El Fattah, A.S.A. (2021). Online versus paper-based exam: A
comparative study of nursing students’ satisfaction and achievement during COVID
-19
outbreak.
Assiut Scientific Nursing Journal, 9(26), 200-208.
https://dx.doi.org/10.21608/asnj.2022.114538.1292

Muñiz, J. (2018).
Introducción a la Psicometría. Teoría clásica y TRI. Ediciones Pirámide.
https://www.udocz.com/apuntes/573240/introduccion-a-la-psicometria-teoria-clasica-y
pág. 5000
Noyes, J., Garland, K. y Robbins, L. (2004). Paper
-based versus computer-based assessment: Is
workload another test mode effect?
British Journal of Educational Technology, 35(1), 111113.
https://doi.org/10.1111/j.1467
-8535.2004.00373.x
Quintana Roca, W. A. (2023).
Efecto del cambio del modelo presencial al virtual en el rendimiento
académico. Revista Científica del Sistema de Estudios de Postgrado. 6(2). 77-84. DOI:

https://doi.org/10.36958/sep.v6i2.206

Reyes Hernández, M. (2015). Caracterización de la población estudiantil que aprueba los exámenes de
conocimientos básicos del Sistema de Ubicación y Nivelación de la Universidad de San Carlos
de Guatemala. Universidad de San Carlos de Guatemala/Dirección General de Investigación.

https://www.researchgate.net/profile/Memerto-Reyes-Hernandez/publication/3351170154

Saleh, M.N., Salem, T.A.R., Alamro, A.S. y Wadi, M.M. (2022).
Web-based and paper-based
examinations: Lessons learnt during the COVID
-19 pandemic lockdown. J Taibah Univ Med
Sc
, 17(1):128e136. https://pubmed.ncbi.nlm.nih.gov/34690641/
Scrimgeour, M.B. y Huang, H.H. (2022). A comparison of Paper
-based and Computer-based Formats
for Assessing Student Achievement.
Mid-Western Educational Researcher, 34(1), 69-92.
https://scholarworks.bgsu.edu/cgi/viewcontent.cgi?article=1030&context=mwer

Shahini, G. y Hashemi Toroujeni, S.M. (2023).
Computer-Based Testing vs. Paper-Based Testing: Score
Equivalence and Testing Administration Mode Preference.
Iranian Journal of English for
Academic Purposes IJEAP
, 12(3), 17-35.
https://journalscmu.sinaweb.net/article_181854_3ec21f1a9af1c5829626bbfc731d5ec5.pdf

Taşkın, N. y Erzurumlu, K. (2023).
The examination of online and paper-pencil test scores of students
engaged in online learning.
Asian Journal of Distance Education, 18(2), 94-108.
https://files.eric.ed.gov/fulltext/EJ1410082.pdf

Taşkın, N.
y Kokoç, M. (2025). Behavioural engagement, academic dishonesty, and performance gaps:
Comparing online and paper
pencil-based tests in an online learning context. Educ Inf Technol
30, 1889518919.
https://doi.org/10.1007/s10639-025-13514-8
Vicario, C. M., Mucciardi, M., Perconti, P., Lucifora, C., Nitsche, M. A. y Avenanti, A. (2024).
The
impact of the COVID
-19 pandemic on academic performance: a comparative analysis of face-
pág. 5001
to
-face and online assessment. Frontiers in psychology, 14, 1299136.
https://doi.org/10.3389/fpsyg.2023.1299136

Yu, W. e Iwashita, N. (2021). Comparison of test performance on paper
-based testing (PBT) and
computer
-based testing (CBT) by English-majored undergraduate students in China. Language
Testing in Asia
, 11(32). https://doi.org/10.1186/s40468-021-00147-0
Zytowski, D. G. (2008). From #2 Pencils to the World Wide Web: A History of Test Scoring.
Journal of
Career Assessment, 16(4), 502-511.
https://doi.org/10.1177/1069072708318906