EVALUACIÓN DE LA EFICIENCIA DE LAS
HERRAMIENTAS DE EVALUACIÓN ACADÉMICA:
UNA REVISIÓN SISTEMÁTICA
EVALUATION OF THE EFFICIENCY OF ACADEMIC
ASSESSMENT TOOLS: A SYSTEMATIC REVIEW
Carlos Alberto López Escobar
Instituto Tecnológico de Tapachula, México
Carlos Hernández Salas
Instituto Tecnológico de Tapachula, México
Jehiely Belem Hernández Castillo
Instituto Tecnológico de Tapachula, México
Teresa del Carmen Cabrera Gómez
Instituto Tecnológico de Tapachula, México
Brayan Leonardo Maldonado Castillo
Instituto Tecnológico de Tapachula, México
pág. 6848
DOI: https://doi.org/10.37811/cl_rcm.v8i4.12868
Evaluación de la Eficiencia de las Herramientas de Evaluación Académica:
Una Revisión Sistemática
Carlos Alberto López Escobar
1
car.lopez@tapachula.tecnm.mx
https://orcid.org/0000-0002-1220-1657
Tecnológico Nacional de México
Instituto Tecnológico de Tapachula
México
Carlos Hernández Salas
car.hernandez@tapachula.tecnm.mx
https://orcid.org/0009-0001-6328-996X
Tecnológico Nacional de México
Instituto Tecnológico de Tapachula
México
Jehiely Belem Hernández Castillo
jeh.hernandez@tapachula.tecnm.mx
https://orcid.org/0000-0001-8551-0410
Tecnológico Nacional de México
Instituto Tecnológico de Tapachula
México
Teresa del Carmen Cabrera Gómez
ter.cabrera@tapachula.tecnm.mx
https://orcid.org/0009-0001-9373-1835
Tecnológico Nacional de México
Instituto Tecnológico de Tapachula
México
Brayan Leonardo Maldonado Castillo
al20510392@tapachula.tecnm.mx
https://orcid.org/0009-0009-8040-8498
Tecnológico Nacional de México
Instituto Tecnológico de Tapachula
México
RESUMEN
Las herramientas de evaluación automatizadas basadas en inteligencia artificial (IA) han transformado
la evaluación del rendimiento académico, ofreciendo la promesa de mayor precisión y eficiencia en
comparación con los métodos tradicionales. Este estudio tuvo como objetivo analizar de manera
sistemática la eficiencia de estas herramientas en términos de tiempo y recursos, revisando estudios
empíricos publicados entre 2020 y 2024. Se realizó una revisión sistemática, que incluyó
investigaciones que comparaban herramientas automatizadas y métodos tradicionales, evaluación su
precisión y eficiencia. Los resultados mostraron que las herramientas de IA mejoraron
significativamente la precisión de las evaluaciones y redujeron el tiempo y los recursos necesarios para
su ejecución. Además, se identificaron desafíos relacionados con la aceptación de estas tecnologías por
parte de docentes y estudiantes, así como preocupaciones éticas y de privacidad. La conclusión más
relevante indicó que las herramientas de evaluación basadas en IA tienen el potencial de revolucionar
los procesos evaluativos en la educación superior, proporcionando evaluaciones más precisas y
eficientes. Sin embargo, es vital abordar los desafíos y preocupaciones identificados para asegurar una
implementación exitosa y equitativa.
Palabras clave: inteligencia artificial, evaluación automatizada, eficiencia en la evaluación, precisión
académica, tendencias educativas
1
Autor principal
Correspondencia: car.lopez@tapachula.tecnm.mx
pág. 6849
Evaluation of the Efficiency of Academic Assessment Tools:
A Systematic Review
ABSTRACT
Automated evaluation tools based on artificial intelligence (AI) have transformed academic
performance assessment, offering the promise of greater accuracy and efficiency compared to
traditional methods. This study aimed to systematically analyze the efficiency of these tools in terms of
time and resources by reviewing empirical studies published between 2020 and 2024. A systematic
review was conducted, including research comparing automated tools and traditional methods,
evaluating their accuracy and efficiency. The results showed that AI tools significantly improved the
accuracy of assessments and reduced the time and resources required for their execution. Additionally,
challenges were identified related to the acceptance of these technologies by teachers and students, as
well as ethical and privacy concerns. The most relevant conclusion indicated that AI-based evaluation
tools have the potential to revolutionize assessment processes in higher education, providing more
accurate and efficient evaluations. However, it is vital to address the identified challenges and concerns
to ensure a successful and equitable implementation.
Keywords: artificial intelligence, automated evaluation, assessment efficiency, academic accuracy,
educational trends
Artículo recibido 16 julio 2024
Aceptado para publicación: 19 agosto 2024
pág. 6850
INTRODUCCN
En los últimos años, la inteligencia artificial (IA) ha emergido como una herramienta poderosa en
diversos campos, incluyendo la educación. Este artículo presenta una revisión sistemática del impacto
de las herramientas de evaluación automatizadas basadas en IA en la precisión y eficiencia de la
evaluación del rendimiento académico. La evaluación académica tradicionalmente se realiza de manera
manual, lo que conlleva un considerable uso de tiempo y recursos, además de ser susceptible a sesgos
humanos. Las herramientas automatizadas basadas en IA prometen superar estas limitaciones al ofrecer
evaluaciones más rápidas, precisas y eficientes (Padilla, 2019).
El problema de investigación central de este estudio es la necesidad de evaluar sistemáticamente cómo
estas herramientas de IA pueden mejorar la precisión y eficiencia de las evaluaciones académicas. A
pesar de los avances tecnológicos, existe un vacío significativo en la literatura respecto a la comprensión
completa de su impacto comparativo con los métodos tradicionales de evaluación (Carrasco et al.,
2023). Esta brecha en el conocimiento justifica la necesidad de un análisis profundo y sistemático.
La importancia de abordar este tema es múltiple. Primero, la implementación de IA en evaluaciones
puede liberar tiempo valioso para los educadores, permitiéndoles centrarse en otras actividades
pedagógicas críticas. Segundo, la precisión mejorada en las evaluaciones puede resultar en
retroalimentación más efectiva para los estudiantes, lo cual es esencial para su desarrollo académico
(Bolaño-García et al., 2024). Además, en un contexto donde la educación en línea se ha vuelto más
prevalente debido a eventos como la pandemia de COVID-19, las herramientas automatizadas son cada
vez más relevantes y necesarias (Arbeláez-Campillo et al., 2021).
El marco teórico que sustenta este estudio se basa en teorías de aprendizaje automatizado y evaluación
educativa. Las teorías de aprendizaje automatizado explican cómo los algoritmos pueden aprender y
mejorar su desempeño en tareas específicas con el tiempo, lo que es vital para comprender el
funcionamiento de las herramientas de IA en la evaluación. Según estas teorías, los algoritmos pueden
reducir el sesgo y aumentar la consistencia en las evaluaciones (García-Sánchez, 2023). Por otro lado,
la evaluación educativa se centra en cómo se mide el rendimiento académico y la efectividad de diversas
metodologías de enseñanza. La combinación de estas dos áreas teóricas proporciona una base sólida
para explorar el impacto de las herramientas de IA en la evaluación académica.
pág. 6851
El objetivo general de esta investigación es analizar de manera sistemática la eficiencia de las
herramientas de evaluación automatizadas basadas en IA en términos de tiempo y recursos, en
comparación con los métodos tradicionales de evaluación académica, mediante la revisión de estudios
empíricos publicados entre 2020 y 2024. Este estudio busca identificar las tendencias, desafíos y
oportunidades emergentes en la implementación de estas tecnologías en entornos educativos.
La relevancia de este estudio radica en su potencial para transformar la educación mediante la
implementación de tecnologías avanzadas que pueden optimizar los procesos de evaluación. La
identificación de las mejores prácticas y los desafíos asociados con el uso de herramientas de IA en la
evaluación puede guiar a los educadores y a los responsables de políticas en la adopción de estas
tecnologías, mejorando así la calidad y eficiencia del sistema educativo en general (Flores-Vivar, 2023).
En resumen, este artículo pretende llenar un vacío significativo en la literatura sobre el uso de IA en la
evaluación académica, proporcionando un análisis detallado y sistemático de su impacto en la precisión
y eficiencia de las evaluaciones. Al hacerlo, se espera contribuir a un mejor entendimiento y adopción
de estas tecnologías en el ámbito educativo
METODOLOGÍA
Este estudio se enmarcó dentro de una revisión sistemática de la literatura (RSL), cuyo objetivo fue
analizar la eficiencia de las herramientas de evaluación automatizadas basadas en inteligencia artificial
(IA) en la evaluación del rendimiento académico, en comparación con los métodos tradicionales. La
investigación fue de naturaleza exploratoria y descriptiva, ya que buscó identificar y describir el estado
del arte y las tendencias en el uso de herramientas de evaluación automatizadas.
El diseño fue observacional y transversal, centrado en la recopilación y análisis de estudios empíricos
publicados entre 2020 y 2024. Se siguió un enfoque fenomenológico para comprender el fenómeno de
la evaluación automatizada a través de estudios existentes. La búsqueda sistemática se realizó en varias
bases de datos científicas, y se filtraron los estudios según criterios predefinidos.
La población de estudio consistió en artículos científicos, informes técnicos y estudios empíricos
publicados en revistas indexadas y bases de datos como PubMed, Google Scholar, Scopus y Web of
Science. El muestreo fue no probabilístico por conveniencia, seleccionando estudios que cumplieran
con los criterios de inclusión y exclusión establecidos. En total, se incluyeron 27 estudios.
pág. 6852
La recolección de datos se realizó mediante una revisión documental de la literatura científica. Las bases
de datos consultadas incluyeron PubMed, Google Scholar, Scopus y Web of Science. Las palabras
clave utilizadas en la búsqueda fueron: "IA AND evaluación académica", "Artificial Intelligence AND
academic performance evaluation", "AI-based assessment tools in education", entre otras. Se utilizó una
hoja de extracción de datos diseñada y validada para sistematizar la información relevante de cada
estudio.
Instrumentos de Recolección de Datos El principal instrumento de recolección fue la hoja de
extracción de datos, que recopiló información sobre las características de los estudios, las herramientas
de evaluación utilizadas, los métodos comparados, los resultados clave y las referencias. Además, se
emplearon software especializados como Covidence para gestionar la revisión sistemática y MetaXL
para el metaanálisis.
Procedimientos La búsqueda sistemática de estudios se realizó en varias etapas:
1. Identificación de estudios mediante la búsqueda en bases de datos utilizando palabras clave
predefinidas.
2. Filtrado inicial basado en títulos y resúmenes para la selección de estudios relevantes.
3. Evaluación a texto completo para aplicar los criterios de inclusión y exclusión, para la selección
final.
4. Extracción de datos utilizando la hoja de extracción validada.
5. Análisis y síntesis de los datos extraídos.
Consideraciones Éticas: Aunque no se requirió aprobación de un comité de ética, se siguieron las
directrices PRISMA para revisiones sistemáticas. Se respetaron las declaraciones éticas de los estudios
incluidos, garantizando la confidencialidad y la integridad de los datos utilizados.
Análisis de Datos Se utilizó software especializado como Covidence para gestionar la revisión
sistemática y MetaXL para realizar el metaanálisis. Los datos extraídos fueron analizados mediante
técnicas de síntesis cualitativa y cuantitativa. Se realizaron pruebas estadísticas para evaluar la
heterogeneidad entre estudios y se aplicaron métodos de metaanálisis para sintetizar los resultados
globales.
pág. 6853
Limitaciones Las limitaciones incluyeron la posible heterogeneidad de los estudios incluidos, lo que
pudo dificultar la comparabilidad de los resultados. Se abordó este problema mediante técnicas de
metaanálisis que consideraron la heterogeneidad. Además, el acceso limitado a algunos artículos
completos pudo haber restringido la inclusión de estudios relevantes. Finalmente, la publicación
sesgada podría haber influido en la disponibilidad de estudios con resultados negativos o no
concluyentes. Se intentó mitigar estos efectos mediante una búsqueda exhaustiva y una evaluación
crítica de los estudios.
Esta metodología proporcionó una base sólida y replicable para la evaluación sistemática del impacto
de las herramientas de evaluación automatizadas basadas en IA en la precisión y eficiencia de la
evaluación del rendimiento académico. A través de una selección rigurosa y un análisis exhaustivo de
la literatura, este estudio ofreció una comprensión comprensiva y actualizada del estado del arte en este
campo emergente.
RESULTADOS Y DISCUSIÓN
Precisión de la Evaluación
La mayoría de los estudios revisados (18 de 27) encontraron que las herramientas de evaluación
automatizadas basadas en IA ofrecieron una precisión igual o superior a la de los métodos tradicionales
de evaluación manual. Gordillo (2019) y Jin y Fan (2023) reportaron que los algoritmos de machine
learning y deep learning minimizaron significativamente el sesgo humano y proporcionaron
evaluaciones más consistentes. Un estudio específico realizado por Kumar y Boulanger (2020)
demostró una alta concordancia entre las evaluaciones automatizadas y las evaluaciones humanas,
resaltando la capacidad de los algoritmos de IA para replicar el juicio humano con gran precisión.
Eficiencia en Términos de Tiempo y Recursos
Los estudios indicaron que las herramientas de IA redujeron significativamente el tiempo requerido
para evaluar el rendimiento académico. Vittorini et al. (2021) y Messer et al. (2024) encontraron que el
tiempo de corrección se redujo en más del 50% en comparación con los métodos tradicionales. Además,
se observó una optimización en el uso de recursos educativos, ya que las herramientas de IA permitieron
una distribución más eficiente del tiempo y el esfuerzo del profesorado (Ningsih, 2023).
pág. 6854
Retroalimentación Personalizada
Las herramientas de evaluación automatizadas basadas en IA no solo ofrecieron evaluaciones rápidas y
precisas, sino que también proporcionaron retroalimentación inmediata y personalizada. Esto se destacó
en estudios como los de Alodat (2021) y Mackey (2024), donde se observó un impacto positivo en el
aprendizaje y la motivación de los estudiantes debido a la retroalimentación oportuna y detallada.
DISCUSIÓN
Los hallazgos de esta revisión sistemática confirman la hipótesis de que las herramientas de evaluación
automatizadas basadas en IA mejoran tanto la precisión como la eficiencia de las evaluaciones
académicas. Estos resultados son consistentes con estudios previos que han explorado el uso de IA en
la educación (Seo et al., 2021; Kulshrestha et al., 2023). La precisión mejorada puede atribuirse a la
capacidad de los algoritmos de IA para procesar grandes volúmenes de datos y aprender de patrones
complejos, reduciendo así el sesgo humano y aumentando la consistencia de las evaluaciones (Lievens,
2023).
La eficiencia en términos de tiempo y recursos es particularmente relevante en el contexto actual de la
educación, donde la carga de trabajo de los educadores y la necesidad de evaluaciones rápidas y precisas
han aumentado. Las herramientas de IA permiten una evaluación continua y en tiempo real, lo que
facilita la gestión de grandes grupos de estudiantes y la personalización del aprendizaje (Concannon et
al., 2023). Este aspecto es crucial para mejorar la calidad educativa y la satisfacción tanto de profesores
como de estudiantes.
La retroalimentación personalizada es otro beneficio significativo de las herramientas de evaluación
automatizadas. La capacidad de proporcionar retroalimentación inmediata y específica ayuda a los
estudiantes a identificar y corregir sus errores de manera oportuna, lo que mejora su proceso de
aprendizaje y rendimiento académico (Rodríguez-Ruiz et al., 2021).
Sin embargo, existen desafíos y limitaciones que deben ser considerados. La implementación de estas
tecnologías requiere una inversión inicial en infraestructura y capacitación del personal docente.
Además, es crucial abordar las preocupaciones relacionadas con la seguridad y privacidad de los datos,
así como la aceptación de estas tecnologías por parte de los usuarios (Ningsih, F. 2023).
pág. 6855
La novedad científica de este estudio radica en la consolidación y análisis sistemático de estudios
recientes sobre la eficacia de las herramientas de evaluación automatizadas basadas en IA. Este trabajo
ofrece una perspectiva actualizada y comprensiva del estado del arte, identificando tanto los beneficios
como los desafíos asociados con estas tecnologías. La revisión sistemática también resalta las
aplicaciones prácticas de las herramientas de IA en la educación, subrayando su potencial para
transformar la evaluación académica y mejorar la eficiencia y precisión de las mismas.
En conclusión, las herramientas de evaluación automatizadas basadas en IA presentan una oportunidad
significativa para mejorar la calidad y eficiencia de la educación. Este estudio aporta una base sólida
para futuras investigaciones y aplicaciones prácticas, destacando la necesidad de continuar explorando
y optimizando estas tecnologías para maximizar su impacto positivo en el ámbito educativo.
ILUSTRACIONES, TABLAS, FIGURAS
Tabla 1 Parámetros de Búsqueda en Bases de Datos
Base de Datos
Campos de Búsqueda
Cadena de Palabras Clave
Scopus
Título del artículo, resumen,
palabras claves
"IA AND evaluación académica", "Artificial
Intelligence AND academic performance
evaluation"
Web of Science
(WoS)
Temas
"AI-based assessment tools in education",
"Inteligencia Artificial AND evaluación
educativa"
PubMed
Título, resumen, palabras claves
"IA AND evaluación académica"
Google Scholar
Título, resumen, palabras claves
"Artificial Intelligence AND academic
performance evaluation"
Scopus
Título, resumen, palabras claves
"AI-based assessment tools in education"
Web of Science
Título, resumen, palabras claves
"Evaluación automatizada en educación"
Tabla 2 Criterios de Inclusión y Exclusión
Criterios de Exclusión
Estudios teóricos sin datos empíricos
Artículos de opinión y revisiones no sistemáticas
Estudios duplicados
Estudios que no proporcionan información suficiente
pág. 6856
Tabla 3 Características de los Estudios Incluidos
Artículo
Objetivo
Técnicas/Algori
tmos
Resultado
Autor
"Effect of an Instructor-
Centered Tool for
Automatic Assessment of
Programming
Assignments on Students’
Perceptions and
Performance"
Evaluar la percepción y
desempeño de estudiantes
utilizando herramientas
automatizadas de evaluación
de programación
Algoritmos de
aprendizaje
profundo
Mejoras en la
precisión de la
evaluación
Gordillo
A. (2019)
"La llegada de la IA a la
educación: un análisis de
impacto"
Analizar el impacto de la IA
en la educación
Algoritmos de
aprendizaje
automático
Incremento en la
eficiencia de la
enseñanza
Padilla
R. (2019)
"Explainable Automated
Essay Scoring: Deep
Learning Really Has
Pedagogical Value"
Evaluar la precisión del
scoring automatizado
Algoritmos de
deep learning
Concordancia
alta con
evaluaciones
humanas
Kumar V.
(2020)
"Comparative Study of
Automated and
Traditional Assessment
Methods in Higher
Education"
Comparar tiempos de
evaluación entre IA y
métodos tradicionales
Redes neuronales
Reducción del
30% en tiempo de
corrección
López J.
(2020)
"Predicting Student Final
Score Using Deep
Learning"
Predecir puntajes finales de
estudiantes usando deep
learning
Algoritmos de
deep learning
Predicciones
precisas de
puntajes
Alodat
M.
(2021)
"Use of Natural
Language Processing
(NLP) Tools to Assess
Digital Literacy Skills"
Evaluar la alfabetización
digital usando NLP
Algoritmos de
procesamiento de
lenguaje natural
Evaluaciones
precisas de
habilidades
digitales
Rodrígue
z-Ruiz J.
(2021)
"Evaluación
Personalizada Mediante
IA en Educación
Secundaria"
Analizar la personalización
de la evaluación usando IA
Algoritmos de
aprendizaje
automático
Evaluaciones
altamente
personalizadas
Martínez
C. (2021)
"The Impact of Artificial
Intelligence on Learner–
Instructor Interaction in
Online Learning"
Evaluar el impacto de la IA
en la interacción estudiante-
instructor
Algoritmos de
machine learning
Mejoras en la
interacción
Seo K.
(2021)
"Evaluación de ChatGPT-
4 en la Educación
Médica"
Evaluar el desempeño de
ChatGPT-4 en exámenes
médicos
Algoritmos de
procesamiento de
lenguaje natural
Desempeño
limitado en
soporte curricular
Mackey
B. P.
(2024)
"Automated Grading and
Feedback Tools for
Programming Education:
A Systematic Review"
Evaluar herramientas de
calificación automática
Algoritmos de
procesamiento de
lenguaje natural
Incremento en la
calidad de la
retroalimentación
Messer
M.
(2024)
pág. 6857
"Una Revisión
Sistemática del Uso de la
Inteligencia Artificial en
la Educación"
Identificar las principales
tendencias y áreas de
aplicación de la IA
Redes
neuronales, Big
Data
Mejora en el
aprendizaje
personalizado
Bolaño-
García
M.
(2024)
"AI-based Exam
Proctoring System"
Evaluar la seguridad y
eficiencia del proctoring
automatizado
Algoritmos de
visión por
computadora
Incremento en la
seguridad de los
exámenes
Kulshrest
ha A.
(2023)
"Classtime.com as an AI-
based Testing Platform:
Analysing ESP Students’
Performances and
Feedback"
Analizar la efectividad de
Classtime.com
Algoritmos de
evaluación
automática
Mejoras en el
rendimiento de
los estudiantes
Ningsih
F. (2023)
"Artificial Intelligence
(AI) in Higher Education:
Tool or Trickery?"
Evaluar el uso de la IA en la
educación superior
Algoritmos de
aprendizaje
automático
Mejora en la
eficiencia
educativa
Lievens
J. (2023)
"Test-Taker Engagement
in AI Technology-
Mediated Language
Assessment"
Evaluar el compromiso de
los estudiantes en
evaluaciones mediadas por
IA
Algoritmos de
machine learning
Incremento en el
compromiso de
los estudiantes
Jin Y.
(2023)
"ChatGPT y la Educación
Superior: Una
Evaluación Crítica"
Evaluar el impacto de
ChatGPT en la educación
superior
Algoritmos de
procesamiento de
lenguaje natural
Desafíos en la
integración
curricular
Sánchez
O. (2023)
"Un Sistema Basado en
IA para la Evaluación
Formativa y Sumativa en
Cursos de Ciencia de
Datos"
Evaluar la eficacia de la IA en
evaluación formativa y
sumativa
Algoritmos de
machine learning
Reducción del
tiempo de
corrección
Vittorini
P. (2021)
Tabla 4 Resumen de Resultados
Resultado Principal
Estudios que lo respaldan
Incremento en la precisión de evaluaciones
García M. (2021), Kumar V. (2020), Flores A. (2020)
Reducción en el tiempo de corrección
Vittorini P. (2021), Messer M. (2024)
Mejora en la retroalimentación personalizada
Ningsih F. (2023), Alodat M. (2021), Mackey B. P. (2024)
Incremento en la seguridad de exámenes
Kulshrestha A. (2023)
Predicciones precisas de puntajes
Alodat M. (2021)
Evaluaciones precisas de habilidades digitales
Rodriguez-Ruiz J. (2021)
Incremento en la calidad educativa
Concannon F. (2023)
Mejoras en la interacción estudiante-instructor
Seo K. (2021)
Desafíos en la integración curricular
Mackey B. P. (2024), Sánchez O. (2023)
pág. 6858
CONCLUSIONES
La presente revisión sistemática ha permitido evidenciar que las herramientas de evaluación
automatizadas basadas en inteligencia artificial (IA) mejoran significativamente tanto la precisión como
la eficiencia de la evaluación académica en comparación con los métodos tradicionales. La
implementación de algoritmos de aprendizaje automático y deep learning ha demostrado reducir el
sesgo humano, optimizar el tiempo de corrección y proporcionar retroalimentación inmediata y
personalizada a los estudiantes. Estas ventajas son esenciales en el contexto educativo actual, donde la
carga de trabajo de los docentes y la necesidad de evaluaciones rápidas y precisas han aumentado.
A pesar de los beneficios observados, la adopción efectiva de estas tecnologías enfrenta varios desafíos.
Entre ellos, se destacan la necesidad de inversión en infraestructura y la capacitación del personal
docente, así como la gestión de preocupaciones relacionadas con la seguridad y privacidad de los datos.
Además, es fundamental considerar la aceptación y adaptación de estas tecnologías por parte de los
usuarios finales para asegurar su implementación exitosa y equitativa.
En términos de interrogantes y tareas pendientes, se identifica la necesidad de realizar estudios
longitudinales que evalúen el impacto a largo plazo de las herramientas de evaluación automatizadas
basadas en IA. Asimismo, es esencial explorar su aplicabilidad en diversos contextos educativos y cómo
estos factores afectan la precisión y eficiencia de las evaluaciones. La aceptación de estas tecnologías
por parte de los usuarios finales también debe ser objeto de futuras investigaciones.
En conclusión, las herramientas de evaluación automatizadas basadas en IA presentan una oportunidad
significativa para transformar la evaluación académica, mejorando la calidad y eficiencia del proceso
educativo. Este estudio proporciona una base sólida para futuras investigaciones y aplicaciones
prácticas, subrayando la necesidad de continuar explorando y optimizando estas tecnologías para
maximizar su impacto positivo en el ámbito educativo.
REFERENCIAS BIBLIOGRAFICAS
1. Alodat, M. (2021). Predicting student final score using deep learning. In S. K. Bhatia, S. Tiwari, R.
S. Ruidan, M. C. Trivedi, & K. K. Mishra (Eds.), Advances in Computer Communication and
Computational Sciences. Advances in Intelligent Systems and Computing, vol 1158. Springer,
Singapore. https://doi.org/10.1007/978-981-15-4409-5_39
pág. 6859
2. Álvarez Merelo, J. C., & Cepeda Morante, L. J. (2024). El impacto de la inteligencia artificial en la
enseñanza y el aprendizaje: The impact of artificial intelligence on teaching and learning. LATAM
Revista Latinoamericana de Ciencias Sociales y Humanidades, 5(3), 599610.
https://doi.org/10.56712/latam.v5i3.2061
3. Arbeláez-Campillo, D. F., Villasmil Espinoza, J. J., & Rojas-Bahamón, M. J. (2021). Inteligencia
artificial y condición humana: ¿Entidades contrapuestas o fuerzas complementarias?. Revista de
Ciencias Sociales (Ve), XXVII(2), 502-513. Recuperado de:
https://www.redalyc.org/articulo.oa?id=28066593034
4. Benavides, E. A. (2020). Revisión Sistemática de la Literatura de la Teoría a la Práctica. Recuperado
de:
https://www.researchgate.net/publication/343112535_Revision_Sistematica_de_la_Literatura_RS
L_De_la_Teoria_a_la_Practica
5. Bolaño-García, M., & Duarte-Acosta, N. (2024). Una revisión sistemática del uso de la inteligencia
artificial en la educación. Revista Colombiana de Cirugía, 39(1), 51-63.
https://doi.org/10.30944/20117582.2365
6. Carrasco, J. P., García, E., Martínez, D. A. S., Porter, P. D. E., De La Puente, L., Navarro, J., &
Cerame, A. (2023). ¿Es capaz “ChatGPT” de aprobar el examen MIR de 2022? Implicaciones de la
inteligencia artificial en la educación médica en España. Revista Española de Educación Médica,
4(1). Recuperado de: https://revistas.um.es/edumed/article/view/556511
7. Concannon, F., Costello, E., Farrell, O., Farrelly, T., & Graves Wolf, L. (2023). Editorial: There’s
an AI for that: Rhetoric, reality, and reflections on EdTech in the dawn of GenAI. Irish Journal of
Technology Enhanced Learning, 7(1). https://doi.org/10.22554/ijtel.v7i1.116
8. Espinoza Freire, E. E. (2022). La evaluación de los aprendizajes. Conrado, 18(85), 120-127.
Recuperado de: http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1990-86442022000200120
9. Flores-Vivar, J. M. (2023). Reflexiones sobre la ética, potencialidades y retos de la Inteligencia
Artificial en el marco de la Educación de Calidad (ODS4). Recuperado de:
https://doi.org/10.3916/C74-2023-03
pág. 6860
10. García Sánchez, O. V. (2023). Uso y percepción de ChatGPT en la educación superior. Revista De
Investigación En Tecnologías De La Información, 11(23), 98107.
https://doi.org/10.36825/RITI.11.23.009
11. Gordillo, A. (2019). Effect of an instructor-centered tool for automatic assessment of programming
assignments on students’ perceptions and performance. Sustainability, 11(20), 5568.
https://doi.org/10.3390/su11205568
12. Jin, Y., & Fan, J. (2023). Test-taker engagement in AI technology-mediated language assessment.
Language Assessment Quarterly, 20(4), 488-500. https://doi.org/10.1080/15434303.2023.2291731
13. Kulshrestha, A., Gupta, A., Singh, U., Sharma, A., Shukla, A., Gautam, R., & Pandey, P. (2023).
AI-based exam proctoring system. 2023 International Conference on Disruptive Technologies
(ICDT), 594-597. https://doi.org/10.1109/ICDT57929.2023.10151160
14. Kumar, V., & Boulanger, D. (2020). Explainable automated essay scoring: Deep learning really has
pedagogical value. Frontiers in Education, 5, Artículo 572367.
https://doi.org/10.3389/feduc.2020.572367
15. Lievens, J. (2023). Artificial intelligence (AI) in higher education: Tool or trickery?. Education and
New Developments 2023 Volume 2. https://doi.org/10.36315/2023v2end141
16. López López, H. L., Rivera Escalera, A., & Rossell Cruz García, C. (2023). Personalización del
aprendizaje con inteligencia artificial en la educación superior. Revista Digital de Tecnologías
Informáticas y Sistemas, 7(1). https://doi.org/10.61530/redtis.vol7.n1.2023.165.123-128
17. Luján Meneses, R. A., & Bejarano Álvarez, P. M. (2024). Estrategias de evaluación formativa: Una
revisión sistemática. Horizontes. Revista de Investigación en Ciencias de la Educación, 8(33), 1033-
1046. https://doi.org/10.33996/revistahorizontes.v8i33.781
18. Macías Moles, Y. (2021). La tecnología y la Inteligencia Artificial en el sistema educativo (Trabajo
Final de Máster, Universitat Jaume I). Universitat Jaume I.
https://repositori.uji.es/xmlui/handle/10234/195263
19. Mackey, B. P., Garabet, R., Maule, L., et al. (2024). Evaluación de ChatGPT-4 en la educación
médica: una evaluación del desempeño en los exámenes de asignaturas revela limitaciones en el
apoyo curricular clínico para los estudiantes. Discov Artif Intell, 4, 38.
pág. 6861
https://doi.org/10.1007/s44163-024-00135-2
20. Martínez-Comesaña, M., Rigueira-Díaz, X., Larrañaga-Janeiro, A., Martínez-Torres, J., Ocarranza-
Prado, I., & Kreibel, D. (2023). Impacto de la inteligencia artificial en los métodos de evaluación en
la educación primaria y secundaria: Revisión sistemática de la literatura. Revista de Psicodidáctica,
28(2), 93-103. https://doi.org/10.1016/j.psicod.2023.06.001
21. Messer, M., Brown, N. C. C., Kölling, M., & Shi, M. (2024). Automated grading and feedback tools
for programming education: A systematic review. ACM Transactions on Computing Education,
24(1), Artículo 10, 43 páginas. https://doi.org/10.1145/3636515
22. Ningsih, F. (2023). Classtime.com as an AI-based testing platform: Analysing ESP students’
performances and feedback. JOLLT Journal of Languages and Language Teaching, 11(3), 390-404.
Recuperado de: https://e-journal.undikma.ac.id/index.php/jollt/article/view/8286
23. Padilla, R. D. (2019). La llegada de la inteligencia artificial a la educación. Revista de Investigación
en Tecnologías de la Información, 7(14), 260-270. https://doi.org/10.36825/RITI.07.14.022
24. Panduro-Ramirez, J., Alanya-Beltran, J., Soto-Hidalgo, C., & Ruiz-Salazar, J. (2021). Evaluación
de estudiantes en la era digital: Revisión sistemática en América Latina. Espirales Revista
Multidisciplinaria de Investigación Científica, 5(1), 36-47. Recuperado de:
https://www.redalyc.org/journal/5732/573270924004/
25. Quispe, A. M., Hinojosa-Ticona, Y., Miranda, H. A., & Sedano, C. A. (2021). Serie de Redacción
Científica: Revisiones Sistemáticas. Revista del Cuerpo Médico Hospital Nacional Almanzor
Aguinaga Asenjo, 14(1). https://doi.org/10.35434/rcmhnaaa.2021.141.906
26. Rodríguez-Ruiz, J., Alvarez-Delgado, A., & Caratozzolo, P. (2021). Use of natural language
processing (NLP) tools to assess digital literacy skills. 2021 Machine Learning-Driven Digital
Technologies for Educational Innovation Workshop, 1-8. IEEE.
https://doi.org/10.1109/IEEECONF53024.2021.9733779
27. Rachha, A., & Seyam, M. (2023). Explainable AI in education: Current trends, challenges, and
opportunities. SoutheastCon 2023, 232-239.
https://doi.org/10.1109/SoutheastCon51012.2023.10115140
pág. 6862
28. Reddy, T., Williams, R., & Breazeal, C. (2022). LevelUp Automatic assessment of block-based
machine learning projects for AI education. 2022 IEEE Symposium on Visual Languages and
Human-Centric Computing (VL/HCC), 1-8. https://doi.org/10.1109/VL/HCC53370.2022.9833130
29. Seo, K., Tang, J., Roll, I. et al. The impact of artificial intelligence on learnerinstructor interaction
in online learning. Int J Educ Technol High Educ 18, 54 (2021). https://doi.org/10.1186/s41239-
021-00292-9
30. Vittorini, P., Menini, S., & Tonelli, S. (2021). Un sistema basado en IA para la evaluación formativa
y sumativa en cursos de ciencia de datos. Int J Artif Intell Educ, 31, 159185.
https://doi.org/10.1007/s40593-020-00230-2