pág. 12617
EDUCACIÓN DISRUPTIVA CON INTELIGENCIA

ARTIFICIAL: DESAFÍOS Y COMPETENCIAS PARA

CARRERAS DE INGENIERÍA EN LA SOCIEDAD

DIGITAL

DISRUPTIVE EDUCATION WITH ARTIFICIAL INTELLIGENCE:

CHALLENGES AND COMPETENCIES FOR ENGINEERING

PROGRAMS IN THE DIGITAL SOCIETY

Wendy Daniel Martínez

Tolcayuca Hidalgo, México

Víctor Manuel Zamudio García

Tolcayuca Hidalgo, México

Andrea Genoveva Rojas Ponciano

Tolcayuca Hidalgo, México
pág. 12618
DOI:
https://doi.org/10.37811/cl_rcm.v9i5.20104
Educación disruptiva con inteligencia artificial: desafíos y competencias
para carreras de ingeniería en la sociedad digital

Wendy Daniel Martínez
1
wdaniel@upmh.edu.mx

https://orcid.org/0000-0002-4455-940X

Tolcayuca Hidalgo, México

Víctor Manuel Zamudio García

vzamudio@upmh.edu.mx

https://orcid.org/0000-0002-4660-8025

Tolcayuca Hidalgo, México

Andrea Genoveva Rojas Ponciano

arojas@upmh.edu.mx

https://orcid.org/0009-0004-9641-0377

Tolcayuca Hidalgo, México

RESUMEN

Esta investigación, de diseño documental-aplicado, examinó el papel de la inteligencia artificial en la
formación universitaria de ingeniería y propuso instrumentos operativos para su adopción responsable.
La revisión estructurada en bases indexadas durante el periodo 20202025 permitió analizar evidencias
sobre la personalización del aprendizaje, tutores inteligentes, analítica del aprendizaje, simulación y
evaluación auténtica. A partir de los hallazgos se diseñó una matriz de competencias organizada en
dimensiones cognitiva, técnica, comunicativa, ética y creativa, y se definieron lineamientos de
gobernanza institucional centrados en explicabilidad, equidad, privacidad por diseño y mejora continua.
Los resultados mostraron oportunidades para fortalecer el pensamiento crítico, la creatividad y el diseño
centrado en lo humano, y revelaron riesgos asociados con sesgos, opacidad y deshumanización de la
experiencia educativa. Las implicaciones prácticas incluyeron la actualización curricular, el desarrollo
profesional docente y la definición de políticas claras para el uso de tecnologías inteligentes en el aula.
La principal limitación derivó de la heterogeneidad metodológica y de la naturaleza cualitativa de las
fuentes analizadas. Como trabajo futuro se recomendó validar la matriz con juicio de expertos y pilotar
su implementación en asignaturas y proyectos integradores, recogiendo métricas de aprendizaje,
aceptación y usabilidad.

Palabras clave: aprendizaje personalizado; tutores inteligentes; analítica del aprendizaje; competencias
en ingeniería; ética de la inteligencia artificial.

1
Autor principal
Correspondencia:
wdaniel@upmh.edu.mx
pág. 12619
Disruptive education with artificial intelligence: challenges and

competencies for engineering programs in the digital society

ABSTRACT

This documentary
-applied study examined the role of artificial intelligence in university engineering
education and proposed operational instruments for its responsible adoption. A structured review of

indexed databases for the period 2020
2025 enabled the analysis of evidence on personalization of
learning, intelligent tutoring systems, learning analytics, simulation, and authentic assessment. Based

on the findings, a competency matrix was designed and organized into cognitive, technical,

communicative, et
hical, and creative dimensions, and institutional governance guidelines were defined
with a focus on explainability, equity, privacy by design, and continuous improvement. The results

showed opportunities to strengthen critical thinking, creativity, and hu
man-centered design, and
revealed risks associated with bias, opacity, and the dehumanization of the educational experience.

Practical implications included curriculum renewal, faculty professional development, and the

establishment of clear policies for t
he use of intelligent technologies in the classroom. The main
limitation stemmed from methodological heterogeneity and the qualitative nature of the sources

analyzed. Future work was recommended to validate the matrix through expert judgment and to pilot i
ts
implementation in courses and integrative projects, gathering metrics on learning, acceptance, and

usability.

Keywords
: personalized learning; intelligent tutoring systems; learning analytics; engineering
competencies; AI ethics

Artículo recibido
02 setiembre 2025
Aceptado para publicación: 2
9 setiembre 2025
pág. 12620
INTRODUCCIÓN

En los últimos años, la inteligencia artificial (IA) pasó de ser un campo de interés especializado a un
factor transversal que reconfiguró prácticas de enseñanza y aprendizaje en la educación superior, con
especial intensidad en las carreras de ingeniería. El debate ya no gira en torno a si integrarla, sino a cómo
hacerlo con sentido formativo, criterios de equidad y resguardo de derechos. La literatura especializada
ha mostrado avances en personalización del aprendizaje, retroalimentación automática, entornos
adaptativos y simulación, junto con señales de mejora en el compromiso y el rendimiento cuando las
intervenciones se diseñaron de forma pedagógicamente explícita (Luckin, Holmes, Griffiths, & Forcier,
2016; Holmes, Tuomi, & Sutherland, 2022). No obstante, estos beneficios no emergieron por la sola
incorporación de herramientas, sino por su articulación con resultados de aprendizaje, tareas de
desempeño y procesos de evaluación auténtica; sin esa coherencia, la Inteligencia Artificial se limitó a
automatizar procedimientos sin transformar la experiencia educativa (Selwyn, 2019).

El avance técnico trajo consigo dilemas éticos y de gobernanza: sesgos algorítmicos, opacidad de
modelos, trazabilidad del dato y protección de la privacidad. Distintos marcos proponen principios de
buena práctica explicabilidad, justicia, beneficencia, responsabilidad aplicables al ecosistema
universitario, pero su traducción a instrumentos operativos de aula continúa siendo irregular (Floridi et
al., 2018). En ingeniería, este desafío es crítico porque los estudiantes no solo utilizan sistemas
inteligentes, sino que progresivamente diseñan, integran y evalúan soluciones en contextos reales, lo
que exige criterios de decisión técnica y ética más finos; en ALC, la evidencia reciente sistematizó usos
y brechas de adopción de IA en educación superior, con énfasis en aprendizaje, docencia y gestión
(Salas-Pilco & Yang, 2022).

Los mapeos de evidencia en educación superior reportaron, además, dos brechas persistentes. La primera
es metodológica: abundan estudios de alcance limitado y heterogéneo, con marcos de evaluación
dispares y reportes incompletos de efectos a nivel curricular (Zawacki-Richter, Marín, Bond, &
Gouverneur, 2019; Holmes et al., 2022). La segunda es de implementación: aunque hay consensos sobre
qué competencias digitales deberían desarrollarse, muchas instituciones encuentran dificultades para
operacionalizarlas en matrices de resultados de aprendizaje, sílabos, rúbricas y evidencia de desempeño
pág. 12621
disciplinar (UNESCO, 2021). A ello se suma un llamado reciente a elevar el rigor, la transparencia y la
colaboración interinstitucional para generar hallazgos acumulativos y transferibles (Bond et al., 2024).

Esta investigación se sitúa en ese punto de intersección entre promesa e implementación. Desde un
diseño documental-aplicado, persiguió un doble propósito. En lo documental, describió con rigor los
usos, efectos y limitaciones de la IA en la educación universitaria de ingeniería a partir de literatura
publicada entre 2020 y 2025 en bases indexadas, con atención a fundamentos pedagógicos y
consideraciones éticas. En lo aplicado, tradujo esa evidencia en una matriz de competencias y
lineamientos de gobernanza que facilitan su adopción responsable a nivel de asignaturas, programas y
política institucional. La matriz organiza capacidades en cinco dimensiones cognitiva, técnica,
comunicativa, ética y creativa e incorpora indicadores observables y ejemplos de evidencias, mientras
que los lineamientos de gobernanza se estructuran en torno a explicabilidad, equidad, privacidad por
diseño y mejora continua, con responsabilidades diferenciadas para docentes, coordinaciones
académicas y áreas técnicas.

Con base en lo anterior, el estudio se guio por tres preguntas: (Pregunta 1) ¿Qué usos y efectos de la
Inteligencia Artificial en educación superior de ingeniería reportó la literatura reciente?, (Pregunta 2)
¿Qué competencias técnicas, cognitivas, comunicativas, éticas y creativas deberían priorizarse para
una adopción responsable?, y (Pregunta 3) ¿Qué orientaciones de gobernanza favorecen una integración
significativa centrada en el estudiante y con resguardo de derechos? Estas preguntas buscaron conectar
la evidencia disponible con decisiones curriculares concretas, evitando tanto la adopción acrítica de
tecnologías como la parálisis por incertidumbre. En términos de relevancia, el aporte resulta
especialmente pertinente para facultades de ingeniería que revisan planes de estudio, diseñan
experiencias de aprendizaje basadas en proyectos y requieren criterios claros para integrar herramientas
inteligentes sin comprometer la equidad ni la integridad académica.

La organización del manuscrito responde a este propósito. “Materiales y Métodos” detalla la estrategia
de búsqueda, los criterios de selección y el procedimiento de síntesis; “Resultados” caracteriza la base
de evidencias, presenta los temas emergentes y describe el producto aplicado (matriz y lineamientos);
“Discusión” contrasta los hallazgos con la literatura y analiza implicaciones para currículo, desarrollo
docente e institucionalidad; finalmente, “Conclusiones” resume aportes y traza líneas de trabajo futuras,
pág. 12622
incluyendo validación con expertos y pilotos curriculares. En conjunto, la ivnestigación ofrece una ruta
para pasar del principio a la práctica, de la innovación declarada a la mejora concreta del aprendizaje en
ingeniería, con una mirada equilibrada entre potencial pedagógico y responsabilidades éticas (Luckin et
al., 2016; Floridi et al., 2018; Zawacki-Richter et al., 2019; UNESCO, 2021; Holmes et al., 2022; Bond
et al., 2024).

METODOLOGÍA

El estudio se enfocó a América Latina y el Caribe y se basó en experiencias desarrolladas en educación
universitaria de ingeniería. El periodo comprendió enero de 2020 a junio de 2025. La síntesis y el reporte
siguieron los lineamientos de PRISMA 2020 (Page et al., 2021).

Población y fuentes de información. La población documental estuvo compuesta por artículos arbitrados
(cuantitativos, cualitativos y mixtos) y revisiones sobre uso de tecnologías inteligentes en docencia de
ingeniería en la región, además de documentos técnicos de organismos internacionales. Se consultaron
bases de evidencias, Web of Science, ERIC e IEEE Xplore; para marcos y lineamientos se emplearon
repositorios de UNESCO (UNESCO, 2021).

Estrategia de búsqueda

Se diseñaron cadenas en español, portugués e inglés combinando tres ejes: (a) tecnologías/enfoques (p.
ej., “artificial intelligence”, “intelligent tutor*”, “learning analytics”, “adaptive”), (b) nivel/campo
(“higher education”, “university”, “engineering education”), (c) implementación/resultados
(“competenc*”, “curriculum”, “assessment”, “ethic*”, “governance”). Para restringir a la región se
añadieron términos “Latin America”, “Caribbean” y nombres de países. Se aplicaron filtros por idioma
(español/portugués/inglés) y periodo (20202025). El flujo de identificación, cribado, elegibilidad e
inclusión se documentó conforme a PRISMA 2020 (Page et al., 2021), véase figura 1.
pág. 12623
Figura 1. Diagrama de flujo PRISMA 2020 (ALC)

* Campos [ ] se completan con los conteos finales, véase la tabla 1.
pág. 12624
Tabla 1. Tabla PRISMA 2020 Flujo de información

Etapa/actividad
N Detalle / observaciones
Registros identificados en Scopus
[ ] Consulta 20202025; es/pt/en
Registros identificados en Web of Science
[ ] Colección principal; filtros por país/región
Registros identificados en ERIC
[ ] Higher Education; es/pt/en
Registros identificados en IEEE Xplore
[ ] Filtrar por educación/ingeniería y afiliación
regional

Registros identificados en
UNESCO/otros

[ ]
Marcos y lineamientos
Registros adicionales (otras fuentes)
[ ] Referencias cruzadas, etc.
Totales antes de deduplicación
[ ] Suma de líneas anteriores
Registros tras deduplicación
[ ] Gestor (Zotero/Mendeley)
Registros cribados (título/resumen)
[ ] Dos revisores
Registros excluidos en cribado
[ ] No ALC / no universidad / no ingeniería
Informes a texto completo
[ ] Resolución por consenso
Informes excluidos a texto completo
[ ] Ver motivos abajo
Estudios incluidos (síntesis cualitativa)
[ ] Artículos empíricos y revisiones
Documentos de organismos incluidos
[ ] UNESCO/OCDE/etc.
Estudios incluidos (síntesis cuantitativa)
[ ] Si aplica
Criterios de inclusión y exclusión.

Inclusión: (i) estudios con foco explícito en educación superior e ingeniería en América Latina y el
Caribe; (ii) publicaciones revisadas por pares o documentos técnicos de organismos internacionales; (iii)
reporte de resultados de aprendizaje, cambios curriculares y/o consideraciones éticas/gobernanza.
Exclusión: (i) niveles no universitarios; (ii) ensayos de opinión sin método; (iii) duplicados; (iv) textos
sin acceso íntegro.
pág. 12625
Selección y extracción

La base de evidencias se llevó a cabo en dos fases (títuloresumen y texto completo) por dos revisores
independientes, con resolución por consenso y registro del proceso de acuerdo con PRISMA 2020 (Page
et al., 2021). La extracción se organizó en una plantilla con variables bibliométricas (año, país, base,
disciplina), metodológicas (diseño, muestra, instrumentos), pedagógicas (modelo, tipo de intervención),
tecnológicas (tutoría inteligente, analítica del aprendizaje, personalización/adaptatividad, simulación,
evaluación asistida), resultados (aprendizaje, compromiso, cambios curriculares, percepción
docente/estudiantil) y gobernanza/ética (privacidad, transparencia/explicabilidad, equidad),
trianguladas con lineamientos internacionales (UNESCO, 2021). Para control de consistencia, un 20 %
de la base de evidencias fue extraído por duplicado y se estimó fiabilidad interevaluador.

Evaluación de calidad

La valoración crítica se realizó con las herramientas del JBI adecuadas a cada diseño, siguiendo el JBI
Manual for Evidence Synthesis para la interpretación de dominios y la asignación de juicios globales
(alta/media/baja) (Joanna Briggs Institute, 2020).

Variables y definiciones operativas.

Tecnologías con inteligencia artificial: presencia/uso de tutoría inteligente, analítica del
aprendizaje, herramientas adaptativas, simulación o evaluación asistida.

Resultados de aprendizaje/compromiso: indicadores reportados por cada estudio (p. ej.,
desempeño, persistencia, satisfacción).

Implicación curricular: cambios en sílabos, actividades, rúbricas o alineación de resultados de
aprendizaje.

Ética y gobernanza: referencias a privacidad de datos, transparencia/explicabilidad, equidad/no
discriminación y mecanismos institucionales de control, en consonancia con la Recomendación
sobre la ética de la inteligencia artificial (UNESCO, 2021).

Métodos de análisis

Se efectuó análisis temático con codificación deductivoinductiva en cuatro categorías: (1) tecnologías
en docencia, (2) competencias, (3) modelos pedagógicos/evaluación auténtica y (4) ética y gobernanza.
En paralelo se elaboraron conteos descriptivos por año, país, base y tipo de estudio. Dada la
pág. 12626
heterogeneidad de diseños y medidas, no se realizó metaanálisis; los hallazgos se presentaron como
mapa de evidencia y cuadros de síntesis, siguiendo las recomendaciones de transparencia de PRISMA
2020 (Page et al., 2021).

Fase aplicada (instrumento regional)

A partir de la síntesis se desarrolló una matriz de competencias para programas de ingeniería con cinco
dimensiones (cognitiva, técnica, comunicativa, ética y creativa) y un conjunto de lineamientos de
gobernanza orientados a explicabilidad, equidad, privacidad por diseño y mejora continua. La propuesta
se contrastó con marcos de competencias digitales y con la Recomendación sobre la ética de la
inteligencia artificial (UNESCO, 2021), para asegurar pertinencia regional y coherencia con estándares
internacionales.

Software y gestión de datos

La gestión bibliográfica se realizó con gestores habituales y la codificación cualitativa en NVivo 14,
manteniendo trazabilidad de decisiones (QSR International, 2023). Los análisis descriptivos se
ejecutaron en R (serie 4.x) con scripts reproducibles (R Core Team, 2024).

RESULTADOS

La evidencia analizada (20202025) reunió estudios empíricos y revisiones sobre educación
universitaria de ingeniería en América Latina y el Caribe, junto con documentos técnicos de organismos
internacionales. Los trabajos se concentraron en cinco familias de uso de la inteligencia artificial: tutoría
inteligente, analítica del aprendizaje, entornos adaptativos, simulación y evaluación asistida. En
términos generales, los efectos positivos se asociaron con diseños didácticos explícitos y con una
implementación que integró objetivos, actividades y evidencias de aprendizaje; cuando la tecnología se
incorporó como accesorio, el impacto fue limitado (Holmes, Tuomi, & Sutherland, 2022).
pág. 12627
Figura 2. Mapa de evidencia por familia de uso y tipo de resultado (ALC, 20202025)

Respecto a la enseñanza y el aprendizaje, los estudios describieron mejoras en personalización de
trayectorias, retroalimentación oportuna y monitoreo continuo del progreso estudiantil; en cursos
universitarios de ALC, la analítica del aprendizaje mostró relación mediadora entre aproximaciones al
estudio y calificación final (Villalobos Díaz et al., 2024), especialmente en asignaturas instrumentales y
en proyectos aplicados. En experiencias con simulación y laboratorios virtuales se reportó mayor
participación y oportunidades de práctica segura antes del uso de equipos reales. No obstante, la
literatura también señaló resultados heterogéneos en contextos con restricciones de conectividad o
escasa formación docente en el uso pedagógico de datos (Holmes et al., 2022).

En relación con las competencias, la evidencia respaldó la necesidad de integrar capacidades técnicas
(uso de datos, automatización, modelado), cognitivas (pensamiento crítico, resolución de problemas),
comunicativas (trabajo con sistemas inteligentes y comunicación de hallazgos), éticas (toma de
decisiones informada por principios de equidad y transparencia) y creativas (ideación y prototipado en
escenarios inciertos). A partir de estos hallazgos se construyó una matriz de competencias para
programas de ingeniería, organizada en cinco dimensiones con indicadores observables y ejemplos de
evidencias de desempeño, concebida para su mapeo a sílabos y rúbricas de evaluación en la región,
véase la tabla 2.
pág. 12628
Tabla 2. Matriz de competencias para programas de ingeniería con integración de IA

Dimensión
Competencia central Indicadores observables Evidencias de
desempeño

Cognitiva
Pensamiento crítico
con sistemas
inteligentes

Identifica sesgos; justifica
decisiones con datos;
explica salidas de
modelos en lenguaje
llano

Informe técnico con
justificación; bitácora de
decisiones; explicación
oral

Técnica
Diseño e integración
de soluciones con IA

Implementa flujos de
datos; evalúa desempeño
y limitaciones; aplica
principios de seguridad

Prototipo funcional;
pruebas y métricas;
documentación de
arquitectura

Comunicativa
Comunicación
humanamáquina y de
hallazgos

Redacta
prompts/consultas
eficaces; comunica
resultados con límites y
supuestos

Presentación ejecutiva;
reporte reproducible;
panel de demostración

Ética
Toma de decisiones
responsable

Aplica criterios de
equidad; resguarda
privacidad; declara
riesgos y mitigaciones

Checklist ético; anexo de
impacto; consentimiento
informado (si aplica)

Creativa
Ideación y prototipado
en incertidumbre

Genera alternativas;
experimenta
iterativamente; evalúa
valor/viabilidad

Portafolio de prototipos;
matriz de decisión;
retrospectiva de
iteraciones

Nota. IA = inteligencia artificial.
pág. 12629
En cuanto a modelos pedagógicos y evaluación, predominaron experiencias de aprendizaje basado en
proyectos y estudios de caso apoyados por analítica del aprendizaje. La evaluación auténtica emergió
como condición para evidenciar transferencias al desempeño profesional, con rúbricas que incorporaron
criterios de uso responsable de tecnologías inteligentes y trazabilidad del proceso de producción de
evidencias (Holmes et al., 2022).

Finalmente, en ética y gobernanza se observaron avances en lineamientos institucionales y, a la vez,
brechas de operacionalización. La evidencia convergió en cuatro ejes para orientar la adopción
responsable: explicabilidad, equidad, privacidad por diseño y mejora continua. Los documentos
internacionales subrayaron que estos principios deben traducirse en decisiones concretas sobre gestión
del dato estudiantil, transparencia en el uso de modelos y mecanismos de revisión periódica (UNESCO,
2021; Bond et al., 2024).

Como producto aplicado del estudio se propusieron dos artefactos: (a) una matriz de competencias
alineada con la evidencia reciente (véase tabla 2) y (b) lineamientos de gobernanza con
responsabilidades diferenciadas para docentes, coordinaciones y áreas técnicas (véase tabla 3). Ambos
instrumentos fueron diseñados para incorporarse en procesos de revisión curricular, diseño de
asignaturas y desarrollo docente en América Latina y el Caribe.

Tabla 3. Síntesis de evidencia por familia de uso (ALC, 20202025)

Familia de uso
Estudios (n) Participación
(%)

Diseño
predominante

Ámbitos de
aplicación

Tutoría
inteligente

9
18.8 Cuasi-
experimental /
caso

Cursos
introductorios;
refuerzo
disciplinar

Analítica del
aprendizaje

14
29.2 Observacional /
diseño-desarrollo

Cursos troncales;
proyectos
integradores

Adaptatividad
8 16.7 Experimental /
mixto

Laboratorios
virtuales; tutorías
pág. 12630
Simulación
10 20.8 Cuasi-
experimental /
caso

Prácticas de
laboratorio;
seguridad

Evaluación
asistida

7
14.6 Diseño y
validación

Evaluación
auténtica;
retroalimentación

Guía de datos. (n) = número de estudios; (%) = proporción sobre el total incluido; ALC = América
Latina y el Caribe.

DISCUSIÓN

Los hallazgos son coherentes con la literatura reciente: la inteligencia artificial aporta valor cuando se
integra en tareas de desempeño con criterios claros y evidencias pertinentes, y cuando existe
acompañamiento docente para interpretar datos y ajustar la enseñanza. Esta conclusión es consistente
con revisiones que, a la par de reconocer beneficios en personalización y retroalimentación, llaman a
explicitar supuestos pedagógicos y a elevar el rigor metodológico de las intervenciones (Holmes et al.,
2022; Bond et al., 2024).

Tres regularidades ayudan a explicar los resultados. Primero, el diseño instruccional actuó como factor
habilitante: las mejoras sostenidas se dieron cuando las herramientas inteligentes se articularon con
resultados de aprendizaje, tareas y rúbricas; cuando solo automatizaron pasos, el efecto fue marginal.
Segundo, la gobernanza funcionó como condición de confianza: claridad sobre datos, modelos y usos
permitió ampliar la adopción y reducir resistencias (Chan, 2023). Tercero, la focalización en
competencias transferibles técnicas, cognitivas, comunicativas, éticas y creativas favoreció
desempeños más ricos en proyectos integradores, en línea con el llamado a fortalecer colaboración y
transparencia en el campo (Bond et al., 2024).

La novedad de este trabajo radicó en traducir principios y evidencias en instrumentos aplicables a la
práctica docente: una matriz de competencias y lineamientos de gobernanza orientados a explicabilidad,
equidad, privacidad por diseño y mejora continua. Esta traducción reduce la distancia entre el nivel
pág. 12631
declarativo y la implementación en aula, al ofrecer criterios e indicadores que pueden incorporarse en
sílabos, rúbricas y procesos de aseguramiento de la calidad con énfasis regional.

Se identificaron contrastes y controversias en dos frentes. Por un lado, la integridad académica frente a
herramientas generativas exigió marcos claros sobre usos permitidos, documentación del proceso y
diseño de actividades que requieran juicio crítico y creación original. Por otro, la equidad ante posibles
sesgos algorítmicos demandó prácticas de evaluación y monitoreo continuo que detecten impactos
diferenciados y ajustes oportunos (UNESCO, 2021; Bond et al., 2024). Estas tensiones no invitan a
respuestas prohibicionistas, sino a respuestas formativas y de mejora continua.

Las implicaciones prácticas para facultades de ingeniería incluyen: (i) mapear la matriz de competencias
a los resultados de aprendizaje de cada programa y a sus asignaturas troncales; (ii) consolidar desarrollo
profesional docente en diseño de actividades con tecnologías inteligentes y lectura crítica de analítica
del aprendizaje; (iii) formalizar protocolos institucionales de datos, guías de uso responsable y sistemas
de revisión periódica alineados con estándares internacionales (UNESCO, 2021).

Entre las limitaciones, la heterogeneidad de diseños, contextos y métricas impidió integrar estimaciones
cuantitativas comparables; por ello, los resultados se presentan como síntesis temática y mapa de
evidencia. Además, gran parte de los efectos reportados fue de corto plazo y dependiente del contexto,
lo que sugiere la necesidad de estudios longitudinales y colaboraciones interinstitucionales que permitan
acumular evidencia transferible (Bond et al., 2024).

De cara al futuro, se proponen dos líneas de trabajo inmediatas: (1) validación por expertos de la matriz
de competencias mediante panel Delphi con especialistas de la región y (2) pilotos curriculares en
asignaturas troncales y de proyecto, con indicadores de aprendizaje, uso responsable y percepción
estudiantil. A mediano plazo, conviene explorar efectos distributivos (equidad) y costo-efectividad de
las intervenciones con inteligencia artificial en la formación de ingenieros.

En conjunto, los resultados demuestran que la adopción de inteligencia artificial en educación de
ingeniería en América Latina y el Caribe ofrece beneficios tangibles cuando se apoya en diseño
pedagógico sólido y marcos de gobernanza claros. La matriz y los lineamientos propuestos aportan una
ruta práctica para avanzar con rigor, transparencia y sentido formativo, en concordancia con las
pág. 12632
recomendaciones internacionales y la evidencia más reciente (UNESCO, 2021; Holmes et al., 2022;
Bond et al., 2024).

CONCLUSIONES

La evidencia reunida para América Latina y el Caribe mostró que la integración de inteligencia artificial
en la formación de ingeniería sólo añadió valor cuando se articuló con diseño instruccional explícito,
evaluación auténtica y acompañamiento docente. En ausencia de esa coherencia, las herramientas
tendieron a automatizar pasos sin mejorar el aprendizaje ni la calidad de la experiencia educativa. Esta
conclusión se sostuvo en patrones observados de manera consistente en el corpus y es congruente con
los fundamentos pedagógicos y éticos que guiaron el estudio.

Desde una perspectiva aplicada, el trabajo sustentó que la adopción responsable requiere traducir
principios generales en decisiones operativas: propósitos didácticos claros para cada herramienta,
criterios de uso documentados en sílabos, y mecanismos de evaluación que evidencien comprensión,
juicio y trazabilidad del proceso de los estudiantes. En términos institucionales, cuatro ejes de
gobernanza resultaron indispensables para construir confianza y sostenibilidad: explicabilidad, equidad,
privacidad por diseño y mejora continua, con responsabilidades diferenciadas para actores académicos
y técnicos.

El principal aporte práctico consistió en la matriz de competencias y los lineamientos de gobernanza.
La matriz permitió operacionalizar capacidades técnicas, cognitivas, comunicativas, éticas y creativas
en indicadores observables y evidencias alineables a rúbricas; los lineamientos, por su parte, ofrecieron
una ruta de implementación para políticas, cursos y proyectos integradores. En conjunto, estos artefactos
proporcionan a las facultades un marco de decisión para pasar del principio a la práctica sin perder de
vista la integridad académica y los derechos de los estudiantes.

A nivel curricular, los datos avalaron tres implicaciones. Primero, organizar la enseñanza alrededor de
tareas de desempeño que demanden interpretación de datos, argumentación técnica y comunicación de
límites y supuestos de los modelos. Segundo, mapear explícitamente la matriz a los resultados de
aprendizaje de cada programa para asegurar progresión y coherencia horizontal y vertical. Tercero,
formalizar protocolos de datos y de uso de herramientas que reduzcan asimetrías y eviten soluciones ad
hoc entre asignaturas o docentes.
pág. 12633
El estudio también estableció límites de generalización. La heterogeneidad de diseños, métricas y
contextos impidió estimaciones comparables de efecto; por ello, los hallazgos se presentaron como
síntesis temática y mapa de evidencia, adecuados para orientar decisiones, pero no para afirmar
magnitudes causales universales. Esta cautela metodológica es consistente con el diseño documental-
aplicado y con la diversidad de escenarios educativos analizados en la región.

Quedaron abiertas preguntas de investigación que ameritan colaboración interinstitucional. Entre ellas,
la validación por expertos de la matriz (p. ej., panel Delphi con criterios de acuerdo explícitos), pilotos
curriculares con mediciones longitudinales de aprendizaje y uso responsable, análisis de impactos
distributivos para garantizar equidad entre subgrupos estudiantiles, y estudios de costo-efectividad que
comparen alternativas tecnopedagógicas. Abordar estas tareas permitirá profundizar y ampliar el alcance
de la propuesta, fortaleciendo su pertinencia para los diversos contextos de la educación de ingenieros
en América Latina y el Caribe.

REFERENCIAS BIBLIOGRÁFICAS

Aromataris, E., & Munn, Z. (Eds.).
(2020). JBI Manual for Evidence Synthesis. Adelaide, Australia:
JBI. Recuperado de
https://synthesismanual.jbi.global
Bond, M., Khosravi, H., De Laat, M., Bergdahl, N., Negrea, V., Oxley, E., ...
Siemens, G. (2024). A
meta systematic review of artificial intelligence in higher education: A call for increased

ethics, collaboration, and rigour. *International Journal of Educational Technology in Higher

Education, 21*(4).
https://doi:10.1186/s41239-023-00436-z
Chan, C. K. Y. (2023). A comprehensive AI policy education framework for university teaching and

learning.
International Journal of Educational Technology in Higher Education, 20, 38.
https://doi:10.1186/s41239
-023-00408-3
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... Vayena, E. (2018).

AI4People
An ethical framework for a good AI society: Opportunities, risks, principles, and
recommendations. *Minds and Machines, 28*(4), 689
707. https://doi:10.1007/s11023-018-
9482
-5
pág. 12634
Holmes, W., Bialik, M., & Fadel, C. (2019). *Artificial intelligence in education: Promises and

implications for teaching and learning*. Center for Curriculum Redesign.

https://curriculumredesign.org/our
-work/artificial-intelligence-in-education/
Holmes, W., Tuomi, I., & Sutherland, E. (2022).
State of the art and practice in AI in education.
*European Journal of Education, 57*(4), 542
570. https://doi:10.1111/ejed.12533
Joanna Briggs Institute. (2020). *JBI manual for evidence synthesis*.
Adelaide, Australia: JBI.
https://jbi-global-wiki.refined.site/space/MANUAL

Luckin, R., Holmes, W., Griffiths, M., & Forcier, L. B. (2016). *Intelligence Unleashed: An argument

for AI in Education*.
Pearson. https://edu.google.com/pdfs/Intelligence-Unleashed-
Publication.pdf

Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., … Moher,

D. (2021). The PRISMA 2020 statement: An updated guideline for reporting systematic

reviews.
*BMJ, 372*, n71. https://doi:10.1136/bmj.n71
QSR International. (2023). *NVivo (Versión 14) [Software]*.
Melbourne, Australia: QSR
International.
https://www.qsrinternational.com/
R Core Team. (2024). *R: A language and environment for statistical computing*. Vienna, Austria: R

Foundation for Statistical Computing.
https://www.R-project.org/
Salas
-Pilco, S. Z., & Yang, Y. (2022). Artificial intelligence applications in Latin American higher
education: a systematic review.
International Journal of Educational Technology in Higher
Education, 19
, 21. https://doi:10.1186/s41239-022-00326-w
Selwyn, N. (2019). Should robots replace teachers? AI and the future of education.
Cambridge, UK:
Polity Press.

UNESCO. (2021). Marco de competencias de los docentes en materia de TIC (versión 3). París:
UNESCO.
https://unesdoc.unesco.org/ark:/48223/pf0000371024
UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. París, Francia: UNESCO.

https://unesdoc.unesco.org/

Villalobos Díaz, E., Hilliger, I., Gonzalez, C., Celis, S., Pérez-Sanagustín, M., & Broisin, J. (2024).

The mediating role of learning analytics: Insights into student approaches to learning and
pág. 12635
academic achievement in Latin America.
Journal of Learning Analytics, 11(1), 620.
https://doi:10.18608/jla.2024.8149

Zawacki
-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research
on artificial intelligence applications in higher education
Where are the educators?
International Journal of Educational Technology in Higher Education, 16
(39).
https://doi:10.1186/s41239
-019-0171-0