pág. 11316
INTELIGENCIA ARTIFICIAL GENERATIVA EN
ESTUDIANTES DE EDUCACIÓN MEDIA
SUPERIOR EN MÉXICO. EL USO DE CHATGPT EN
ESTUDIANTES DEL CENTRO DE ENSEÑANZA
TÉCNICA INDUSTRIAL (CETI)
GENERATIVE ARTIFICIAL INTELLIGENCE IN HIGH
SCHOOL STUDENTS IN MEXICO. THE USE OF CHATGPT
IN STUDENTS OF THE CENTER FOR INDUSTRIAL
TECHNICAL EDUCATION (CETI)
Luis César Torres Nabel
Universidad Pedagógica Nacional, México
Leonardo Ismael Basilio Rizo
Universidad Pedagógica Nacional, México
pág. 11317
DOI: https://doi.org/10.37811/cl_rcm.v9i5.19721
Inteligencia Artificial Generativa en estudiantes de Educación Media
Superior en México. El uso de ChatGPT en estudiantes del Centro de
Enseñanza Técnica Industrial (CETI)
Luis César Torres Nabel1
cesar.torres@upn141.edu.mx
https://orcid.org/0000-0002-5845-9290
Universidad Pedagógica Nacional, Unidad 141,
Guadalajara, México
Leonardo Ismael Basilio Rizo
lbasilio@ceti.mx
Universidad Pedagógica Nacional, Unidad 141,
Guadalajara, México
RESUMEN
La adopción de tecnologías emergentes en la educación ha transformado profundamente los procesos
de enseñanza y aprendizaje, especialmente en la Educación Superior y Media Superior (EMS). Este
estudio explora la aceptación y el uso de ChatGPT entre los estudiantes del Centro de Enseñanza Técnica
Industrial (CETI) a través del modelo de la Teoría Unificada de Aceptación y Uso de la Tecnología
(UTAUT) y el Modelo Complementario de Expectativa de Desempeño (MCER). Utilizando un enfoque
cuantitativo, se recopilaron datos a través de encuestas administradas a 441 estudiantes y se analizaron
utilizando el Modelo de Ecuaciones Estructurales de Mínimos Cuadrados Parciales (PLS-SEM). El
estudio evalúa los factores clave que influyen en la intención de usar ChatGPT, incluida la expectativa
de desempeño, la expectativa de esfuerzo, la influencia social y las condiciones facilitadoras, junto con
variables del MCER, como el rendimiento académico, la sobrecarga académica y las percepciones
éticas. Los resultados destacan los determinantes significativos de la adopción de ChatGPT, enfatizando
la interacción entre las consideraciones tecnológicas y éticas. Los resultados ofrecen información sobre
la integración de ChatGPT en las prácticas educativas y contribuyen a comprender las implicaciones
más amplias de la inteligencia artificial en los entornos académicos. Esta investigación proporciona
datos valiosos para orientar la formulación de políticas, el diseño curricular y la implementación
estratégica de herramientas de IA en la educación.
Palabras clave: inteligencia artificial generativa, aceptación de la tecnología, educación media superior,
ética académica, ChatGPT
1
Autor principal
Correspondencia: cesar.torres@upn141.edu.mx
pág. 11318
Generative Artificial Intelligence in High School Students in Mexico. The
use of ChatGPT in students of the Center for Industrial Technical
Education (CETI)
ABSTRACT
The adoption of emerging technologies in education has profoundly transformed teaching and learning
processes, especially in Higher and Upper Secondary Education (EMS). This study explores the
acceptance and use of ChatGPT among students at the Center for Industrial Technical Education (CETI)
through the Unified Theory of Acceptance and Use of Technology (UTAUT) model and the
Complementary Performance Expectancy Model (CEFR). Using a quantitative approach, data were
collected through surveys administered to 441 students and analyzed using Partial Least Squares
Structural Equation Modeling (PLS-SEM). The study evaluates key factors influencing the intention to
use ChatGPT, including performance expectancy, effort expectancy, social influence, and facilitating
conditions, along with CEFR variables such as academic performance, academic overload, and ethical
perceptions. The results highlight significant determinants of ChatGPT adoption, emphasizing the
interplay between technological and ethical considerations. The results offer insights into the integration
of ChatGPT into educational practices and contribute to understanding the broader implications of
artificial intelligence in academic settings. This research provides valuable data to inform policymaking,
curriculum design, and the strategic implementation of AI tools in education.
Keywords: generative artificial intelligence, technology acceptance, higher secondary education,
academic ethics, ChatGPT
Artículo recibido 24 julio 2025
Aceptado para publicación: 27 agosto 2025
pág. 11319
INTRODUCCIÓN
La transformación digital ha impactado profundamente la educación, modificando las formas en que los
estudiantes acceden al conocimiento y desarrollan habilidades académicas. En los últimos años, la
Inteligencia Artificial (IA) ha emergido como una de las herramientas tecnológicas más influyentes en
este ámbito, facilitando desde la automatización de tareas hasta el aprendizaje personalizado (Mhlanga,
2023; Tapalova et al., 2022). Entre estas innovaciones, ChatGPT, desarrollado por OpenAI y lanzado al
público en 2022, ha captado un interés significativo en la educación superior y media superior debido a
su capacidad para generar contenido en lenguaje natural y asistir en actividades académicas (Neumann
et al., 2023). Su uso ha generado debates en torno a su impacto en el rendimiento académico, la ética y
la autenticidad del aprendizaje, convirtiéndose en un tema de creciente relevancia en la investigación
educativa (García-Peñalvo, 2023; Morales-Chan, 2023).
A pesar de su rápida adopción, no existen datos específicos y sistematizados sobre la aceptación y el
uso de ChatGPT entre los estudiantes en México, especialmente en el contexto de la educación técnica.
Existen percepciones generalizadas sobre su incorporación en el ámbito académico, pero no se han
analizado de manera rigurosa los factores que determinan su uso intencionado ni las implicaciones que
esto conlleva (Tiwari et al., 2023). Además, aunque diversas investigaciones han abordado los
beneficios y riesgos del uso de IA en la educación, la mayoría se han centrado en escenarios
anglosajones, sin considerar particularidades culturales y pedagógicas propias del contexto
latinoamericano (Zhang y Li, 2021).
En este sentido, resulta fundamental comprender qué motiva a los estudiantes a utilizar ChatGPT y cómo
influyen distintos factores en su adopción. Para ello, el presente estudio aplica la Teoría Unificada de la
Aceptación y Uso de la Tecnología (UTAUT), modelo que permite analizar cómo variables como la
Expectativa de Rendimiento (ER), la Expectativa de Esfuerzo (EE), la Influencia Social (IS) y las
Condiciones Facilitadoras (CF) impactan en la intención de uso de una tecnología (Venkatesh et al.,
2003). Asimismo, se integra el Modelo Complementario de Expectativa de Rendimiento (MCER), el
cual considera variables adicionales como la sobrecarga académica, la percepción de deshonestidad y el
impacto en el rendimiento estudiantil, proporcionando una visión más amplia sobre la aceptación de
ChatGPT en el ámbito educativo.
pág. 11320
El propósito de esta investigación es evaluar el grado de aceptación y uso de ChatGPT en estudiantes
del Centro de Enseñanza Técnica Industrial (CETI), identificando los factores que influyen en su
adopción y analizando su relación con el rendimiento académico y las percepciones éticas. En este
contexto, se plantean las siguientes preguntas de investigación: ¿Cuál es el factor del modelo UTAUT
que más influye en los estudiantes del CETI para utilizar ChatGPT? ¿Cómo impacta la Expectativa de
Rendimiento en la intención de uso de esta herramienta? ¿Existe una relación entre la sobrecarga
académica y el uso de ChatGPT? ¿De qué manera las percepciones éticas influyen en su adopción en
actividades escolares?
Responder a estas interrogantes permitirá generar un marco de referencia para futuras investigaciones
sobre IA en la educación, así como proporcionar información valiosa para la formulación de estrategias
de integración tecnológica en las instituciones educativas. A partir de los hallazgos, se podrán diseñar
políticas que promuevan un uso responsable de ChatGPT, optimizando su potencial como herramienta
de apoyo académico y mitigando posibles riesgos asociados a su implementación (Zhang y Li, 2021).
Dado el impacto de ChatGPT en el ámbito educativo y la necesidad de comprender su aceptación en
contextos específicos como el CETI, es fundamental revisar los estudios previos que han abordado la
integración de esta tecnología en la educación. Diversas investigaciones han explorado la influencia de
la IA en el aprendizaje, los desafíos éticos y pedagógicos que plantea, así como los factores que
determinan su adopción en distintos niveles educativos.
Revisión de Literatura
Inteligencia Artificial y Educación
La IA ha revolucionado diversos sectores, y la educación no ha sido la excepción. Su impacto se ha
reflejado en la automatización de tareas administrativas, la personalización del aprendizaje y la
implementación de asistentes virtuales para la tutoría académica (Mhlanga, 2023; Tapalova et al., 2022).
Con la capacidad de procesar grandes volúmenes de datos y generar respuestas adaptadas a los usuarios,
la IA ha facilitado nuevas estrategias pedagógicas que promueven la interactividad y el aprendizaje
autónomo (Ouyang y Jiao, 2021).
Uno de los aspectos más relevantes de la IA en educación es su potencial para mejorar la experiencia de
aprendizaje a través de la adaptación de los contenidos a las necesidades individuales de los estudiantes.
pág. 11321
Tapalova et al. (2022) exploraron cómo las herramientas basadas en IA pueden proporcionar
retroalimentación inmediata, acceso a recursos educativos en todo momento y autonomía en la gestión
del aprendizaje. Su estudio encontró que el 98% de los alumnos encuestados consideraron que estas
tecnologías influyen significativamente en su desempeño académico, aunque solo el 68% las percibió
como útiles para el desarrollo de habilidades profesionales. Desde un enfoque teórico, Ouyang y Jiao
(2021) proponen tres paradigmas en la aplicación de la IA en la educación: (1) Dirigido por IA, donde
la IA guía el proceso de aprendizaje con base en la teoría conductista; (2) Asistido por IA, en el que la
IA actúa como una herramienta de apoyo dentro de un entorno constructivista; y (3) Potencializado por
IA, en el que el estudiante es el protagonista del aprendizaje y la IA se convierte en un medio para
aumentar sus capacidades cognitivas. Este último paradigma, influenciado por la teoría de la
complejidad (Mason, 2008), resalta la importancia de la sinergia entre la IA, los docentes y los
estudiantes para generar un aprendizaje más dinámico y flexible.
El enfoque de IA centrado en el ser humano ha cobrado relevancia en el ámbito educativo. Yang et al.
(2021) plantean la necesidad de desarrollar sistemas de IA que no solo sean eficientes en términos
tecnológicos, sino que también sean comprensibles, adaptables y éticamente responsables. Para ello,
proponen un entorno de aprendizaje inteligente basado en tres componentes esenciales: (1) Educación
de precisión, que adapta el contenido a las necesidades individuales de los estudiantes, (2) Análisis
inteligente del aprendizaje, que utiliza el análisis de datos para identificar áreas de mejora y personalizar
la enseñanza, y (3) Evaluación inteligente, que optimiza los métodos de evaluación para medir con
mayor precisión el progreso académico.
En este contexto, Srinivasan (2022) argumenta que la IA tiene el potencial de optimizar la educación
mediante asistentes virtuales, optimizadores cognitivos de aprendizaje y sistemas de tutoría inteligente.
Estas herramientas pueden mejorar la accesibilidad a la educación y permitir una enseñanza más
inclusiva, especialmente en regiones donde los recursos educativos son limitados. No obstante, también
surgen desafíos como la desinformación, la dependencia excesiva de la tecnología y la necesidad de
desarrollar competencias digitales que permitan a los estudiantes y docentes aprovechar estos sistemas
de manera efectiva (Ocaña-Fernández et al., 2019).
pág. 11322
Dado el rápido avance de la IA en el ámbito educativo, resulta fundamental analizar su impacto en la
educación media superior y superior. Aunque las investigaciones han demostrado su potencial para
mejorar la personalización del aprendizaje y la eficiencia académica, también es necesario examinar los
posibles riesgos asociados, como la sobrecarga de información y la falta de regulación en su
implementación. En la siguiente sección, se abordará el caso específico de ChatGPT, una de las
herramientas de IA más influyentes en la educación actual, con el propósito de comprender sus
implicaciones y el grado de aceptación entre los estudiantes.
ChatGPT
El lanzamiento de ChatGPT en 2022 marcó un hito en la evolución de la IA aplicada a la educación,
debido a su capacidad para generar texto coherente, responder preguntas de forma contextualizada y
asistir en diversas tareas académicas. Basado en la arquitectura GPT-3.5 y, posteriormente, en GPT-4,
este modelo de lenguaje ha sido utilizado ampliamente en entornos educativos para apoyar tanto a
estudiantes como a docentes (OpenAI, 2022). Su popularidad radica en la facilidad de acceso, la rapidez
de sus respuestas y la versatilidad para adaptarse a diferentes disciplinas académicas (Neumann et al.,
2023).
Desde una perspectiva pedagógica, ChatGPT se ha convertido en una herramienta valiosa para el
aprendizaje autónomo, permitiendo a los estudiantes explorar temas complejos, recibir explicaciones
detalladas y mejorar habilidades como la redacción y la resolución de problemas. Cotton et al. (2023)
destacan que su uso favorece el pensamiento crítico, al proporcionar múltiples perspectivas sobre un
mismo tema y fomentar la reflexión en los estudiantes. Además, estudios como el de Swiecki et al.
(2022) sugieren que ChatGPT puede mejorar la motivación y el compromiso estudiantil, ya que ofrece
retroalimentación inmediata y personalizada, lo que facilita un aprendizaje más interactivo y dinámico.
Sin embargo, el uso de ChatGPT en el ámbito educativo también plantea desafíos significativos. Uno
de los principales problemas está relacionado con la integridad académica, ya que la facilidad para
generar textos coherentes y de alta calidad puede fomentar prácticas de deshonestidad académica, como
el plagio y la dependencia excesiva de la IA para la realización de tareas (Susnjak, 2022). Qadir (2022)
advierte que esta tecnología podría socavar el desarrollo de habilidades fundamentales, como la escritura
crítica y la capacidad de análisis, si no se implementa con un enfoque pedagógico adecuado.
pág. 11323
Otro aspecto crítico es la precisión de la información proporcionada por ChatGPT. Aunque el modelo
es capaz de generar respuestas convincentes, no siempre garantiza la veracidad de los datos, ya que su
conocimiento se basa en patrones lingüísticos aprendidos de grandes volúmenes de texto (OpenAI,
2022). Esto puede llevar a la difusión de información errónea si los estudiantes no poseen habilidades
de pensamiento crítico para evaluar la validez de los contenidos generados. Diversos estudios han
analizado el impacto de ChatGPT en el rendimiento académico. Habibi et al. (2023) encontraron que su
uso puede mejorar significativamente el desempeño de los estudiantes en tareas de redacción y
resolución de problemas, especialmente cuando se utiliza como una herramienta complementaria en
lugar de un sustituto del aprendizaje activo. Por su parte, Romero-Rodríguez et al. (2023) señalaron que
la percepción de utilidad y la facilidad de uso son factores determinantes en la aceptación de ChatGPT,
aunque también destacaron que existe cierta resistencia por parte de algunos docentes debido a
preocupaciones éticas y pedagógicas.
En el ámbito de la educación técnica, donde la formación práctica y el desarrollo de habilidades
específicas son fundamentales, ChatGPT puede desempeñar un papel dual. Por un lado, facilita el acceso
a recursos de aprendizaje especializados, permitiendo a los estudiantes consultar explicaciones técnicas,
resolver dudas en tiempo real y simular entornos de programación o resolución de problemas. Por otro
lado, puede generar una dependencia excesiva, reduciendo la capacidad de los estudiantes para enfrentar
desafíos de manera autónoma si no se implementa de forma crítica (Menon y Shilpa, 2023). Para mitigar
estos riesgos, se han propuesto diversas estrategias que buscan integrar ChatGPT de manera ética y
efectiva en el proceso educativo. Neumann et al. (2023) sugieren el desarrollo de políticas institucionales
que regulen su uso, promoviendo la transparencia en la elaboración de trabajos académicos y
estableciendo límites claros para su aplicación en contextos de evaluación. Además, Swiecki et al.
(2022) proponen la incorporación de talleres de alfabetización digital que enseñen a los estudiantes a
utilizar ChatGPT de manera crítica, evaluando la confiabilidad de la información y reflexionando sobre
el impacto ético de la IA en la educación.
Teoría Unificada de la Aceptación y Uso de la Tecnología (UTAUT)
El modelo UTAUT, desarrollado por Venkatesh et al. (2003), ha sido ampliamente utilizado en
investigaciones que analizan la adopción de tecnologías en el ámbito educativo, proporcionando
pág. 11324
resultados significativos sobre los factores que influyen en la intención de uso y la adopción efectiva de
nuevas herramientas digitales. Los estudios empíricos realizados en distintos contextos académicos han
identificado patrones clave que permiten comprender cómo variables como la ER, EE, IS y CF impactan
en la aceptación de tecnologías como ChatGPT.
En investigaciones consultadas, la ER ha demostrado ser el factor más determinante en la adopción de
tecnologías educativas. Por ejemplo, Habibi et al. (2023) encontraron que los estudiantes universitarios
muestran una mayor intención de utilizar ChatGPT cuando perciben que esta herramienta mejora
significativamente su desempeño académico, especialmente en tareas de redacción, búsqueda de
información y resolución de problemas complejos. Este hallazgo coincide con estudios previos que
destacan cómo la percepción de utilidad influye directamente en la disposición de los estudiantes a
integrar tecnologías emergentes en sus actividades académicas.
En cuanto a EE, los resultados de diversas investigaciones sugieren que la facilidad de uso percibida es
un factor relevante, pero con un impacto menor en comparación con la ER. Romero-Rodríguez et al.
(2023) demostraron que, aunque una interfaz intuitiva y la simplicidad en la interacción con ChatGPT
facilitan su adopción, este factor tiene un peso relativo menor cuando los estudiantes ya reconocen el
valor de la herramienta para mejorar su rendimiento. Sin embargo, en contextos donde los estudiantes
tienen menos experiencia con tecnologías digitales, la EE puede desempeñar un papel más relevante en
la decisión de adopción.
IS también ha sido analizada en diversos estudios, mostrando resultados mixtos. Menon y Shilpa (2023)
identificaron que, en entornos donde existe una fuerte cultura de adopción tecnológica, la presión de
pares y la influencia de figuras de autoridad, como profesores o líderes académicos, incrementan la
intención de uso de ChatGPT. No obstante, en contextos donde el uso de tecnologías no está fuertemente
promovido, la IS tiende a tener un impacto limitado, lo que sugiere que su relevancia depende en gran
medida de las dinámicas sociales e institucionales.
Por otro lado, CF ha demostrado ser un factor crítico para la adopción de tecnologías, especialmente en
entornos educativos donde la infraestructura tecnológica y el soporte técnico pueden variar
significativamente. Neumann et al. (2023) encontraron que la disponibilidad de recursos, como
dispositivos compatibles, conexión a Internet estable y acceso a capacitación en el uso de herramientas
pág. 11325
digitales, influye directamente en la disposición de los estudiantes para utilizar ChatGPT. La falta de
estos recursos puede actuar como una barrera, incluso si los estudiantes perciben la tecnología como útil
y fácil de usar. Además de los constructos principales, las investigaciones han explorado el papel de
variables moderadoras, como la edad, el género, la experiencia tecnológica y la voluntariedad de uso.
Venkatesh et al. (2012) destacaron que la EE tiene un mayor impacto en mujeres y en usuarios con
menor experiencia tecnológica, mientras que la ER es más influyente en hombres y en aquellos con
mayor familiaridad con el uso de tecnologías. Estos hallazgos sugieren que la adopción de ChatGPT
puede variar según características demográficas y contextuales específicas.
Sin embargo, algunos estudios han señalado limitaciones en el modelo UTAUT al aplicarlo en entornos
educativos. Por ejemplo, Acosta-Enríquez et al. (2024) argumentan que el modelo no considera
adecuadamente variables específicas del ámbito académico, como la carga de trabajo, la percepción de
deshonestidad académica o la motivación intrínseca de los estudiantes. Para abordar estas limitaciones,
esta investigación propone un modelo complementario, el MCER, que amplía el análisis incorporando
factores adicionales relacionados con el contexto educativo y ético, permitiendo una comprensión más
holística de la aceptación de tecnologías emergentes como ChatGPT en la educación.
Marco Teórico
Un Mundo Conectado
El conectivismo, propuesto por Siemens (2005), surge como una teoría del aprendizaje adaptada a la era
digital, en la que la tecnología se integra de forma esencial en los procesos educativos. A diferencia de
enfoques tradicionales como el conductismo o el constructivismo, el conectivismo sostiene que el
aprendizaje no es un proceso lineal ni está limitado al individuo, sino que se expande a través de redes
dinámicas formadas por personas, organizaciones, dispositivos y bases de datos. En este contexto, el
conocimiento no reside únicamente en la mente del estudiante, sino también en las conexiones externas
que este establece, cobrando mayor relevancia la capacidad de acceder a la información que el
conocimiento previamente adquirido (Mattar, 2018; Gortaire et al., 2023).
Uno de los principios fundamentales del conectivismo es que el aprendizaje se basa en la diversidad de
opiniones y en la capacidad de conectar diferentes nodos de información, entendidos como fuentes
especializadas o entidades con las que interactuamos para obtener conocimiento. Según Siemens (2005),
pág. 11326
el aprendizaje puede incluso residir en dispositivos no humanos, como bases de datos o aplicaciones de
IA, donde la información se encuentra organizada y lista para ser procesada por el usuario. En este
sentido, la habilidad de establecer conexiones significativas entre distintos campos, ideas y conceptos
se convierte en una competencia central para el aprendizaje en la era digital.
Un concepto clave dentro del conectivismo es el "know-where", que hace referencia a la habilidad de
saber dónde encontrar el conocimiento necesario en lugar de memorizar información específica. En un
mundo caracterizado por el cambio constante y el acceso ilimitado a datos, resulta más valioso
identificar fuentes confiables de información que retener conocimientos que podrían volverse obsoletos
rápidamente (Siemens, 2005). Esta perspectiva desafía las metodologías tradicionales de enseñanza,
donde el énfasis estaba en la memorización y la reproducción de contenidos, y propone un enfoque
centrado en la gestión del conocimiento y la alfabetización digital.
No obstante, el conectivismo también presenta desafíos importantes, especialmente en lo que respecta a
la autonomía del aprendiz. Según Goldie (2016), para participar de manera efectiva en entornos de
aprendizaje conectivistas, los estudiantes deben ser proactivos, autogestionar su tiempo y recursos, y
demostrar habilidades para la toma de decisiones sin una supervisión constante. En este contexto, las
herramientas tecnológicas basadas en IA, como ChatGPT, representan un ejemplo claro de cómo se
materializa el conectivismo en la práctica. Finalmente, aunque el conectivismo presenta ventajas
significativas al integrar la tecnología como parte fundamental del proceso educativo, también requiere
una reconfiguración de las prácticas pedagógicas. Es necesario diseñar entornos de aprendizaje que no
solo faciliten el acceso a la información, sino que también fomenten el pensamiento crítico, la capacidad
de análisis y la responsabilidad en el uso de herramientas digitales. En este sentido, la incorporación de
modelos conectivistas en la educación actual no debe entenderse como una sustitución de los enfoques
tradicionales, sino como una oportunidad para enriquecer el aprendizaje en un mundo cada vez más
interconectado y digitalizado.
ChatGPT y educación
ChatGPT ha ganado popularidad en el ámbito académico debido a su capacidad para interactuar de
manera natural con los usuarios, lo que ha generado un debate sobre su potencial integración en entornos
educativos. Su uso en la elaboración de trabajos escolares es una realidad, independientemente de si las
pág. 11327
instituciones lo autorizan o no (Bleumink y Shikhule, 2023). Esta situación plantea desafíos y
oportunidades para las instituciones educativas, dado que los estudiantes recurren a ChatGPT
principalmente para optimizar el tiempo en la realización de tareas, especialmente en la redacción de
textos, lo que refleja su utilidad para aliviar la sobrecarga académica y mejorar el equilibrio entre la vida
académica y personal.
Además de la optimización del tiempo, ChatGPT se presenta como una herramienta eficaz para fomentar
la escritura dinámica y atractiva, ofreciendo sugerencias en tiempo real y actuando como un tutor
disponible las 24 horas (Haleem, 2022; Tapalova et al., 2022). Su capacidad para adaptarse a las
necesidades individuales de los estudiantes, brindando explicaciones personalizadas y recursos
adicionales, contribuye a un aprendizaje más eficaz y autónomo, permitiendo a los estudiantes avanzar
a su propio ritmo y según sus necesidades específicas (Ocaña-Fernández, 2019). Sin embargo, la
integración de ChatGPT en la educación no está exenta de desafíos. Uno de los principales riesgos es la
pérdida de fiabilidad de los productos académicos como evidencia del aprendizaje real de los estudiantes
(Morales-Chan, 2023). El uso de IA para generar ensayos y tareas de alta calidad en poco tiempo y con
mínimo esfuerzo plantea dudas sobre la autenticidad del trabajo entregado. Este problema está
estrechamente vinculado a cuestiones éticas, como el plagio académico y la deshonestidad en
evaluaciones, lo que podría desvalorizar la integridad de los títulos académicos (Cotton et al., 2023).
En respuesta a estos desafíos éticos, algunas estrategias para mitigar el uso indebido de ChatGPT
incluyen la concientización sobre la importancia de la integridad académica, la implementación de
evaluaciones progresivas que requieran avances continuos y el uso de software de detección de plagio
(Susnjak, 2022). No obstante, estas medidas tienen limitaciones. Por ejemplo, los detectores de plagio
tradicionales no son totalmente eficaces para identificar textos generados por IA, ya que ChatGPT crea
contenido original basado en patrones de lenguaje en lugar de copiar directamente de fuentes existentes
(Haluza y Jungwirth, 2023).
Otro desafío importante es la posible generación de información incorrecta o sesgada. ChatGPT, aunque
es capaz de generar respuestas coherentes, puede producir datos inexactos o referencias inexistentes, lo
que plantea riesgos si los estudiantes no verifican la veracidad de la información (Qadir, 2022). Esta
limitación se debe a la naturaleza del modelo, que genera respuestas basadas en patrones de lenguaje sin
pág. 11328
validar la precisión de los datos. La falta de referencias confiables puede comprometer la calidad del
aprendizaje y fomentar la propagación de desinformación. En el contexto de la integridad académica,
los exámenes en línea representan otro desafío, especialmente después de la pandemia de COVID-19,
que popularizó este tipo de evaluaciones (Susnjak, 2022). ChatGPT ha demostrado la capacidad de
superar exámenes profesionales, como el de licencia médica de EE. UU. y pruebas en el ámbito jurídico
(Jalil et al., 2023), lo que evidencia su potencial para facilitar el fraude académico en evaluaciones
menos complejas. A pesar de las soluciones propuestas, como la vigilancia en tiempo real o el uso de
software de bloqueo de aplicaciones, aún no existe un método infalible para garantizar la integridad en
evaluaciones digitales.
Aunque ChatGPT ofrece beneficios significativos, como el acceso a información personalizada y el
apoyo en la redacción de textos, también plantea riesgos relacionados con la precisión de la información
y la ética académica. A pesar del creciente interés en sus aplicaciones, existe una falta de estudios que
analicen específicamente su aceptación y uso en entornos educativos. Para abordar esta brecha, se ha
seleccionado el modelo UTAUT (Venkatesh et al., 2003) como marco teórico, ya que permite analizar
de manera integral los factores que influyen en la adopción de nuevas tecnologías, proporcionando una
base sólida para evaluar la viabilidad de ChatGPT en el contexto educativo.
Teoría Unificada de la Aceptación y Uso de la Tecnología (UTAUT)
Desarrollado por Venkatesh et al. (2003), integra elementos de ocho teorías previas relacionadas con la
aceptación y el uso de tecnologías, como la Teoría de la Acción Razonada (TRA), el Modelo de
Aceptación de Tecnología (TAM) y la Teoría del Comportamiento Planificado (TPB). El modelo
identifica cuatro constructos clave que influyen en la intención de uso y en el uso efectivo de la
tecnología: Expectativa de Rendimiento (ER), Expectativa de Esfuerzo (EE), Influencia Social (IS) y
Condiciones Facilitadoras (CF). Estos factores están moderados por variables como la edad, el género,
la experiencia y la voluntariedad de uso, lo que permite un análisis más profundo del comportamiento
de adopción tecnológica.
ER se refiere a la percepción de que el uso de una tecnología mejorará el desempeño del usuario en
tareas específicas. En el ámbito educativo, esta expectativa es fundamental, ya que, si los estudiantes
consideran que herramientas como ChatGPT les permiten realizar tareas de forma más eficiente, su
pág. 11329
intención de uso aumentará (Venkatesh et al., 2003). Esta percepción está asociada con mejoras en la
redacción, la squeda de información y la resolución de problemas académicos, lo que ha sido validado
en diversos estudios sobre tecnologías emergentes. Por su parte, EE se enfoca en el grado de facilidad
percibido para utilizar una tecnología. Relacionada con el concepto de "facilidad de uso percibida" del
TAM (Davis, 1989), implica que tecnologías intuitivas y simples de manejar tienen una mayor
probabilidad de ser adoptadas. En el caso de ChatGPT, su interfaz amigable y la facilidad para generar
contenido relevante contribuyen a reducir las barreras de entrada para los estudiantes, facilitando su
integración en actividades académicas cotidianas.
IS hace referencia a la percepción de que personas importantes en el entorno del usuariocomo
compañeros, profesores o familiaresaprueban o recomiendan el uso de una tecnología. Este factor es
especialmente relevante en contextos educativos, donde la aceptación de herramientas digitales puede
estar influenciada por las normas sociales y la cultura institucional (Teo, 2011). Si los estudiantes
perciben que ChatGPT es valorado positivamente por su entorno académico, es más probable que
adopten su uso de manera regular. CF se refiere a la percepción de que existen los recursos técnicos y
el apoyo necesario para utilizar una tecnología de forma eficaz. Esto incluye el acceso a dispositivos,
conexión a Internet confiable y soporte técnico. La falta de estas condiciones puede limitar la adopción
de herramientas digitales, incluso si los estudiantes perciben su utilidad. En el caso de ChatGPT, la
disponibilidad de infraestructura tecnológica adecuada y el conocimiento básico para interactuar con la
IA son factores críticos para su adopción en entornos educativos.
pág. 11330
Figura 1: Modelo UTAUT propuesto por Venkatesh et al. (2003)
El modelo UTAUT también considera variables moderadoras como la edad, el género, la experiencia
tecnológica y la voluntariedad de uso. Estas variables permiten comprender cómo diferentes grupos de
usuarios adoptan la tecnología. Por ejemplo, la experiencia previa con herramientas digitales puede
reducir la percepción del esfuerzo necesario para usar ChatGPT, mientras que la voluntariedad de uso
puede influir en la motivación intrínseca del estudiante para explorar sus funcionalidades (Venkatesh et
al., 2003). La figura 1 ilustra las conexiones entre los constructos principales del modelo UTAUT.
Modelo Complementario de Expectativa de Rendimiento (MCER)
El MCER surge a partir de los conceptos de "know-where" y conocimiento accionable de Siemens
(2005), enfocándose en cómo la capacidad de los estudiantes para localizar y aplicar información influye
en la adopción de tecnologías como ChatGPT. Este modelo considera que, en el entorno educativo
actual, la habilidad para saber dónde encontrar información es tan relevante como el conocimiento en sí
mismo, y ChatGPT facilita esta habilidad al ofrecer acceso rápido y eficiente a una gran cantidad de
datos. Sin embargo, este beneficio también plantea desafíos relacionados con la deshonestidad
académica, como el riesgo de plagio y la superficialidad en la comprensión del contenido, aspectos clave
para comprender mo y por qué los estudiantes adoptan esta tecnología. El MCER se estructura en
torno a dos constructos principales: Resultados Académicos (RA) y Desarrollo Académico (DA). RA
está vinculado al "know-where", reflejando la tendencia de algunos estudiantes a utilizar ChatGPT como
una herramienta para obtener pidamente información y completar tareas sin necesariamente
pág. 11331
profundizar en el aprendizaje. Por otro lado, DA, basado en el concepto de conocimiento accionable,
representa a aquellos estudiantes que usan ChatGPT no solo para acceder a información, sino para
integrarla en su proceso de aprendizaje, desarrollando habilidades críticas, de resolución de problemas
y aplicando el conocimiento de manera significativa.
Además, el modelo incluye dos variables moderadoras que influyen en la relación entre RA, DA y ER:
la Sobrecarga Académica (SA) y la Percepción de Deshonestidad (PD). SA se refiere al exceso de tareas
y responsabilidades académicas, que puede llevar a los estudiantes a depender de ChatGPT para aliviar
esta carga, aprovechando su capacidad para generar contenido de manera rápida y eficiente. En este
sentido, ChatGPT actúa como un recurso para gestionar el estrés y optimizar el tiempo, aunque esto
podría limitar el aprendizaje profundo si se usa de forma superficial. Por su parte, la PD evalúa cómo
los estudiantes perciben el uso de ChatGPT en términos de ética académica. Las decisiones sobre su uso
están influenciadas por dilemas éticos relacionados con la autoría, la originalidad del trabajo y el
cumplimiento de las normas institucionales. Los estudiantes que perciben el uso de ChatGPT como
deshonesto podrían evitarlo, mientras que otros podrían justificar su uso como una herramienta legítima
para mejorar el rendimiento académico.
El MCER, al integrar estos constructos y moderadores, permite analizar no solo la intención de uso de
ChatGPT, sino también las motivaciones subyacentes y los factores que pueden potenciar o inhibir su
adopción en entornos educativos. Este enfoque ofrece una perspectiva más completa sobre cómo la
tecnología impacta en el rendimiento académico y el desarrollo de competencias, destacando tanto sus
beneficios como sus riesgos en el contexto del aprendizaje actual. La siguiente figura 2 ilustra los
componentes del MCER y su relación entre sí
pág. 11332
Figura 2: Modelo Complementario de la Expectativa de Rendimiento. Elaboración propia
Hipótesis del Estudio
En este apartado, se plantean hipótesis basadas en el modelo UTAUT y en las preguntas de investigación
formuladas, buscando identificar los factores que influyen en la intención de uso de ChatGPT entre los
estudiantes del CETI. H1: La Expectativa de Esfuerzo, afecta significativamente la Intención de
Comportamiento. H2: La Expectativa de Rendimiento, afecta significativamente la Intención de
Comportamiento. H3: La Influencia Social, afecta significativamente la Intención de Comportamiento.
H4: Las Condiciones Facilitadoras, afecta significativamente el Comportamiento de uso. H5: La
intención de comportamiento afecta significativamente el Comportamiento de uso. H6: El género afecta
significativamente la Expectativa de Rendimiento, la Expectativa de Esfuerzo y la Influencia social. H7:
La edad afecta significativamente la Expectativa de Rendimiento, Expectativa de Esfuerzo, la Influencia
Social y las Condiciones Facilitadoras H8: la experiencia afecta significativamente a la Expectativa de
Esfuerzo, Influencia Social y Condiciones Facilitadoras. H9: La voluntariedad de uso afecta
significativamente la Influencia Social.
En cuanto a la propuesta del modelo MCER, que busca conocer cuál es el aspecto que más influye en
los alumnos que usan ChatGPT con Expectativas de Rendimiento se procede con las siguientes
hipótesis. H10: El desarrollo Académico, afecta significativamente la Expectativa de Rendimiento. H11:
Los resultados Académicos, afectan significativamente la Expectativa de Rendimiento. H12: La
sobrecarga académica tiene una relación significativa con los Resultados Académicos. H13: La
pág. 11333
sobrecarga académica tiene una relación significativa con el Desarrollo Académico. H14: La Percepción
de Deshonestidad tiene una relación significativa con los Resultados Académicos. H16: La Percepción
de Deshonestidad tiene una relación significativa con los Resultados Académicos
METODOLOGÍA
Este estudio se enmarca en el paradigma positivista, que sostiene que el conocimiento puede obtenerse
mediante la observación y la medición de fenómenos (Creswell, 2014). Este enfoque es fundamental
para investigaciones que buscan explicar relaciones causales entre variables, permitiendo la predicción
y el control de fenómenos en contextos educativos (Popper, 2002). En el análisis de tecnologías
educativas, el positivismo facilita una evaluación sistemática y objetiva de factores como la facilidad de
uso, IS y las percepciones académicas sobre la adopción de ChatGPT, utilizando métodos cuantitativos
para la recolección y análisis de datos (Bryman, 2012).La investigación adopta un diseño cuantitativo
de tipo descriptivo-explicativo, orientado a identificar relaciones entre variables y comprender las causas
que influyen en la intención de uso de ChatGPT por parte de los estudiantes del CETI. Se utilizaron
herramientas estadísticas para analizar datos numéricos, lo que permitió generalizar los hallazgos a
poblaciones similares y fundamentar recomendaciones para políticas educativas basadas en evidencia
empírica (Cohen et al., 2013).
Población y Muestra
La población objetivo incluyó a los 7,335 estudiantes inscritos en los tres planteles del CETI,
considerando únicamente a aquellos con correo institucional activo para garantizar su vinculación con
la institución. Se excluyeron estudiantes en proceso de baja académica o sin acceso al correo
institucional. Para asegurar la representatividad, se calculó un tamaño de muestra mínimo de 366
estudiantes, empleando la fórmula para poblaciones finitas de Cochran (1977), con un nivel de confianza
del 95% y un margen de error del 5%. Aunque este número garantizaba la validez estadística, el
cuestionario se envió a toda la población para maximizar la tasa de respuesta. Al final se obtuvieron 441
respuestas validadas.
Técnica de Recolección de Datos
El instrumento principal de este estudio se basó en el cuestionario elaborado por Hasselqvist (2023) en
su investigación "Students Acceptance and Use of ChatGPT in Academic Settings", seleccionado por su
pág. 11334
estructura validada y su alineación con el modelo UTAUT, lo que garantiza la calidad y relevancia de
los datos obtenidos en contextos educativos. Para adaptarlo al entorno específico del CETI, se realizaron
modificaciones significativas que permitieron explorar no solo la aceptación de ChatGPT, sino también
aspectos relacionados con la ética académica y la percepción del impacto de la IA en la educación.
El cuestionario adaptado para este estudio se estructuen ocho secciones diseñadas para captar una
visión integral del uso de ChatGPT en el entorno educativo del CETI. La Sección I recopila información
básica del encuestado, como plantel, nivel educativo, carrera, edad y sexo, permitiendo segmentar los
resultados por variables demográficas. Las Secciones II a IV se centran en el conocimiento y uso previo
de ChatGPT, evaluando la familiaridad de los estudiantes con la herramienta, su experiencia personal y
si la han utilizado en contextos académicos. La Sección V explora el impacto de la IA en la educación,
dirigida especialmente a aquellos estudiantes que no están familiarizados con ChatGPT, para
comprender sus percepciones generales sobre la IA. Por su parte, la Sección VI indaga los motivos por
los cuales algunos estudiantes, pese a conocer ChatGPT, han decidido no utilizarlo, identificando
barreras o resistencias hacia su adopción. La Sección VII mide las variables clave del modelo UTAUT
mediante ítems en escala Likert (0-10), lo que facilita un análisis detallado de los factores que influyen
en la aceptación de la tecnología. Finalmente, la Sección VIII aborda variables académicas, enfocándose
en el uso de ChatGPT en actividades escolares y en aspectos éticos como la honestidad académica, el
plagio y el uso responsable de la tecnología.
Fiabilidad
Para evaluar la fiabilidad del cuestionario adaptado, se utilizó el coeficiente alfa de Cronbach (1951).
Dado que el cuestionario contenía secciones dirigidas a diferentes grupos de estudiantes (quienes han
usado ChatGPT y quienes no), se realizó el análisis por separado para evitar inconsistencias debidas a
respuestas vacías. En la primera sección, que incluía a los estudiantes que han utilizado ChatGPT en
actividades académicas, estos contestaron 40 reactivos, abarcando datos demográficos, variables
académicas y constructos del modelo UTAUT. Para facilitar el procesamiento estadístico, las respuestas
cualitativas fueron codificadas numéricamente, Posteriormente, los datos fueron analizados con el
software Jamovi, obteniendo un coeficiente alfa de 0.847, lo que indica una alta fiabilidad y una fuerte
correlación interna entre los ítems (George y Mallery, 2016).
pág. 11335
Dado que el MCER incorpora constructos adicionales al modelo UTAUT, se realizó un análisis de
fiabilidad separado, obteniendo un alfa de Cronbach de 0.71, lo que confirma que esta sección del
cuestionario presenta una adecuada consistencia interna. Cuando se combinaron los ítems del MCER
con el modelo UTAUT, el coeficiente de fiabilidad aumentó a 0.881, reflejando una mejora en la
coherencia del instrumento. Sin embargo, para las secciones diseñadas para explorar las razones por las
cuales algunos estudiantes no usan o no conocen ChatGPT, no se calculó el alfa de Cronbach. Esto se
debe a que estas preguntas no miden un solo constructo específico, sino que abarcan distintos factores
técnicos, personales y éticos, lo que hace que el cálculo de consistencia interna no sea adecuado (Tavakol
y Dennick, 2011). Además, el bajo número de respuestas en estas secciones (solo 10 de 441 encuestados)
y la concentración de respuestas neutrales limitan la validez del análisis estadístico, ya que muestras
reducidas pueden generar coeficientes inestables (George y Mallery, 2016). Por estas razones, se decidió
omitir el cálculo del alfa de Cronbach en estas secciones específicas.
Análisis de Datos
Una vez finalizada la recolección de datos, se realizó una limpieza de datos para eliminar respuestas
incompletas o inconsistentes, lo que llevó a la eliminación de dos registros. Posteriormente, se llevó a
cabo un análisis exploratorio para identificar tendencias y patrones, utilizando gráficos de barras para
visualizar relaciones entre variables y detectar valores atípicos. Luego, los reactivos fueron codificados
y categorizados según los constructos del modelo UTAUT y del MCER, incluyendo ER, EE, IS, CF,
IC, CU, DA y RA, además de las variables moderadoras como Edad, Género, Experiencia,
Voluntariedad de Uso, PD y SA.
Para analizar diferencias entre grupos, se aplicó la prueba T de Student para evaluar el impacto del
género en los constructos del modelo, comparando las medias de hombres y mujeres en cuanto a su
percepción y uso de ChatGPT. Se consideró significativa una diferencia con un valor p < 0.05, lo que
permitió identificar, por ejemplo, si las mujeres perciben mayores barreras en EE o si IS varía entre
ambos géneros. Por otro lado, se utilizaron pruebas ANOVA para examinar el efecto de variables como
edad, experiencia y voluntariedad de uso en los constructos del UTAUT. Esta prueba permitió
determinar si existen diferencias significativas entre grupos en ER, EE, IS y CF al utilizar ChatGPT.
pág. 11336
Finalmente, se aplicó el modelo de ecuaciones estructurales de mínimos cuadrados parciales (PLS-
SEM), una técnica estadística recomendada para estudios con múltiples variables latentes y tamaños de
muestra moderados (Martínez y Fierro, 2018), lo que permit evaluar las relaciones entre los
constructos del modelo y la intención de uso de ChatGPT en el contexto educativo (Figura 3).
Figura 3: Modelo PLS-SEM de la investigación basado en el de Venkatesh et al. (2003)
RESULTADOS
Análisis Exploratorio
El estudio reveló que el 98% de los estudiantes encuestados conocen ChatGPT, lo que indica una alta
penetración de esta tecnología en la comunidad estudiantil. La principal vía de difusión ha sido la
recomendación de compañeros, amigos y familiares (46%), seguida de menciones en redes sociales
(20.9%). A pesar de esta influencia social, el 64.5% de los estudiantes usa ChatGPT de manera
voluntaria, y solo el 3.3% ha señalado sentirse presionado para utilizarlo. Además, el 40.2% lo ha usado
por más de 12 meses, mientras que el 64.2% tiene al menos 6 meses de experiencia con la herramienta,
lo que sugiere una adopción sostenida desde su popularización en noviembre de 2022.
En cuanto a la frecuencia y duración del uso, la mayoría de los estudiantes interactúan con ChatGPT de
2 a 4 veces por semana (32.5%), en sesiones de 10 minutos (21.2%), 5 minutos (14.3%) o 30 minutos
(11.6%). De los estudiantes que saben qué es ChatGPT, el 88.7% ha tenido alguna interacción con la
herramienta y el 94.8% la ha utilizado al menos una vez con fines académicos, destacando su uso en
pág. 11337
tareas y trabajos escolares (49.3%), seguido de la explicación de conceptos complejos (25.9%) y el
autoaprendizaje o generación de ideas (11.6%). El análisis también indica que el uso de ChatGPT en
actividades académicas continuará, ya que el 67.5% de los estudiantes planea seguir utilizándolo en los
próximos seis meses, mientras que el 29.2% está indeciso y solo el 3.3% afirma que no lo usará. Además,
el 53% considera que esta tecnología será esencial en el futuro y el 59% confía en su capacidad para
incorporarla en su aprendizaje, lo que refuerza la tendencia de aceptación de la IA en el ámbito
educativo.
Entre los estudiantes que no usan ChatGPT con fines académicos, se identificaron dos grupos: aquellos
que no conocen la herramienta (2%) y quienes la conocen, pero no la han utilizado (11.1%) o solo la
han usado en otros contextos (4.5%). En este último grupo, el 63.7% comprende sus usos académicos,
destacando su capacidad para facilitar el acceso a la información (36.2%). Sin embargo, las principales
razones para no utilizarlo incluyen preferir otros métodos para buscar información (29%),
preocupaciones sobre una dependencia excesiva (24.6%) y no saber cómo aprovechar la herramienta
(15.9%). En términos éticos, las respuestas reflejaron una tendencia neutral. El 47.8% de los estudiantes
no tiene una postura clara sobre si usar ChatGPT en actividades académicas es deshonesto, aunque el
39.1% cree que su uso debería regularse en lugar de prohibirse. De manera similar, los estudiantes
mostraron neutralidad en su percepción sobre el impacto de ChatGPT en el aprendizaje, con un 50.7%
sin una opinión definida sobre si evita el aprendizaje y un 52.2% indeciso sobre si puede mejorar el
rendimiento académico.
Resultados de la Teoría Unificada de la Aceptación y Uso de la Tecnología (UTAUT)
Para evaluar la influencia de las llaves moderadoras en la disposición de los estudiantes del CETI a
utilizar ChatGPT, se aplicaron pruebas T de Student para el género, y pruebas ANOVA de un factor
para aquellas con múltiples categorías, como edad, experiencia y voluntariedad de uso. Para aceptar una
hipótesis, se estableció que la variable moderadora debía mostrar una relación significativa en al menos
la mitad de los constructos con p < 0.05 en al menos dos indicadores del constructo. Este criterio
garantizó que los resultados fueran sólidos y no producto del azar. Los resultados muestran que el género
tiene un impacto significativo en ER, con valores p bajos en la mayoría de los indicadores (0.002, 0.012,
pág. 11338
0.023, 0.055), lo que indica que hombres y mujeres perciben de manera distinta los beneficios de usar
ChatGPT.
Sin embargo, no se observaron diferencias consistentes en EE ni en IS, salvo un caso aislado en EE (p
= 0.011), lo que llevó al rechazo de H6. En cuanto a la edad, su impacto en ER fue significativo en tres
de cuatro indicadores (p = 0.007, 0.033, 0.104), aunque en el cuarto caso la diferencia no fue relevante
(p = 0.879). Para EE, los valores p oscilaron entre significativos (p = 0.001) y moderados (p = 0.126,
0.217), mientras que IS mostró diferencias en dos indicadores clave (p = 0.005, 0.006). En CF, solo un
valor fue significativo (p = 0.027), lo que sugiere que ni género ni edad influyen de manera consistente
en este constructo (Tabla 1), por lo que H7 también se rechaza.
Tabla 1: Resultados de la Prueba T-Student de la variable Genero y de la Prueba ANOVA de la
variable Edad
Por otro lado, la experiencia del usuario mostró una fuerte influencia en EE, con valores p
consistentemente bajos (p = 0.007, 0.003, 0.008, 0.026), lo que indica que los usuarios con más
experiencia perciben menor esfuerzo al usar ChatGPT. En IS, la experiencia también tuvo un impacto
considerable en tres indicadores clave (p = 0.029, 0.006, 0.001). En CF, dos valores extremadamente
bajos (<0.001) confirmaron una relación significativa, aunque otros dos valores fueron moderados o
altos (p = 0.107, 0.619). Dado el peso general de estos resultados, H8 se acepta. En el caso de la
voluntariedad de uso, su impacto en IS fue notable en IS1 e IS3 (<0.001, 0.002), Indicando que los
estudiantes que eligen usar ChatGPT de forma voluntaria también reportan estar influenciados
socialmente en su adopción, lo que sugiere que, aunque la decisión no es obligada, el entorno social
juega un papel en su percepción y uso de la herramienta (Tabla 2). Aunque en otros indicadores los
valores p fueron altos (0.329, 0.271), la tendencia general permite aceptar H9.
Edad
Genero
EE
IS
CF
ER
EE
IS
1
0.126
0.078
0.027
0.002
0.457
0.576
2
0.217
0.005
0.453
0.012
0.537
0.147
3
0.001
0.006
0.763
0.023
0.129
0.391
4
0.798
0.895
0.549
0.055
0.011
0.245
pág. 11339
Tabla 2. Resultados de la Prueba ANOVA de las variables Experiencia y Voluntariedad de uso.
Experiencia
Voluntariedad de uso
EE
IS
CF
IS
1
0.007
0.029
0.001
< .001
2
0.003
0.089
< .001
0.329
3
0.008
< .001
0.619
0.002
4
0.026
0.006
0.107
0.271
En síntesis, los resultados indican que la experiencia del usuario y la voluntariedad de uso son los
factores más determinantes en la aceptación de ChatGPT. La experiencia influye en EE y CF, sugiriendo
que los estudiantes con mayor familiaridad con la tecnología perciben menos barreras en su uso. Por su
parte, la voluntariedad de uso afecta IS, lo que sugiere que la presión social varía según la autonomía en
la decisión de adoptar la tecnología. En contraste, aunque el género y la edad tienen cierta influencia en
ER, su impacto en otros constructos no es lo suficientemente consistente, lo que reduce su relevancia en
la adopción de ChatGPT en el contexto académico.
Tras el análisis exploratorio, se aplicó el modelo de ecuaciones estructurales de mínimos cuadrados
parciales (PLS-SEM) para evaluar la relación entre EE, ER, IS, CF e IC. Primero, se analizaron las
cargas factoriales, las cuales deben ser superiores a 0.70 para garantizar una relación fuerte entre los
indicadores y sus respectivos constructos (Hair et al., 2017). Al analizar los resultados de las cargas
factoriales, se eliminaron aquellos indicadores menores a 0.6, ya que no contribuyen de manera
significativa y afectan la confiabilidad y validez del modelo (Henseler, et al., 2009). Para los que
mostraron una carga menor a 0.7 pero mayor a 0.6, la decisión que se tomó fue de mantenerlos, ya que,
al revisar los indicadores de confiabilidad y validez, se observó que la confiabilidad compuesta y la
varianza media extraída (AVE) de los constructos, permanecieron dentro de niveles aceptables.
Específicamente, todos superaron los umbrales recomendados de 0.70 para la confiabilidad compuesta
y 0.50 para la AVE (Fornell y Larcker, 1981).
pág. 11340
Tabla 3. Resultados sobre la fiabilidad PLS-SEM
Para evaluar la validez discriminante, se aplicó el criterio de Fornell-Larcker, asegurando que cada
constructo capturara más varianza de sus propios indicadores que la compartida con otros constructos.
Además, se utilizó la ratio HTMT, la cual confirmó la independencia de los constructos al presentar
valores por debajo de 0.90. Posteriormente, se recalculó el modelo PLS-SEM con las cargas factoriales
depuradas para determinar las relaciones directas entre los constructos antes de incluir las variables
moderadoras. El análisis evidenció que ER es el constructo con mayor influencia en la Intención de Uso
(IC), con un coeficiente de 0.420, lo que indica que los estudiantes perciben que ChatGPT mejora su
desempeño académico. Por otro lado, IS mostró la relación más débil con IC (0.114), lo que sugiere que
la opinión de compañeros o figuras de autoridad no es un factor determinante en la adopción de la
tecnología.
Tras calcular los coeficientes path, se aplicó el método de bootstrapping para evaluar la significancia
estadística de las relaciones en el modelo. La mayoría de los valores p fueron cercanos a 0.00,
confirmando la validez de las relaciones propuestas. ER mostró la relación más fuerte con IC
Variable
Latente
Alfa de
Cronbac
h
Confiabilidad
Compuesta
AVE
Indicador
Carga
Factorial
EE
0.839
0.833
0.58
1
EE1
0.875
EE2
0.890
EE3
0.820
CF
0.528
0.753
0.51
0
CF1
0.635
CF2
0.861
CF3
0.621
ER
0.873
0.922
0.79
7
ER1
0.907
ER2
0.893
ER3
0.879
IS
0.679
0.805
0.58
7
IS1
0.840
IS3
0.867
CU
0.527
0.792
0.66
2
CU2
0.928
CU3
0.679
IC
0.622
0.798
0.56
9
IC1
0.747
IC3
0.770
IC4
0.745
pág. 11341
(coeficiente path = 0.420, p = 0.000), seguida por EE (coeficiente path = 0.210, p = 0.001) y CF
(coeficiente path = 0.132, p = 0.014). Aunque IS también presentó una relación positiva con IC
(coeficiente path = 0.114, p = 0.017), su impacto fue menor.
Figura 3. Resultados Bootstrapping del modelo UTAUT de Venkatesh et al. (2003) sin llaves
moderadoras.
Tabla 4. Resultados PLS-SEM.
El modelo alcanzó un valor R² de 0.435 para IC, lo que indica que ER, EE, IS y CF explican el 43.5%
de la variación en la intención de uso de ChatGPT. Para el Comportamiento del Usuario (CU), el fue
0.301, lo que sugiere que IC es el principal predictor del uso real de la herramienta. Además, se calculó
el tamaño del efecto (f²) para evaluar la contribución de cada constructo. ER presentó el mayor impacto
en IC (f² = 0.153), seguido por EE (f² = 0.039), mientras que IS tuvo el impacto más bajo (f² = 0.014).
Para CU, IC fue el principal determinante (f² = 0.212), lo que indica que una alta intención de uso se
Relación
Coeficiente
path
Valor
p
AVE
Confiabilidad
Compuesta
Estadístico T
EE -> IC
0.210
0.001
0.757
0.903
0.435
3.332
ER -> IC
0.420
0.000
0.797
0.922
0.435
6.862
IS -> IC
0.114
0.017
0.757
0.862
0.435
2.384
CF -> CU
0.131
0.014
0.501
0.744
0.301
2.461
IC -> CU
0.464
0.000
0.570
0.799
0.301
9.572
pág. 11342
traduce directamente en su adopción efectiva. Los resultados del modelo PLS-SEM respaldan la
aceptación de las hipótesis H1-H5, confirmando que ER, EE, IS, y CF tienen un impacto significativo
en la intención de uso de ChatGPT.
Resultados del Modelo Complementario de Expectativa de Rendimiento (MCER)
Para evaluar la influencia de la Percepción de Deshonestidad (PD) y la Sobrecarga Académica (SA) en
los Resultados Académicos (RA) y el Desarrollo Académico (DA), se realizaron pruebas ANOVA de
un factor. Los resultados confirmaron que ambas variables moderadoras tienen un impacto significativo
en múltiples dimensiones del MCER, con valores p menores a 0.05 y, en algunos casos, menores a
0.001. En el caso de SA, los datos sugieren que los estudiantes bajo mayores exigencias académicas
tienden a utilizar ChatGPT para mantenerse al día con sus tareas. Un claro ejemplo es el reactivo RA3
(“Usar ChatGPT me permite entregar tareas y trabajos de mayor calidad, aunque no siempre entienda el
tema”), que mostró un valor F de 9.76 y un p < 0.001, confirmando que esta herramienta facilita la
entrega de tareas con mejor calidad, aunque no garantice una comprensión profunda del contenido. Por
otro lado, el reactivo DA2 (“Utilizo ChatGPT como una herramienta de apoyo cuando siento que las
explicaciones en clase no han sido suficientes”) tuvo un valor F más bajo (2.78) y un p de 0.004, lo que
indica que su impacto en el DA es menor (Tabla 5). Esto sugiere que los estudiantes que usan ChatGPT
para complementar explicaciones en clase tienen una menor dependencia de la herramienta y priorizan
la comprensión autónoma sobre el rendimiento inmediato. Con base en estos resultados, H12 y H13 se
aceptan.
pág. 11343
Tabla 5. Pruebas ANOVA sobre Influencia de SA y PD en RA y DA
En cuanto a PD, los análisis revelaron un impacto significativo en el DA, pero mucho menor en el RA.
Por ejemplo, DA3 (“Considero que usar ChatGPT para hacer mis tareas escolares podría afectar
negativamente mi habilidad de aprender por mí mismo”) presentó un valor F de 15.09 y un p < 0.001,
lo que sugiere que los estudiantes que perciben el uso de ChatGPT como deshonesto temen que su
aprendizaje autónomo se vea afectado. En contraste, RA3 obtuvo el valor F más bajo (1.52) y el valor p
más alto (0.140), lo que indica que los estudiantes que usan ChatGPT para mejorar sus calificaciones no
lo consideran una práctica deshonesta (Tabla 5). Esto confirma que la PD tiene una relación fuerte con
el DA, pero una relación muy débil con el RA. Por lo tanto, H14 se rechaza y H15 se acepta.
Tras analizar la influencia de las variables moderadoras, se aplicó el PLS-SEM para evaluar la relación
entre RA y DA con ER (Tabla 6). Se depuraron los indicadores con cargas factoriales bajas, y se
confirmó la validez del modelo mediante el criterio de Fornell-Larcker y la ratio HTMT, con valores
por debajo de 0.90, asegurando que los constructos eran distintos entre sí. Los resultados del modelo
estructural evidencian que tanto RA como DA tienen una influencia positiva y significativa en ER, con
coeficientes path de 0.479 y 0.360, respectivamente, y valores p de 0.000.
SA
PD
indicador
F
gl1
gl2
p
F
gl1
gl2
p
RA1
6.42
10
110
< .001
1.85
10
121
0.059
RA2
4.87
10
111
< .001
2.23
10
121
0.02
RA3
9.76
10
110
< .001
1.52
10
121
0.14
DA1
5.71
10
113
< .001
4.8
10
120
< .001
DA2
2.78
10
111
0.004
2.35
10
120
0.014
DA3
3.4
10
109
< .001
15.09
10
120
< .001
pág. 11344
Tabla 6: Análisis de fiabilidad del modelo MCER
Figura 4. Resultados PLS-SEM del MCER sin llaves moderadoras
Estos resultados refuerzan la idea de que ChatGPT puede ser percibido tanto como una herramienta para
mejorar el aprendizaje como un medio para optimizar las calificaciones. Además, el obtenido para
ER fue de 0.577, lo que indica que RA y DA explican el 57.7% de la variabilidad en ER. Por último, se
evaluaron los efectos individuales de DA y RA en ER mediante el cálculo del f². DA presentó un
coeficiente de trayectoria de 0.479 y un de 0.324, indicando una relación fuerte y un efecto
significativo, mientras que RA obtuvo un coeficiente de 0.360 y un f² de 0.183, mostrando una relación
Constructo
Alfa de
Cronbac
h
Confiabilidad
Compuesta
AVE
Indicador
Carga
Factorial
DA
0.834
0.923
0.85
7
DA1
0.936
DA2
0.915
RA
0.819
0.891
0.73
2
RA1
0.912
RA2
0.903
RA3
0.742
ER
0.873
0.922
0.79
8
ER1
0.903
ER2
0.886
ER3
0.891
pág. 11345
positiva con un efecto moderado. Esto confirma que DA tiene un mayor impacto en la ER que RA,
sugiriendo que los estudiantes valoran más el potencial de ChatGPT para mejorar su aprendizaje que
solo la optimización de sus calificaciones. Con base en estos resultados, H10 y H11 se aceptan.
Tabla 7: Resultados detallados PLS-SEM del MCER
DISCUSIÓN Y CONCLUSIONES
Este estudio analizó la aceptación y uso de ChatGPT entre los estudiantes del CETI, confirmando una
adopción generalizada impulsada por recomendaciones entre pares y su difusión en redes sociales. La
mayoría de los estudiantes han utilizado esta herramienta por más de un año, principalmente en tareas y
proyectos académicos. Estos hallazgos coinciden con estudios previos como los de Acosta-Enríquez et
al. (2024) y Habibi et al. (2023), quienes encontraron una adopción significativa de ChatGPT en
entornos educativos, destacando IS en su uso. Los resultados también revelaron que la tendencia en el
uso de ChatGPT continuará, ya que los estudiantes lo consideran una herramienta esencial en su vida
académica. Esto concuerda con los hallazgos de Yifan et al. (2023), Romero-Rodríguez et al. (2023),
Haglund (2023) y Tiwari et al. (2023), quienes identificaron que los estudiantes valoran su practicidad
y facilidad de uso. Sin embargo, algunos alumnos han optado por no utilizarlo, principalmente porque
prefieren otros métodos para obtener información o por temor a desarrollar dependencia tecnológica. A
diferencia de lo esperado, la percepción de deshonestidad académica no fue un factor determinante en
la decisión de no usar ChatGPT. Este hallazgo se alinea con los resultados de Haglund (2023), quien
observó que la resistencia al uso de esta tecnología se debe más a hábitos de estudio tradicionales que a
preocupaciones éticas.
En cuanto a las hipótesis basadas en UTAUT, ER resultó ser el factor más influyente en la intención de
uso de ChatGPT, con una relación positiva y significativa. Esto coincide con los hallazgos de Romero-
Rodríguez et al. (2023), Haglund (2023) y Menon y Shilpa (2023), quienes encontraron que la
percepción de utilidad académica es clave para la adopción de esta tecnología. Sin embargo, estos
Relación
Coeficiente
path
Valor
p
AVE
Confiabilidad
Compuesta
R2
Estadístico T
DA -> ER
0.479
0.000
0.857
0.923
0.577
9.645
RA-> ER
0.360
0.000
0.732
0.891
0.577
6.499
pág. 11346
resultados contrastan con los de Suzianti et al. (2023), quienes encontraron que la ER no fue un factor
decisivo en su contexto de estudio, donde IS y el hábito jugaron un papel más relevante. Estas diferencias
pueden explicarse por factores culturales o contextuales en la percepción y adopción de la IA.
En cuanto a los moderadores, la experiencia del usuario y la voluntariedad de uso fueron factores clave
en la adopción de ChatGPT, mientras que el género y la edad no mostraron un impacto significativo.
Esto contrasta con los hallazgos de Menon y Shilpa (2023), quienes identificaron la edad como un
moderador relevante en la aceptación de la tecnología. La influencia de la voluntariedad de uso sugiere
que los estudiantes que adoptan ChatGPT por elección propia, y no por imposición, muestran una mayor
aceptación y satisfacción con la herramienta, lo que concuerda con la idea de que la exploración
autónoma fomenta una adopción más natural y sostenida.
Además del análisis basado en UTAUT, este estudio propuso el MCER para analizar la influencia de
dos factores clave: Resultados Académicos y Desarrollo Académico, moderados por la Sobrecarga
Académica y la Percepción de Deshonestidad. Los hallazgos mostraron que los estudiantes tienden a
utilizar ChatGPT más para potenciar su desarrollo académico que simplemente para obtener mejores
calificaciones, alineándose con el concepto de aprendizaje accionable de Siemens (2005). Esto también
concuerda con los paradigmas de Ouyang y Jiao (2021), quienes proponen una clasificación de los
estudiantes en aprendices receptores (quienes siguen instrucciones de la IA para obtener resultados) y
aprendices colaboradores (quienes utilizan la IA para potenciar su aprendizaje).
La Sobrecarga Académica resultó ser un factor clave en la decisión de recurrir a ChatGPT, ya que los
estudiantes lo utilizan para gestionar mejor su carga de trabajo y reducir el estrés asociado con sus
responsabilidades académicas. Esto refuerza los hallazgos de Bleumink y Shikhule (2023), quienes
encontraron que la principal razón para utilizar esta herramienta es la necesidad de optimizar el tiempo
en la realización de tareas, especialmente en redacción.
En cuanto a la Percepción de Deshonestidad, se identificó una diferencia significativa en su impacto.
Los estudiantes que buscan mejorar sus calificaciones no perciben un conflicto ético en el uso de
ChatGPT, mientras que aquellos que buscan potenciar su desarrollo académico sí experimentan dilemas
éticos. Esto respalda las preocupaciones de Cotton et al. (2023), Qadir (2022) y Rudolph et al. (2023)
sobre el potencial de la IA para fomentar el plagio y la deshonestidad académica. Ante esto, Cotton et
pág. 11347
al. (2023) sugieren estrategias como solicitar avances de trabajos y utilizar software de detección de
plagio. Sin embargo, Susnjak (2022) advierte que estas medidas no garantizan la erradicación de
prácticas deshonestas, ya que la toma de decisiones éticas depende en última instancia del estudiante.
Los resultados de este estudio subrayan la necesidad de transformar los paradigmas educativos. Como
mencionan Ocaña-Fernández et al. (2019), es crucial que los modelos educativos evolucionen para
integrar la tecnología de manera efectiva, priorizando el desarrollo de competencias digitales. Si las
tareas académicas se perciben como meros requisitos administrativos sin un propósito educativo claro,
los estudiantes tenderán a utilizarlas solo para obtener calificaciones, en lugar de aprovecharlas como
oportunidades de aprendizaje. Para evitar la estigmatización de herramientas como ChatGPT, los
docentes deben diseñar experiencias de aprendizaje significativas que fomenten el pensamiento crítico,
la creatividad y la aplicación práctica del conocimiento. Esto coincide con lo propuesto por Rudolph et
al. (2023) y Jalil et al. (2023), quienes destacan la importancia de enfoques pedagógicos centrados en la
participación activa del estudiante.
En última instancia, asignar tareas o actividades académicas con el único fin de cumplir con los
requisitos impuestos por los sistemas educativos, sin la intención de promover el aprendizaje, es tan
poco ético como pedirle a ChatGPT que las realice. Ambos casos reflejan una desconexión con el
propósito real de la educación y enfatizan la necesidad de replantear las prácticas pedagógicas para
fomentar un aprendizaje significativo y ético en la era de la IA.
Limitaciones y Líneas de Investigación Futuras
Este estudio presenta varias limitaciones que deben ser consideradas al interpretar los resultados. En
primer lugar, la muestra se centró exclusivamente en los estudiantes del CETI, lo que restringe la
generalización de los hallazgos a otras instituciones o contextos educativos con características distintas.
Factores como las diferencias culturales, los antecedentes académicos y las condiciones
socioeconómicas pueden influir en la aceptación y uso de ChatGPT, lo que sugiere la necesidad de
estudios comparativos en diversas poblaciones estudiantiles. Además, la investigación se basó en datos
auto informados a través de encuestas, lo que podría generar sesgos como el de deseabilidad social,
donde los participantes responden de manera que consideran más aceptable o favorable, afectando la
precisión de los resultados.
pág. 11348
Otra limitación es la posible influencia de variables no consideradas en el modelo teórico utilizado.
Aunque el modelo UTAUT proporcionó un marco sólido para evaluar la aceptación tecnológica, otros
factores como las políticas institucionales, la formación docente en tecnología, las normas culturales y
las habilidades digitales previas de los estudiantes podrían jugar un papel clave en la adopción de
ChatGPT. Asimismo, no se analizaron las diferencias entre las carreras del CETI, lo que podría revelar
variaciones en el uso de esta herramienta dependiendo de la disciplina académica. Finalmente, el MCER,
desarrollado como un modelo piloto en este estudio, aún no cuenta con validaciones externas. Aunque
los hallazgos iniciales son prometedores, es fundamental replicarlo en distintos contextos para fortalecer
su base empírica y confirmar su aplicabilidad en la educación.
Para validar y contrastar los resultados obtenidos, sería necesario replicar este estudio en otras
instituciones educativas, tanto a nivel nacional como internacional. Esto permitiría evaluar la
generalización de los hallazgos y detectar posibles variaciones culturales, regionales o institucionales
en la adopción de ChatGPT. En particular, replicar el MCER en contextos diversos brindaría una base
empírica más sólida y ayudaría a determinar su fiabilidad y validez como modelo explicativo. Asimismo,
incluir una muestra más amplia y heterogénea podría revelar tendencias y patrones que no fueron
evidentes en el CETI.
Complementar estos hallazgos cuantitativos con metodologías cualitativas, como entrevistas en
profundidad, grupos focales o estudios de caso, permitiría obtener una comprensión más detallada de
las experiencias y percepciones de los estudiantes. Esto ayudaría a explorar aspectos subjetivos y
contextuales que las encuestas estructuradas no capturan, como las emociones, actitudes y estrategias
específicas utilizadas por los estudiantes al integrar ChatGPT en su aprendizaje.
También sería relevante ampliar el modelo teórico integrando variables adicionales, como las políticas
institucionales, el apoyo docente, el acceso a recursos tecnológicos, las normas sociales y los factores
socioeconómicos. Estos elementos podrían enriquecer el análisis y ofrecer una visión más integral de
los factores que influyen en la adopción de la IA en la educación.
Finalmente, otra línea de investigación clave sería explorar la percepción de los docentes sobre el uso
de ChatGPT en el ámbito educativo. Comprender sus actitudes, preocupaciones y expectativas respecto
a esta tecnología permitiría abordar posibles resistencias y desarrollar programas de formación que
pág. 11349
faciliten su integración efectiva en la enseñanza. La actitud de los profesores hacia la IA es un factor
determinante en su incorporación en las aulas, por lo que investigar su perspectiva complementaría los
hallazgos obtenidos con los estudiantes y proporcionaría un enfoque más holístico sobre la adopción de
ChatGPT en la educación.
REFERENCIAS BIBLIOGRÁFICAS
Acosta-Enriquez, B. G., Arbulú Ballesteros, M. A., Huamaní Jordan, O., López Roca, C., & Saavedra
Tirado, K. (2024). Analysis of college students’ attitudes toward the use of ChatGPT in their
academic activities: Effect of intent to use, verification of information and responsible use. BMC
Psychology, 12, 255. https://doi.org/10.1186/s40359-024-01764-z
Bleumink, A. G., & Shikhule, A. (2023). Keeping AI Honest in Education: Identifying GPT-generated
text. Edukado AI research.
Bryman, A. (2012). Social research methods (4th ed.). Oxford University Press.
Cochran, W. G. (1977). Sampling Techniques (3rd ed.). New York: John Wiley & Sons.
Cohen, L., Manion, L., & Morrison, K. (2013). Research methods in education (7th ed.). Routledge.
Cotton, D., Cotton, P., & Shipway, J. R. (2023). Chatting and Cheating. Ensuring academic integrity in
the era of ChatGPT. In EdArXiv. https://doi.org/10.35542/osf.io/mrz8h
Creswell, J. W. (2014). Research design: Qualitative, quantitative, and mixed methods approaches (4th
ed.). SAGE Publications.
Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297-
334.
Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables
and measurement error. Journal of Marketing Research, 18(1), 39-50.
García-Peñalvo, F. J. (2023). The perception of Artificial Intelligence in educational contexts after the
launch of ChatGPT: Disruption or Panic? Ediciones Universidad de Salamanca.
http://repositorio.grial.eu/handle/grial/2838
George, D., & Mallery, P. (2016). IBM SPSS Statistics 23 Step by Step: A Simple Guide and Reference.
Routledge.
pág. 11350
Goldie, J. G. S. (2016). Connectivism: A knowledge learning theory for the digital age? Medical
Teacher, 38(10), 10641069. https://doi.org/10.3109/0142159X.2016.1173661
Gortaire Díaz, D., Beltrán Moreno, M., Mora Herrera, E., Reasco Garzón, B., & Rodríguez Torres, M.
(2023). Constructivismo y conectivismo como métodos de enseñanza y aprendizaje en la
educación universitaria actual. Ciencia Latina Revista Científica Multidisciplinar, 6(6), 14046
14058. https://doi.org/10.37811/cl_rcm.v7i1.4672
Habibi, A., Muhaimin, M., Danibao, B. K., Wibowo, Y. G., Wahyuni, S., & Octavia, A. (2023).
ChatGPT in higher education learning: Acceptance and use. Computers and Education:
Artificial Intelligence, 5, 100190. https://doi.org/10.1016/j.caeai.2023.100190
Haleem, A., Javaid, M., & Singh, R. P. (2022). An era of ChatGPT as a significant futuristic support
tool: A study on features, abilities, and challenges. BenchCouncil Transactions on Benchmarks,
Standards and Evaluations, 2(4), 100089.
https://doi.org/10.1016/j.tbench.2023.100089
Haluza, D., & Jungwirth, D. (2023). Artificial Intelligence and ten societal megatrends: A GPT-3 case
study. In Preprints. https://doi.org/10.20944/preprints202301.0474.v1
Hasselqvist, H. (2023). Students' acceptance and use of ChatGPT in academic settings. Journal of
Educational Research, 15(2), 98-115. https://doi.org/10.1007/s11162-023-09689-5
Jalil, S., Rafi, S., LaToza, T. D., Moran, K., & Lam, W. (2023). ChatGPT and software testing education:
Promises & perils. In arXiv [cs.SE]. http://arxiv.org/abs/2302.03287
Martínez Ávila, M., & Fierro Moreno, E. (2018). Aplicación de la técnica PLS-SEM en la gestión del
conocimiento: un enfoque técnico práctico. RIDE Revista Iberoamericana para la Investigación
y el Desarrollo Educativo, 8(16), 130-164.
https://doi.org/10.23913/ride.v8i16.336
Mattar, J. (2018). Constructivism and connectivism in education technology: Active, situated, authentic,
experiential, and anchored learning. RIED Revista Iberoamericana de Educación a Distancia,
21(2), 201. https://doi.org/10.5944/ried.21.2.20055
pág. 11351
Menon, D., & Shilpa, K. (2023). “Chatting with ChatGPT”: Analyzing the factors influencing users'
intention to use the Open AI’s ChatGPT using the UTAUT model. Heliyon, 9(11), e20962.
https://doi.org/10.1016/j.heliyon.2023.e20962
Mhlanga, D. (2023). Open AI in Education, the Responsible and Ethical Use of ChatGPT Towards
Lifelong Learning. Wits University Press. https://doi.org/10.2139/ssrn.4354422
Morales-Chan, M. A. (2023). Explorando el potencial de Chat GPT: Una clasificación de Prompts
efectivos para la enseñanza. GES Department, Galileo University.
http://biblioteca.galileo.edu/tesario/handle/123456789/1348
Neumann, M., Rauschenberger, M., & Schön, E.-M. (2023). “We Need To Talk About ChatGPT”: The
Future of AI and Higher Education. https://doi.org/10.25968/opus-2467
Ocaña-Fernández, Y., Valenzuela-Fernández, L. A., & Garro-Aburto, L. L. (2019). Inteligencia artificial
y sus implicaciones en la educación superior. Propósitos y Representaciones, 7(2).
https://doi.org/10.20511/pyr2019.v7n2.274
Ouyang, F., & Jiao, P. (2021). Artificial intelligence in education: The three paradigms. Computers and
Education: Artificial Intelligence, 2(100020), 100020.
https://doi.org/10.1016/j.caeai.2021.100020
Popper, K. (2002). The logic of scientific discovery. Routledge.
Qadir, J. (2022). Engineering education in the era of ChatGPT: Promise and pitfalls of generative AI for
education. https://doi.org/10.36227/techrxiv.21789434.v1
Romero-Rodríguez, J.-M., Ramírez-Montoya, M.-S., Buenestado-Fernández, M., & Lara-Lara, F.
(2023). Use of ChatGPT at university as a tool for complex thinking: Students' perceived
usefulness. Journal of New Approaches in Educational Research, 12(2), 323-339.
https://doi.org/10.7821/naer.2023.7.1458
Rudolph, J., Tan, S., & Tan, S. (2023). ChatGPT: Bullshit spewer or the end of traditional assessments
in higher education? Journal of Applied Learning & Teaching, 6(1).
https://doi.org/10.37074/jalt.2023.6.1.9
Sampieri, R. H., Fernández, C. F., & Baptista, P. (2014). Metodología de la investigación (ed.).
McGraw-Hill.
pág. 11352
Siemens, G. (2005). Connectivism: A learning theory for the digital age. International Journal of
Instructional Technology & Distance Learning, 2, 3-10.
Srinivasan, V. (2022). AI & learning: A preferred future. Computers and Education: Artificial
Intelligence, 3(100062), 100062. https://doi.org/10.1016/j.caeai.2022.100062
Susnjak, T. (2022). ChatGPT: The end of online exam integrity? In arXiv [cs.AI].
http://arxiv.org/abs/2212.09292
Suzianti, Amalia & Budiono, Patrick & Fathia, Safira Nurul & Kaniaswari, Rheinanda. (2023).
Rehumanizing Smart Technology: Analysis of Chatgpt Adoption in Educational Institutions in
Indonesia. 10.2139/ssrn.4648593.
Swiecki, Z., Khosravi, H., Chen, G., Martinez-Maldonado, R., Lodge, J. M., Milligan, S., Selwyn, N.,
& Gašević, D. (2022). Assessment in the age of artificial intelligence. Computers and Education:
Artificial Intelligence, 3(100075), 100075.
https://doi.org/10.1016/j.caeai.2022.100075
Tapalova, Olga & Zhiyenbayeva, Nadezhda & Gura, Dmitry. (2022). Artificial Intelligence in
Education: AIEd for Personalised Learning Pathways. Electronic Journal of e-Learning. 20.
639-653. 10.34190/ejel.20.5.2597.
Tavakol, M., & Dennick, R. (2011). Making sense of Cronbach's alpha. International Journal of Medical
Education, 2, 53-55.
Tiwari, C. K., Bhat, M. A., Khan, S. T., Subramaniam, R., & Khan, M. A. I. (2023). What drives students
toward ChatGPT? An investigation of the factors influencing adoption and usage of ChatGPT.
Interactive Technology and Smart Education, ahead-of-print(ahead-of-print).
https://doi.org/10.1108/ITSE-04-2023-0061
Venkatesh, V., Morris, M. G., Davis, G. B., & Davis, F. D. (2003). User acceptance of information
technology: Toward a unified view. MIS Quarterly, 27(3), 425-478.
Venkatesh, V., Thong, J. Y. L., & Xu, X. (2012). Consumer acceptance and use of information
technology: Extending the unified theory of acceptance and use of technology. MIS Quarterly,
36(1), 157-178.
pág. 11353
Yifan, W., Mengmeng, Y., & Omar, M. K. (2023). “A Friend or A Foe” Determining Factors
Contributed to the Use of ChatGPT among University Students. International Journal of
Academic Research in Progressive Education and Development, 12(2).
Zhang, M., & Li, J. (2021). A commentary of GPT-3 in MIT Technology Review 2021. Fundamental
Research, 1(6), 831833. https://doi.org/10.1016/j.fmre.2021.11.011