INTELIGENCIA ARTIFICIAL:
DESAFÍO EDUCATIVO EN LA ERA
DE LA INFORMACIÓN
ARTIFICIAL INTELLIGENCE: AN EDUCATIONAL
CHALLENGE IN THE INFORMATION AGE
José Francisco Pérez Vergara
Universidad de Panamá, Colombia
pág. 14523
DOI: https://doi.org/10.37811/cl_rcm.v9i5.20663
Inteligencia Artificial: Desafío Educativo en la Era de la Información
José Francisco Pérez Vergara1
jose-f.perez-v@up.ac.pa
https://orcid.org/0009-0004-1053-0045
Universidad de Panamá
Colombia
RESUMEN
El presente ensayo analiza la relación entre inteligencia artificial (IA) y desinformación, destacando sus
implicaciones éticas, sociales y educativas, con especial énfasis en la necesidad de fortalecer la
alfabetización mediática como estrategia para contrarrestar la manipulación informativa. Se plantea
como tesis central que la lucha contra la desinformación en la era digital requiere una integración
equilibrada entre innovación tecnológica y transformación pedagógica. El estudio se desarrolla bajo un
enfoque analítico-documental, basado en la revisión crítica de literatura reciente (2019-2025) y
sustentado en la contraposición de perspectivas teóricas sobre los impactos de la IA en la producción y
circulación del conocimiento. Los criterios de análisis se centran en la identificación de los mecanismos
de desinformación impulsados por IA (deepfakes, bots sociales y manipulación algorítmica), el examen
de sus efectos ético-sociales y la evaluación del papel de la educación en la mitigación de dichos
fenómenos. Los resultados evidencian que la IA no solo amplifica la difusión de narrativas falsas, sino
que también ofrece herramientas para su detección; sin embargo, estas resultan insuficientes sin un
soporte educativo sólido. Se concluye que la solución debe ser híbrida, combinando marcos
regulatorios, innovación tecnológica y reformas pedagógicas orientadas al desarrollo del pensamiento
crítico, la ética digital y las habilidades de verificación, promoviendo una ciudadanía resiliente y
comprometida con la verdad en entornos digitales.
Palabras clave: inteligencia artificial, educación, sociedad de la información
1
Autor principal
Correspondencia: jose-f.perez-v@up.ac.pa
pág. 14524
Artificial Intelligence: an Educational Challenge in the Information Age
ABSTRACT
This essay analyzes the relationship between artificial intelligence (AI) and disinformation,
emphasizing their ethical, social, and educational implications, with a particular focus on strengthening
media literacy as a strategy to counter information manipulation. The central thesis argues that the fight
against disinformation in the digital age requires a balanced integration of technological innovation and
pedagogical transformation. The study follows an analyticaldocumentary approach, grounded in a
critical review of recent literature (20192025) and the contrast of theoretical perspectives on the impact
of AI on the production and circulation of knowledge. The analytical criteria focus on identifying AI-
driven disinformation mechanisms (deepfakes, social bots, and algorithmic manipulation), examining
their ethical and social effects, and evaluating the role of education in mitigating these phenomena.
Findings show that AI not only amplifies the spread of false narratives but also provides tools for
detection; however, these remain insufficient without strong educational support. It is concluded that
an effective response must be hybrid, combining regulatory frameworks, technological innovation, and
pedagogical reforms aimed at developing critical thinking, digital ethics, and verification skills to foster
a resilient citizenry committed to truth in digital environments.
Keywords: artificial intelligence, education, information society
Artículo recibido 22 octubre 2025
Aceptado para publicación: 26 setiembre 2025
pág. 14525
INTRODUCCN
La inteligencia artificial (IA) se ha consolidado como una de las tecnologías más transformadoras de
la era de la información, redefiniendo los modos de producción, circulación y consumo del
conocimiento. Su influencia alcanza múltiples ámbitos educación, economía, comunicación, política y
cultura, pero también ha generado profundas tensiones éticas y sociales. Si bien la IA facilita el
procesamiento de grandes volúmenes de datos y la automatización de tareas, su uso indiscriminado ha
abierto un nuevo frente de riesgo: la manipulación informativa. En particular, la capacidad de los
sistemas de IA para generar textos, imágenes y videos sintéticos ha favorecido la difusión de contenidos
falsos que confunden a los ciudadanos y debilitan la confianza pública en las instituciones democráticas.
La desinformación, entendida como la difusión deliberada de información falsa o engañosa con el
propósito de manipular la opinión pública, ha adquirido una escala sin precedentes gracias a las
tecnologías generativas. El uso de deepfakes, bots sociales y algoritmos de recomendación ha permitido
crear entornos digitales donde la verdad y la ficción se entrelazan, afectando la percepción colectiva de
la realidad. Según Citron y Chesney (2019), esta situación amenaza la deliberación democrática y la
estabilidad social, al tiempo que plantea nuevos desafíos para la formación ciudadana. La complejidad
de este fenómeno radica en que la IA no solo potencia la desinformación, sino que también ofrece
herramientas para detectarla, generando una paradoja tecnológica y ética que la educación debe abordar
críticamente.
El sistema educativo, sin embargo, no ha respondido con la celeridad necesaria ante estos cambios. Los
currículos continúan centrados en el acceso a la información, pero no en su verificación o análisis
crítico. Como advierte Buckingham (2019), la alfabetización mediática debe ser entendida como una
competencia ciudadana fundamental para interpretar, evaluar y producir mensajes en entornos digitales
complejos. La carencia de programas formativos que articulen ética digital, pensamiento crítico y
comprensión de los algoritmos amplía la vulnerabilidad social frente a la manipulación informativa.
En este contexto, el presente ensayo propone analizar la relación entre inteligencia artificial y
desinformación desde una perspectiva ética, social y educativa. Se plantea como tesis central que la
lucha contra la desinformación en la era digital exige una integración equilibrada entre innovación
tecnológica y transformación pedagógica.
pág. 14526
Desde un enfoque analítico - documental, se revisa la literatura reciente (2019 2025) para identificar
los mecanismos de desinformación impulsados por IA, sus implicaciones ético-sociales y el papel de la
educación en su mitigación. Este abordaje busca ofrecer una reflexión crítica sobre cómo los sistemas
educativos pueden fortalecer la alfabetización mediática y la ética digital, contribuyendo a la formación
de una ciudadanía resiliente, informada y comprometida con la verdad en entornos digitales.
DESARROLLO
El auge de las tecnologías de inteligencia artificial (IA) ha transformado profundamente la producción
y circulación de la información, pero también ha introducido nuevos desafíos para la sociedad
contemporánea. En el contexto digital actual, los mecanismos de desinformación impulsados por la IA
se manifiestan mediante herramientas sofisticadas que explotan el aprendizaje profundo y los modelos
generativos, permitiendo la creación de contenidos falsos cada vez más verosímiles. Entre estos
mecanismos destacan los deepfakes, los modelos de IA generativa, los bots sociales y la manipulación
algorítmica, que configuran un ecosistema informativo altamente vulnerable a la distorsión de la verdad.
Los deepfakes son producciones multimedia creadas mediante redes neuronales que superponen rostros,
voces o gestos, simulando de manera casi perfecta la apariencia de una persona real. A través de las
denominadas Redes Adversariales Generativas (GANs), estas herramientas pueden modificar videos o
audios con un realismo tal que resulta difícil distinguir entre lo auténtico y lo fabricado (Kaswan et al.,
2023). Si bien algunos autores, como Jenkins (2019), reconocen el valor creativo de los deepfakes en
contextos artísticos o educativos, otros advierten su potencial destructivo para la confianza pública
(Citron & Chesney, 2019). Esta dualidad plantea una tensión central: cómo aprovechar la creatividad
digital sin erosionar la autenticidad comunicativa ni socavar el pensamiento crítico.
A su vez, la IA generativa, representada por modelos de lenguaje y generadores de imágenes, ha
permitido la automatización masiva de contenidos falsos, adaptados a perfiles individuales y orientados
a manipular emociones y preferencias. Esto ha potenciado campañas de desinformación política,
económica y social con un alcance sin precedentes (Loth et al., 2024; Chauhan, 2024). Los bots sociales
programas automatizados que imitan comportamientos humanos amplifican la difusión de esos
mensajes falsos, interactuando en redes con un realismo que confunde a los usuarios y contribuye a la
polarización digital (Doshi et al., 2024).
pág. 14527
La manipulación algorítmica constituye otra dimensión preocupante. Los algoritmos de recomendación
priorizan contenidos diseñados para atraer atención y generar interacción, reproduciendo sesgos,
creando cámaras de eco y fragmentando la opinión pública. Según Olanipekun (2025), esta lógica
algorítmica no solo amplifica la desinformación, sino que también redefine el modo en que las personas
construyen su percepción del mundo, al tiempo que erosiona la confianza en las fuentes de información
tradicionales.
Este escenario de desinformación no es un fenómeno abstracto, sino una realidad con consecuencias
tangibles que se evidencian en diversos estudios de caso. En el ámbito político, por ejemplo, se difundió
un deepfake de Hillary Clinton en redes sociales, lo que ilustra el poder persuasivo de la IA para alterar
percepciones ciudadanas (Momeni, 2024). Durante la invasión rusa a Ucrania, se documentaron videos
manipulados que mostraban declaraciones falsas de líderes políticos, exacerbando la confusión
informativa y socavando la confianza pública (Twomey et al., 2023). En África, la propaganda generada
por IA habría influido en procesos electorales, evidenciando la capacidad de esta tecnología para alterar
la estabilidad democrática (Okolo, 2024). Incluso en América Latina, países como Brasil y México han
experimentado campañas de desinformación potenciadas por bots y contenido automatizado, generando
desorientación en el electorado.
Estos ejemplos demuestran que la desinformación impulsada por IA no reconoce fronteras y afecta
tanto a democracias consolidadas como a sistemas políticos emergentes. La vulnerabilidad ante estos
mecanismos no depende únicamente del nivel tecnológico, sino también del grado de alfabetización
mediática y del fortalecimiento institucional de cada sociedad. Por ello, la comprensión de estos casos
no debe limitarse a su descripción técnica, sino orientarse hacia la formulación de estrategias educativas
y políticas capaces de prevenir sus efectos.
Las implicaciones éticas y sociopolíticas de la IA en la propagación de la desinformación son profundas.
En el plano ético, la manipulación de imágenes, discursos y comportamientos mediante IA plantea
dilemas sobre la autenticidad, la privacidad y la responsabilidad. El uso de deepfakes para suplantar
identidades o generar acusaciones falsas compromete la reputación y la integridad de las personas
(Gilbert & Gilbert, 2024).
pág. 14528
Desde una perspectiva social, estos procesos erosionan la confianza ciudadana, generan polarización
ideológica y amenazan la cohesión democrática (Ballesteros-Aguayo & Olmo, 2024; Raina & Mann,
2025).
La manipulación algorítmica de la opinión pública, unida a la capacidad de los sistemas automatizados
para explotar sesgos cognitivos y emocionales, ha convertido a la desinformación en un arma política
y económica. Islam et al. (2024) señalan que estas prácticas ponen en riesgo la integridad de los procesos
electorales, mientras que Olanipekun (2025) advierte que los algoritmos comerciales perpetúan la
polarización al priorizar la rentabilidad sobre la veracidad. No obstante, algunos autores adoptan una
visión más optimista, destacando el potencial de la IA para crear herramientas de detección de noticias
falsas y verificación de contenidos (Panchal, 2024). Este contraste evidencia que el problema no reside
en la tecnología en sí, sino en el marco ético, regulatorio y educativo que orienta su uso.
La dimensión pedagógica de la desinformación se presenta, así como un eje central en el debate. Más
allá de un problema técnico, la desinformación mediada por IA constituye un desafío formativo que
interpela directamente a los sistemas educativos. La educación debe asumir el papel de espacio crítico
donde los estudiantes comprendan cómo se produce la información, quién la controla y con qué fines
se difunde. Según Buckingham (2019), la alfabetización mediática no puede reducirse a la habilidad de
identificar un contenido falso, sino que debe formar en la comprensión de los mecanismos ideológicos
y económicos que sustentan la comunicación digital.
En este sentido, la educación debe articular la enseñanza del pensamiento crítico, la ética digital y el
conocimiento sobre el funcionamiento de los algoritmos como competencias transversales. Los casos
latinoamericanos muestran que la falta de formación en ciudadanía digital ha facilitado la manipulación
política y la propagación de narrativas engañosas. Por ello, la escuela y la universidad deben convertirse
en espacios de resistencia frente a la manipulación informativa, capacitando a los estudiantes para
analizar y cuestionar los mensajes digitales.
Para enfrentar este panorama, las estrategias de detección y mitigación de la desinformación deben
integrar soluciones tecnológicas, normativas y educativas. En el plano técnico, se han desarrollado
herramientas de verificación basadas en análisis multimodal, marcas digitales de agua y marcos
sustentados en blockchain, que buscan autenticar contenidos y detectar manipulaciones en tiempo real
pág. 14529
(Panchal, 2024; Shoaib et al., 2023). Estas soluciones, aunque prometedoras, resultan insuficientes si
no se acompañan de políticas públicas que promuevan la transparencia algorítmica y la rendición de
cuentas.
Los marcos regulatorios deben incorporar criterios éticos que limiten el uso de la IA para fines de
manipulación y garanticen la protección de los derechos digitales. Sin embargo, la herramienta más
poderosa sigue siendo la educación. Promover la alfabetización mediática, fortalecer la conciencia
digital y fomentar la cooperación entre gobiernos, instituciones académicas y sociedad civil son
acciones imprescindibles para reducir la vulnerabilidad informativa.
En última instancia, la respuesta más eficaz frente a la desinformación impulsada por la IA es de carácter
híbrido: combina innovación tecnológica, regulación ética y transformación pedagógica. Solo una
ciudadanía crítica y educada puede discernir la veracidad en un entorno digital saturado de información.
La formación de usuarios reflexivos y éticamente responsables permitirá que la tecnología sea un
instrumento de conocimiento y no de manipulación, reafirmando el papel de la educación como pilar
esencial de la democracia en la era de la inteligencia artificial.
CONCLUSIONES
El impacto de la inteligencia artificial (IA) en la era de la información constituye un fenómeno
complejo, dinámico y profundamente transformador, cuyos efectos trascienden el ámbito tecnológico
para influir en la política, la educación y la cultura. La desinformación impulsada por IA ha puesto de
relieve la fragilidad de los ecosistemas comunicativos actuales, donde la veracidad de los contenidos se
ve constantemente amenazada por la automatización y la manipulación algorítmica. Frente a este
panorama, resulta indispensable repensar las formas en que los individuos se relacionan con la
información, fortaleciendo la alfabetización mediática como competencia esencial para la vida
democrática.
Las plataformas digitales y los modelos de IA generativa han acelerado la circulación de contenidos
falsos con un alcance y una velocidad sin precedentes, lo que ha derivado en la erosión de la confianza
pública, la polarización social y el debilitamiento de los procesos deliberativos. Sin embargo, la misma
tecnología que amplifica el problema puede ofrecer soluciones si se orienta bajo marcos éticos,
educativos y regulatorios sólidos.
pág. 14530
En este sentido, la IA debe ser concebida no como una amenaza inevitable, sino como una herramienta
susceptible de ser gobernada mediante políticas inclusivas y una educación crítica que fomente la
autonomía cognitiva de los ciudadanos.
La lucha contra la desinformación no puede reducirse a la creación de filtros automáticos o a la
aplicación de leyes punitivas; exige una transformación cultural que coloque la verdad, la ética y el
pensamiento crítico en el centro del proceso educativo. Las instituciones académicas desde la escuela
hasta la universidad deben convertirse en espacios de resistencia frente a la manipulación informativa,
promoviendo el desarrollo de capacidades analíticas, interpretativas y comunicativas que permitan
discernir entre hechos y simulacros. Formar ciudadanos capaces de comprender cómo operan los
algoritmos y de cuestionar las narrativas digitales es el primer paso hacia una sociedad informada y
participativa.
Asimismo, es necesario consolidar alianzas entre los sectores educativo, tecnológico y gubernamental
para establecer marcos de cooperación que garanticen la transparencia y la rendición de cuentas en el
uso de la inteligencia artificial. Solo mediante un enfoque integral que articule innovación tecnológica,
ética digital y pedagogía crítica será posible construir un ecosistema informativo más justo y confiable.
De esta manera, la educación no se limita a reaccionar ante los efectos de la IA, sino que asume un
papel proactivo en la configuración de un futuro donde el conocimiento y la verdad prevalezcan sobre
la manipulación y el engaño.
En conclusión, la inteligencia artificial representa tanto un desafío como una oportunidad para el
desarrollo humano. Si se la integra de forma consciente y responsable en los procesos formativos, podrá
contribuir al fortalecimiento del pensamiento crítico, la participación ciudadana y la cohesión social. El
reto consiste en garantizar que la tecnología esté al servicio de la verdad y del bien común, evitando
que la desinformación socave los cimientos de la convivencia democrática. La alfabetización mediática
y la ética digital se consolidan, así, como las herramientas más efectivas para enfrentar la posverdad y
construir una ciudadanía resiliente, informada y comprometida con la verdad en los entornos digitales
del siglo XXI.
pág. 14531
REFERENCIAS BIBLIOGRAFICAS
Ballesteros-Aguayo, L., & Rodríguez del Olmo, F. J. (2024). Vídeos falsos y desinformación ante la
IA: el deepfake como vehículo de la posverdad. Revista de Ciencias de la Comunicación e
Información, 29(e294). https://doi.org/10.35742/rcci.2024.29.e294
Buckingham, D. (2019). The media education manifesto. Cambridge: Polity Press, 128 pp., ISBN: 978-
1-509-53587-3.
Chauhan, A. (2024). Generative artificial intelligence and misinformation warfare. International Journal
of Multidisciplinary Research in Global Education, 5(4), 9971002.
https://doi.org/10.54660/ijmrge.2024.5.4.997-1002
Citron, D. K., & Chesney, R. (2019). Deep fakes: A looming challenge for privacy, democracy, and
national security. California Law Review, 107(6), 17531819.
https://doi.org/10.2139/ssrn.3213954
Cuccovillo, L., Ionescu, B., Kordopatis-Zilos, G., Papadopoulos, S., & Popescu, A. (2023). MAD ’23
Workshop: Multimedia AI against disinformation. In Proceedings of the International
Conference on Multimedia Retrieval (pp. 12341238). ACM.
https://doi.org/10.1145/3591106.3592303
Doshi, J. A., Novacic, I., Fletcher, C., Borges, M., Zhong, E., Marino, M., Gan, J., Mager, S., Sprague,
D. N., & Xia, M. (2024). Sleeper social bots: A new generation of AI disinformation bots are
already a political threat. arXiv preprint arXiv:2408.12603.
https://doi.org/10.48550/arxiv.2408.12603
Gilbert, C., & Gilbert, M. A. (Eds.). (2024). Navigating the dual nature of deepfakes: Ethical, legal, and
technological perspectives on generative artificial intelligence technology. International Journal
of Scientific Research in Modern Technology, 3(10), 115.
https://doi.org/10.38124/ijsrmt.v3i10.54
Islam, M. R., Haseeb, M., Batool, H., Ahtasham, N., & Muhammad, Z. (2024). AI threats to politics,
elections, and democracy: A blockchain-based deepfake authenticity verification framework.
Blockchains, 2(4), 2035. https://doi.org/10.3390/blockchains2040020
pág. 14532
Kaswan, K. S., Malik, K., Dhatterwal, J. S., Singh, M., & Govardhan, D. (2023). Deepfakes: A review
on technologies, applications and strategies. In Proceedings of the Power Electronics, Electrical
and Information Conference (PEEIC 2023). IEEE.
https://doi.org/10.1109/peeic59336.2023.10450604
Loth, A., Kappes, M., & Pahl, M.-O. (2024). Blessing or curse? A survey on the impact of generative
AI on fake news. arXiv preprint arXiv:2404.03021. https://doi.org/10.48550/arxiv.2404.03021
Momeni, M. (2024). Artificial intelligence and political deepfakes: Shaping citizen perceptions through
misinformation. Journal of Creative Communications, 19(3), 212226.
https://doi.org/10.1177/09732586241277335
Okolo, C. T. (2024). African democracy in the era of generative disinformation: Challenges and
countermeasures against AI-generated propaganda. arXiv preprint arXiv:2407.07695.
https://doi.org/10.48550/arxiv.2407.07695
Olanipekun, S. O. (2025). Computational propaganda and misinformation: AI technologies as tools of
media manipulation. World Journal of Advanced Research and Reviews, 25(1), 131145.
https://doi.org/10.30574/wjarr.2025.25.1.0131
Panchal, S. K. (2024). AI-driven detection of fake news in non-textual content. International Journal
for Research in Applied Science and Engineering Technology, 12(4), 6549265501.
https://doi.org/10.22214/ijraset.2024.65492
Raina, A., & Mann, G. (Eds.). (2025). Exploring the ethics of deepfake technology in media:
Implications for trust and information integrity. Journal of Informatics Education and Research,
4(3), 112129. https://doi.org/10.52783/jier.v4i3.1482
Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023). Deepfakes, misinformation, and
disinformation in the era of frontier AI, generative AI, and large AI models. arXiv preprint
arXiv:2311.17394. https://doi.org/10.48550/arxiv.2311.17394
Twomey, J., Ching, D., Aylett, M. P., Quayle, M., Linehan, C., & Murphy, G. (2023). Do deepfake
videos undermine our epistemic trust? A thematic analysis of tweets that discuss deepfakes in
the Russian invasion of Ukraine. PLOS ONE, 18(9), e0291668.
https://doi.org/10.1371/journal.pone.0291668