EPISTEMOLOG-IA: LA CONFLUENCIA
DE LA INTELIGENCIA ARTIFICIAL Y LA
EPISTEMOLOGÍA EN EL DESARROLLO
CIENTÍFICO CONTEMPORÁNEO
EPISTEMOLOGY-AI: THE CONFLUENCE OF ARTIFICIAL
INTELLIGENCE AND EPISTEMOLOGY IN CONTEMPORARY
SCIENTIFIC DEVELOPMENT
Mauricio Gabriel Pérez Palencia
Universidad de Panamá, Panamá
pág. 11236
DOI: https://doi.org/10.37811/cl_rcm.v8i4.13264
Epistemolog-IA: la Confluencia de la Inteligencia Artificial y la
Epistemología en el Desarrollo Científico Contemporáneo
Mauricio Gabriel Pérez Palencia
1
mperezyp@gmail.com
https://orcid.org/0009-0002-2185-2547
Universidad de Pana
Panamá
RESUMEN
El presente texto, examina cómo los avances en inteligencia artificial (IA) han influido y han sido
influenciados por la evolución teórica de la ciencia. Utilizando la técnica de análisis documental,
específicamente el análisis de contenido, se investigan las intersecciones entre los fundamentos y
prácticas epistemológicas y los nuevos paradigmas tecnológicos. Los hallazgos sugieren que la IA no
solo actúa como catalizador del cambio tecnológico, sino que también redefine nuestra comprensión
del conocimiento y la realidad. Se observa una adaptación de las prácticas epistemológicas para integrar
estos desarrollos tecnológicos, lo que resulta en una evolución teórica que responde a los desafíos y
oportunidades presentados por la IA. La conclusión destaca que la IA, como pináculo de la tecnología
contemporánea, está transformando radicalmente las bases de la epistemología, lo cual tiene
implicaciones profundas para el desarrollo científico y la conceptualización del conocimiento en la era
digital. Palabras clave: inteligencia artificial, epistemología, tecnología, conocimiento, ciencia
contemporánea. En tal sentido se propone el neologismo "Epistemolog-IA": un anagrama que combina
"epistemología" e "inteligencia artificial", el cual encapsula la relación cargada de incertidumbre entre
la base teórica del desarrollo científico y una herramienta que, aunque fascinante, plantea incógnitas de
ingente consideración sobre su futuro impacto en las concepciones tradicionales de la ciencia misma.
Palabras claves: inteligencia artificial, epistemología, tecnología, conocimiento, ciencia
1
Autor principal
Correspondencia: mperezyp@gmail.com
pág. 11237
Epistemology-AI: the Confluence of Artificial Intelligence and
Epistemology in Contemporary Scientific Development
ABSTRACT
This text examines how advances in artificial intelligence (AI) have influenced and been influenced by
the theoretical evolution of science. Using the documentary analysis technique, specifically content
analysis, intersections between epistemological foundations and practices and new technological
paradigms are investigated. Findings suggest that AI not only acts as a catalyst for technological change
but also redefines our understanding of knowledge and reality. There is an adaptation of epistemological
practices to integrate these technological developments, resulting in a theoretical evolution that
addresses the challenges and opportunities presented by AI. The conclusion highlights that AI, as the
pinnacle of contemporary technology, is radically transforming the foundations of epistemology, which
has profound implications for scientific development and the conceptualization of knowledge in the
digital age. Keywords: artificial intelligence, epistemology, technology, knowledge, contemporary
science. In this sense, the neologism "Epistemolog-IA" is proposed: an anagram combining
"epistemology" and "artificial intelligence," encapsulating the relationship fraught with uncertainty
between the theoretical basis of scientific development and a tool that, while fascinating, raises
significant questions about its future impact on traditional conceptions of science itself.
Keywords: artificial intelligence, epistemology, technology, knowledge, science
Artículo recibido 10 julio 2024
Aceptado para publicación: 15 agosto 2024
pág. 11238
INTRODUCCIÓN
“La inteligencia artificial es incapaz de pensar, porque es incapaz de «faire l’idiot»
2
.
Es demasiado inteligente para ser un idiota."
Byung-Chul Han
Desde la era premoderna, donde el conocimiento se transmitía principalmente a través de la tradición
oral y la experimentación empírica, hasta la posmodernidad, marcada por la digitalización y la
omnipresencia de tecnologías avanzadas, la ciencia ha experimentado transformaciones radicales. La
modernidad, impulsada por la Revolución Industrial y el método científico, vio una aceleración sin
precedentes en la innovación tecnológica y científica. La introducción de la imprenta, el telégrafo, y
posteriormente el motor de combustión interna, no solo revolucionaron la comunicación y el transporte,
sino que también modificaron las estructuras sociales y económicas, fomentando un espíritu de progreso
y racionalidad.
Hoy en día, en la era posmoderna, estamos inmersos en un entorno donde la tecnología digital y la
inteligencia artificial transforman rápidamente todos los aspectos de la vida humana, “en un mundo en
el que las máquinas entran en contacto con el mundo real en forma de virtualidades” (Acosta, 2019, p.
26). La IA
3
, en particular, representa una convergencia sin precedentes de disciplinas científicas y
tecnológicas, fusionando avances en informática, neurociencia, y teoría de la información. Este
fenómeno plantea interrogantes cruciales sobre la naturaleza del conocimiento, la ética y la
epistemología misma de la ciencia, evidenciando así, que la cultura ha sido y está siendo transformada
por la tecnología digital de maneras profundas. La interconexión global y el flujo constante de
información están cambiando la forma en que las personas interactúan, piensan y perciben el mundo
(Lasalle, 2019).
En tal sentido, el presente texto explora cómo estos avances no solo han sido catalizadores del cambio
tecnológico, sino también cómo han influido y, a su vez, han sido influenciados por la evolución teórica
de la ciencia. Se examinará cómo los fundamentos y prácticas epistemológicas han evolucionado para
adaptarse a nuevos paradigmas tecnológicos, y cómo la IA, como pináculo de la tecnología
2
"Faire l'idiot" es una expresión francesa que significa "hacerse el tonto" o "fingir ser tonto".
3
Sigla para la abreviatura de “Inteligencia Artificial”.
pág. 11239
contemporánea, está redefiniendo nuestra comprensión del conocimiento y la realidad. A través de esta
exploración, se busca desentrañar las complejas interacciones entre el desarrollo tecnológico y la
evolución del pensamiento científico, proporcionando una visión integral de esta relación convergente
que redefine los pilares de la ciencia y su proceso constructivo. Además, la relación entre los avances
científicos y tecnológicos, en especial el impacto de la inteligencia artificial (IA) en la evolución teórica
de la ciencia, al punto de constituir un campo de estudio fascinante y fundamental en la comprensión
del desarrollo, no sólo científico, sino también en humano y las dimensiones que ello implica.
DESARROLLO
La IA ha emergido como la tecnología más disruptiva y prometedora en el contexto digital. A sabiendas
de que su impacto abarca desde absolutamente los diversos campos humanos, alterando radicalmente
las estructuras tradicionales y las formas en que se aborda la búsqueda del conocimiento científico. Se
propone entonces, una nueva área de análisis y reflexión: la "Epistemolog-IA": un anagrama que
combina "epistemología" e "inteligencia artificial", el cual encapsula la relación cargada de
incertidumbre entre la base teórica del desarrollo científico y una herramienta que, aunque fascinante,
plantea incógnitas de ingente consideración sobre su futuro impacto en las concepciones tradicionales
de la ciencia misma.
La epistemología, entendida como el ejercicio reflexivo acerca de lo que las distintas disciplinas
científicas están produciendo, los límites y validez del conocimiento como producto final (Kant, 1781).
En este sentido Brunet y Morell (2001) plantean que la reflexión epistemológica asume
fundamentalmente dos tareas:
“1) examinar críticamente la práctica científica y llamar la atención sobre las dificultades
que aparecen en ésta (función crítica), y 2) desarrollar una concepción sistemática
alternativa a la práctica científica aplicada que implique alguna mejora en la resolución de
los problemas de los que se ocupa la ciencia (función heurística)” (p. 32).
En ambos escenarios se vislumbra como tal ejercicio de reflexión enfrenta un desafío sin precedentes
desde el advenimiento de la IA.
Desde este punto de vista, la Inteligencia Artificial plantea un desafío significativo para la filosofía, ya
que obliga a reexaminar conceptos fundamentales sobre la naturaleza de la inteligencia, la conciencia y
pág. 11240
la ética (UNESCO, 2024). La capacidad de las máquinas para realizar tareas que antes se consideraban
exclusivas del pensamiento humano cuestiona las fronteras entre mente y máquina, generando debates
sobre si las IA pueden poseer una verdadera consciencia o moralidad. Situación que fortalece el
argumento de Heidegger (1993), de que la técnica no se limita simplemente a ser un medio, sino que es
una forma de desocultamiento. Al considerar este aspecto, se nos revela un ámbito completamente
diferente respecto a la esencia de la técnica. Este ámbito se refiere al desocultamiento, es decir, a la
verdad y al proceso de verificación en la academia, a lo que Perkins et al. (2024) ha reaccionado: “la
relevancia de la integridad académica debe ser primordial” en el presente maremágnum tecnológico.
Además, la creciente autonomía de las IA en la toma de decisiones plantea dilemas éticos complejos
sobre responsabilidad y el impacto en la sociedad, requiriendo una reevaluación de los principios
filosóficos tradicionales en el contexto de una era tecnológica en rápida evolución y que vislumbra un
gran impacto en el desarrollo de ciencia como ejercicio exclusivamente humano. Tal panorama, reclama
la reconsideración de la relación ciencia-filosofía-tecnología (como extensión de la primera) en la era
contemporánea, concordando con los argumentos premonitorios propuestos por Morín (1986, p. 29) al
afirmar que:
“Se puede y se debe definir filosofía y ciencia en función de dos polos opuestos del
pensamiento: la reflexión y la especulación para la filosofía, la observación y la
experiencia para la ciencia. Pero sería vano creer que en la actividad científica no hay
reflexión ni especulación, o que la filosofía desdeña por principio la observación y la
experimentación. Los caracteres dominantes en una quedan dominados en la otra y
viceversa”.
En el mismo sentido, Borgmann (1984), investigador especializado en temas de filosofía de la
tecnología, intentando sustentar la relación semántica entre ciencia y tecnología, sostiene que la ciencia
se erige tanto como objeto de estudio como antagonista de la filosofía de la tecnología. Para que una
teoría de la tecnología sea exhaustiva, debe necesariamente abordar el papel de la ciencia en el contexto
de su interrelación con la tecnología, argumenta. No obstante, es igualmente cierto que una teoría de la
tecnología, al aspirar a esbozar una cosmovisión, entra en competencia con la ciencia. Esto se debe a
que, en la actualidad, la ciencia es la disciplina.
pág. 11241
Por otro lado, la epistemología tradicional se ha centrado en preguntas fundamentales sobre la
naturaleza seminal del conocimiento, su origen y sus límites (Wittgenstein, 1921). La irrupción de la
inteligencia artificial introduce nuevas dimensiones a estos debates, ya que los sistemas de IA no solo
procesan información a velocidades sin precedentes, sino que también generan conocimiento de formas
que desafían las concepciones clásicas ¿será el momento de un Leviatán algorítmico? (Fajardo,
2024). Inexorablemente, la sociedad contemporánea, y especialmente la comunidad científica se
enfrenta a “un cambio epistémico, ontológico y ético se está operando debido a este Leviatán
algorítmico” como lo describe Sadin (2020, p. 163). Esta transformación plantea preguntas críticas
sobre la validez, la veracidad y la ética del conocimiento producido por máquinas, óptica desde la cual
tiene asiento la perspectiva proactiva, para su época, de Bunge:
“Sugiero que una regla moral racional tiene exactamente la misma estructura que una regla
tecnológica, en el sentido de que ambas descansan sobre leyes científicas y evaluaciones
explícitas. Abandónese la exigencia de que una regla debiera fundarse sobre una ley
científica y se tendrá una regla empírica, sea tecnológica o moral, desligada del cuerpo de
conocimientos científicos, y por ello tan indefensa como inmune a la crítica excepto en lo
que respecta a su eficacia. Si se abandona en cambio el requisito de la evaluación explícita,
se podrá subestimar los efectos laterales e incluso confundir fines con medios. En
particular, si no se tasan los medios se obtiene, sea una tecnología exorbitantemente
costosa, sea una moral inhumana. Más aún, sugiero que la formulación y el uso de reglas
tecnológicas es inseparable de consideraciones morales” (Bunge, 1997 p. 46).
Continuando en el enfoque tradicional, el conocimiento ha sido un producto exclusivo de la mente
humana, basado en la observación, la razón y la experiencia. Sin embargo, la IA introduce una nueva
dinámica social-transformadora, concepción que según aportaciones de Bunge (1997), se
correspondería con conceptos como: tecno-epistemología, tecno-metafísica, tecno-axiología, tecno-
ética y tecno-praxiología. Igualmente encaja en la idea de tecnología social de Popper (1945), donde
las máquinas a partir de procesar y analizar vastas cantidades de datos a velocidades y con una precisión
que superan las capacidades humanas; por primera vez, están en condiciones de superarnos, inclusive
en nuestra esfera cognitivamente más distintiva: La creatividad (Sigman y Bilinkis, 2023). Tal situación
pág. 11242
plantea la cuestión de si el conocimiento generado por IA debe y puede considerarse igualmente válido
y, de ser así, bajo qué criterios.
Para ahondar en la búsqueda de tales criterios, resulta conveniente entonces, revisar conceptos como el
de Epistemología digital, la cual como episteme surge de forma emergente desde principios de la de
cada de los 90 con la disrupción de la Informática, ha sido influenciado por diversos académicos que
han explorado la intersección entre el conocimiento y la tecnología digital (Morán, 2022). La
epistemología digital, implica per sé, el estudio de cómo el conocimiento se produce, se organiza y se
distribuye en el entorno digital, desarrollando profundas reflexiones sobre lo digital y más allá, no
limitándose únicamente a un esfuerzo intelectual por ampliar su espectro de aplicación, sino también
analizando críticamente las tecnologías digitales para avanzar en su comprensión, desde lo cual, el
científico/investigador adopta una mezcla de realismo crítico y pragmatismo, de acuerdo a sus
necesidades y en tal sentido éste sería “filosóficamente oportunista, no principista” (Bunge, 1997, p.
198).
Por esta misma senda de auscultación literaria, aparece otro escenario teórico de interés y concordancia
con los intereses académicos que ahora atañen: La Epistemología Cibernética. Empero, antes de
abordar en este constructo, conviene retomar conceptualmente lo que representa el término
Cibernética, el cual fue acuñado por Wiener(1948), estableciendo una nueva disciplina científica, que
se centra en el estudio de los sistemas de control y comunicación tanto en organismos vivos como en
máquinas, mostrando consonancia con los aportes de Morín (1994), desde el pensamiento complejo,
cuando aborda l diferenciación entre la computación artificial y la viviente, en cuanto a que la artificial
es construcción del sujeto cibernético y su programa evoluciona en virtud de los desarrollos científicos
y técnicos de las sociedades humanas, contrario al sujeto cibernético que es la computación viviente y
como tal se despliega en lo cognitivo , autocongnitivo y su programa genético, que se ha desarrollado
y transformado en virtud de un “proceso evolutivo complejo que no interviene ningún deus ex machina
o dios de la máquina”. (art 3.).
De otro lado, la IA es un producto de los vertiginosos avances de la tecnología. La historia de la
inteligencia artificial comenzó en la década de los 50, cuando pioneros como Alan Turing (1950),
después de los alcances ingenieriles para el desciframiento del Código Enigma durante la Segunda
pág. 11243
Guerra Mundial, sugiratisbos sobre la conceptualización de inteligencia artificial, refiriéndose a la
capacidad de una máquina para imitar comportamientos inteligentes, de lo cual nace, además, lo que se
conoce como el Test de Turing. Este test evalúa la inteligencia de una máquina basada en su habilidad
para mantener una conversación indistinguible de la de un ser humano. Más adelante, McCarthy (1956),
también pionero en el tema, definió la inteligencia artificial como "la ciencia e ingeniería de crear
máquinas inteligentes, especialmente programas de cómputo inteligentes" (p. 2).
Este contexto histórico protagonizado por Turing y McCarthy, es considerado el punto de partida formal
del estudio de la IA. A lo largo de las décadas siguientes, la IA pasó por diversos periodos de
maduración (Russel y Norvig, 2004). Más allá de la creación de la máquina de Turing, la victoria de
Deep Blue
4
contra el campeón mundial de ajedrez Garry Kasparov en 1997, y el triunfo de AlphaGo
5
sobre el campeón mundial de Go
6
, Lee Sedol, en 2016; marcando hitos significativos en su evolución
y trascendencia a diferentes escenarios humanos.
En este orden de ideas, desde principios del siglo XXI, los avances en el aprendizaje automático, el
procesamiento de grandes volúmenes de datos y el aumento de la potencia computacional han
impulsado el desarrollo de IA sofisticadas, capaces de realizar tareas complejas como el reconocimiento
de imágenes, la traducción automática y la conducción autónoma (Bergolla y Lavigne, 2021). Empero,
estas habilidades deslumbrantes, traen consigo la paradoja que Castleton (2021) describe fielmente: “en
la medida que los dispositivos ofrecen más control sobre nuestras vidas, más sucumbimos a un
paradigma que nos controla a nosotros mismos” (p. 47). Hoy, desde el punto científico e industrial, esta
tecnología se encuentra en su punto de inflexión. La disruptiva llegada de los modelos conversacionales
como ChatGPT representa un momento decisivo y marca un antes y un ahora de gran impacto para las
diversas esferas de desenvolvimiento humano, sobretodo en la academia, la cual de manera urgente
demanda nuevas alfabetizaciones en pro de capacidades cognitivas de vanguardia (Aoun, 2017),
mientras exponencialmente se gesta la madurez de la IA.
4
Deep Blue fue una máquina de ajedrez desarrollada por IBM que alcanzó notoriedad por su recursividad al jugar.
5
AlphaGo es un programa de inteligencia artificial desarrollado por DeepMind, una empresa de inteligencia artificial propiedad de Google.
AlphaGo alcanzó notoriedad por sus impresionantes logros en el juego de Go.
6
un juego de mesa complejo y estratégico que se juega principalmente en el continente asiático.
pág. 11244
Anteriormente, los avances significativos en IA generativa se habían dado en la visión por computadora,
pero ahora el progreso se ha centrado en el procesamiento de lenguaje natural (PLN). Demostrando el
alcance del concepto de “continuidad” en la relación humano-máquina, los mismos esquemas que
explican el cerebro también explican una "máquina que piensa" (Mazlish, 1993). Actualmente, la
ingeniería detrás de los algoritmos de IA generativa tienen la capacidad de procesar, aprender y
sintetizar no solo el lenguaje humano, sino también otros tipos de datos, incluyendo imágenes, videos,
códigos de software e incluso estructuras moleculares, dando cabida con ello a las posibilidades
cognoscitivas y cognitivas a las máquinas desde sus características de multimodalidad u omnimodalidad
(Hazan, 2023).
Las anteriores acepciones y alcances de la IA, exhorta al análisis de la reflexión emanada de la cita
referida como epígrafe del presente texto, a la que invita Han (2023):
“En un nivel más profundo, el pensamiento es un proceso resueltamente analógico. Antes de
captar el mundo en conceptos, se ve apresado, incluso afectado por él. Lo afectivo es esencial
para el pensamiento humano. La primera afectación del pensamiento es la carne de gallina. La
inteligencia artificial no puede pensar porque no se le pone la carne de gallina. Le falta la
dimensión afectivo-analógica, la emoción que los datos y la información no pueden comportar”.
Más allá de ese intrincable debate, la inteligencia artificial, como “constructo, se complejiza con la
dinámica de sus desarrollos” (Barrios-Tao, 2021 p. 3), es la tecnología que permite que las
computadoras simulen la inteligencia humana y las capacidades humanas de resolución de problemas.
Como campo de la informática, la inteligencia artificial abarca (y a menudo se menciona junto con) el
aprendizaje automático y el aprendizaje profundo. Estas disciplinas implican el desarrollo de algoritmos
de IA, modelados a partir de los procesos de toma de decisiones del cerebro humano, que pueden
"aprender" de los datos disponibles y realizar clasificaciones o predicciones cada vez más precisas con
el tiempo (Dormido & De la Cruz, 1989).
Sadin (2020a) establece su argumento es una reflexión crítica sobre cómo la inteligencia artificial, más
allá de su carácter técnico, representa un poder dinámico que está transformando radicalmente las
estructuras organizativas y de gobernanza en la sociedad moderna. Su perspectiva poco o nada optimista
acerca de las bondades de la IA lo lleva a plantear que “la inteligencia artificial representa antes que
pág. 11245
nada un poder dinámico de organización” (p, 223). Tal argumentación sociopolítica, trasciende por
supuesto al campo de la ciencia, debido a la capacidad de la IA para revolucionar la metodología
científica. Son una realidad los algoritmos avanzados pueden analizar grandes volúmenes de datos y
detectar patrones que escapan al análisis humano. Estudios recientes han demostrado que la IA puede
acelerar el descubrimiento científico, desde la identificación de nuevos compuestos químicos hasta la
predicción de enfermedades.
Sin embargo, este mismo potencial trae consigo desafíos epistemológicos significativos. La delegación
de la interpretación de datos a sistemas automatizados plantea interrogantes sobre la transparencia y la
replicabilidad de los resultados, pilares fundamentales del método científico. Además, la IA influye en
la construcción del conocimiento, redefiniendo el papel del científico no solo como observador y
analista, sino también como diseñador y controlador de sistemas inteligentes. La introducción de
modelos predictivos y el aprendizaje automático reconfigura la manera en que se formulan hipótesis y
se validan teorías. Esto sugiere el concebir la IA no solo como una herramienta, sino como la ciencia
cognoscitiva que es, como un agente activo en el proceso epistemológico y como tal del proceso de
investigación científica (Pérez, 1989)
Por tal motivo, la integración de la IA en la ciencia no debe estar exenta de críticas, más aún “cuando
los problemas que aquejan a las sociedades tecnológicas son extrínsecos a la tecnología
(Borgman,1984). Por tanto, deben existir ciertas precauciones a tener en cuenta al momento de
implementar y confiar en sistemas de IA para discernir una ciencia menos utilitaria, donde la eficiencia
y la precisión técnica eclipsen el entendimiento profundo y la reflexión crítica. La dependencia excesiva
de la IA podría reducir la diversidad de enfoques y perspectivas en la investigación científica,
homogenizando el conocimiento y limitando la creatividad.
Por otro lado, la IA también plantea retos éticos y metodológicos. La opacidad de los algoritmos de
aprendizaje profundo, a menudo descrita como "caja negra"
7
, dificulta la comprensión de cómo se llegan
a determinadas conclusiones. En palabras de Sadin (2020b, p. 76): "Una vez que la red de neuronas
aprendió a reconocer algo, un desarrollador (NAP) no se puede dar cuenta de cuánto éxito ha tenido. Es
7
En el contexto de la computación y la teoría de sistemas, una "caja negra" (black box) es un sistema o dispositivo del cual se conocen las
entradas y salidas, pero cuyo funcionamiento interno es desconocido o no es necesario comprender para utilizarlo.
pág. 11246
como en el cerebro: usted no puede cortar una cabeza y mirar cómo funciona". Esto socava uno de los
principios básicos de la epistemología: la transparencia y la reproducibilidad del conocimiento (Popper,
"La lógica de la investigación científica" (1934). Además, la dependencia excesiva en la IA puede
conducir a una delegación de la responsabilidad moral y ética, trasladando decisiones críticas a
máquinas que carecen de comprensión y juicio moral.
En tal sentido, la Paradoja de Moravec, establece que, en el desarrollo de sistemas de IA, las tareas que
los seres humanos consideran difíciles (como el razonamiento abstracto, el juego de ajedrez, la
resolución de problemas matemáticos) resultan ser relativamente fáciles para las computadoras. En
contraste, las tareas que los humanos encuentran ciles (como el reconocimiento de rostros, la
locomoción, la percepción sensorial y la coordinación motora) son extremadamente difíciles para las
máquinas, sugiriendo entre neas, la necesidad de un enfoque equilibrado en el desarrollo de la IA,
donde tanto las tareas de alto nivel como las de bajo nivel deben ser abordadas con técnicas y enfoques
adecuados para superar los desafíos inherentes a cada tipo de tarea (Moravec, 1980).
Un ejemplo claro de esta dinámica de uso de IA en la investigación científica, lo constituye el estudio
realizado por Grossman et al (2023), en el que se explora cómo los LLMs (nota al pie) pueden simular
respuestas y comportamientos humanos, ofreciendo nuevas oportunidades para probar hipótesis sobre
el comportamiento humano a gran escala. Este avance en las neurociencias, y de gran impacto en las
ciencias sociales, plantea preguntas epistemológicas fundamentales: ¿Cómo validamos el conocimiento
generado por estos sistemas? ¿Qué papel juegan los humanos en la supervisión y corrección de estos
algoritmos?
La integración de la IA en la epistemología, por tanto, requiere una reevaluación de diversos conceptos
claves, entre los que se destaca: la noción de "autoría" en el conocimiento debe expandirse para incluir
a los sistemas de IA como co-creadores, siempre bajo la supervisión humana. También, los criterios de
validación (fiabilidad)” del conocimiento necesitan ajustarse para considerar tanto la precisión como
la explicabilidad de los sistemas de IA (Dormido & De la Cruz, 2020), de esta se logra disipar los sesgos
por caja negra al sobreponer el valor al argumento de que “una característica importante de una
máquina que aprende es que su profesor será con bastante frecuencia muy ignorante sobre qué es lo que
ocurre dentro de ella” (Turing, 1950, p. 21). En el mismo sentido, la transparencia de los algoritmos y
pág. 11247
la capacidad de los humanos para entender y explicar sus decisiones deben ser un requisito esencial
para su aceptación en todos los campos de producción científica y académica, para mitigar panoramas
como el de la educación superior, la cual ha sufrido un impacto inmediato y divisivo, en cuyo sentido
muchas universidades ya lo han prohibido por temor al plagio de las y los estudiantes, y varios países
han bloqueado ChatGPT (UNESCO, 2023)
Está claro, por tanto, que la IA puede representar el nuevo subvenir científico para enriquecer la
epistemología al proporcionar nuevas herramientas altamente versátiles para el análisis y la síntesis del
conocimiento. La gran cuestión es: “La humanidad del siglo XXI será tecnocrítica o no será. Cobrará
conciencia de que solo puede perdurar como especie libre e inteligente si delimita el papel de la
tecnología y define lo que espera de ella. Asumirá que eso implica sacrificios y esfuerzos, y entenderá
que es el precio por evitar su propio fin” (Hidalgo, 2021, p. 201).
Lo anterior puede ser asumido, para dimensionar la situación con mejor claridad, partiendo de
Borgmann (1984), quien utilizó la metáfora de la producción de vino para ilustrar diferencias en
enfoques tecnológicos y humanos en la creación de productos y conocimientos. Aunque su análisis
precede a la inteligencia artificial moderna, es pertinente para entender las diferencias entre lo que de
manera emergente empezaría a asumirse como: la cientificidad sintética y la artesanal. La primera,
similar a la producción industrial de vino, busca estandarizar y controlar el proceso de producción de
conocimiento mediante modelos IA, priorizando la eficiencia, reproducibilidad y precisión. Este
enfoque tiende a ser menos dependiente del contexto específico y más orientado a generalizaciones
amplias. La segunda, por otro lado, valora la experiencia directa, la observación detallada y la
adaptación a contextos específicos. Se enfoca en la profundidad y riqueza del conocimiento producido,
aunque con una mayor variabilidad y menor escalabilidad. ¿Estará la ciencia y la academia actuales,
ante el nacimiento y la consolidación de un nuevo paradigma, gestado a partir de la concepción de la
“Epistemolog-IA”?
Otro soporte a tal percepción, lo brinda La expresión "Allende a la técnica"; en palabras de Ortega y
Gasset (1998) se refiere a la idea de que la técnica no es solo un conjunto de herramientas y métodos
para realizar tareas, sino que tiene implicaciones más profundas en la vida humana y en la civilización.
Para este autor, es necesario más allá de la mera funcionalidad y utilidad de las herramientas y
pág. 11248
procedimientos técnicos para comprender su significado más amplio y su impacto en la existencia
humana, la cultura y la historia. La técnica, por tanto, no debe ser vista únicamente desde una
perspectiva instrumental, sino también como un fenómeno cultural y filosófico que influye
profundamente en la manera en que vivimos y pensamos.
Entre tanto, las nuevas capacidades del Machine Learning
8
y Deep Learning
9
, y su cada vez mayor
poder generativo, con sus habilidades pueden detectar patrones y relaciones en datos que serían
invisibles para los humanos, además su capacidad abriendo nuevas áreas de investigación y ampliando
nuestras fronteras cognitivas, construyendo al igual que los humanos, su propia cultura(Sigman y
Bilinkis, 2023). Por ende, este potencial debe equilibrarse con cautela y reflexionar sobre la fiabilidad
y los posibles sesgos inherentes en los datos y algoritmos utilizados (Sadin, 2018), evitando fenómenos
contraproducentes para la humanidad en las áreas de academia y ciencia como el posible ciencia
deepfake
10
,; o el caso del sedentarismo cognitivo, también denominado sedentarismo
intelectual(Sigman p. 110), producto de la inactividad mental o intelectual, similar al sedentarismo
físico se refiere a la falta de actividad física. En este caso, se resalta los peligros de una mente inactiva,
que puede resultar de una rutina diaria monótona, una dependencia excesiva de tecnología que no
estimula el pensamiento crítico, o la ausencia de desafíos intelectuales, para no llega a un estado de
“humanidad hackeada”. En este orden de ideas, la especie humana debe inevitablemente debe concebir
que “la inteligencia artificial se convertirá en la metodología para pensar sobre formas de conocer”
(Papert, 1993, p. 11)
Entre tanto, el neologismo "Epistemolog-IA", formado por la combinación de "epistemología" y "IA",
encapsula una serie de interrogantes y desafíos que subyacen en el ámbito de los fundamentos teóricos
de la ciencia contemporánea y su proceso de concepción posmoderno. Este término no solo sugiere la
aparición de nuevas preguntas, sino también la necesidad de una profunda reflexión crítica sobre cómo
la IA está transformando nuestra comprensión y producción del conocimiento. Esta perspectiva
8
Machine Learning, o aprendizaje automático en español, es un campo de la inteligencia artificial que se centra en el desarrollo de algoritmos
y modelos que permiten a las computadoras aprender y mejorar automáticamente a partir de la experiencia sin estar explícitamente
programadas.
9
Deep Learning, o aprendizaje profundo en español, es una subárea del aprendizaje automático que se centra en el entrenamiento de redes
neuronales artificiales para aprender y realizar tareas complejas a partir de datos.
10
Deepfake es una tecnología de manipulación de medios que utiliza inteligencia artificial (específicamente técnicas de aprendizaje profundo,
como el deep learning) para crear videos, audio u otros medios falsos que parecen genuinos, pero son en realidad falsificados.
pág. 11249
conlleva la fascinante postura de Deleuze y Guattari (1994), al referirse a la integración de IA en nuestra
vida cotidiana puede llevarnos a un "devenir máquina", donde nuestras capacidades se amplifican y
nuestras identidades se reconfiguran continuamente, sentido desde el cual “la tecnología es central para
la condición antropocéntrica” (Braidoti, 2015).
Por todo lo tratado hasta aquí, y con el objeto de realizar un compendio propositivo respecto las
preocupaciones suscitadas, a continuación, se realiza un análisis crítico sobre la perspectiva congruente
y pertinente de lo que representa la IA en la construcción del conocimiento científico, fundamentado en
la construcción de una evidencia tangible y una realidad palpable, a partir de 4 dimensiones cruciales
propuestas a partir de la exegesis al barrido literario plasmado en el presente texto:
1. Transformación de la Comprensión del Conocimiento: La epistemología tradicional se ha
centrado en el estudio de la naturaleza, origen y límites del conocimiento humano. Con la emergencia
de la "Epistemolog-IA", se plantea una reconfiguración de estos fundamentos. La IA tiene la capacidad
de procesar y analizar vastas cantidades de datos a una velocidad y precisión inalcanzables para los
seres humanos. Esto plantea la pregunta: ¿cómo afecta la IA nuestra comprensión de lo que significa
conocer algo? Tal respuesta ronda en el entendimiento de que el conocimiento generado por la IA,
basado en patrones y correlaciones en datos masivos, puede proporcionar insights
11
que de otra manera
serían inaccesibles (Siegel, 2016). Este sentido de sobredesarrollo es lo que para Beck (1998),
representa un “proceso de modernización quedan liberadas cada vez más fuerzas destructivas, y esto en
una medida ante la que la inteligencia humana queda perpleja” (p. 27).
Sin embargo, este conocimiento es, en gran medida, probabilístico y no necesariamente explicativo en
términos causales. Por ejemplo, los algoritmos de aprendizaje automático pueden predecir
enfermedades a partir de datos genómicos con alta precisión, pero no siempre pueden explicar por qué
ciertas combinaciones de genes conducen a dichas enfermedades (Serrahima, 2022). Esta falta de
explicabilidad puede limitar nuestra comprensión profunda, sugiriendo que el conocimiento producido
por la IA es complementario, pero no sustitutivo del conocimiento humano.
11
En computación, se refiere a percepciones o entendimientos profundos que se obtienen a partir del análisis de datos o del estudio de
sistemas computacionales.
pág. 11250
2. Validación y Confianza en el Conocimiento Generado por IA: Una de las preocupaciones
centrales de la "Epistemolog-IA" es cómo validar y confiar en el conocimiento generado por algoritmos.
La validación científica tradicional se basa en la reproducibilidad y verificación empírica. Sin embargo,
los modelos de IA, especialmente los de aprendizaje profundo, son a menudo opacos y difíciles de
interpretar, lo que dificulta su validación. Este apartado, nos remonta a las tres leyes de la de la robótica
de Asimov (1950), las leyes establecen, a grandes rasgos que un robot no debe causar daño a un ser
humano, ni permitir que un humano sufra, debe obedecer todas las órdenes dadas por los seres humanos,
y debe proteger su propia existencia, siempre y cuando esta protección no entre en conflicto con las dos
primeras leyes. Empero, el ambiente de cordialidad previsto a manera de ficción por dicho autor, parece
no ajustarse mucho con los perjuicios que puede llegar a representar el uso irresponsable de la IA, por
parte de los humanos, mucho menos la configuración de los parámetros de agencia que privilegia esta
tecnología.
En ese mismo, sentido, el problema de la caja negra de los algoritmos de IA plantea serios desafíos
epistemológicos. ¿Cómo podemos confiar en los resultados de un sistema cuyo funcionamiento interno
no comprendemos completamente? Aquí es donde se hace necesaria una nueva aproximación a la
epistemología que incluya criterios de transparencia, interpretabilidad y robustez en el diseño y la
implementación de algoritmos de IA. Tal sentencia induce el imperativo de que el hombre que se
expresa con, desde y por la máquina habita un mundo nuevo, lleno de posibilidades, donde la
experiencia humana de la verdad tiende a desestabilizarse y ceder a una más artificial, rendida al culto
de un control absoluto y total, enmarcado en lo que Heim (1993) denomina “el mundo integrado del
dominio total”.
Es en este contexto donde se hace necesaria una nueva aproximación a la epistemología, que incluya
criterios de transparencia, interpretabilidad y robustez en el diseño y la implementación de algoritmos
de IA (Sigman y Bilinkis, 2023). Esto no solo fortalece la confianza en los sistemas de IA, sino que
también alinea sus resultados con estándares científicos y éticos, mitigando así el riesgo de que la
tecnología desplace la autenticidad de la experiencia humana con una versión superficial de la verdad.
¿Podemos confiar en la información producida por sistemas autónomos y cómo justificamos su
precisión y veracidad? Es la pregunta que sugiere la clásica metáfora del “cerebro en la cubeta
pág. 11251
propuesta por Putman (1988), donde destaca los riesgos éticos y las implicaciones de la manipulación
de la realidad o las percepciones a través de la tecnología. En el desarrollo de la IA, esto se traduce en
interrogantes como el ya planteado, desde el que se cuestiona si las tecnologías desarrolladas son éticas
y respetan los derechos y dignidad humanos.
3. Sesgos Inherentes y Producción de Conocimiento: Otro aspecto crítico de la "Epistemolog-IA" es
la identificación y mitigación de los sesgos inherentes en los algoritmos de IA. Los datos utilizados para
entrenar modelos de IA reflejan las desigualdades y prejuicios presentes en la sociedad. Si estos sesgos
no son reconocidos y corregidos, la IA puede perpetuar y amplificar las inequidades existentes. Por
ejemplo, se ha documentado que los sistemas de reconocimiento facial tienen tasas de error más altas
para individuos de raza negra y asiática en comparación con los de raza blanca. Y es que, el tema puede
trascender a esferas sensibles como indica Sáez (1994): “La tecnología -decíamos - reestructura el
mundo, unas veces para mejor y otras para peor, aunque eso también depende de nuestra percepción
(frecuentemente anulada por el sonambulismo tecnológico), de nuestro talante y de nuestro acomodo
particular (p. 30).
Lo anterior sugiere que la producción de conocimiento por parte de la IA debe, por lo tanto, incorporar
mecanismos para detectar y corregir sesgos, promoviendo así una producción de conocimiento más
equitativa y justa. La reflexión crítica sobre estos métodos es esencial para asegurar que la IA contribuya
positivamente a la sociedad y no refuerce estructuras de poder desiguales.
Esta preocupación ha permeado considerablemente los espacios académicos de educación superior,
como lo registra el Reporte Horizon (2024), en donde Pelletier et al. evidencian como la Comunidad de
Aprendizaje de la Facultad de Tecnologías Emergentes (FLC) de la Universidad Estatal de Saginaw
Valley, con dieciocho profesores, estudia el impacto de la inteligencia artificial en la educación superior.
Durante el año académico, actualizarán métodos de enseñanza y planes de estudio en respuesta a la IA,
con cada miembro trabajando en proyectos prácticos como rediseños de cursos y nuevas tareas.
4. Impacto en la Estructura de la Verdad y la Autoridad: Finalmente, la "Epistemolog-IA" nos lleva
a considerar cómo la IA podría transformar la estructura de la verdad y la autoridad en la sociedad.
Históricamente, la autoridad del conocimiento ha residido en expertos humanos y en instituciones
pág. 11252
académicas. La capacidad de la IA para analizar datos masivos y generar predicciones precisas puede
desafiar estas fuentes tradicionales de autoridad.
Sin embargo, la delegación de la producción de conocimiento a máquinas plantea preguntas sobre la
deshumanización del conocimiento y la pérdida de juicio crítico humano. En este, es crucial el
considerar el fenómeno de “solucionismo tecnológico”, propuesto por Morozov (2012), quien al
respecto concibe la tendencia a creer que los problemas complejos sociales, políticos o económicos
pueden resolverse principalmente mediante la aplicación de tecnología, especialmente tecnología
digital. Sentido en que resulta crucial que la implementación de la IA en la ciencia y otros dominios se
acompañe de una supervisión humana adecuada, garantizando que las decisiones basadas en IA estén
alineadas con valores humanos y consideraciones éticas.
Por tanto, resulta de interés y pertinencia, analizar el concepto de capital científico propuesto por
Bourdieu (2003), quien proporciona un marco crítico para analizar las diferencias entre el capital
científico acumulado por los humanos y el generado por la IA. Bourdieu sostiene que mientras que los
científicos acumulan capital a través de la educación formal, la publicación de investigaciones y la
participación en redes académicas; entretanto, la IA obtiene reconocimiento y validez principalmente a
través de su capacidad de procesar y analizar grandes volúmenes de datos con rapidez y precisión
(Russell, 2019). Esta disparidad plantea, por tanto, importantes interrogantes sobre el futuro de la
investigación científica y la distribución del capital científico.
La IA, al no tener las limitaciones humanas de tiempo y cognición, puede acelerar significativamente
el avance del conocimiento (Ocaña-Fernández, 2019). Sin embargo, su capacidad de influir en la
dirección de la investigación y su aceptación dentro de la comunidad científica depende en gran medida
del capital científico de los humanos que la diseñan y la implementan. Así, el poder y la autoridad en el
campo científico siguen estando dominados por los actores humanos, quienes también determinan el
valor y la relevancia del conocimiento generado por la IA. A todas estas, “el discurso metodológico es
un metalenguaje del discurso tecnológico”, como apuntó Ibañez (1985, p. 205). Este análisis resalta la
necesidad de un equilibrio entre la innovación tecnológica y el mantenimiento de criterios éticos y de
validez científica definidos por la comunidad humana.
pág. 11253
CONCLUSIÓN
En este punto, y partiendo de una concepción metafórica de la situación, la IA es como la maquinaria
pesada, que fue pensada, diseñada y desarrollada para simplificar el trabajo físico. De igual manera la
IA representa esa poderosa herramienta que disponible para lograr la efectividad y la optimización al
realizar trabajos del tipo cognitivo, sin embargo, al igual que a los operarios de maquinaria pesada se
les prepara y entrena para operar estas herramienta, para luego desarrollar tareas de la manera más
provechosa, del mismo modo un “operario” o usuario de la IA debe partir de una fundamentación
técnica, ética y filosófica que le permita utilizar este tipo de tecnologías de la manera más conveniente
y provechosa posible, en los distintos escenarios a los que se pretenda impactar (UNESCO, 2021).
La "Epistemolog-IA" representa una intersección fascinante y compleja entre la epistemología
tradicional y las nuevas capacidades ofrecidas por la inteligencia artificial. Si bien la IA tiene el
potencial de revolucionar la forma en que generamos y validamos el conocimiento, también plantea
retos éticos y metodológicos significativos. Para navegar esta relación incierta, es crucial que
adoptemos una postura crítica y reflexiva, reevaluando y ajustando nuestros principios epistemológicos
para garantizar que el conocimiento generado por la IA sea no solo preciso, sino también comprensible
y éticamente responsable. En este proceso, debemos abrazar las oportunidades ofrecidas por la IA, al
mismo tiempo que mantenemos una vigilancia constante sobre sus limitaciones y riesgos, asegurando
que el desarrollo científico siga siendo una empresa humana en su esencia y propósito.
En tal sentido, el neologismo "Epistemolog-IA" no solo captura la convergencia entre epistemología e
inteligencia artificial, sino que también resalta la urgencia de desarrollar una nueva epistemología
adecuada para la era digital. Esta nueva epistemología debe abordar cómo se construye, valida y confía
en el conocimiento generado por la IA, así como los sesgos inherentes y el impacto en la estructura de
la verdad y la autoridad. A medida que la IA continúa evolucionando y desempeñando un papel cada
vez más central en la construcción del conocimiento científico, es fundamental que se lleve a cabo una
reflexión crítica y ética para asegurar que su contribución sea beneficiosa y equitativa para toda la
sociedad.
En efecto, la relación entre la epistemología y la inteligencia artificial es un campo dinámico y en
evolución que promete transformar el desarrollo científico de maneras profundas. La capacidad de la
pág. 11254
IA para procesar y generar conocimiento a una escala sin precedentes abre nuevas fronteras para la
ciencia, pero también plantea desafíos epistemológicos que deben ser cuidadosamente considerados.
Fomentar un diálogo continuo entre filósofos, científicos y tecnólogos será crucial para asegurar que el
impacto de la IA en la ciencia sea tanto ético como innovador.
En suma, en el presente texto se ha destacado la importancia de examinar críticamente cómo la
inteligencia artificial, al entrelazarse con la epistemología, puede influir en la trayectoria futura de la
ciencia como episteme y de los investigadores como actores científicos. La interacción entre estos
campos no solo redefine nuestras herramientas y métodos, sino que también reconfigura nuestra
comprensión del conocimiento mismo y de cómo lo construimos. En este orden de ideas, la integración
de la IA en la epistemología redefine cómo se genera y valida el conocimiento, además presenta retos
éticos y metodológicos significativos que demandan una reevaluación profunda de los fundamentos
científicos.
En tal sentido, como ejercicio reflexivo, se ha propuesto el neologismo “Epistemolog-IA”, el cual, desde
su sentido emergente, exhorta a la comunidad científica global a la consideración de esta realidad actual
que atañe al escenario científico, bajo presunción de que intenciones reflexivas proactivas como la
expresada en este texto, no sean solo un discurso metanarrativo (Lyotard, 1979), sino que en realidad
se consoliden como valor sustancial para coadyuvar a que el conocimiento científico y el desarrollo
tecnológico tengan un poder transformador que inevitablemente conduzca a una mejora constante de la
condición humana.
REFERENCIAS BILBIOGRÁFICAS
Aoun, J. E. (2017). Robot-proof: Higher education in the age of artificial intelligence. The MIT Press.
https://doi.org/10.7551/mitpress/11456.001.0001
Barrios-Tao, H., Díaz, V., & Guerra, Y. M. (2021). Propósitos de la educación frente a desarrollos de
la inteligencia Artificial. Disponible en: https://doi.org/10.1590/198053147767
Borgmann, A. (1984). Technology and the character of contemporary life: A philosophical inquiry. The
University of Chicago Press.
Braidotti, R. (2015). Lo poshumano. Gedisa.
pág. 11255
Brunet Icart, I., & Morell Blanch, A. (2001). Epistemología y cibernética. Universitat Rovira i Virgili,
Departament de Gestió d’Empreses, & Universitat de Lleida, Departament d’Economia
Aplicada.
Bunge, M. (1997) Tecnología y filosofía. En su: Epistemología. México, Siglo XXI, p. 189-213.
Deleuze, G. y Guattari, F. (1994). Mil Mesetas. Capitalismo y esquizofrenia. Valencia: Pretextos.
Dormido, S., & De la Cruz, J. (1989, Julio 1). Inteligencia artificial: pasado, presente y futuro. Aldaba,
9. https://doi.org/10.5944/aldaba.14.1989.20156
Grossmann, I., Varnum, M. E. W., & Park, J. (2023). AI and the transformation of social science
research. Science, 380(6650), 1095-1098. https://doi.org/10.1126/science.adi1778
Han, B. (2023, junio 22). La inteligencia artificial es incapaz de pensar. Recuperado de
https://www.bloghemia.com/2023/06/byung-chul-han-la-inteligencia.html
Hasan, Z. (2023, June 27). Multimodal embedding models. Recuperado de
https://weaviate.io/blog/multimodal-models
Heidegger, M. (2002). La pregunta por la técnica. In M. Heidegger, Conferencias y artículos (pp. 9-40).
Ediciones del Serbal.
Heidegger, Martin. " La pregunta por la técnica". En Francisco Soler (Traductor), Ciencia y Técnica,
Santiago, Editorial Universitaria, 1993.
Heim, M. (1993). The metaphysics of virtual reality. Oxford University Press.
https://doi.org/10.1590/19805314776
Ibáñez, J. (1985). Del algoritmo al sujeto: perspectivas de la investigación social. Madrid : Siglo XXI
de España, 1985.
Kant, I. (2003). Crítica de la razón pura. Biblioteca Virtual Universal. (Trabajo original publicado en
1781).
Morin, E. (1999). El Método III: El conocimiento del conocimiento. Ediciones Cátedra S.A.
Ortega y Gasset, J. (1998). El mito del hombre allende la técnica. Teorema, XVII(3), 119-124.
Papert, S. (1993). Una sola IA o muchas. En S. Graubard (Comp.), El nuevo debate sobre la inteligencia
artificial. Gedisa.
pág. 11256
Pérez, C. (1989). Inteligencia Artificial (IA) y educación. Anales de Pedagogía, (7), 81-96. Universidad
de Murcia.
Perkins, M., Furze, L., Roe, J., & MacVaugh, J. (2024). The Artificial Intelligence Assessment Scale
(AIAS): A Framework for Ethical Integration of Generative AI in Educational Assessment.
British University Vietnam; Deakin University; James Cook University.
Popper, K. R. (1945). The open society and its enemies. Routledge.
Putnam, H. (1981). Razón, Verdad e Historia. Madrid, Tecnos, 1988. Recuperado de:
https://repositorio.comillas.edu/xmlui/bitstream/handle/11531/57178/Avances%20y%20desaf
ios%20de%20la%20inteligencia%20artificial%20-
%20Serrahima%20de%20Bedoya,%20Alvaro.pdf?sequence=2
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Penguin.
Russell, S. J., & Norvig, P. (2004). Inteligencia artificial: Un enfoque moderno (2nd ed.). Pearson
Educación.
Sadin, E. (2020). La inteligencia artificial o el desafío del siglo: Anatomía de un antihumanismo radical.
Caja Negra.
Sáez Vacas, F. (1994). El hombre y la técnica (1st ed., 19 columnas y 3 artículos de socioinformática).
América Ibérica.
Serrahima de Bedoya, A. (2022). Avances y desafíos de la inteligencia artificial. Universidad Pontificia
Comillas.
Siegel, E. (2016). Predictive analytics: The power to predict who will click, buy, lie, or die (2nd ed.).
John Wiley & Sons.
Sigman, M., & Bilinkis, C. (2023). Artificial: La nueva inteligencia y el contorno de lo humano. Penguin
Random House Grupo Editorial.
Turing, A. M. (1950). ¿Puede pensar una máquina? Recuperado de
https://www.librosmaravillosos.com/puedepensarunamaquina/pdf/Puede_pensar_una_maquin
a-Alan_Turing.pdf
UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. UNESCO.
UNESCO. (2023). ChatGPT e Inteligencia Artificial en la educación superior: Guía de inicio.
pág. 11257
UNESCO. (2024). Guía para el uso de IA generativa en educación e investigación. UNESCO.
Wittgenstein, L. (1921). Tractatus lógico-philosophicus (C. K. Ogden, Trad.). Kegan Paul, Trench,
Trubner & Co. Ltd.