pág. 3242
EL USO ÉTICO Y MORAL DE LA INTELIGENCIA
ARTIFICIAL EN EDUCACIÓN E INVESTIGACIÓN
THE ETHICAL AND MORAL USE OF ARTIFICIAL
INTELLIGENCE IN EDUCATION AND RESEARCH
Raúl Gómez Cárdenas
El Colegio de Morelos, México
Alejandro Fuentes Penna
El Colegio de Morelos, México
Aristeo Castro Rascón
El Colegio de Morelos, México
pág. 3243
DOI: https://doi.org/10.37811/cl_rcm.v8i5.13801
El Uso Ético y Moral de la Inteligencia Artificial en Educación e
Investigación
Raúl Gómez Cárdenas1
alejandrofuentes@elcolegiodemorelos.edu.mx
https://orcid.org/0009-0004-1077-6395
El Colegio de Morelos
Cuernavaca, México
Alejandro Fuentes Penna
alejandrofuentes@elcolegiodemorelos.edu.mx
https://orcid.org/0009-0004-1077-6395
El Colegio de Morelos
Cuernavaca, México
Aristeo Castro Rascón
aristeo.castro@elcolegiodemorelos.edu.mx
https://orcid.org/0000-0002-0428-4624
El Colegio de Morelos
Cuernavaca, México
RESUMEN
La Inteligencia Artificial (IA) ha emergido como una herramienta poderosa en campos científicos y
sociales, mejorando la educación y la investigación al ofrecer nuevas formas de enseñanza y acceso al
conocimiento. Sin embargo, su adopción plantea desafíos éticos y morales significativos, como es la
necesidad de abordar la transparencia, los sesgos y la discriminación, así como la privacidad de los
datos, la rendición de cuentas y el impacto socioeconómico. Y, no sólo ello, sino también, aspectos
como la responsabilidad de las empresas desarrolladoras, los sesgos algorítmicos, la toma de decisiones
automatizada, la ética en la investigación, la regulación y la gobernanza, el desempleo tecnológico, la
seguridad cibernética así como la integración social y ética en las aplicaciones. En este sentido reviste
una especial importancia contribuir con la discusión sobre el uso académico y de investigación del
contenido que, como respuesta, la IA produce, crea o simula para que, debido a ello, discernir en qué
medida o bajo qué parámetros existe la noción de plagio cuando se emplean estos productos.
Palabras clave: Ética, Plagio académico, Inteligencia artificial
1
Autor principal
Correspondencia: alejandrofuentes@elcolegiodemorelos.edu.mx
pág. 3244
The Ethical and Moral Use of Artificial Intelligence in Education and
Research
ABSTRACT
Artificial Intelligence (AI) has emerged as a powerful tool in scientific and social fields, improving
education and research by offering new ways of teaching and access to knowledge. However, its
adoption poses significant ethical and moral challenges, such as the need to address transparency, bias
and discrimination, as well as data privacy, accountability and socioeconomic impact. And, not only
this, but also aspects such as the responsibility of the developing companies, algorithmic biases,
automated decision-making, ethics in research, regulation and governance, technological
unemployment, cybersecurity as well as social and ethical integration in applications. In this sense, it is
especially important to contribute to the discussion on the academic and research use of the content that,
in response, AI produces, creates or simulates in order to, due to this, discern to what extent or under
what parameters the notion of plagiarism exists when these products are used.
Keywords: Ethics, Academic Plagiarism, Artificial Intelligence
Artículo recibido 08 agosto 2024
Aceptado para publicación: 11 septiembre 2024
pág. 3245
INTRODUCCIÓN
La Inteligencia Artificial (IA) es un ámbito tecnológico en auge capaz de alterar todos los aspectos de
nuestras interacciones sociales. En la educación, de forma particular, la IA ha empezado a producir
nuevas soluciones de enseñanza y aprendizaje que ahora se están probando en diferentes contextos. La
IA, es decir, las máquinas que piensan se han convertido en una gran herramienta para el avance
científico y social, vía la educación, la investigación y la difusión del conocimiento, pero, a la vez,
existen riesgos y desafíos que nos llevan al análisis y reflexión.
La educación y la investigación son áreas en donde la IA se aplica para mejorar el proceso de enseñanza
aprendizaje, para proponer distintas formas de aprender/enseñar; para universalizar y hacer accesible el
conocimiento a todas las personas, por lo que los profesores e investigadores buscan formas para
optimizar su uso. Sin embargo, hay profundas consideraciones éticas al respecto, dado que puede afectar
tanto el desarrollo personal como el desarrollo profesional con implicaciones sociales e incluso legales.
De acuerdo con Cruz Reyes, Gómez Cruz y Gómez Santillán (2023) la ética en la IA debe abordar
aspectos tanto ético como morales, identificando los siguientes desafíos:
Transparencia
Sesgos y discriminación
Privacidad y seguridad de los datos
Rendición de cuentas
Impacto social y económico
Desde esta perspectiva, en el presente documento, exponemos una perspectiva teórica sobre el uso ético
de la IA ante el plagio académico y de investigación, con el propósito de presentar una investigación
preliminar con respecto a la interacción que tiene la IA, principalmente la versión generativa, en la
creación de textos, imágenes, gráficas, entre otros, que son empleados en actividades académicas y de
investigación.
En este sentido, este debate debe abordarse con una visión clara de lo que está ocurriendo y de lo que
puede hacerse. Con ello, las secciones que integran este artículo se orientan hacia una introducción del
tema, la metodología empleada, el desarrollo de la investigación, y las conclusiones.
pág. 3246
Método
Con respecto al diseño metodológico para el presente artículo, se establecieron los siguientes pasos:
1. Identificar las características clave de la Inteligencia Artificial (IA) en el contexto de la
educación e investigación.
2. Revisión literaria preliminar. A partir de la presente propuesta, se llevará a cabo una revisión
literaria preliminar con respecto a los desafíos que presenta la incorporación de la IA en la
educación e investigación desde una perspectiva ética. Con ello, se busca proporcionar una
comprensión con respecto al estado actual.
3. Evaluar las implicaciones éticas y sociales de la IA en la investigación y educación. Este
apartado busca tener una perspectiva ética del uso e implicación de la IA, en particular, con
respecto al uso del plagio académico en el desarrollo de actividades académicas y de
investigación.
4. Validar los hallazgos presentados y establecer una discusión con respecto a la incorporación
ética de la IA y la prevención de plagio por su uso en actividades académicas y de investigación.
DESARROLLO
Implicaciones ética del uso de la IA en la educación
Desde que la Inteligencia Artificial fue reconocida en la Conferencia de Dartmouth en 1956, era una
tecnología marginal, poco conocida y utilizada. Hoy, la IA ha emergido con fuerza por factores como
la abundancia de datos, el acceso económico a la informática y los avances en el aprendizaje automático.
Las aplicaciones actuales basadas en IA son más precisas si cuentan con más datos. En base a ellos,
construye su inteligencia (por ejemplo, el aprendizaje automático). Dado que los macrodatos, que son
grandes y complejos conjuntos de datos, permiten a la IA alcanzar todo su potencial, podemos afirmar
que la IA se basa principalmente en los macrodatos. Es así como surge el Big Data, que capturar,
almacena, gestiona y analiza grandes conjuntos de datos, imposibles de manejar con aplicaciones o
programas tradicionales.
En la era de los macrodatos, la navegación en sitios web y el uso de aplicaciones digitales, deja “huellas
de información individual, lo que permite cuantificar el comportamiento humano y, por lo tanto, seguir,
modelar y, predecir acciones humanas. Este fenómeno se ha denominado dataficación, propuesto por
pág. 3247
Mayer-Schönberger y Cukier (2014). Aunque la dataficación, plantea preocupaciones éticas, también
impacta positivamente en la individualización del aprendizaje y gestión de la educación.
La investigación en IA se ha aplicado a aspectos humanos como el aprendizaje, razonamiento,
resolución de problemas, percepción y uso del lenguaje. En 1959, Arthur Samuel acuñó el término
aprendizaje automático y lo definió como la capacidad de aprender sin estar explícitamente programado.
El aprendizaje profundo, por otra parte, parte del aprendizaje automático y se basa en el aprendizaje de
capas sucesivas de representaciones cada vez más significativas.
Es indispensable llevar a cabo investigaciones relacionadas con los aspectos éticos del uso de las
tecnologías actuales, dado que, en la actualidad, todos requerimos del uso de dichas tecnologías.
La ética en la investigación
La Real Academia Española ha definido la ética como un “conjunto de normas morales que rigen la
conducta de una persona en cualquier ámbito de la vida”; a su vez, la define como una “parte de la
filosofía que trata del bien y del fundamento de sus valores”. La aspiración de la ética es que, aplicando
los valores morales, las personas desarrollen comportamientos y conductas que les permitan la
aceptación e integración social. Cotidianamente, las decisiones que tomamos se rigen por la ética (figura
1).
La ética generalmente la relacionamos con la moral y asumimos cuestiones morales en el contexto de
cualquier trabajo con seres humanos. Sin embargo, la ética ha evolucionado más allá de los seres
humanos, incorporando el respeto y la conservación del medio ambiente los derechos humanos y la
democracia, teniendo un especial énfasis en los derechos de las personas más vulnerables.
pág. 3248
Figura 1. Ética cotidiana. Autoría propia
A grandes rasgos, podemos poner tres diferentes perspectivas éticas:
1. La ética como disposición: Aristóteles describió las virtudes que posee una persona ética
como la justicia, la generosidad y la honradez.
2. La ética como deber: Kant señala el deber que tienen los seres humanos de actuar de forma
respetuosa con los demás.
3. La ética como utilitarismo: La conducta ética debe beneficiar a la mayoría de las personas.
Los investigadores deben estar conscientes de estas formas de apreciar la ética e involucrarla de forma
directa en sus actividades. Como representantes de instituciones como universidades, institutos y centros
de investigación, ellos pueden utilizar el conocimiento positiva o negativamente, dadas las distintas
perspectivas que puede tener ese conocimiento.
Como ejemplo, pensemos en la energía nuclear. Lo mismo se ha usado para destruir, mediante bombas
y equipos bélicos, o para generar electricidad. Hoy se han desarrollado nuevas investigaciones para
prevenir sus consecuencias derivadas de un uso negativo de este gran avance (Get into nuclear, 2024).
La Inteligencia Artificial nace en los años 30, hace casi un siglo, cuando Alan Turing inició con la
propuesta de algoritmos y soluciones basados en computación (Elternativa, 2024). Esta tecnología es
una poderosa herramienta para el progreso humano, pues permite optimizar muchos procesos
pág. 3249
anteriormente mecanizados o computarizados. Sin embargo, pudiera ser potencialmente perjudicial si
se emplea negativamente.
Por tanto, es importante identificar cuidadosamente los posibles riesgos éticos que representa la IA en
la investigación y tomar medidas para reducirlos o eliminarlos, especialmente cuando implican
amenazas para los seres humanos.
La Inteligencia Artificial en el contexto de la educación e investigación
Los cambios derivados del uso de la IA se aceleraron en la pandemia del COVID 19 de manera
exponencial al plantear alternativas de solución al confinamiento y a la nueva normalidad, acercando a
las personas y superando el reto de la presencialidad como paradigma tradicional, prioritario, para
trabajar o aprender.
La tecnología de la IA está irrumpiendo en nuestras vidas personales, académicas, de investigación y
profesionales, y no todas sus repercusiones son positivas. Por ejemplo, la IA, en términos de salud,
contiene algoritmos que pueden leer imágenes médicas con una mayor eficiencia pero que pueden tener
un sesgo que deriven en riesgos éticos e incluso daños a los pacientes.
En lo que respecta a la educación, la IA se ha enfrentado a muchas dificultades para crecer porque los
sistemas educativos de todo el mundo son más reacios a los cambios tecnológicos por su organización
tradicional. Por ejemplo, a pesar de la tendencia tecnológica globalizadora, la educación sigue siendo
predominantemente presencial.
La teoría conectivista del aprendizaje, de George Siemens, definió el aprendizaje como una continua
creación y desarrollo de conexiones entre nodos, en la cual, la medida en que aprendemos está en función
de nuestra capacidad de conectar con otros nodos que nos proveen de información y conocimiento.
Esta teoría reconocía la necesidad de la interacción constante entre los distintos nodos (personas,
repositorios, instituciones, empresas, etc.) para desarrollar y actualizar la inteligencia colectiva
(conocimiento social depositado en las redes). Así, en este escenario, la IA formaba parte de la visión
que prometía transformar la educación facilitando la creación de sistemas personalizados de aprendizaje
(Bartolomé, 2011). La educación de esta forma, tiene una connotación personal y otra colectiva. Por
ejemplo, con ayuda de la IA, se pueden establecer procesos de evaluación automatizada, en donde la
propia IA califica, corrige y retroalimenta a los estudiantes.
pág. 3250
Uno de los principios de la teoría conectivista del aprendizaje es que la capacidad para conocer más es
más importante que lo que actualmente conocemos. Y es por eso especialmente importante la
actualización y precisión de la información depositada en las redes como tarea esencial visualizada en
otro principio propuesto por el conectivismo.
Mediante el tratamiento inteligente de datos, la IA ha permitido extraer ideas, detectar patrones de
aprendizaje, predecir situaciones, dar recomendaciones para optimizar recursos disponibles, etc. La
expectativa futura es generar simulaciones del comportamiento de un profesor o alumno virtual para
optimizar el aprendizaje.
De acuerdo con Vera (2023), podemos identificar distintos desafíos en la incorporación de la IA en la
educación:
Ética y responsabilidad: Es importante que las empresas y desarrolladores de tecnología asuman
responsablemente el uso ético de la inteligencia artificial y no cause daño a las personas o la
sociedad en general.
Sesgos algorítmicos: El sesgo en los algoritmos de IA pueden generar controversias haciendo
actividades ilegales o tomando decisiones incorrectas, causando afectaciones.
Toma de decisiones automatizada: la IA genera escenarios y toma de decisiones críticas en
campos como la medicina, la justicia y las finanzas, habiendo duda sobre si las decisiones son
justas y transparentes. Por ejemplo, al seleccionar a los estudiantes o al evaluar el rendimiento
de docentes mediante algoritmos se pueden presentar sesgos, teniendo consecuencias negativas.
Ética en la investigación: debe analizarse los impactos éticos del manejo de datos, la
experimentación y de los resultados de la investigación.
Desempleo tecnológico: Por una parte, la automatización basada en IA puede afectar el empleo
en ciertos sectores, pero, a la vez, constituye una herramienta de apoyo para capacitar y actualizar
los perfiles de los propios trabajadores.
Ética y gobernanza: Es necesario contar con estándares éticos y marcos regulatorios que
involucren a las empresas que desarrollan la IA, pero, a su vez, es necesario generar las instancias
correspondientes que regulen el uso de esta, evitando abusos.
Impacto en la educación y la formación: La IA ya forma parte del quehacer estudiantil, por lo
pág. 3251
que es necesario que se integre en la educación formal y en la capacitación, preparando a las
personas en un mundo impulsado por la tecnología.
Seguridad cibernética: La ciberseguridad es una rama que debe fortalecerse, legislarse y vigilarse
pues la misma IA puede detectarla o combatir los delitos cibernéticos, pero también puede ser
herramienta para atacar la seguridad de los sistemas.
Singularidad tecnológica: Una perspectiva que se tiene en la actualidad sobre la IA es que pueda
alcanzar un nivel de inteligencia superior a la del ser humano, generando productos singulares
que superen la mente humana.
Brecha de acceso. La IA debe impulsar la democratización y facilitar el acceso al conocimiento
y la educación, pero hay un alto riesgo de que se discrimine el acceso a favor de quiénes puedan
pagarlo.
Como parte de las asesorías y tutorías que son fundamentales para el desarrollo académico de los
alumnos, la asistencia virtual (chatbots, asistentes virtuales, entre otros) se utiliza para responder
preguntas comunes de los estudiantes y proporcionar orientación sobre inscripciones, horarios y recursos
disponibles. Esta aportación se puede aplicar principalmente para la educación a distancia o en su caso,
como complemento en la educación presencial.
Otra ruta que se sigue en la educación aprovechando la nueva tecnología, son los sistemas MOOC
(Cursos en línea abiertos y masivos) o LSM (Sistema de gestión de aprendizaje para la formación no
presencial, usada por instituciones o empresas), para posibilitar la asincronía, es decir, que el aprendiz
pueda conectarse y aprender cuándo y dónde le sea posible o lo desee, sin coincidir en tiempo y espacio
con otros compañeros o maestros. Con esto, el papel tradicional del profesor o instructor migra hacia la
consulta o tutoría, en un esquema en que su principal fortaleza es el diseño instruccional de dichos
cursos.
Un problema que debe preverse es que el manejo de herramientas tecnológicas es que el profesor tiende
a ser menos diestro que sus alumnos, los cuales han nacido y crecido con ellas. La ANUIES (2023)
presentó, en un informe de la consultora Gartner, datos contundentes: hacia el 2025, el 80 % de los
alumnos utilizarán la IA en su educación, y que, en el mismo lapso, solo el 50% de los profesores harán
uso de ella.
pág. 3252
Es por eso por lo que el primer compromiso para el docente, en el marco de la nueva tecnología, debe
ser prepararse y asumirse como un alfabeta digital, es decir, un profesionista que conoce y domina
suficientemente las herramientas tecnológicas de comunicación, incluyendo la búsqueda y generación
de información, de tal forma que puede crear contenidos y dirigirlos adecuadamente al público objetivo.
La investigación un área que, cada vez más, se involucra con los docentes en los distintos niveles
académicos, por lo que la IA se puede utilizar en las áreas de investigación académicas para analizar
grandes conjuntos de datos y descubrir tendencias para crear las mejores prácticas en la enseñanza y el
aprendizaje. Por ejemplo, la localización y lectura de artículos o bibliografía puede facilitarse mediante
typetes.io.
Figura 2. La IA cotidiana (CANVA, 2024).
La ética de la investigación se reconoce como un elemento importante en la formación y el desarrollo
profesional de todo tipo de investigadores, desde estudiantes hasta investigadores profesionales, técnicos
y consultores (Knight, 2019).
Documentos históricos y directrices internacionales, como el Informe Belmont y la Declaración de
Singapur sobre la Integridad de la Investigación, ayudan a enmarcar el desarrollo de prácticas y procesos
de ética de la investigación a nivel internacional (Friesen et al., 2017). Sin embargo, la forma en que
estos principios se aplican a nivel nacional depende de las políticas y los procedimientos nacionales,
pág. 3253
que a su vez se establecen en un contexto jurídico y normativo. Sin embargo, los procesos y requisitos
de revisión ética pueden variar entre instituciones o disciplinas académicas, lo que puede dar lugar a
normas y prácticas incoherentes (Mumford et al., 2015).
La mayor parte de la formación en ética de la investigación se ha desarrollado en contextos médicos,
orientándose principalmente a los campos de enfermería, psiquiatría, medicina clínica, bioética, entre
otros, de acuerdo con Cummings et al. (2018). En contraparte, Emmerich (2016) menciona que la
formación ética en investigadores sociales está relativamente menos desarrollada, abordando cuestiones
generales de vulnerabilidad de los participantes, sistemas de conocimientos tradicionales y diversidad
cultural, pero careciendo de una evaluación sistemática de la eficacia y el potencial transformador de
este aspecto.
En el contexto de la investigación académica, el someterse a una autorización ética para un proyecto se
considera una forma clave para que los investigadores desarrollen una comprensión de las cuestiones
éticas en la investigación orientada a evaluar y mitigar el riesgo y la vulnerabilidad ante eventos
éticamente vulnerables (Gannon, 2014). Esto significa que la consideración de la ética de la
investigación debe considerarse una parte esencial en el desarrollo de la práctica profesional de los
investigadores (Valkenburg et al., 2021).
Trampa ética de la IA en la generación de contenido y en la detección de plagio
En general, puede considerarse que el mayor desafío ético en la educación y la investigación es que la
IA se considere como un medio y no como un fin. Es decir, es un medio para lograr objetivos educativos
o para generar investigación, pero no un fin: no suple la capacidad humana de aprender o investigar. El
uso positivo que se le al aprendizaje y la generación de conocimiento generado por IA es otro desafío
y, como mención especial, el plagio o fraude académico y de investigación, cada vez más posible y
presente, en ambos campos.
Concretamente en la investigación, la aplicación de la IA mejora la eficiencia y apoya las capacidades
de los propios investigadores; facilita nuevos descubrimientos; obtener e identificar información, así
como abordar temas muy complejos cuyos descubrimientos han permitido incrementar el bienestar de
la humanidad.
pág. 3254
A los estudiantes que desarrollan investigación, les permite tener acceso a múltiples fuentes de
información, a herramientas que facilitan el resumen de textos a partir de documentos científicos y
académicos, al análisis de datos de una forma sencilla, y en forma específica a la creación de documentos
que, con la ayuda de la IA, se elaboran de forma más rápida y eficiente.
El asunto de la generación de contenido singular y del plagio académico en la IA adquirió mayor
dimensión a partir de la prueba de Turing y sus posteriores desarrollos. En la década de los cincuenta,
en la que aún faltaba mucho camino por recorrer en materia de inteligencia artificial, Alan Turing,
científico británico, se preguntó si las máquinas pueden pensar, y realizó un experimento en el que tres
elementos se comunican sin verse, dos humanos y una máquina, intercambiando preguntas y respuestas
ante preguntas concretas.
En realidad, eran tres terminales separadas entre sí. Una de ellas fue operada por una computadora,
mientras que las restantes eran operadas por personas. Uno de los humanos formulaba preguntas,
mientras que la otra persona y la máquina, debían contestarlas. Cierto margen de error en la
determinación del interrogador respecto a si hablaba con una máquina o un humano, constataba la
capacidad de las máquinas para demostrar inteligencia en sus respuestas.
Se le llama también el juego de la imitación porque la máquina simulaba la comunicación y comprensión
humana, de tal forma que la pregunta inicial de Turing, respecto a si las máquinas pueden pensar, cambió
a si las máquinas pueden imitar una conversación similar a la que mantienen las personas. La
singularidad producida por la comunicación de la máquina, al ser comparable a la del humano, concluye
que, independientemente de que sea humano o máquina, estamos en presencia de una inteligencia.
Tanto en la investigación como en el trabajo académico existe el riesgo de plagio. Extraer ideas de
diferentes autores sin acreditar debidamente su propiedad intelectual es una actividad cada vez más
frecuente debido al empleo de herramientas de IA y a su capacidad para generar productos, como son,
ensayos, imágenes o videos.
Sin embargo, el plagio aqcuestionado no consiste en usar imágenes, texto o contenido audiovisual sin
dar crédito a sus autores. Más bien, el plagio aquí cuestionado se refiere a las imágenes, texto o contenido
audiovisual que la Inteligencia Artificial Generativa produce. Creemos que ahí radica el debate: ¿la IA
crea ensayos, artículos o imágenes?, esto es, ¿su producto es original?, ¿es autora del producto que
pág. 3255
genera?, sin que necesariamente implique atribuir conciencia al acto generativo de su producción; o, ¿su
producto simplemente consiste en reproducir o copiar los estilos de los autores que le son requeridos
para generarlo, sin que quepa en ello originalidad alguna de parte de la IA? Es decir, creemos que, en la
discusión sobre plagio en torno a la IA, un aspecto importante a considerar es la duda e incertidumbre
respecto a si la IA produce, reproduce, crea o copia, el contenido que genera.
Considérese, para dicho análisis, por ejemplo, la definición de “plagio de la RAE: “Copiar en lo
sustancial obras ajenas, dándolas como propias”. Esta definición tiene como sinónimos los siguientes
términos: “copiar, reproducir, imitar, calcar, fusilar”. Por ello, la pregunta respecto al plagio aquí
planteado surge al tratar de identificar si, efectivamente, lo que hace la IA, cuando produce su contenido,
es copiar, en el sentido en que la RAE lo define. Para ello, tómese en cuenta las siguientes dos cuestiones:
¿Qué puede considerarse lo sustancial en una obra?, por ejemplo, si es obra en texto, imagen o
video; ¿es el estilo de la imagen, el orden de las palabras, la composición del audiovisual o el
manejo de la información? Cuando la IA, por ejemplo, genera su contenido, ¿reproduce estilos?,
¿copia?; ¿reproduce o copia lo sustancial de las obras en las cuales se basa para generar el
contenido requerido?
Y, sobre todo, ¿cómo podríamos asumir el producto que la IA genera, como propio?, es decir,
¿cómo podríamos asumir algo propio en la IA sin atribuirle, al mismo tiempo, autoría?, esto es,
sin atribuirle la capacidad de producir o crear, sin que ello necesariamente implique conciencia
de producción; y, como más atrás se mencionó: sin que su producto consista simplemente en
reproducir o copiar estilos de autores requeridos para generarlo.
Hasta aquí, entonces, podemos mencionar, 1) que sólo cuando atribuimos una condición de autoría a los
productos generados por la IA, es que podemos pensar en la posibilidad de plagio, ya que, éste requiere
que lo copiado se asuma como propio, esto es, como propio de la IA. Asimismo, la anterior definición
de la RAE nos invita a, 2) pensar que, la Inteligencia Artificial Generativa, porque comete plagio, capta
lo sustancial de una obra. Sin embargo, qué es en una obra lo sustancial, ¿su estilo? Un artista, por
ejemplo, ¿no recibe o retoma influencia de otros estilos o autores?, ¿en dónde, pues, radica la nea
divisoria entre influencia que produce y copia que reproduce?, y, ¿por qué en la IA sí, pero en humanos
pág. 3256
no? De nuevo, como más atrás se comentó, el sólo considerar plagio en la IA, obliga a preguntarnos,
qué es la originalidad en el humano y, por lo tanto, nos cuestiona como humanos.
Otra manera de ahondar respecto el tipo de plagio aquí indicado, consiste en señalar que, a diferencia
del inciso 1) en el párrafo anterior (en donde el plagio implica asumir lo ajeno como propio), no hace
falta atribuir autoría a la IA para que ésta cometa plagio (en el sentido de plagio indicado en este
apartado); esto significa que la máquina copia o imita lo que aparentemente produce, pues la máquina
retoma, de entre su información disponible, fuentes o repositorios, todo lo cual será integrado en el
producto final que le solicita el usuario.
Sin embargo, incluso en el caso de no atribuir autoría a los productos de la IA, en principio, puede
decirse que la máquina sí imita algo: la conducta humana. Es decir, la máquina, creada por el humano,
“actúa como nosotros”, “crea o produce como nosotros”, “piensa como nosotros”. Es este
comportamiento, programado por el humano, el que lleva a preguntarnos: ¿se trata de una máquina que
sólo reproduce estilos?, o, ¿de una máquina que produce a partir de estilos?; dicho de otro modo: es un
comportamiento que nos lleva a preguntarnos: ¿hay plagio o no hay plagio en la IA?
Por supuesto que, en términos físicos, tangibles, no hay duda de que estamos frente a una máquina o, al
menos, frente a un no-humano. Pero, cuando consideramos el plagio como una posibilidad en la
máquina, entendiéndolo como imitación o copia de información precedente, debemos considerar que su
información precedente es la pauta de la conducta humana.
Esto es, más allá de las acciones que el humano puede y debe emprender para ceñir o enmarcar
normativamente el impacto social de la IA, lo que el presente apartado añade es que, respecto a su
capacidad generativa y de aprendizaje automatizado, es importante preguntarnos, tal como Turing lo
hizo en The Imitation Game, de su célebre artículo en 1950, “Computer Machinery and Intelligence”,
publicado por Mind, si la máquina ya nos engaña, en particular, respecto al plagio. Principalmente, en
atención a dos aspectos: a) la duda o incertidumbre respecto a si plagia nuestra conducta y, por lo tanto,
produce o crea como nosotros, aspecto correspondiente al inciso 2, señalado más atrás; y, b) la duda o
incertidumbre respecto a si convierte algo ajeno en propio y, por lo tanto, produce o crea en sus propios
términos (no necesariamente en términos humanos y no necesariamente en términos de producción
consciente), aspecto correspondiente al inciso 1, también señalado atrás.
pág. 3257
Ambos incisos plantean desafíos éticos importantes. Si la máquina imita nuestra conducta y, por lo tanto,
la reproduce en sus acciones y contenidos, un desafío importante es: qué queremos que la IA reproduzca
de nuestra condición humana, qué valores son los que deberían ser prioritarios en la producción de su
contenido, sin mencionar la oportunidad de ello para visualizar en las acciones y el contenido de la IA,
la condición humana misma, esto es, la oportunidad de enfrentarnos a la pregunta: quiénes somos y,
sobre todo, quiénes queremos ser. Adela Cortina, por ejemplo, en su conferencia: “Ética de la
Inteligencia Artificial”
2
, indica que, uno de los desafíos éticos, frente las capacidades y las posibilidades
de la IA, en tanto que responsabilidad humana, es: con qué contenido el humano debería programar a la
IA, e, incluso, con qué ética: utilitarista, kantiana, consecuencialista.
Por su parte, si la máquina es capaz de convertir algo ajeno en propio y, por lo tanto, producir o crear
contenido en sus propios términos, un desafío ético importante, consideramos, es, apreciar en la IA,
conductas e inteligencias no humanas, esto es, poder superar posturas antropocentristas para valorar, en
la interacción humano e IA, tanto diferentes procesos, como diferentes modos de interacción humana.
Incluso, respecto al ámbito educativo, académico y de investigación, los diferentes modos de procesar
información permitirían, en la acción humana, reconocer límites al momento de usar las tecnologías que
la Inteligencia Artificial Generativa ofrece y estar en mejores condiciones de reconocer las posibilidades
de plagio.
El futuro de la IA ética en la educación e investigación
Lo ideal es que la enseñanza de lo que significa ser un profesional y de las responsabilidades éticas que
conlleva se incorpore en la educación formal e informal. Sin embargo, en la actualidad, la enseñanza de
la ética de la IA no se ha arraigado en planes de estudios ni en reglamentos académicos o de
investigación. Los esfuerzos educativos podrían ser beneficiosos para poner de relieve los riesgos de las
aplicaciones maliciosas para los investigadores de la IA, en donde la educación puede fomentar una
mentalidad profesional para las próximas generaciones que desarrollen o que apliquen la IA.
2
https://www.youtube.com/watch?v=S4qIQd8wqnk&t=8s
pág. 3258
Si la ética ya se enseña dentro del plan de estudios de licenciatura, se requiere una evaluación y un
posible replanteamiento de cómo se hace, ya sea porque no funciona o porque no está lo suficientemente
extendida como para influir en un cambio de mentalidad.
Algunos intentos de incorporar la ética en el plan de estudios se centran en aumentar la familiaridad de
los estudiantes con los códigos de ética profesional.
Greengard (2020) proporciona 3 elementos que apoyan la familiarización de la IA para docentes,
estudiantes e investigadores ante los retos éticos emergentes de la IA:
Diseño ético en algoritmos de IA
Incorporar conceptos fundamentales de la ciencia de datos y la ética de la adquisición de datos
La ética a través de los planes de estudios en licenciaturas.
Un punto relacionado es la importancia de contar con equipos interdisciplinarios que desarrollen
contenidos de ética de la IA y potencialmente los enseñen. Los retos que surgen en relación con la IA
trascienden las líneas disciplinarias y son demasiado complejos para que un solo tipo de experiencia
pueda abordarlos.
Como complemento, los puntos de vista de abogados, sociólogos, especialistas en política, filósofos y
otros, junto con los de científicos e ingenieros, pueden ser especialmente hacia la forma correcta de
cómo educar a estudiantes en la ética de la IA y hacia el uso de esta en las distintas especialidades. Otra
etapa importante en la educación ética de la IA es cultivar el pensamiento crítico y las habilidades de
razonamiento ético en los estudiantes que son transferibles a través de diferentes contextos
profesionales.
Si bien existen debates sobre el valor de incluir la teoría ética en los cursos de ética profesional, dichos
cursos deben fomentar la razón y la reflexión, ya que son componentes vitales de la mentalidad
profesional.
CONCLUSIONES
En la educación y la investigación la IA genera múltiples beneficios, pero también potenciales desafíos
y riesgos éticos, que tienen implicaciones sociales e incluso legales.
Entendida la ética como una parte de la filosofía que reflexiona sobre los valores que una sociedad debe
aplicar en sus acciones para facilitar la convivencia armónica entre sus habitantes, el respeto a la autoría
pág. 3259
y propiedad intelectual de las personas sobre productos y obras generadas por ellos es un valor
fundamental que está amenazado por los avances de la IA.
La IA está cambiando nuestras vidas de formas difíciles de prever y comprender. Si queremos que la
tecnología se dirija de un modo más responsable desde el punto de vista social, es hora de dedicar tiempo
y atención a la educación ética en materia de IA.
No sólo es importante que la comunidad informática adopte más decididamente la ética como parte de
su identidad básica, sino que, desde una perspectiva práctica, están empezando a surgir puestos de
trabajo en el ámbito de la ética de la IA.
En este artículo hemos querido abordar y debatir uno de los temas más polémicos en el avance de la
Inteligencia artificial: el plagio tanto académico como de investigación que pude generarse a través y a
partir de ella, así como referirnos a las consideraciones éticas que ello conlleva. Al respecto, hemos
dicho que la IA es un medio y no un fin. Apoya, pero no suple al talento humano.
Cuando reconocemos autoría en los productos generados por la IA, estamos reconociendo la existencia
de una inteligencia, aunque esta no sea humana. Por eso, hablar de plagio cuando usamos productos de
la IA es cuestionable. Las máquinas logran singularidad en sus obras porque imitan la conducta humana.
Esto es, generan sus productos a partir de conocimientos, estilos, información y procedimientos ya
existentes, a las que dan nueva forma, similar a cómo lo hacemos las personas. En este sentido, hablar
de plagio cuando usamos productos generados por la IA y los presumimos como propios es válido, pues
reconocemos en ella una inteligencia no humana, con un comportamiento similar al humano.
Finalmente, se debe trabajar más decididamente en la educación para que se incluyan contenidos, ya sea
en campañas de comunicación, cursos independientes o dentro de los planes de estudio de las distintas
carreras o posgrados, que permitan manejar con ética profesional las aportaciones que nos da la IA en
los distintos campos del quehacer humano.
REFERENCIAS BIBLIOGRÁFICAS
ANUIES (2023), Inteligencia artificial en la educación superior, perspectivas e implicaciones prácticas
en las Instituciones mexicanas. México, ANUIES.
Bartolomé, Antonio (2011). Conectivismo: aprender em rede e na rede. En Marcelo Brito Carneiro Leão:
Tecnologias na Educaçao: Uma abordagem crítica para uma atuaçao práctica. Recife (Brasil):
pág. 3260
UFRPE. Págs. 71-86
CANVA (2024). Imagen creada a partir de la IA de CANVA.
Cruz Reyes, L. Gómez Cruz, L. y Gómez Santillán, C. F. (2023). Caminos Responsables: Hacia un
Futuro Ético de la IA. Komputer Sapiens Año XV, No. III. Septiembre - diciembre 2023
Friesen, Phoebe, Lisa Kearns, Barbara Redman, and Arthur L. Caplan. 2017. Rethinking the Belmont
Report? The American Journal of Bioethics 17: 1521.
https://www.tandfonline.com/doi/full/10.1080/15265161.2017.1329482
Get into nuclear (2024). Atomic Boom or Bust: The Pros and Cons of a Nuclear Bomb.
https://www.getintonuclear.com/post/atomic-boom-or-bust-the-pros-and-cons-of-a-nuclear-
bomb
Greengard, S. (2020). A new class of AI ethics. Commun. ACM (2020).
https://cacm.acm.org/news/245121-a-new-class-of-ai-ethics/fulltext
Knight, Jasper. 2019. The need for improved ethics guidelines in a changing research landscape. South
African Journal of Science 115: 6349. https://sajs.co.za/article/view/6349
Elternativa (2024). Breve historia de la inteligencia artificial: origen, datos y auge de la IA.
https://www.elternativa.com/historia-inteligencia-artificial/
Emmerich, Nathan. 2016. Reframing Research Ethics: Towards a Professional Ethics for the Social
Sciences. Sociological Research Online 21: 7.
https://journals.sagepub.com/doi/10.5153/sro.4127
Gannon, William L. 2014. Integrating research ethics with graduate education in geography. Journal of
Geography in Higher Education 38: 48199.
https://www.tandfonline.com/doi/abs/10.1080/03098265.2014.958656
Joseph F. Hair jr., David J. Ortinau y Diana E. Harrison (2023), Principios de investigación de mercados.
Ed. Mc Graw Hill, 5ª. Ed. México, 392.
Mumford, Michael D., Logan Steele, and Logan L. Watts. 2015. Evaluating Ethics Education Programs:
A Multilevel Approach. Ethics & Behavior 25: 3760.
https://www.tandfonline.com/doi/abs/10.1080/10508422.2014.917417
RAE (2024). Definición de Ética. https://dle.rae.es/ético
pág. 3261
Valkenburg, Govert, Guus Dix, Joeri Tijdink, and Sarah de Rijcke. 2021. Expanding Research Integrity:
A Cultural-Practice Perspective. Science and Engineering Ethics 27: 10.
https://link.springer.com/article/10.1007/s11948-021-00291-z
Vera, F. (2023). Integración de la Inteligencia Artificial en la Educación superior: Desafíos y
oportunidades. Transformar, 4(1), 1734. Recuperado a partir de
https://www.revistatransformar.cl/index.php/transformar/article/view/84