La IA mejora el rendimiento académico, pero también pone en duda la autenticidad del aprendizaje.
Por: Dra. Norma Velásquez Rodríguez
Jefa de investigación FCEC

En los últimos años, se ha visto cómo la inteligencia artificial (IA) ha entrado con fuerza en el contexto universitario, generando una paradoja cada vez más visible sobre la calidad de trabajos académicos presentados, puesto que, gracias a herramientas de IA generativa al uso, pero que no necesariamente han desarrollado un aprendizaje profundo. Tal como advierte el Banco Mundial (2025), “cuando un estudiante utiliza ChatGPT para escribir un ensayo impecable, su rendimiento parece excelente”. Esta es una verdad incómoda. Pero, ¿se ha producido un aprendizaje real? A menudo, la respuesta es “no”. Esta situación plantea un dilema ético central para la educación actual: ¿estamos formando estudiantes más inteligentes o simplemente más eficientes en aparentarlo?
La creciente literatura internacional coincide en que la IA no es intrínsecamente buena ni mala para el aprendizaje. Su impacto depende del diseño pedagógico y sobre todo del acompañamiento y seguimiento del docente. El mismo Banco Mundial sostiene que “la clave está en preservar el esfuerzo mental que impulsa el aprendizaje”, ya que el pensamiento activo es el principal predictor de la memoria y la comprensión a largo plazo. Cuando la IA sustituye ese esfuerzo, se corre el riesgo de debilitar el desarrollo cognitivo y la integridad académica.
Por tanto, la cuestión ética subyacente es qué ocurre con el proceso de aprendizaje. Si la IA hace el trabajo pesado, el estudiante puede perder la oportunidad de ejercitar su pensamiento crítico y creativo. Estudios neurocientíficos han mostrado que el aprendizaje genuino requiere esfuerzo mental y “dificultades deseables” para consolidar la memoria a largo plazo (Cuneo-Álvarez et al., 2025). Cuando la IA proporciona respuestas inmediatas, elimina esas “dificultades” necesarias para aprender de verdad. Así, un uso inapropiado de la IA puede fomentar la trampa o la pereza intelectual, socavando la integridad académica y el desarrollo cognitivo del alumno.
Sin embargo, la IA en sí no es buena o mala; todo depende de cómo se utilice. “La IA no es intrínsecamente buena ni mala para el aprendizaje. Lo que determina el resultado es cómo se diseñan las herramientas de IA y cómo los educadores guían su uso. La clave está en preservar el esfuerzo mental que impulsa el aprendizaje”, enfatiza el blog del Banco Mundial (2025).
Investigaciones académicas recientes en Perú y Latinoamérica han indagado en las percepciones, actitudes y efectos de la IA en la integridad académica. Un estudio de 2024 encuestó a 659 estudiantes universitarios de Perú y Chile para analizar la relación entre sus opiniones sobre la IA y su ética académica. Los hallazgos revelan que la IA tiene “un impacto significativo y directo en la integridad académica” de los estudiantes de ambos países (Espinoza, et al., 2024). En otras palabras, la forma en que los jóvenes conciben y utilizan la IA influye en sus prácticas éticas (por ejemplo, en si caen en plagio o hacen un uso responsable de estas herramientas).
Un resultado interesante es que, contrario a lo que se podría pensar, una percepción positiva de la IA se asocia con mayor integridad académica. Como resumen los autores, “una percepción positiva sobre la IA tiene un impacto significativo y positivo en la integridad académica. En simple: Confiar y entender la IA ayuda a usarla de manera ética”. Es decir, cuando los estudiantes conocen la IA, confían en su valor formativo y comprenden sus alcances, tienden a utilizarla de forma más ética para apoyar su aprendizaje, en lugar de hacer trampa.
Otra investigación, enfocada en universitarios peruanos, encontró resultados coherentes: “la actitud hacia la IA incide de manera directa en la ética académica”. En ese estudio, quienes valoraban los beneficios de la IA mostraban más propensión a prácticas académicas honestas, mientras que la excesiva confianza en la IA sin orientación podía incluso tener un ligero efecto negativo inesperado en la ética. Los autores concluyen que estos hallazgos “evidencian la necesidad de desarrollar estrategias orientadas a promover un uso ético de la IA en el ámbito de la educación superior” (Espinoza, et al., 2025). Por tanto, la ética académica en la era digital no consiste en prohibir la IA, sino en fomentar actitudes responsables hacia ella.
Ambos países enfrentan el desafío de integrar la IA en la educación de forma ética. En Perú parece haber una dependencia mayor de la actitud individual: si un estudiante valora la IA y la entiende, es más probable que la use correctamente (pero si no, podría caer en mal uso). Chile, por su parte, muestra una cultura de integridad académica más consolidada, donde la ética estudiantil es consistente independientemente de la actitud hacia la IA, quizá gracias a reglas o formación más clara en ese país. En ambos casos, la confianza en la IA como herramienta educativa bien empleada va de la mano con una mejor ética académica, lo que refuerza la idea de que formar en alfabetización en IA es mejor camino que prohibir o ignorar estas tecnologías. Las universidades deben incorporar la alfabetización en IA en sus currículos, establecer marcos normativos claros y promover prácticas pedagógicas que utilicen la IA como una herramienta de apoyo al aprendizaje, y no como un sustituto del pensamiento.
Alfabetización en IA y propuestas para un uso ético
Tanto los expertos pedagógicos como los investigadores coinciden en la urgencia de educar a docentes y alumnos en el uso ético de la IA en vez de satanizarla. El blog del Banco Mundial, Saavedra et al. (2025) subraya que la clave está en los docentes y en cómo se incorpora la IA al aula: los mejores resultados se logran cuando la IA amplifica (no reemplaza) la labor del profesor. Por ejemplo, en un experimento de Harvard, estudiantes que utilizaron un tutor de IA bien diseñado aprendieron más del doble en menos tiempo que sus pares, siempre que el sistema promoviera el pensamiento activo y hubiera un docente guiando el proceso.
Los estudios empíricos en Perú y Chile también hacen eco de estas recomendaciones. En su estudio, Espinoza et al. (2025) instan a incorporar la alfabetización en IA en la malla curricular universitaria, de modo que los estudiantes adquieran las competencias para usar estas herramientas de manera responsable. Asimismo, proponen desarrollar marcos normativos claros que promuevan el uso ético de la IA en educación. Esto implica que las universidades establezcan políticas sobre qué usos son aceptables (por ejemplo, usar IA para investigar y aprender sí, pero para hacer trampa no) y protocolos para detectar y desalentar conductas deshonestas asociadas con IA. La alfabetización en IA no solo abarca lo técnico, sino también formar en ética digital, es decir, ayudar al estudiante a comprender las implicancias de delegar tareas cognitivas a una máquina, la importancia de citar fuentes incluso si las obtuvo con ayuda de IA, o el sesgo y error que estas herramientas pueden contener.
Por otro lado, se enfatiza la capacitación de los docentes y líderes educativos. Si los profesores desconocen cómo funciona la IA, difícilmente podrán guiar a sus alumnos. Es vital entrenarlos en habilidades tecnológicas y estrategias pedagógicas específicas para entornos con IA. Los directivos y responsables de políticas educativas también deben actualizarse: el blog del Banco Mundial (2025) sugiere desarrollar “enfoques de evaluación que evalúen el aprendizaje tanto con IA como sin ella”, de forma que podamos medir el aprendizaje real en la era de ChatGPT.
Sobre el autor:
La Dra. Norma Constanza Velásquez Rodríguez es Jefe del Departamento de Investigación de la Facultad de Ciencias Económicas y Comerciales (FCEC) de la Universidad Católica Sedes Sapientiae (UCSS).


También te puede interesar:

