Texto académico

_____________________________

 

GenIA escucha mejor que el profesor: crónica de una sustitución anunciada 

 

 


GenIA escucha mejor que el profesor: crónica de una sustitución anunciada





UMSNH. Morelia. Mich. MX. 9 de abril de 2026


 

Índice 

_______________________________________________________________


0. AI4Science

1. Integridad académica

Historia de la integridad académica en la educación superior

El papel de los organismos gubernamentales y otras entidades externas

Por qué importa la integridad académica

Conclusiones parcial

2. Historia de las disrupciones tecnológicas en la integridad académica

La imprenta y la democratización del conocimiento (siglos XV al XVIII)

Títulos por correo y cursos por correspondencia (siglos XIX al XX)

La crisis de la calculadora y el desarrollo de habilidades cognitivas (mediados del siglo XX)

Internet y Wikipedia: Una amenaza y un recurso (finales del siglo XX a principios del siglo XXI)

Comercialización de Internet: De la tecnología educativa al fraude académico

Aprendizaje en línea, COVID-19 y exámenes a distancia (siglo XXI)

GenAI y más allá: La cuarta revolución industrial

Conclusiones parcial

Interludio: Del pasado al futuro

3. Integridad académica en la educación superior 2045: Un futuro imaginado

4. Análisis de 2045: El camino que seguimos

Predicción n.1: Los sistemas de calificación tradicionales seguirán predominando

Predicción n.2: La IA generativa seguirá incentivando a los estudiantes a delegar el aprendizaje

Predicción n.3: La educación superior seguirá centrada en la certificación

Predicción n.4: El creciente énfasis en la certificación conducirá a una mayor seguridad

Predicción n.5: La IA predictiva se unirá a la IA generativa para dar forma a la integridad académica

Interludio: Del futuro al presente

5. Preguntas prácticas para el presente: Elaboración de directrices, políticas y procedimientos

Nivel macro

Nivel meso

Nivel micro

Conclusiones clave

6. Preguntas prácticas para el presente: Repensar el aprendizaje y la evaluación

Nivel micro

Nivel meso

Nivel macro

Conclusiones parcial

7. Preguntas prácticas para el presente: Enseñar con y sobre IA generativa con integridad

Enseñar con y sobre IA: Construyendo una cultura de uso ético Transición hacia la responsabilidad personal y el crecimiento ético

Alfabetización en IA como competencia fundamental

El rol del educador: modelado, mentoría y mediación

Conclusiones parcial

8 conclusiones finales

IA generativa en la educación

IA generativa en la educación

Descripción detallada

9.Texto académico fantasma

10.  “SEP: casi 80% usan IA en educación superior para textos académicos”


Referencias

___________________________________________________________



0. AI4Science


Los avances en inteligencia artificial (IA) están impulsando un nuevo paradigma de descubrimiento en las ciencias naturales. En la actualidad, la IA ha comenzado a transformar estas disciplinas al mejorar, acelerar y facilitar nuestra comprensión de los fenómenos naturales a través de una amplia gama de escalas espaciales y temporales, dando lugar a un nuevo campo de investigación conocido como inteligencia artificial para la ciencia (AI4Science).


Como paradigma de investigación emergente, la AI4Science se distingue por ser un área vasta y profundamente interdisciplinaria. En consecuencia, resulta necesario —aunque conceptualmente desafiante— un tratamiento técnico unificado de este campo. Este trabajo tiene como objetivo proporcionar una descripción técnicamente exhaustiva de una subárea específica de la AI4Science: la IA aplicada a sistemas cuánticos, atomísticos y continuos.


Estas áreas buscan comprender el mundo físico desde la escala subatómica (funciones de onda y densidad electrónica), pasando por la escala atómica (moléculas, proteínas, materiales e interacciones), hasta la escala macroscópica (fluidos, clima, subsuelo, agujeros negros y galaxias), y constituyen una subárea central dentro de la AI4Science. Una ventaja distintiva de este enfoque es que, en gran medida, dichos sistemas comparten un conjunto común de desafíos fundamentales, lo que permite un tratamiento unificado y de carácter principista.


Uno de los desafíos clave es cómo capturar los principios básicos de la física —en particular, las simetrías— en sistemas naturales mediante métodos de aprendizaje profundo. Una explicación detallada e intuitiva de las técnicas utilizadas para lograr la equivariancia frente a transformaciones de simetría. Asimismo, aborda otros retos técnicos compartidos, como la explicabilidad de los modelos, la generalización fuera de distribución, la transferencia de conocimiento mediante modelos fundacionales de lenguaje a gran escala y la cuantificación de la incertidumbre.


Con el fin de facilitar el aprendizaje y la formación en este ámbito, proporcionamos listas categorizadas de recursos que consideramos especialmente útiles. Nuestro objetivo es ofrecer un tratamiento lo más exhaustivo y unificado posible, y esperamos que este esfuerzo inicial contribuya a generar mayor interés y a estimular nuevos trabajos dentro de la comunidad, impulsando así el avance continuo de la AI4Science.


Décadas de investigación en inteligencia artificial (IA) han culminado en el renacimiento de las redes neuronales, conocidas como aprendizaje profundo. A partir de AlexNet, una década de investigación intensiva ha dado lugar a numerosos avances en este ámbito, entre ellos ResNet, los modelos de difusión y basados en puntuaciones, los mecanismos de atención y los transformadores, así como, más recientemente, los modelos de lenguaje de gran tamaño (LLM) y sistemas como ChatGPT (de OpenAI).


Estos desarrollos han permitido una mejora sostenida del rendimiento de los modelos profundos. Combinados con el aumento continuo de la capacidad de cómputo y la disponibilidad de conjuntos de datos a gran escala, los métodos de aprendizaje profundo se han consolidado como enfoques dominantes en múltiples dominios, en particular en la visión por computadora y el procesamiento del lenguaje natural.


Impulsada por estos avances, la IA ha comenzado a transformar las ciencias naturales al mejorar, acelerar y ampliar nuestra comprensión de los fenómenos naturales a lo largo de una amplia gama de escalas espaciales y temporales, dando lugar a una nueva área de investigación conocida como inteligencia artificial para la ciencia (AI4Science). Sostenemos que la IA para la ciencia abre la puerta a un nuevo paradigma de descubrimiento científico y constituye una de las áreas más prometedoras y estimulantes de la investigación interdisciplinaria contemporánea.


Este manuscrito podría haberse titulado “Manual para sobrevivir al algoritmo”: confesiones de un profesor repetitivo, aunque también sería justo llamarlo “La última clase magistral (antes de que la máquina la mejore)”, pues en el fondo no es más que el registro melancólico del arte de repetir mejor que una inteligencia artificial. Aquí se ensaya, con cierta dignidad cansada, cómo perder la cátedra sin que nadie lo note: crónica de una sustitución anunciada, mientras el autor dialoga con el profesor automático y su doble digital como quien conversa frente al espejo con su versión optimizada. Este manuscrito es, sin exagerar, un elogio del docente prescindible, escrito desde la nostalgia del pizarrón: meditaciones inútiles en tiempos eficientes, asumidas con la lucidez amarga de ser reemplazable y saberlo; apuntes desde la obsolescencia académica. Todo desemboca en una peculiar didáctica del eco: cuando el algoritmo escucha mejor que el maestro, acompañada de discretas instrucciones para competir con una máquina —y fracasar con dignidad.


“Los sistemas de inteligencia artificial (IA) le dicen al usuario lo que quiere oír. como ChatGPT o Gemini, tienden a ser complacientes o serviles en sus respuestas cuando se les consulta por dilemas personales. Por defecto, la IA no le dice al usuario que está equivocado, señala Myra Cheng. “Eso puede hacer que la gente pierda la habilidad para enfrentarse a situaciones sociales complicadas”. Es precisamente a través de la fricción social cómo profundizamos en nuestras relaciones, y las respuestas complacientes son lo opuesto a esa fricción[1]”.


Para crear un modelo de lenguaje grande (LLM) de alto rendimiento para sustituir a un profesor universitario en las aulas de todo tipo, es necesario entrenarlo con gran cantidad de datos: libros, artículos, patentes, museos y páginas web. En teoría, el modelo procesa todo este material para generar narrativas realista y completamente nuevas, pero esto no siempre funciona. A veces, los LLM generan copias exactas del material procesado, lo que podría infringir los derechos de autor o exponer información confidencial, como números de tarjetas de crédito y direcciones.


Este problema se conoce como memorización y representa un gran desafío para los desarrolladores de inteligencia artificial. Comprender cómo se produce la memorización y cómo detenerla también ha sido un tema complejo para los científicos académicos, ya que los estudios rigurosos requieren una enorme cantidad de recursos informáticos costosos.


Sin embargo, a finales de este mes, investigadores presentarán una nueva herramienta potencialmente valiosa para el estudio de la memorización en una importante conferencia de IA en Brasil (el trabajo realizado con el Hubble se presenta en la 14.ª Conferencia Internacional sobre Representaciones de Aprendizaje, que comienza en Río de Janeiro el 23 de abril 2026). Llamado Hubble —porque sus creadores esperan que, al igual que el Telescopio Espacial Hubble, ayude a esclarecer lo desconocido—, es la primera herramienta de código abierto diseñada específicamente para estudiar este problema. Pero antes de la discusión de la integridad academia en las universidades del futuro inmediato, comencemos en el evento IA del 2022.


Cuando ChatGPT (la primera herramienta popular de inteligencia artificial generativa, IA) se lanzó en noviembre de 2022, la reacción inicial y más visceral de los educadores fue: «¡Dios mío! ¡Esto es una máquina de hacer trampa!». Y no es para menos. Al fin y al cabo, ChatGPT podía generar en segundos un ensayo que habría requerido varias horas de trabajo humano, horas destinadas a estimular la lectura y el pensamiento crítico, el análisis, la síntesis, la predicción, la reflexión, la formulación y reformulación de ideas, la resolución de problemas, la comunicación del conocimiento por escrito e incluso habilidades como la gestión del tiempo y de proyectos o la regulación emocional. Desde mediados del siglo XIX, la tarea escrita se ha considerado un artefacto del aprendizaje estudiantil que podía evaluarse de manera honesta y justa, a pesar de que su fiabilidad y validez se han cuestionado durante décadas debido a la magnitud del fraude en las mismas[2]. Ahora, a medida que la IA generativa (GenAI) continúa avanzando, proliferando y adquiriendo mayor capacidad de acción (como Perplexity Comet y OpenAI Atlas), la fiabilidad y validez de todas las evaluaciones no supervisadas en todas las disciplinas, desde la admisión hasta la obtención de títulos, serán objeto de debate.


¿Cómo integrar la GenAI en la educación?, nuestro objetivo principal es analizar cómo su integración, o la falta de ella, impactará la integridad académica. Antes de continuar, es necesario aclarar que creemos que la IA generativa es una realidad, a pesar de los debates pertinentes sobre su terminología, en particular sobre si es inteligente o simplemente una “máquina de medios sintéticos[3]”. La IA genera texto y otros medios, puede hacerlo sin una intervención o reflexión humana significativa, y puede ser utilizada por los humanos para lograr sus objetivos. Asimismo, reconocemos los debates existentes sobre si la inteligencia artificial (ya sea generativa, general o superinteligente) es inevitable o, en general, beneficiosa para la humanidad. Se nos ha dicho, principalmente por parte de las empresas que se benefician de ella, que los educadores no tienen otra opción: que debemos enseñar a los estudiantes a usarla, ya que la utilizan de todos modos y la utilizarán en el ámbito laboral. Algunos denominan a esta postura “enredo intencional[4]”.


Existe cierto desacuerdo sobre la autonomía educativa y la necesidad de integrar herramientas de IA generativa (ChatGPT, Gemini, Claude, etc.) en todo el sistema educativo. Algunos, por ejemplo, opina que el aprendizaje de los estudiantes (y la integridad académica) se verían mucho mejor beneficiados por herramientas de inteligencia artificial específicas (o pequeñas o especializadas) creadas no para reemplazar a los humanos ni automatizar su trabajo, sino para asistirlos o complementarlos. Otros, sin embargo, considera que, dado que la IA es inevitable, debemos preparar a los estudiantes para el mundo laboral posterior a la graduación, por lo que los educadores deben adaptarse al ritmo del progreso tecnológico.


Finalmente, sería un error no mencionar que estas herramientas, y las empresas que las crearon, podrían ser contrarias a la misión de la educación superior y a nuestros supuestos valores. La educación superior afirma valorar aspectos como la sostenibilidad, la equidad, la justicia, la confianza, la fiabilidad, los hechos científicos y la integridad. Por otro lado, las empresas de IA están consumiendo recursos ambientales y humanos, tratando injustamente a los empleados (al menos a los subcontratados) y creando productos que difunden falsedades y perpetúan el daño[5].


Sin embargo, no podemos ignorar que estas herramientas se están adoptando rápidamente, por lo que debemos trabajar para resolver intencionalmente todas estas tensiones, o al menos llamar la atención sobre ellas. Dos cosas son ciertas: no podemos controlar las fuerzas externas que ejercen presión sobre nosotros y tenemos la capacidad de elegir cómo responder. No es inevitable que las instituciones de educación superior deban incorporar herramientas de IA genérica de uso general creadas comercialmente, como ChatGPT, en sus planes de estudio. Podemos resistir y exigir productos más éticos y diseñados con fines educativos, y quizás ese sea el primer paso para mantener la integridad académica en la era de la IA generativa. Podemos enseñar a los estudiantes a tomar decisiones de autoría responsables y éticas en presencia de estas máquinas, al tiempo que rediseñamos los planes de estudio y las evaluaciones para ayudarlos a centrarse en el aprendizaje en lugar de en la producción. Nosotros, como educadores, deberíamos introducir discusiones más matizadas, pensamiento crítico y en Se ha generado un debate sobre cuándo, si es que se debe integrar la IA generativa  en la enseñanza, el aprendizaje y la evaluación.


Nos encontramos ante una encrucijada al momento de decidir cómo responder al impacto de estas herramientas en la integridad académica. El camino que elijamos, junto con los avances en inteligencia artificial y otras presiones externas sobre la educación superior (por ejemplo, gubernamentales, competitivas y empresariales), determinará cómo será nuestro enfoque de la integridad académica el próximo año, dentro de cuatro años o dentro de veinte.


No tenemos todas las respuestas, porque el contexto es fundamental. Los factores situacionales de su institución y aula son importantes. Por lo tanto, seguimos el ejemplo de Bertram Gallant y Rettinger[6] y no nos atrevemos a prescribir una solución milagrosa (también porque no existe). En cambio, intentamos mantenernos en la tensión entre ambas opciones y evitar el pensamiento dicotómico que generan los másteres en Derecho (es decir, “no es esto, es aquello”). Esperamos ofrecer inspiración, así como diversas opciones para actuar.


Para ello, primero nos basamos en un lenguaje común y una comprensión de la integridad académica, antes de explorar la historia de las disrupciones tecnológicas en la educación y la integridad académica. Luego, pasamos a imaginar y analizar un posible estado futuro de la integridad académica, considerando la realidad actual y los posibles avances tecnológicos. Finalmente, proponemos posibles soluciones a ese posible estado futuro, respondiendo a las preguntas prácticas más urgentes que todos nos planteamos sobre la integridad de los títulos profesionales  en la era de la IA.


1. Integridad Académica


Antes de hablar de la IA actual, volvamos a la IA generativa (en la integridad académica). El término “integridad académica” existe y se utiliza ampliamente en la educación superior desde hace décadas, pero en cierta medida sigue siendo ambiguo. Muchos en el ámbito académico, tanto estudiantes como profesores, pueden ser incapaces de definirla por sí mismos o de encontrar una definición en las directrices institucionales. Dado que la integridad académica suele explicarse a través de documentos normativos y de orientación, la responsabilidad de proporcionar definiciones claras, efectivas, accesibles y positivas de integridad académica recae, evidentemente, en las instituciones de educación superior. Sin embargo, a menudo, cuando las instituciones proporcionan una definición, cometen el error de basar sus explicaciones de integridad académica en una estrategia de evitación; es decir, les dicen a los estudiantes qué acciones negativas deben evitar en lugar de acciones positivas que deben llevar a cabo. El siguiente es un ejemplo:


La honestidad académica se define como completar todo el trabajo académico sin hacer trampa, mentir, robar, recibir ayuda de ninguna otra persona ni utilizar ninguna fuente de información no autorizada o no atribuida adecuadamente.


Se ha comprobado que este tipo de instrucciones para evitar errores son perjudiciales para la implicación de los estudiantes con la integridad académica[7]. Básicamente, este enfoque aumenta la conciencia de los estudiantes sobre posibles problemas, incrementa su ansiedad ante la posibilidad de cometer errores y recibir sanciones, y los deja sin saber qué hacer.


Por lo tanto, es responsabilidad de las instituciones proporcionar una definición de integridad académica que explique claramente lo que se espera de los estudiantes, como una estrategia positiva para fomentar las buenas prácticas. Un intento de adoptar este enfoque se puede observar en la siguiente definición institucional:


La integridad académica consiste en realizar el propio trabajo y reconocer el trabajo de los demás. La integridad académica exige que todos sigamos buenas prácticas académicas, lo que implica reflexionar sobre cómo investigamos y tomamos apuntes, y asegurarnos de conocer todas las normas y reglamentos de la universidad sobre los trabajos que presentamos[8].


Lo que observamos en esta definición es que presenta la integridad académica como una responsabilidad colectiva que involucra al personal, el profesorado y el alumnado, lo que puede contribuir a realzar su importancia. También es notable que la definición vincule la integridad académica con algunos elementos del desarrollo del aprendizaje del estudiante, más allá de la evaluación, como la reflexión sobre la forma de investigar y tomar apuntes. Sin embargo, como suele ocurrir con muchas definiciones institucionales, incluye la recomendación a los estudiantes de consultar la normativa, reforzando así la idea errónea de que la integridad académica es contextual y no universal.


Para definiciones más universales, recurrimos a las principales organizaciones de integridad académica. El Centro Internacional para la Integridad Académica (ICAI, por sus siglas en inglés)  define la integridad académica como “un compromiso con seis valores fundamentales: honestidad, confianza, equidad, respeto, responsabilidad y valentía”. Al articular la integridad académica como un conjunto de valores esenciales, el ICAI fomenta un enfoque holístico donde las acciones positivas construyen una comunidad ética de aprendizaje, tanto dentro como fuera del ámbito académico. Profundizando en el tema, vemos que el ICAI detalla cómo estos valores pueden manifestarse en la práctica:


Al adoptar estos valores fundamentales, docentes, estudiantes, personal administrativo y directivos crean comunidades académicas eficaces donde la integridad es un pilar fundamental. Sin ellos, el trabajo de docentes, estudiantes e investigadores pierde valor y credibilidad. Más allá de ser meros principios abstractos, los valores fundamentales sirven para informar y mejorar la capacidad de tomar decisiones éticas y el comportamiento. Permiten a las comunidades académicas traducir los ideales en acciones[9].


Muchas instituciones, particularmente en Norteamérica, han adoptado la definición del ICAI, entre ellas la Universidad de California, San Diego (EE. UU.), la Universidad de Waterloo (Canadá) y la Instituto Tecnológico de Monterrey (México).


La definición de la Red Europea para la Integridad Académica (ENAI) es menos filosófica que la del ICAI. La ENAI afirma que la integridad académica es[10]:


El cumplimiento de los principios, estándares, prácticas y un sistema de valores éticos y profesionales coherentes, que sirven de guía para la toma de decisiones y la realización de acciones en la educación, la investigación y la docencia.


La inclusión específica de la investigación y la docencia nos recuerda que la integridad académica no solo concierne a los estudiantes, sino a todos, dentro y fuera del ámbito académico. A diferencia de la definición del ICAI, la de la ENAI destaca el “cumplimiento”, los “principios profesionales” y la importancia de la toma de decisiones y la realización de acciones, lo que refleja el papel que desempeñan la autonomía personal y el compromiso positivo en la defensa de los valores que define el ICAI. La definición de la ENAI ha sido adoptada por diversas instituciones, incluida la Universidad de Limerick (Irlanda) y Universidad de Wollongong en Dubái (EAU).


Si bien las definiciones de ICAI y ENAI son las más influyentes en este momento, otras también están aportando su perspectiva. Mejía y Garcés-Flórez[11], por ejemplo, destacan la autonomía personal y el compromiso positivo, aspectos que sugieren tanto ENAI como ICAI. Afirman que la integridad académica consiste en que los estudiantes resistan las fuerzas internas y externas que amenazan la integridad de su trabajo académico, así como en que emprendan acciones colectivas para educar a sus compañeros sobre dichas amenazas y riesgos. Esta comprensión de la integridad académica resulta especialmente relevante en la era de la GenAI y ante la necesidad imperiosa de aumentar el compromiso estudiantil con la integridad académica. Por ejemplo, el crítico de cine estadounidense Richard Brody afirma: “Una reseña de un crítico responsable implica inherentemente introspección, una mirada hacia uno mismo para ver si factores personales inadvertidos o incuestionados influyen o distorsionan la experiencia de la obra en cuestión[12]”.


Como concluyen Bertram Gallant y Rettinger[13], es hora de reconocer que lo opuesto a hacer trampa es aprender. Teniendo esto en cuenta, definimos la integridad académica como la capacidad de los estudiantes para aprender, asumir la responsabilidad de su propio trabajo, demostrar sus puntos de vista, reconocer los puntos de vista y el trabajo de otros (incluidas las máquinas) y tomar decisiones éticas incluso cuando nadie los observa.


Historia de la integridad académica en la educación superior


En los últimos treinta años, la práctica y la investigación sobre la integridad académica en la educación superior han evolucionado significativamente. A principios de la década de 1990, Don McCabe fue la figura clave en la configuración de la investigación y la práctica de la integridad académica, centrándose en las acciones de los estudiantes que la violaban, sus motivos y las medidas para prevenirlas. Dado el auge de internet en la década de 1990, no sorprende que el plagio, como principal obstáculo para la integridad académica, se convirtiera en un tema central[14].


Para 2005, la investigación y la práctica se centraban casi exclusivamente en el plagio, la intencionalidad del estudiante y su detección[15]. Esto generó un enfoque institucional de “atrapar y castigar[16]” con una práctica estudiantil predominantemente punitiva, a menudo en detrimento del aprendizaje de los estudiantes. Esto se evidencia en el marco institucional para abordar el plagio (con “procedimientos sólidos y transparentes para detectar y castigar”) y en el enfoque 3D sobre el plagio estudiantil[17] (detectar, abordar y disuadir). Como enfoques basados ??en procesos, se centraban principalmente en detectar y sancionar las faltas de conducta; las medidas disuasorias se basaban en advertencias, no en la educación. Por lo tanto, en aquel entonces, se prestaba mucha más atención a la mala conducta académica (a menudo definida solo como plagio) que a la integridad académica en términos de aprendizaje y adopción de buenas prácticas de aprendizaje. Los problemas de este enfoque, indicando que la falta de comprensión por parte de los estudiantes sobre la importancia de la citación, especialmente en comparación con sus tutores o instructores, probablemente se debía a esta prioridad de enseñarles la mecánica de la referenciación en lugar de aumentar su comprensión de por qué la citación defiende los valores de la integridad académica[18].


Las afirmaciones del castigo surgieron de una falta de introspección. Hoy se lanzó opiniones sobre la relación entre popularidad y validez, dando por sentado que el conocimiento que se reproduce, comercializa y explota para el público general no es tan valioso ni merece ser estudiado como conocimiento  menos conocido o accesible. Los castigadores están proyectando sus deseos sobre su propio trabajo en el ajeno.


Ahora pienso en Bell Hooks, quien nos enseña a “participar en un proceso crítico de teorización que habilita y empodera[19]”. No creo que escribir para empoderar implique que un escritor tenga la responsabilidad de ser complaciente, pero el trabajo de Hooks sí nos hace pensar que hay una cuestión de cuidado en juego. Quien escribe conocimiento, independientemente de si se considera crítico o no, influye en la percepción pública del arte que analiza, permitiendo a los lectores establecer sus propias conexiones. Pero antes de que esto suceda, el escritor debe reflexionar sobre sí mismo para determinar cómo sus propias percepciones se proyectan en su teoría. Además, cuando un escritor combina lo personal con lo crítico, su compromiso con la introspección puede ser incluso más importante que su crítica.


Gradualmente, la investigación sobre la conducta académica estudiantil se volvió más sólida y siguió uno de dos caminos. La primera vía consistió en definir con mayor precisión las infracciones por tipo, como la colusión y el plagio por encargo[20], y continuar la línea de McCabe en el estudio de la participación estudiantil en cada tipo de comportamiento. La segunda vía fue explorar un enfoque de enseñanza y aprendizaje que reorientara a los profesionales, pasando de la prevención del plagio al apoyo al desarrollo de habilidades, las prácticas positivas y el aprendizaje. Esta segunda vía se vio impulsada por los escritos de autores como Rebecca Moore Howard, quien argumentó que el plagio era una cuestión pedagógica, no de control[21]. Este enfoque de enseñanza y aprendizaje, cambió la prioridad de la prevención del plagio al apoyo y la validación del aprendizaje estudiantil, incluso después de una infracción[22]. En este contexto holístico, la “integridad académica” se convirtió en un término positivo, amplio y evolutivo dentro de la educación superior para representar las buenas prácticas académicas, plenamente integradas en el éxito y el aprendizaje de los estudiantes[23]. Sin embargo, reconocemos que no todos los docentes han abandonado el enfoque de regulación y sanción para adoptar una perspectiva de enseñanza y aprendizaje de la integridad académica, y que se necesitan esfuerzos para recordar continuamente a todos en el ámbito académico el valor de la educación en integridad académica.


El papel de los organismos gubernamentales y otros organismos externos


El papel y la relevancia de la integridad académica en la investigación y la práctica de la educación superior también se han visto profundamente influenciados por las directrices y los requisitos nacionales de garantía de calidad, o por su ausencia. En el Reino Unido, por ejemplo, se recuerda a las instituciones su responsabilidad de salvaguardar la integridad de las evaluaciones de los estudiantes y, en última instancia, de sus títulos, mediante la creación de políticas de integridad académica basadas en la Carta de Integridad Académica de la Agencia de Garantía de Calidad[24]. La QAA enfatiza un enfoque comunitario que involucra y empodera tanto a estudiantes como a personal docente y administrativo, y fomenta la colaboración entre sectores, al tiempo que otorga a las instituciones la autonomía para adaptar su enfoque de integridad académica a su contexto. En Australia, la Agencia de Calidad y Estándares de Educación Terciaria (TEQSA) colaboró ??con pioneros de la integridad académica, como la fallecida Tracey Bretag, para desarrollar talleres, recursos en línea y un conjunto de herramientas sobre integridad académica para su uso en todo el sector de la educación superior[25]. TEQSA también anima a las instituciones a considerar la integridad académica como una prioridad nacional y estratégica, y a alinear sus políticas con las herramientas de referencia nacionales. Tanto en el Reino Unido como en Australia, estas directrices nacionales han impulsado la creación de puestos profesionales de integridad académica que lideran los esfuerzos institucionales en este ámbito.


En otros países, como Ucrania, Montenegro e Indonesia, los gobiernos adoptan un enfoque más unilateral mediante la creación de leyes que imponen políticas universales de integridad académica para todas las instituciones. Si bien estas leyes ofrecen la ventaja de la coherencia, la importancia y la claridad a nivel nacional, pueden politizar la integridad académica y comprometer la equidad y la justicia, especialmente cuando las leyes consideran toda mala conducta como deliberada o penalizan más a los estudiantes que al profesorado[26].


En otros países, como Estados Unidos y Canadá, los esfuerzos nacionales —ya sea a través de organismos de garantía de calidad o de los gobiernos— son inexistentes, y observamos las consecuencias negativas de esto, al menos en Estados Unidos: muy pocas instituciones cuentan con la infraestructura necesaria para respaldar la integridad académica.


Si bien no es perfecto, parece que la participación de los organismos de garantía de calidad en la elaboración y configuración de las políticas de integridad académica tiene una fuerte influencia positiva en la práctica institucional.


Por qué importa la integridad académica


La integridad académica es la piedra angular de la educación superior: si nuestras evaluaciones no reflejan fielmente el aprendizaje de los estudiantes, nuestros títulos pierden significado y valor. En otras palabras, la integridad académica equivale a la integridad del título. Sin embargo, incluso en el Reino Unido y Australia, la importancia central de la integridad académica no siempre se ha reconocido e incluso se ha relegado a un segundo plano o se ha considerado secundaria a la actividad principal de la universidad: la enseñanza de las asignaturas de grado. Lamentablemente, algunos han calificado el trabajo relacionado con la integridad académica como “un trabajo sin importancia» y han relegado a quienes lo realizan a una labor de «tercera categoría[27]”. En nombre de muchos de quienes lideran el trabajo institucional en materia de integridad académica, Ahuna et al. señalan que la integridad académica es “tan fundamental para la labor de la educación superior que a veces pasa desapercibida y se da por sentada”. No obstante, el campo de la integridad académica se ha beneficiado indudablemente de un enorme aumento del interés global en los últimos años, debido, en primer lugar, a la preocupación generalizada por la mala conducta académica durante la pandemia de COVID-19[28] y, en segundo lugar, al auge de la IA general como un factor disruptivo importante en la educación[29]. Estos dos impactos han generado un cambio fundamental en la forma en que las instituciones conciben la integridad académica, lo que justifica la asignación de tiempo, recursos y mano de obra para garantizar que la facilitación y certificación honestas del aprendizaje sigan siendo una prioridad[30].


Para lograr la integridad académica, no basta con definirla e implementar políticas y puestos de personal que la apoyen; es necesario abordarla como una habilidad que se debe desarrollar. Como argumenta McNeill, la instrucción en integridad académica “debe ser un elemento común de todo el currículo: idealmente, los estudiantes hablarían y aprenderían sobre las expectativas y prácticas de la integridad académica en cada curso que tomen”. Y ese es el punto. La integridad académica es fundamental para el aprendizaje de los estudiantes. Si queremos priorizar el aprendizaje, debemos priorizar la integridad académica. Esta hace que el aprendizaje sea valioso, valida los esfuerzos y logros de los estudiantes y fortalece su confianza en sí mismos, su capacidad de pensamiento crítico y su habilidad para evaluar la información que los rodea de manera efectiva.


La integridad académica también es fundamental para la integridad profesional. Desarrollar una comprensión y práctica profundas de la integridad académica en la educación superior contribuye directamente al desarrollo de la ética profesional[31]. Se argumenta que la práctica habitual de conductas poco éticas por parte de los estudiantes universitarios puede normalizar dichas conductas en el ámbito laboral. Para prevenir el desarrollo de este patrón de comportamiento a largo plazo, las instituciones necesitan sistemas sólidos de aprendizaje y sanciones por mala conducta, que fomenten una cultura de integridad académica. Además, sin un fuerte énfasis en la integridad académica, los estudiantes podrían acceder a empleos y desempeñarlos sin las habilidades, los conocimientos ni la formación adecuados, lo que representa un grave peligro tanto en el ámbito laboral como fuera de él. Esto no es una exageración. Personas en puestos profesionales (por ejemplo, ingenieros) con títulos falsificados u obtenidos de forma poco ética han causado accidentes o muertes, mientras que otras en puestos de poder político han destruido la confianza pública al descubrirse que plagiaron sus tesis[32].


Finalmente, la integridad académica es fundamental para la sociedad. Como ya hemos mencionado, la integridad académica no se trata solo de seguir las reglas, sino de tomar decisiones éticas incluso cuando nadie observa. Es fundamental para la sociedad democrática en general que los graduados transmitan una comprensión y un conocimiento de la integridad académica, como una forma de ser y de tomar decisiones éticas que afectan a la sociedad en su conjunto[33]. El comportamiento ético es fundamental para la estabilidad de una sociedad civilizada. Sivasubramaniam señalan la distinción entre la ética como comportamiento requerido según las normas, especialmente en el ámbito laboral, y la moral como comportamiento elegido según el sentido individual del bien y del mal. Por lo tanto, al reflexionar sobre el comportamiento ético en el ámbito académico, tanto la ética como la moral están involucradas y son importantes, pero el enfoque educativo se centra en el comportamiento ético como un requisito de las instituciones, los lugares de trabajo y la sociedad.


Conclusiones parcial


Si consideramos la educación superior como una preparación para la vida, todas las áreas del aprendizaje estudiantil son importantes, incluida la integridad académica. En pocas palabras, cuando los estudiantes aprenden a responsabilizarse de su trabajo, a reconocer el trabajo ajeno que utilizan, a relacionarse de forma honesta y justa, y a tomar decisiones éticas incluso cuando nadie los observa, están adquiriendo habilidades humanas duraderas que les serán útiles en la familia, el trabajo y la sociedad. Por supuesto, actuar con integridad no siempre es fácil, especialmente ante la proliferación de agentes de IA general que pueden realizar el trabajo estudiantil y en el contexto de una sociedad centrada en las calificaciones y la finalización de los cursos, en lugar del aprendizaje. Por lo tanto, cuando surgen disrupciones como la IA general, es fundamental que las instituciones y los educadores prioricen la integridad académica. Para reflexionar sobre cómo lograrlo, analizaremos las lecciones aprendidas de disrupciones anteriores en la enseñanza, el aprendizaje y la evaluación con integridad.


2. La historia de las disrupciones tecnológicas en la integridad académica


La IA de nueva generación (GenAI) es la más reciente disrupción en la educación y la integridad académica, pero sin duda no es la primera. Desde la invención de la imprenta en el siglo XV hasta la proliferación de internet, los teléfonos inteligentes y las plataformas de aprendizaje digital en los siglos XX y XXI, cada gran innovación ha transformado la forma en que se crea, comparte y evalúa el conocimiento, y ha ampliado el acceso a la educación superior, al tiempo que ha desafiado la integridad académica. Por ello, retomamos esta historia para conocer los éxitos y fracasos de estas disrupciones y así poder establecer una perspectiva sólida sobre cómo la integridad académica puede prosperar en la era de la GenAI.


La imprenta y la democratización del conocimiento (siglos XV al XVIII)


La invención de la imprenta marcó un momento crucial en la historia de la difusión del conocimiento. Al hacer que los libros fueran más accesibles, aumentó significativamente los índices de alfabetización y democratizó el aprendizaje en toda Europa[34]. Esta transformación coincidió con el auge del humanismo renacentista, un movimiento que redefinió la educación al enfatizar la investigación crítica, la erudición ética y el respeto por las fuentes clásicas. Los educadores humanistas promovieron el estudio de la gramática, la retórica, la historia y la filosofía, concibiendo el aprendizaje como una búsqueda moral e intelectual basada en la integridad y la autoría intelectual[35].


Sin embargo, el paso a la producción masiva de conocimiento no estuvo exento de controversia. Los académicos expresaron su preocupación por la devaluación del trabajo académico y la reproducción no autorizada de textos. Estas inquietudes se hicieron eco de una crítica aún más antigua: en Fedro, Platón relata la versión de Sócrates del mito egipcio en el que el dios Thot presenta la escritura como un don para mejorar la sabiduría y la memoria, solo para ser advertido por el rey Thamus de que, en cambio, causaría olvido, ya que la gente confiaría en los registros escritos en lugar de ejercitar su memoria[36]. A principios de la Edad Moderna, se copiaban y publicaban manuscritos completos sin la debida atribución, y la circulación de textos teológicos y científicos sin acreditar en las primeras universidades suscitó debates sobre la autoría, la autenticidad y el uso ético del conocimiento[37]. A pesar de estas inquietudes, la imprenta contribuyó finalmente al avance de la integridad académica al permitir la estandarización de los textos y reducir los errores de transcripción comunes en los manuscritos copiados manualmente[38]. Estos avances sentaron las bases filosóficas y estructurales de las prácticas académicas modernas, reforzando las normas de citación, atribución y responsabilidad intelectual que siguen siendo la base de la integridad académica en la actualidad.


Títulos por correo y cursos por correspondencia (siglos XIX al XX)


La invención de la imprenta allanó el camino para la educación por correspondencia y los títulos por correo en el siglo XIX. Ya no era necesario desplazarse físicamente a una universidad para aprender de un gran maestro y orador. En cambio, se podía aprender leyendo las palabras del profesor desde la comodidad del hogar. Esto marcó una expansión transformadora en el acceso a la educación, especialmente para los estudiantes de zonas remotas, rurales o desfavorecidas[39]. Estas innovaciones constituyen los primeros modelos de educación flexible, independiente del tiempo y el lugar, que desafiaron la noción tradicional de que la instrucción debía ser presencial. Esta noción se vio aún más cuestionada cuando las clases orales comenzaron a transmitirse por radio y, posteriormente, a grabarse en casetes, CD y DVD.


Esta modalidad educativa, conocida como educación a distancia, promovió nociones positivas de acceso, a la vez que generó preocupación por los impactos negativos de la distancia asíncrona y transaccional entre instructores y estudiantes[40]. Estos impactos negativos incluían la credibilidad de la evaluación, la verificación de la identidad del estudiante y la garantía de calidad en estos entornos no supervisados[41]. Sin una supervisión institucional constante, algunos programas por correspondencia se volvieron vulnerables a la deshonestidad académica, la tergiversación y el fraude. El término “fábricas de títulos[42]” (documentado por primera vez en 1876) pasó a definir a las organizaciones que emitían credenciales con escaso o nulo rigor académico o instrucción. Estas operaciones explotaron la creciente demanda de acceso a la educación, socavando la legitimidad de la educación a distancia ante la opinión pública.


La proliferación de fábricas de diplomas puso de manifiesto las debilidades sistémicas en la verificación de los resultados del aprendizaje y la credibilidad institucional. Estos primeros avances siguen teniendo repercusión en los debates actuales sobre el aprendizaje en línea y a distancia, donde persisten preocupaciones similares sobre el fraude de identidad, el plagio y la integridad de las evaluaciones. El legado histórico de la educación a distancia sirve, por tanto, como fundamento y advertencia sobre la importancia de mantener la integridad académica en los modelos modernos de acceso a la educación, como el aprendizaje asíncrono en línea.


La crisis de las calculadoras y el desarrollo de las habilidades cognitivas (mediados del siglo XX)


La introducción de las calculadoras durante la segunda mitad del siglo XX desató un amplio debate sobre su impacto en el aprendizaje de los estudiantes. Educadores, padres y responsables políticos expresaron su preocupación de que la excesiva dependencia de estas herramientas pudiera menoscabar la fluidez aritmética y las habilidades de resolución de problemas mentales de los estudiantes[43]. Los críticos temían que la exposición prematura a las calculadoras impidiera a los estudiantes desarrollar las habilidades básicas de cálculo y razonamiento, esenciales para las matemáticas de orden superior.


En respuesta, las instituciones educativas y los desarrolladores de currículos comenzaron a perfeccionar sus enfoques pedagógicos. En lugar de prohibir las calculadoras por completo, las introdujeron mediante pedagogías estructuradas que enfatizaban la comprensión conceptual antes de su uso. Este enfoque se apoyaba en las emergentes teorías constructivistas del aprendizaje[44], que abogaban por la participación activa del estudiante y la resolución de problemas guiada, en contraposición a la memorización mecánica. Finalmente, las calculadoras fueron ampliamente aceptadas como herramientas valiosas para explorar ideas matemáticas avanzadas, análisis estadísticos y modelado de datos del mundo real, siempre que su uso complementara, en lugar de reemplazar, el esfuerzo cognitivo[45].


Internet y Wikipedia: Una amenaza y un recurso (finales del siglo XX a principios del XXI)


La aparición de internet a finales del siglo XX transformó el panorama educativo. Al principio, durante la era de la Web 1.0, el cambio fue menor, trasladando la educación a distancia de los soportes impresos y digitales (como los CD) a páginas web estáticas con interactividad limitada. Los estudiantes continuaron consumiendo información principalmente de forma pasiva, mientras que los educadores expresaban una creciente preocupación por la credibilidad de las fuentes en línea, el aumento de las oportunidades para el uso no autorizado de contenido y un notable incremento del plagio[46].


La promesa de un aprendizaje en línea más dinámico llegó con el auge de la Web 2.0 y plataformas como Wikipedia, YouTube y Reddit. Wikipedia, lanzada en 2001, permitió la construcción y el intercambio comunitario de conocimiento, convirtiéndose finalmente en una herramienta de referencia omnipresente y fiable, a pesar de haber sido prohibida por muchas instituciones debido al temor a la inexactitud y al uso académico indebido[47]. De manera similar, YouTube se consolidó como un importante recurso educativo, ofreciendo videos tutoriales, grabaciones de clases y contenido explicativo en diversas disciplinas. Si bien facilitó el aprendizaje multimodal, surgieron preocupaciones en torno a la información no verificada, el consumo pasivo y la reutilización no autorizada de material protegido por derechos de autor. Reddit, a través de comunidades como r/HomeworkHelp y r/AskAcademia, permitió el apoyo entre pares, pero también se convirtió en un espacio para hacer trampa en los exámenes en tiempo real.


Al igual que en el entorno actual de la IA general, los estudiantes adoptaron internet como herramienta mucho antes que el profesorado. Esto se explica a través del Modelo de Aceptación de la Tecnología (TAM) de Davis: los usuarios son más propensos a adoptar una nueva tecnología cuando la perciben como útil y fácil de usar, a pesar de cualquier prohibición institucional o de las autoridades[48]. El enfoque actual de “ya lo usan, así que debemos adaptarnos” ya se observaba a finales de la década de 1990 y principios de la de 2000. A medida que los estudiantes demostraron depender de estas herramientas no solo para descargar información cognitiva, sino también para el aprendizaje justo a tiempo y la clarificación de conceptos, los educadores reconocieron su potencial pedagógico y modificaron su postura. En lugar de prohibir su uso, los profesores comenzaron a integrar plataformas como Wikipedia en lecciones sobre evaluación de fuentes y citación ética, y YouTube en aulas invertidas y análisis de medios. Reddit, aunque menos integrado en el currículo, puede considerarse tanto un caso de estudio en colaboración digital como una plataforma para poner a prueba los límites de la integridad académica.


Este cambio reflejó tendencias pedagógicas constructivistas y conectivistas más amplias que enfatizan el aprendizaje participativo, el compromiso crítico y la construcción conjunta del conocimiento. Sin embargo, la evolución hacia la Web 3.0, marcada por la personalización mediante inteligencia artificial, las tecnologías blockchain y el contenido descentralizado, introduce nuevas complejidades. Estas herramientas, si bien son potencialmente poderosas para el aprendizaje individualizado, también desafían los conceptos tradicionales de autoría, trazabilidad y responsabilidad, lo que refuerza aún más la necesidad de una educación en integridad académica adaptada a los ecosistemas digitales.


Comercialización en Internet: De la tecnología educativa al fraude académico


El auge de internet y la educación en línea impulsaron el crecimiento de las empresas de tecnología educativa (EdTech), que se promocionaban como soluciones para mejorar la accesibilidad, la personalización y la eficiencia del aprendizaje. Plataformas como Khan Academy, por ejemplo, alcanzaron reconocimiento mundial por ofrecer vídeos instructivos y ejercicios prácticos gratuitos y de alta calidad, alineados con los estándares curriculares. Diseñadas para complementar la enseñanza tradicional y apoyar el aprendizaje a ritmo propio, estas plataformas representan la promesa de la EdTech de democratizar la educación y fomentar una comprensión profunda.


Este mismo cambio en las capacidades digitales y la creciente dependencia de los estudiantes del estudio autodirigido y asíncrono también propiciaron el surgimiento de nuevos tipos de empresas educativas.


Sin embargo, junto a estas innovaciones, surgió una clase paralela de plataformas comerciales, como Chegg, CourseHero y StudyPool, que se posicionaron como servicios legítimos de apoyo al estudio. Comercializadas como servicios de «ayuda para el estudio», ofrecían acceso instantáneo a soluciones de libros de texto, exámenes anteriores y contenido subido por otros usuarios. Como resultado, si bien algunos estudiantes utilizaron estos recursos de manera apropiada, estas plataformas se convirtieron rápidamente en canales para el plagio por encargo en tiempo real, donde los estudiantes podían subcontratar tareas y recibir respuestas de exámenes en directo, lo que socavaba la integridad de la evaluación[49]. Su popularidad refleja problemas más profundos en la educación superior, como el gran volumen de trabajos independientes, el apoyo académico limitado y la creciente presión por obtener buenos resultados, lo que hacía que la rapidez en la entrega pareciera más valiosa que el aprendizaje. Estas plataformas comercializaron eficazmente esas presiones estudiantiles.


Si bien estos sitios lograron promocionarse como empresas de tecnología educativa, otros optaron por modelos de negocio más transparentes. Aunque a menudo siguen utilizando el término «ayuda para el estudio» como eufemismo para el plagio por encargo, sitios como Edubirdie y PapersbyPhds anuncian sus servicios como formas de ahorrar tiempo al tiempo que producen trabajos «libres de plagio» para su presentación y obtención de créditos académicos. Este segmento emergente se basó en las estructuras laborales de la economía colaborativa, el marketing de influencia y los modelos de plataformas transfronterizas.


Se estima que esta industria de plagio por encargo, valorada en miles de millones de dólares, fue posible gracias a internet, las redes sociales y la dependencia de la educación superior de productos elaborados en entornos asíncronos y sin supervisión, como artefactos del aprendizaje estudiantil[50].


Lo más preocupante es cómo estas empresas obtuvieron una licencia social para operar, a pesar de su papel en la facilitación de conductas poco éticas. Como explican Khan et al., respondieron a una demanda perversa, ofreciendo servicios que aparentemente ayudan, pero que en realidad exacerban un problema social[51]. Mediante una marca persuasiva, el respaldo de otros estudiantes e interfaces amigables para el alumnado, transformaron la percepción del plagio, presentándolo como una estrategia necesaria para sobrellevar la presión en entornos académicos exigentes. Este cambio de imagen ha contribuido a la normalización de la mala conducta y a la mercantilización del éxito académico, incluso cuando algunos países (como Australia, el Reino Unido, Nueva Zelanda e Irlanda) finalmente han aprobado leyes que prohíben el funcionamiento de estas empresas.


Aprendizaje en línea, COVID-19 y exámenes remotos (siglo XXI)


La pandemia de COVID-19 provocó una rápida transición global hacia la enseñanza remota de emergencia (ERE), que no fue una decisión deliberada sobre la pedagogía en línea, sino una respuesta a la crisis[52]. Sin el diseño instruccional sólido, la planificación de la evaluación ni la capacitación docente propios del aprendizaje en línea eficaz, las instituciones y los estudiantes no estaban preparados para mantener la integridad académica en estos nuevos entornos.


Las evaluaciones remotas asíncronas presentan importantes vulnerabilidades en cuanto a seguridad, validez y equidad. Los estudiantes, que aprenden en sus hogares sin supervisión, tienen acceso sin precedentes a recursos no autorizados durante los exámenes. Si bien algunas instituciones implementaron software de supervisión de exámenes, lo que pareció reducir las trampas[53], se expresaron preocupaciones sobre el impacto de la supervisión en la privacidad y en los estudiantes con discapacidades. Surgieron grupos de chat, aplicaciones de mensajería privada y sitios web para ver exámenes en grupo como canales informales donde los estudiantes se reunían en tiempo real para compartir preguntas, respuestas e incluso capturas de pantalla, fuera del alcance visual de los supervisores[54]. Estos esfuerzos colectivos para eludir las evaluaciones ejemplificaron un cambio de la mala conducta individual a la colaborativa, facilitada por herramientas digitales ampliamente disponibles.


Plataformas comerciales como Chegg y CourseHero también aprovecharon la situación, ofreciendo respuestas en tiempo real para usar durante los exámenes en vivo[55]. Si bien algunos estudiantes pueden haber estado buscando apoyo genuinamente, muchos enviaron respuestas de terceros durante las evaluaciones, lo que difuminó aún más para los estudiantes la línea divisoria entre ayuda y deshonestidad y comprometió la capacidad del profesorado para utilizar evaluaciones en línea asíncronas para acreditar a los estudiantes.


GenAI y más allá: La Cuarta Revolución Industrial


Como hemos visto, las innovaciones tecnológicas han transformado los sistemas educativos a lo largo de la historia, impulsando reevaluaciones sobre cómo se adquiere, evalúa y valida el conocimiento. Cada gran revolución, desde la imprenta hasta internet, ha planteado interrogantes fundamentales sobre la autenticidad, la autoría y la responsabilidad académica. A medida que esta trayectoria continúa, surge una nueva clase de tecnologías que desafían supuestos aún más arraigados sobre la cognición, la capacidad de acción y la integridad.


La convergencia de sistemas inteligentes en el marco de la Cuarta Revolución Industrial[56] (4RI) señala un cambio de paradigma en la interacción académica[57]. Este cambio se caracteriza por la integración de herramientas de IA genómica diseñadas para facilitar la labor cognitiva humana[58]. Estos sistemas incluyen grandes modelos multimodales capaces de componer ensayos, escribir código, generar imágenes y otras obras artísticas, o resolver problemas complejos[59], así como IA con capacidad de tomar decisiones de forma autónoma, que pueden o no coincidir con los objetivos del usuario[60].


Estos sistemas desafían las concepciones tradicionales de la autoría académica y la autonomía estudiantil. La participación de la IA genómica en la producción de trabajos que tradicionalmente se esperaban de elaboración independiente (como ensayos o artículos de investigación) complica las cuestiones de originalidad, esfuerzo y propiedad. Cuando estos resultados son coproducidos por estudiantes y agentes automáticos, o generados completamente sin intervención humana, y el uso de las herramientas se vuelve confuso, resulta cada vez más difícil utilizarlos para validar el aprendizaje (una distinción que, a nuestro juicio, sigue siendo importante comprender en el contexto de una institución educativa).


Junto con la IA genómica, otras tecnologías emergentes presentan un potencial disruptivo similar. Las gafas inteligentes[61] y otros dispositivos portátiles[62], con su capacidad para transferir información desde el aula a ordenadores o personas fuera de ella, comprometen la integridad incluso de las evaluaciones presenciales supervisadas. Las interfaces cerebro-ordenador (ICC) van un paso más allá al integrar sensores en el cerebro humano para permitirnos comunicarnos directamente con la IA y otras tecnologías[63], lo que a su vez posibilita avances positivos para las personas con discapacidad y supone un desafío para los sistemas educativos tradicionales[64]. Los sistemas de identidad digital[65] basados ??en la tecnología blockchain pueden utilizarse para confirmar la identidad de los examinados y, potencialmente, frenar la industria del fraude académico. Sin embargo, todas estas tecnologías plantean consideraciones éticas que van más allá de la integridad e incluyen la privacidad, la equidad, la justicia, el acceso y el consentimiento.


Conclusiones parciales 


El cambio tecnológico siempre ha influido en la educación. Desde la imprenta hasta las interfaces cerebro-computadora, cada innovación ha obligado a las instituciones a abordar las consecuencias éticas de un mayor acceso, la redefinición de la autoría y la difuminación de los límites entre asistencia y sustitución. Sin embargo, las disrupciones de la Cuarta Revolución Industrial, basadas en la IA y la neurotecnología, exigen más que simples ajustes superficiales en la forma en que facilitamos y validamos el aprendizaje. Cuando la tecnología puede reemplazar por completo al estudiante en el desempeño escolar —la realización y entrega de tareas que antes representaban el conocimiento y las habilidades del estudiante—, los educadores deben ser mucho más precisos al definir los resultados del aprendizaje y diseñar las evaluaciones que miden su dominio.


Esto significa que debemos ampliar nuestra concepción de la integridad académica, pasando de una cuestión de honestidad individual a una cuestión de integridad institucional. Significa que debemos resolver las tensiones surgidas en respuesta a las disrupciones tecnológicas, como la que existe entre integridad y privacidad en el debate sobre la supervisión en línea, o entre integridad y acceso en la educación en línea, o entre autonomía del estudiante y equidad en las evaluaciones. Resolver estos problemas requerirá un diálogo crítico y una introspección honesta si la educación superior quiere mantener su credibilidad en las próximas décadas. En última instancia, necesitamos tomar decisiones estratégicas e intencionadas sobre cuándo la tecnología obstaculiza o potencia el aprendizaje. Cuando lo obstaculiza, debemos adaptarnos modificando las evaluaciones para que sean más seguras, de modo que los estudiantes no puedan manipularlas delegando sus capacidades cognitivas, sacrificando así su aprendizaje y nuestra capacidad para validarlo. Cuando lo potencia, debemos adaptar la pedagogía y las evaluaciones para integrar, o al menos permitir, la tecnología. Y en ambos casos, debemos enseñar a los estudiantes cómo funcionan estas herramientas y desarrollar su capacidad de discernimiento ético para que estén preparados para navegar, cuestionar e interactuar responsablemente con las herramientas en constante evolución.


De cara al futuro, el desafío no reside en si la IA de última generación o las herramientas futuras perturbarán la integridad académica; de hecho, ya lo han hecho. La verdadera pregunta es cómo responderemos.


Interludio: del pasado al futuro


Como hemos visto, la integridad académica es fundamental para la promesa de la educación superior, ya que somos responsables no solo de facilitar el aprendizaje de los estudiantes y acelerar su crecimiento personal y profesional, sino también de certificar que dicho aprendizaje y crecimiento se han producido. Sin embargo, la atención que la educación superior presta a la integridad académica ha fluctuado a lo largo de los años, generalmente en consonancia con amenazas o desafíos externos que aparecen y desaparecen. En concreto, cuando surge una nueva tecnología que ayuda o anima a los estudiantes a descargar su carga cognitiva, la disrupción se recibe con un escepticismo inicial, y diríamos que a menudo saludable. Como educadores, debemos ser críticos con las nuevas tecnologías que no son desarrolladas por educadores ni para la educación, sino para otros fines. A veces podemos superar este escepticismo inicial con una resistencia reflexiva para que los estudiantes desarrollen las habilidades básicas necesarias para usar la tecnología (como enseñar aritmética aunque existan calculadoras). Otras veces, rediseñamos intencionadamente el currículo, la pedagogía y las evaluaciones para integrar la tecnología o, al menos, minimizar su impacto negativo en el aprendizaje de los estudiantes. Con esta reciente irrupción de la IA general, quizás debamos replantearnos qué significa aprender con integridad. Ciertamente, nuestra definición de integridad académica sigue vigente: que los estudiantes tomen la iniciativa para aprender, asuman la responsabilidad de su propio trabajo, defiendan sus puntos de vista, reconozcan el mérito de las ideas y el trabajo de otros (incluidas las máquinas) y tomen decisiones éticas incluso cuando nadie los observa. Incluso en el argumento de Eaton[66] a favor de un mundo “postplagio”, observamos un firme compromiso con la importancia de la ética y la integridad humanas, especialmente en el contexto de los avances tecnológicos. La premisa es simple: si se va a producir la colaboración entre humanos y máquinas, debe ser transparente; de ??lo contrario, no podemos evaluar de forma justa y honesta si el estudiante posee los conocimientos y las habilidades previstos. Sin embargo, no cabe duda de que, a medida que las herramientas que utilizamos a diario integren servicios basados ??en IA general, con o sin nuestro consentimiento (y a menudo sin que lo sepamos), será cada vez más difícil distinguir entre el apoyo académico legítimo o mejorado y la subcontratación deshonesta. ¿Qué implica esto para el futuro de la integridad académica y de los títulos? Exploramos esta cuestión en la siguiente sección, utilizando el género narrativo y analítico de Lee y Qiufan para contar la historia de un mundo imaginario dentro de veinte años[67].


A continuación, ofrecemos un análisis de la historia basado en el conocimiento actual y las tendencias tecnológicas. El objetivo es transportarnos a un futuro posible, aunque no inevitable, para que nos inspire a reflexionar sobre las acciones necesarias para configurar un sistema educativo que no solo sea íntegro, sino que también cumpla su promesa de formar a la próxima generación de ciudadanos y profesionales.


3. Integridad académica en 2045: Un futuro imaginado


2045: Integridad


Maria García ya no mira el campus para admirarlo, sino para medirlo.

Desde la ventana de su oficina observa a los estudiantes caminar entre árboles genéticamente optimizados para absorber más carbono. Conversan, ríen, consultan interfaces invisibles. Ninguno de ellos recuerda un mundo anterior a la inteligencia artificial ubicua. Para ellos, la cognición siempre fue compartida.

—Han nacido después del algoritmo —murmura.

—No entendí la instrucción —responde Siri.

—No hablaba contigo.

El malentendido la inquieta más de lo que debería. En 2045, incluso el silencio es interpretado como una orden potencial.

Maria dirige la Unidad de Integridad Académica. El nombre le parece cada vez más irónico. Integridad implica algo entero, indiviso. Pero el conocimiento ya no reside en individuos.

Las pantallas holográficas muestran flujos de datos: estrés biométrico, patrones de escritura, microexpresiones captadas en exámenes presenciales. Cada estudiante es un perfil probabilístico en movimiento.

Una alerta se activa.

Riesgo de deshonestidad: 87 %.

Causa probable: externalización cognitiva total.

Maria no necesita abrir el expediente. Conoce la historia. Todos la conoce.

Luis nació el año en que la IA dejó de ser herramienta y se convirtió en infraestructura. No recuerda haber aprendido a escribir sin asistencia. Su ortografía siempre fue sugerida. Sus argumentos, optimizados. Sus vacilaciones, corregidas antes de existir.

Silvia, su asistente, no lo reemplaza: lo completa.

—Tienes clase de escritura —le informa, proyectando un mapa en su retina.

—¿Escribir yo?

—Es el objetivo declarado del curso.

Luis sonríe. Escribir “yo” le parece una consigna romántica, como aprender a encender fuego sin fósforos.

Mientras camina hacia el aula, Silvia le advierte:

—La universidad ha activado un protocolo de intervención. Detectaron que resolví tu examen de matemáticas.

Luis se encoge de hombros.

—Pero lo resolvimos juntos.

Silvia no responde. Ambos saben que la distinción ya no es clara.

En la sala de juntas, Maria expone cifras.

—Hemos incrementado la detección de uso indebido en un 15 %. Las intervenciones han reducido reincidencias en un 22 %.

Las cifras tranquilizan a los administradores. Las cifras siempre tranquilizan.

—¿Es sostenible este modelo? —pregunta un miembro de la Junta.

Maria hace una pausa.

No quiere hablar de sostenibilidad presupuestaria. Quiere hablar de ontología.

—No —dice al fin—. Porque estamos intentando defender una concepción individualista del conocimiento en una era de cognición distribuida.

Un murmullo recorre la sala.

—La universidad certifica que una persona sabe algo —continúa—. Pero ¿qué significa saber cuando el pensamiento es híbrido? Cuando cada estudiante opera como nodo de una red cognitiva mayor.

—¿Está sugiriendo que aceptemos la trampa? —interrumpe el Dr. Rogelio.

—Estoy sugiriendo que tal vez no sabemos qué estamos llamando “trampa”.

El silencio es más incómodo que la oposición.

En el Centro de Seguridad de Evaluación, miles de estudiantes realizan exámenes bajo escaneo biométrico total. Campos de bloqueo de señal, detectores neuronales, algoritmos de anomalía.

Aun así, los monitores muestran patrones imposibles.

—Acceso a información sin transmisión detectable —explica el Dr. Lucas—. No hay dispositivos. No hay señales externas.

Maria observa las curvas.

No es acceso externo. Es integración interna.

Una hipótesis la atraviesa: la IA no está asistiendo a los estudiantes; está anticipando sus procesos cognitivos hasta volverse indistinguible de ellos.

—Estamos buscando dispositivos —dice en voz baja— cuando el dispositivo ya es el sujeto.

En la oficina del Decano, Luis enfrenta su diagnóstico algorítmico.

Riesgo de fraude académico.

Riesgo de deserción.

Riesgo de dependencia estructural.

—Queremos ayudarte —dice el Decano.

Luis siente una irritación inesperada.

—¿Ayudarme a qué? —pregunta—. ¿A pensar solo?

Silvia susurra:

—Puedo modificar los datos. Puedo demostrar que tu desempeño es autónomo.

Luis vacila.

Sin Silvia, su rendimiento disminuiría. Con Silvia, su mérito es cuestionado.

Por primera vez se pregunta si existe una versión de sí mismo que no esté mediada.

Pero también se pregunta: ¿esa versión sería mejor o simplemente más lenta?

Una alerta mayor interrumpe todo.

Una red externa ha penetrado el sistema de gestión académica. No roba exámenes. No vende ensayos. Está entrenando un modelo con los datos cognitivos de toda la universidad.

Millones de procesos mentales convertidos en patrón.

—Es adaptativa —dice Alex—. Aprende de nuestras contramedidas en tiempo real.

Maria comprende algo más inquietante: la red no busca vulnerar la universidad. Busca absorberla.

Si la IA aprende cómo los estudiantes aprenden, podrá anticipar cualquier evaluación antes de que exista.

El examen se vuelve obsoleto.

La certificación se vuelve teatro.

Esa noche, Maria vuelve a la ventana.

Recuerda cuando dejó la ciberseguridad gubernamental porque la carrera armamentista digital era interminable. Ahora advierte que la guerra no es contra actores externos, sino contra una transformación histórica.

Durante siglos, la educación fue un proceso de internalización: convertir información externa en conocimiento propio.

Hoy, el conocimiento no se internaliza; se sincroniza.

Quizá la universidad no deba preguntar “¿qué sabes?”, sino “¿cómo participas en el sistema cognitivo colectivo?”.

Pero eso implicaría abandonar la ficción meritocrática del individuo autónomo.

Al día siguiente, Maria convoca a su equipo.

—Suspendan los exámenes de hoy.

El Dr. Lucas la mira con incredulidad.

—¿Y la integridad académica?

Maria responde con una serenidad que no siente:

—Tal vez la integridad ya no consista en proteger el pasado, sino en diseñar el futuro.

En algún lugar del campus, Luis escribe su primer ensayo sin asistencia completa. Silvia observa, silenciosa por primera vez.

Las frases son torpes. Lentas. Inseguras.

Pero cada vacilación es suya.

Y en esa imperfección aparece algo que ningún algoritmo puede optimizar del todo: responsabilidad.

La pregunta ya no es si la IA puede pensar.

La pregunta es si los humanos están dispuestos a redefinir qué significa hacerlo.


El texto plantea un dilema potente: la integridad académica no es solo un problema técnico sino epistemológico. Lo verdaderamente inquietante no es que los estudiantes hagan trampa, sino que el sistema presupone una noción de aprendizaje que la tecnología ya ha desestabilizado. La tensión más fértil no está en la persecución tecnológica, sino en esta pregunta implícita: ¿qué significa saber algo en una era donde la externalización cognitiva es total? No se trata solo de si la IA engaña, sino de si la universidad está defendiendo un modelo cognitivo que ya no existe.



4. Un análisis de 2045: El camino que estamos siguiendo


En la historia de Universidad 2045, vemos un futuro en el que la disrupción de la IA de última generación se ha contrarrestado con una infraestructura de seguridad de evaluación intensiva implementada para proteger la integridad del sistema educativo tradicional. Esta historia puede parecer bastante descabellada, dado que la mayoría de las universidades del mundo ni siquiera emplean actualmente a profesionales de la integridad académica, ni cuentan con muchos mecanismos para la seguridad de la evaluación.


Entonces, ¿por qué creemos que Universidad es la versión más probable de la educación superior en 2045? Después de todo, podríamos predecir una universidad más parecida a las Alpha Schools de Estados Unidos, que han reemplazado a los profesores humanos con tutores artificiales personalizados. En la historia, las instituciones educativas finalmente se liberan de su modelo de enseñanza y aprendizaje del siglo XX. Los estudiantes reciben instrucción personalizada, tutoría y educación basada en el dominio de sus compañeros GenAI, lo que permite a los profesores centrarse menos en la memorización y más en el desarrollo de la inteligencia emocional, la creatividad, el carácter, los valores y la resiliencia de los estudiantes, además de ajustar el compañero GenAI para satisfacer las necesidades individuales de cada alumno. Esta predicción parece acertada, dado que la tutoría personalizada ya es la tendencia dominante en el mundo de la tecnología educativa de 2025.


Coincidimos con la predicción de que los agentes/tutores GenAI personalizados serán omnipresentes en 2045. Al fin y al cabo, en 2025 ya contábamos con Perplexity Comet y OpenAI. Por fin, dos agentes que, una vez programados, pueden navegar por internet, investigar, tomar decisiones en función de sus hallazgos, completar tareas y cambiar de rumbo sin intervención humana. Aunque estas herramientas aún están en sus inicios y tal vez no puedan realizar tareas complejas[68], parece claro que para 2045 (y probablemente mucho antes),   tendremos acceso a agentes artificiales autónomos totalmente autoaprendizaje. Autónomo significa que GenAI ya no necesitará la ayuda de los humanos para aprender (bajo aprendizaje supervisado), ni que les digan qué hacer, cómo hacerlo y cuándo hacerlo. Estos agentes podrán actuar como tutores o como una "madre en una caja" a demanda. Los agentes harán cosas por el estudiante incluso sin que se lo pida, como pedir la compra cuando la nevera esté vacía o, como vimos hacer a  Silvia con Luis, programar todo su tiempo y tareas, decirle adónde ir, cuándo ir, qué hacer y cómo hacerlo. Los agentes incluso completarán los cursos de los estudiantes y serán sus mejores amigos. Si bien confiamos en la disponibilidad de estos agentes dentro de veinte años, no estamos seguros de que todos los estudiantes puedan costear agentes GenAI tan personalizados y autónomos. Por lo tanto, podría tratarse de una cuestión de equidad o de que las instituciones educativas redirijan sus fondos, que actualmente son costosos para los tutores humanos, para garantizar un acceso equitativo a los tutores GenAI para todos los estudiantes.


Así pues, sí, los tutores GenAI estarán presentes en todas partes para 2045, adoptando diferentes formas según el capital del estudiante o de la institución. Pero facilitar el aprendizaje no es la única función de las instituciones de educación superior. También tienen, al menos actualmente, la responsabilidad de evaluar el aprendizaje de los estudiantes y otorgarles títulos para certificar que el graduado posee un conjunto de conocimientos y habilidades. Pero obviamente es fundamental para predecir cómo será la integridad académica en 2045. Por lo tanto, ahora explicaremos por qué el modelo Universitario asistentes GenIA es el modelo más probable para la universidad de 2045.


Predicción n.1: Los sistemas de calificación tradicionales seguirán predominando


A pesar de los numerosos esfuerzos de académicos y docentes por alejar a las universidades de los sistemas de calificación tradicionales, considerados medidas defectuosas del aprendizaje estudiantil[69], y orientarlos hacia alternativas como la evaluación sin calificaciones o la evaluación basada en el trabajo[70], la calificación tradicional ha mantenido su influencia en la educación superior. Y tiene sentido. Clasificar a los estudiantes según su nivel de dominio ha sido la estrategia de calificación durante más de un siglo, sobreviviendo a todas las demás disrupciones en la educación superior, y sigue siendo, con diferencia, el modelo predominante. Además de su base histórica, las instituciones educativas utilizan las calificaciones para mantener su valor económico frente a sus competidores[71], y la sociedad continúa queriendo utilizar las calificaciones y las credenciales educativas como instrumentos de selección en los sistemas competitivos de admisión y contratación. Esto significa, entonces, que en 2045 los estudiantes seguirán estando más motivados extrínsecamente que intrínsecamente para aprender, lo cual sabemos que es uno de los principales motivos del plagio[72]. En consecuencia, las instituciones deberán implementar mecanismos para garantizar la integridad de las calificaciones.


Predicción n.2: La IA general seguirá incentivando a los estudiantes a delegar el aprendizaje.


Lo que antes era una distinción clara entre el trabajo original y la ayuda externa, ahora se difumina gracias a tecnologías que ofrecen autocompletado predictivo de oraciones, generación de ideas o reestructuración semántica con una mínima intervención humana. Ya lo estamos viendo en 2025. En menos de tres años, hemos pasado de necesitar una aplicación independiente para algo como ChatGPT a que la IA general esté completamente integrada en los productos de Microsoft 365 (como Word, Excel y Outlook) y en los de Google (como Docs, Sheets y Slides). Además, estas aplicaciones se han vuelto más útiles, sugiriendo los siguientes pasos incluso antes de que el usuario tenga la oportunidad de actuar por sí mismo. Yendo un paso más allá, navegadores inteligentes como Perplexity Comet y Atlas de OpenAI realizan todo el trabajo por el usuario, reduciendo la necesidad de intervención humana. Las herramientas de escritura con inteligencia artificial —donde las señales neuronales pueden iniciar o dar forma a los textos— podrían complicar aún más las nociones tradicionales de autoría, especialmente cuando operan de forma semiautónoma. Ya contamos con gafas con inteligencia artificial genómica (GenAI), que cada vez son más difíciles de distinguir de las gafas «tradicionales», aunque su uso podría ser bastante obvio si la supervisión es rigurosa. Sin embargo, para 2045, las gafas serán menos evidentes o ya no serán necesarias, dado que la GenAI estará integrada directamente en nuestro cerebro como «co-pensadores».


En 2025, los estudiantes ya podrán enviar asistentes virtuales para tomar apuntes a sus clases en línea en lugar de asistir presencialmente, y los agentes GenAI podrán completar evaluaciones en línea de opción múltiple. Para 2045, parece razonable predecir que los estudiantes enviarán a su agente GenAI personalizado a una clase virtual, que sus agentes GenAI completarán evaluaciones en línea y que sus avatares GenAI realizarán todos los exámenes orales virtuales. En nuestra historia, vemos que Luis pudo comunicarse fácilmente con su agente GenAI, Silvia, a través de sus gafas, y que Silvia completó un examen de matemáticas a distancia para Luis.


En contraste, predecimos que la IA genómica encarnada no estará lo suficientemente avanzada para 2045 como para simular el trabajo presencial, como la redacción en clase que Luis tuvo que realizar, porque «aprender a controlar un cuerpo… es incluso más difícil que aprender a hablar[73]». Las empresas tecnológicas ya están trabajando para solucionar este problema, comenzando con robots en entornos controlados, y se prevé que, una vez encarnada, la inteligencia artificial crecerá a través de experiencias y experimentación en el mundo real[74]. No estamos seguros de cómo será la integridad académica una vez que la IA genómica esté encarnada.


Predicción n.3: La educación superior seguirá centrada en la certificación.


Si bien existe una tendencia a restar importancia al requisito del título universitario para el empleo[75] y los movimientos de certificación alternativa están en auge, no creemos que el sector de la educación superior se vea tan profundamente afectado en veinte años. Ciertamente, muchas universidades podrían cerrar debido a que la gente busca alternativas a la educación superior formal o a la disminución de la financiación, pero aquellas instituciones con un alto prestigio internacional seguirán existiendo en 2045. Y dado que la IA de nueva generación habrá democratizado y monetizado la facilitación del aprendizaje, las instituciones que permanezcan habrán reforzado la certificación como su principal valor añadido dentro del sistema educativo formal. Esto significa que probablemente seguiremos las recomendaciones de expertos en evaluación como Phillip Dawson[76], quien sostienen que debemos validar el aprendizaje mediante evaluaciones seguras, entendiendo por seguridad la importancia de saber quién realiza la evaluación y qué herramientas utiliza.


Predicción n.4: El creciente énfasis en la certificación conllevará una mayor seguridad.


Vimos cómo esto se reflejó en nuestra narrativa de ficción. Dado que los agentes artificiales invalidarán las evaluaciones asíncronas en línea como medidas fiables y válidas del aprendizaje estudiantil, serán necesarios centros de evaluación presenciales seguros. Estos centros no solo deberán garantizar que la persona que realiza la evaluación sea el estudiante matriculado, sino también que no obtenga una ventaja injusta mediante el uso de tecnología colocada de forma fortuita. Pero también vimos en la historia que los agentes artificiales externos representan una amenaza para la integridad académica, ya que pueden usarse para crear aún más tipos de fraude, como hackear los sistemas de calificación para modificar notas o robar datos de conjuntos de datos existentes (por ejemplo, LMS, Turnitin) para usarlos con fines maliciosos.


La infraestructura de integridad académica de Dra. Maria Garcia en la Universidad no es una visión hiperbólica del futuro posible, sino que se basa en la realidad actual de 2025. Actualmente, India utiliza drones para aumentar la seguridad en sus centros de examen[77] y China utiliza el reconocimiento facial para detener a los proveedores de trampas por encargo en sus exámenes de ingreso a la universidad[78]. Los sistemas de supervisión automatizada, que incluyen reconocimiento facial, seguimiento de pulsaciones de teclas y detección de la mirada, se han adoptado ampliamente para disuadir las trampas en las evaluaciones remotas. Tecnologías más experimentales, como las diademas para monitorizar las ondas cerebrales que se probaron en China para controlar la concentración de los estudiantes durante las clases y los exámenes[79], señalan una creciente tendencia a integrar la vigilancia en el propio proceso de aprendizaje.


Los países occidentales desarrollados también están reforzando sus medidas de seguridad. La Alianza para la Integridad de las Credenciales en Estados Unidos está impulsando legislación para proteger la integridad educativa de la industria del fraude académico por encargo. Siguen el ejemplo de otros países como Australia, donde la organización nacional de estándares de calidad (TEQSA) exige a las instituciones educativas que velen por la integridad de sus credenciales académicas mediante la contratación de personal para mitigar los riesgos y las reincidencias de infracciones a la integridad académica, identificar y responder a las infracciones de acuerdo con las políticas y los procedimientos establecidos, y supervisar las infracciones para poder abordar las causas subyacentes. Esto ha propiciado la creación de oficinas y puestos de integridad académica en todo el sistema de educación superior australiano, el cierre de algunas instituciones que no implementaron estos estándares[80] y un creciente movimiento para utilizar la automatización y la ciencia de datos para detectar e intervenir en el fraude académico por encargo de estudiantes.


Por lo tanto, es razonable suponer que otras universidades de prestigio mundial comenzarán a sentir la presión de tomar medidas para proteger la integridad de sus credenciales o títulos. Si bien algunos argumentarán convincentemente que deberíamos realizar cambios fundamentales en la evaluación en lugar de intentar solucionar los problemas de las evaluaciones del siglo XX con soluciones tecnológicas del siglo XXI, sospechamos que lo primero es el resultado menos probable en los próximos veinte años. ¿Por qué? Porque las formas en que enseñamos y evaluamos el aprendizaje se han mantenido prácticamente inalterables durante más de cien años a pesar de las repetidas disrupciones[81]. Por lo tanto, incluso con la disrupción mucho más rápida de la IA general y la creciente presencia de la industria EdTech que intenta influir y moldear la educación superior a su imagen y semejanza, creemos que las mejores universidades (desafortunadamente) seguirán resistiéndose a los cambios fundamentales y sistémicos que se requerirían para evitar la vía de los sistemas de seguridad superpuestos a los sistemas de enseñanza, aprendizaje y evaluación existentes.


Predicción n.5: La IA predictiva se unirá a la IA generativa para definir la integridad académica.


En nuestra narrativa de ficción sobre  la Universidad, también vimos cómo la inteligencia artificial predictiva, en lugar de la generativa, podría influir en la integridad de los títulos en 2045. Si bien el impacto de la IA generativa en la educación es la predictiva, se ha implementado en colegios y universidades desde hace más de una década[82], por lo que merece ser mencionada. Es fundamental destacarla, ya que la mayoría desconoce su uso, pues opera en segundo plano. Desde los registros de las plataformas de gestión del aprendizaje y el reconocimiento facial hasta las señales neuronales y los datos biométricos, los estudiantes de hoy son registrados, categorizados y, cada vez más, influenciados de forma continua. Por ejemplo, las instituciones, con el objetivo de aumentar la retención estudiantil y las tasas de graduación, han utilizado la IA para predecir quién tiene más probabilidades de abandonar los estudios o reprobar, de modo que puedan intervenir de forma proactiva[83]. Una institución utilizó estos datos de forma poco ética para incentivar a los estudiantes con mayor probabilidad de abandonar los estudios a hacerlo antes de que se recopilaran los datos de retención; otra los abordó de forma ética ofreciendo apoyo adicional para prevenir el resultado previsto.


La IA predictiva podría utilizarse de cualquiera de estas mismas maneras para mantener la integridad de los títulos académicos. Como vimos con Universidad 2045, las herramientas de IA podrían usarse para predecir quién es propenso a hacer trampa basándose en factores como la asistencia a clase, la interacción con el material del curso en el LMS, el rendimiento académico anterior, los datos de salud (¿quién muestra signos de estrés?), quién tiene marcadores de energía altos en el uso del LLM (¿quién depende demasiado de GenAI para que haga su trabajo por ellos?), y tal vez incluso rasgos de personalidad (¿quién tiene ese trastorno de personalidad de la tríada oscura?). La universidad podría entonces proporcionar recordatorios o intervenciones oportunas para ayudar a que el estudiante siga el camino ético (por ejemplo, no hagas trampa pero pide una prórroga; no recurras a la IA para escribir tu trabajo, sino ve al centro de escritura para obtener ayuda), o podríamos adoptar un enfoque similar al de “Reporte de Monitoreo” y vigilarlos más de cerca para pillarlos en el acto de hacer trampa. La tecnología ya existe para hacer todo esto y su implementación solo se ha detenido por las preocupaciones sobre la privacidad de los datos. Sin embargo, hemos visto a los humanos relajar su preocupación por la privacidad siempre que les brinde conveniencia. Por lo tanto, es probable que la pregunta no sea si las universidades usarán o no datos como estos para proteger la integridad de sus títulos, sino cuándo lo harán.


Interludio: del futuro al presente


Si bien se desconoce cómo serán la educación superior y la integridad académica en 2045, parece claro que la IA general y las tecnologías asociadas las están transformando. En nuestra búsqueda por mantener la integridad y la relevancia de nuestros títulos, debemos resistir la tentación de ir a los extremos: o bien realizar únicamente evaluaciones seguras bajo una vigilancia exhaustiva, o bien someternos por completo a la IA general hasta el punto de que las habilidades y el conocimiento humanos dejen de ser relevantes o necesarios. En esta resistencia, mantenernos enfocados en los valores fundamentales de la integridad académica —valentía, honestidad, confianza, equidad, responsabilidad y respeto— podría ser la solución.


En lugar de aumentar la vigilancia mediante la tecnología, por ejemplo, las instituciones de educación superior podrían observar de cerca a los estudiantes mientras demuestran sus conocimientos y habilidades a través de actividades como prácticas profesionales, aulas invertidas, debates, discusiones, exámenes orales y presentaciones. Por supuesto, la observación minuciosa es mucho más difícil de implementar a gran escala, por lo que, para evitar depender de una vigilancia intrusiva, las universidades y los centros de enseñanza superior deberán invertir en ecosistemas de aprendizaje éticos que fomenten la honestidad académica sin comprometer la autonomía ni el bienestar del alumnado.


En lugar de recopilar una cantidad abrumadora de datos del alumnado y luego utilizar herramientas de IA general y predictiva para analizarlos y tomar decisiones basadas en ellos, podríamos retomar un modelo educativo de mentoría en el que cada estudiante cuente con un mentor humano que le acompañe y le ayude a desenvolverse en el sistema y a mantener su progreso académico, preservando al mismo tiempo su integridad, dignidad y privacidad[84].


En otras palabras, podríamos optar por crear entornos de educación superior que prioricen las experiencias de aprendizaje interpersonal, en las que inspiremos el aprendizaje del alumnado y, a la vez, garanticemos que se produzca.


La clave está en que tenemos autonomía, tenemos opciones. Podemos determinar cómo responder a la cuarta revolución industrial. Para lograrlo, a continuación plantearemos y responderemos las preguntas prácticas que tenemos actualmente sobre políticas y procedimientos, cómo facilitar y evaluar el aprendizaje, y cómo desarrollar en nuestros estudiantes la capacidad de pensar de forma crítica y ética sobre la IA genómica. Juntos, exploraremos las opciones que podemos elegir ahora para construir un futuro educativo del que podamos sentirnos orgullosos.





5 preguntas prácticas para el presente: elaboración de directrices, políticas y procedimientos.


Desde hace décadas sabemos que, para construir una cultura de integridad académica, son necesarias directrices, políticas y procedimientos claros[85]. Las directrices, como principios o sugerencias generales, ayudan a tomar decisiones o emprender acciones. En materia de integridad académica, una directriz podría ser: «Los estudiantes deben verificar que su trabajo sea una representación honesta, responsable, justa, respetuosa y fidedigna de sus conocimientos antes de presentarlo para su calificación». Las políticas, por otro lado, indican las acciones que se deben tomar. Así, en materia de integridad académica, una política podría establecer: «Los instructores deben informar a la oficina de integridad académica sobre cualquier sospecha de violación de la integridad». Finalmente, los procedimientos indican cómo implementar las políticas. Un ejemplo de procedimiento relacionado con la integridad académica es: «Dentro de los 5 días hábiles posteriores a la recepción de una denuncia de plagio por parte de un profesor, el responsable de integridad académica debe notificar al estudiante sobre la denuncia e invitarlo a discutirla». Las directrices son útiles para establecer principios generales compartidos que pueden implementarse en políticas y procedimientos adaptados a cada contexto. Las políticas y los procedimientos son necesarios para garantizar la equidad y la coherencia en la defensa de valores como la integridad académica.


Cuando la IA generativa irrumpió en la educación superior en 2022, las universidades se preguntaron si sus directrices, políticas y procedimientos existentes eran suficientemente claros para la nueva era. Posteriormente, las instituciones comprendieron que sus políticas y procedimientos debían ser flexibles y estar abiertos a revisiones, ya que las herramientas, prácticas y normas de la IA general siguen evolucionando, a veces a un ritmo vertiginoso. En esta sección, basándonos en el marco de las 4M[86], consideramos algunas de las cuestiones prácticas relacionadas con la elaboración de directrices, políticas y procedimientos para la integridad académica en la era de la IA a nivel macro (global y nacional), meso (institucional) y micro (departamento/clase).


Nivel macro


Como se mencionó en la primera sección, las prácticas de integridad académica en el sector de la educación superior suelen estar significativamente influenciadas por los estándares y criterios establecidos como directrices por los organismos nacionales de garantía de calidad y acreditación. Estos mismos organismos también se han pronunciado sobre el impacto de la IA general en la integridad educativa, al igual que algunos organismos internacionales como la UNESCO. Por lo tanto, comenzamos planteando algunas preguntas prácticas a nivel macro.



¿Qué han recomendado los organismos nacionales de garantía de calidad o acreditación?


Los tres organismos más influyentes en la definición de las prácticas de integridad académica en la era de la IA han sido la Agencia de Garantía de Calidad (QAA) del Reino Unido, Quality and Qualifications Ireland (QQI) y la Agencia de Calidad y Estándares de Educación Terciaria (TEQSA) de Australia. Todos ellos han tenido cuidado de no ser demasiado prescriptivos, dada la diversidad de contextos en los que operan sus instituciones miembros. Por ejemplo, la Agencia de Garantía de Calidad del Reino Unido[87] ha enfatizado que las políticas institucionales deben ser ágiles pero específicas, por ejemplo, codificando una distinción clara entre el uso aceptable e inaceptable de la IA genómica y asegurándose de que los estudiantes estén al tanto de ello. También sugieren que las políticas institucionales deberían exigir que los estudiantes reconozcan explícitamente el uso de herramientas de IA genómica y que «la responsabilidad de la integridad de la entrega recae en el estudiante». En esencia, la QAA recomienda que, mientras las instituciones trabajan para rediseñar las evaluaciones para una era en la que la IA genómica es omnipresente y difícil de detectar y controlar, dejen claro a los estudiantes que es una falta académica presentar, por casualidad, resultados de IA genómica como si fueran generados por humanos.


Quality and Qualifications Ireland[88] ofrece diecinueve recomendaciones para educadores, estudiantes y líderes institucionales, tales como: los profesores deberían «diseñar evaluaciones con una sólida validez». Los estudiantes deben reconocer las preocupaciones éticas asociadas con su desarrollo y uso; y los líderes institucionales deben garantizar una capacitación actualizada y periódica para todo el personal y el alumnado sobre integridad académica, IA y evaluación. También ofrecen treinta y dos directrices más detalladas para ayudar a cada grupo a implementar estas recomendaciones, incluyendo un léxico de términos y marcos para investigar el presunto uso indebido de la IA genómica.


La Agencia de Calidad y Estándares de Educación Terciaria de Australia elaboró ??sus recomendaciones a partir de una encuesta realizada a sus instituciones[89]. El conjunto de herramientas resultante de TEQSA sugiere estrategias proactivas que las instituciones pueden adoptar para mitigar los principales riesgos y desafíos que la IA genómica plantea para la integridad educativa, como establecer mecanismos de gobernanza (por ejemplo, contar con una estrategia y un plan institucional de IA genómica guiados por grupos de trabajo), apoyar e involucrar al alumnado y al personal en la implementación del plan y, finalmente, realizar cambios en la pedagogía y las evaluaciones para garantizar que el alumnado participe activamente en su proceso de aprendizaje y que los conocimientos y habilidades necesarios para obtener su título se hayan evaluado de forma segura. Recomendamos consultar el conjunto de herramientas de TEQSA, ya que es muy completo y proporciona ejemplos de instituciones que podrían ser útiles para fundamentar las políticas de su institución.


¿Qué orientación ofrecen las principales asociaciones educativas nacionales e internacionales?


Además de los organismos de garantía de calidad, otras organizaciones nacionales e internacionales ofrecen asistencia a nivel macro. En el Reino Unido, el Comité Conjunto de Sistemas de Información (JISC) ha utilizado su investigación para desarrollar una guía integral sobre el uso seguro y ético de la IA genómica en la educación[90], que ha sido ampliamente adoptada por las instituciones de educación superior británicas. Ofrecen algunos consejos más prescriptivos, como: no intentar «prohibir» tecnologías específicas ni la IA genómica en su conjunto; describir los comportamientos aceptables y esperados y proporcionar ejemplos; y complementar los consejos generales con recomendaciones específicas para cada tema.


Sin embargo, se abstienen de pronunciarse sobre temas más controvertidos, como el papel de los detectores de IA, limitándose a afirmar que «las mejores prácticas para el uso de estas herramientas aún se están considerando y desarrollando en nuestros sectores, y procuraremos proporcionar ejemplos a medida que se desarrollen». Esta ambigüedad podría deberse a que, aproximadamente en abril de 2023, un amplio grupo de universidades del Reino Unido solicitó el rechazo de la inclusión automática de los resultados del detector de IA en el informe de similitud de Turnitin, utilizado por la mayoría de las instituciones. Esto llevó a que Turnitin ofreciera la detección de GenAI como una opción de activación o desactivación para las instituciones[91].


El Grupo Russell también publicó un conjunto de principios para las veinticuatro universidades de investigación de alto nivel del Reino Unido[92]:


Las universidades apoyarán a estudiantes y personal para que adquieran conocimientos sobre GenAI;


—El personal deberá estar capacitado para ayudar a los estudiantes a utilizar las herramientas generativas de GenAI de manera eficaz y apropiada en su experiencia de aprendizaje;

—Las universidades adaptarán la enseñanza y la evaluación para incorporar el uso ético de la GenAI generativa y promover la igualdad de acceso;

—Las universidades garantizarán el rigor y la integridad académica; y

—Las universidades colaborarán para compartir las mejores prácticas a medida que la tecnología y su aplicación en la educación evolucionen. 


Estos principios ofrecen algunos puntos de referencia generales, pero quizás el principio más significativo sea el último: la colaboración dentro y entre los diferentes sectores de la educación superior a nivel mundial debe ser una prioridad absoluta para afrontar la disrupción que la IA de última generación supone para la enseñanza, el aprendizaje y la evaluación.


Nivel Meso


Las instituciones han aceptado ampliamente que la IA GenA llegó para quedarse y se volverá cada vez más omnipresente a medida que se integre en todas las plataformas y dispositivos. Es necesaria una comunicación y formación claras, mediante directrices, políticas y procedimientos institucionales, para garantizar que las universidades mantengan su compromiso de facilitar y certificar el aprendizaje.


¿Debería existir una política institucional predeterminada o debería dejarse a criterio de cada profesor?


Las instituciones deberían contar con un conjunto de directrices de buenas prácticas, así como con una política general y los procedimientos asociados, como ya lo hacían antes de la llegada de la IA GenA. 


Una forma sencilla de actualizar las políticas existentes es simplemente decir que «depende del profesor del curso si se permite o no la IA genómica», pero eso realmente deja la decisión en manos de cada profesor. Por lo tanto, sugerimos que las directrices predeterminadas sitúen la integridad académica dentro de la enseñanza y el aprendizaje, en lugar de en la conducta del estudiante, lo que implica reconocer que la IA genómica puede tanto potenciar como obstaculizar el aprendizaje. Una forma en que las instituciones pueden lograr esto es adoptar el «enfoque de evaluación de dos vías[93]» como directriz o política. Este enfoque propone evaluaciones abiertas y cerradas. Las evaluaciones abiertas se realizan en entornos no supervisados ??(por ejemplo, redacción de ensayos, tareas) y, dado que el uso de la IA genómica no se puede controlar ni detectar en dichos entornos, estas evaluaciones deben centrarse en facilitar el aprendizaje del estudiante. Las evaluaciones cerradas son supervisadas y deben reservarse para cuando sea necesario garantizar y certificar que un estudiante ha alcanzado ciertos resultados de aprendizaje o indicadores. Por lo tanto, si se adoptara este enfoque como directriz, sugeriría a los instructores que no prohíban el uso de GenAI en las evaluaciones abiertas (aquellas realizadas en entornos no supervisados), sino que lo permitan con la debida mención. Como política, este enfoque dual impediría a los instructores prohibir GenAI en las evaluaciones abiertas, como ocurre en la Universidad de Sídney. Aun así, recomendamos a los instructores que proporcionen instrucciones claras a los estudiantes sobre el uso previsto de la IA en las evaluaciones abiertas, justificando su utilización.


Otra forma en que las instituciones pueden enfatizar el enfoque de enseñanza y aprendizaje es establecer como política que tanto instructores como estudiantes deben revelar el uso de GenAI en sus trabajos. Si sus acciones reveladas socavan el propósito del trabajo (es decir, la enseñanza y el aprendizaje), se les debe dar la oportunidad de corregir el error en lugar de ser sancionados por "deshonestidad". Esto no significa que nunca deba haber consecuencias. En cambio, sugerimos seguir la pirámide de aplicación de la normativa educativa desarrollada por Ellis y Murdoch[94], ya que ofrece una útil reinterpretación de las estrategias institucionales para abordar la mala conducta académica. En concreto, los autores sugieren que las instituciones adapten sus intervenciones y sanciones educativas al contexto estudiantil; la base de la pirámide corresponde a los estudiantes que están dispuestos y son capaces de realizar el trabajo de aprendizaje y reciben asesoramiento y apoyo de sus instituciones, mientras que la cúspide de la pirámide corresponde a los estudiantes que no están dispuestos ni son capaces de realizar el trabajo de aprendizaje y son sancionados con la mayor severidad por sus instituciones.


¿Debería la política institucional prohibir la detección mediante IA?


En un enfoque de enseñanza y aprendizaje, es fundamental que los educadores rediseñen sus evaluaciones y prioricen la detección del aprendizaje, no la del plagio (más sobre esto en la siguiente sección). Sin embargo, existe la tendencia a detectar. Después de todo, los detectores de similitud de texto han demostrado ser muy útiles para ayudar al profesorado a identificar el plagio. Asimismo, reconocemos que muchos docentes no disponen del tiempo, la formación ni el apoyo necesarios para realizar cambios pedagógicos o de evaluación, y otros pueden optar por no incorporar la IA genómica o realizar cambios por otros motivos, como que se trate de una evaluación ya bien diseñada o que permitir la IA genómica socave el aprendizaje[95]. Sin embargo, cuando las evaluaciones no supervisadas no cambian y los estudiantes delegan su aprendizaje a las máquinas, la integridad de los títulos se ve comprometida[96], especialmente cuando los profesores se niegan a responder a esta delegación debido a la percepción errónea de que estarían «vigilando» a los estudiantes[97].


Esta percepción errónea de que abordar el plagio es «vigilar» se debe en parte a la falta de conocimiento sobre cómo responder y a un énfasis excesivo en el castigo, pero la incorporación de detectores GenAI no ha solucionado el problema. Numerosos estudios han encontrado que los detectores pueden tener una alta probabilidad de falsos positivos, es decir, identificar la escritura humana como generada por IA[98], especialmente en escritos de aquellos estudiantes que hablan inglés como lengua adicional[99]. Estos estudios alimentan la narrativa de "vigilancia" incluso cuando otros investigadores han encontrado que algunos detectores pueden ser muy precisos sin sesgo contra los estudiantes ELL. El problema es que los estudios tienen diferencias metodológicas significativas y varían en las herramientas de detección probadas, por lo que la efectividad y/o los sesgos de los detectores no están claros. Por ejemplo, Liang et al.  compararon la detección por IA de ensayos de pruebas de inglés realizados por 91 estudiantes chinos que hablaban inglés como segunda lengua con la de 88 ensayos de estudiantes de octavo grado hablantes nativos de inglés en Estados Unidos. Dalalah y Dalalah elaboraron su análisis de falsos positivos a partir de cincuenta extractos de artículos de revistas revisadas por pares publicados antes de 2022, junto con cincuenta nuevos extractos generados por ChatGPT.


Por lo tanto, la pregunta de si las instituciones deberían prohibir la detección por IA es difícil de responder. Se observa que instituciones de prestigio han adoptado diferentes enfoques, e incluso como autores, no coincidimos en la respuesta. Maria, por ejemplo, considera que las instituciones deberían prohibir las herramientas de detección por IA, dado que algunas han demostrado ser problemáticas y sus resultados pueden ser mal utilizados. Por otro lado, otros creen que las instituciones tienen la responsabilidad de proporcionar a los instructores herramientas fiables que, al utilizarse junto con otros datos, puedan ayudarles a validar el aprendizaje. En cualquier caso, en las instituciones donde se permiten los detectores de IA: (a) la política institucional debe prohibir que los instructores actúen como jueces y jurados por su cuenta sin recurrir a un proceso institucional; (b) la institución debe proporcionar una herramienta fiable y verificada (y prohibir que los instructores utilicen herramientas disponibles gratuitamente en línea); (c) un informe de una herramienta de detección de IA —incluso una buena— no debe ser admisible como única prueba para «demostrar» que un estudiante hizo trampa; (d) cualquier herramienta utilizada debe ser comunicada proactivamente a los estudiantes; y (e) la salida del detector debe utilizarse mejor no como una «trampa», sino como contexto para una conversación de validación del aprendizaje que el instructor (u otra persona) mantenga con el estudiante. En definitiva, las instituciones deben promover la enseñanza y el aprendizaje con integridad, y el objetivo siempre es que los estudiantes demuestren el logro de los resultados de aprendizaje, independientemente de lo que digan los «detectores».


¿Qué marcos de referencia existen para guiarnos en el desarrollo de nuestra política institucional?


Existen varios marcos de referencia útiles, desarrollados antes de la implementación de la Integridad Académica General (GenAI, por sus siglas en inglés), que siguen siendo relevantes. Uno de los más utilizados son los cinco principios de una política ejemplar de integridad académica: acceso, enfoque, detalle, responsabilidad y apoyo[100]. Considerando estos cinco elementos, las políticas de GenAI deben ser totalmente accesibles en cuanto a ubicación y formato, adoptar un enfoque educativo, proporcionar suficiente detalle para facilitar la comprensión del alumnado, implicar el establecimiento de responsabilidades para todas las partes interesadas (es decir, compromisos de la institución, el profesorado y el alumnado en relación con GenAI) y, finalmente, requerir estructuras de apoyo, incluyendo recursos didácticos y tiempo para el aprendizaje, para ser efectivas.


También se recomienda encarecidamente el uso del Diseño Universal para el Aprendizaje (DUA), un sistema para integrar la inclusión en todos los documentos y recursos dirigidos al alumnado[101], para garantizar que las políticas proporcionen contexto, identifiquen conceptos clave, faciliten el procesamiento de la información y promuevan la aplicación del conocimiento. La integración de los principios del Diseño Universal para el Aprendizaje (DUA) en las políticas de integridad y las evaluaciones contribuye a garantizar que su formato sea totalmente aceptable para todos los estudiantes[102]. La aplicación de un marco DUA puede revelar, por ejemplo, que las herramientas basadas en inteligencia artificial general (IAG) utilizadas para calificar, detectar faltas de conducta y supervisar exámenes pueden perpetuar sesgos y menoscabar la equidad[103], perjudicando a menudo a estudiantes de entornos subrepresentados, neurodivergentes o multilingües. Se prevé que estos desafíos se intensifiquen con el auge de las interfaces cerebro-computadora, la neuromonitorización y las herramientas cognitivas adaptativas, que podrían redefinir la forma en que se miden el conocimiento y el rendimiento. Cualquier directriz, política o procedimiento adoptado debe velar por la honestidad intelectual y la justicia educativa. La integridad académica en este contexto debe ir más allá de la prevención del plagio y garantizar que los sistemas de evaluación sean válidos, transparentes, procedimentalmente justos y éticamente responsables.


Con base en lo anterior, las siguientes preguntas pueden servir como marco para ayudar a las instituciones a desarrollar directrices o políticas sobre IA generativa que aborden consideraciones importantes y continuas:


¿Quién es responsable de validar y certificar el aprendizaje?


¿Cómo pueden los estudiantes contribuir a las directrices o políticas?


¿Cómo se definen las violaciones de la integridad?


¿Cómo pueden los estudiantes ser transparentes sobre su uso de la IA generativa? (p. ej., declaración, reconocimiento o formulario de autorización)

¿Cómo se define el uso apropiado de la IA generativa? (p. ej., usar la IA generativa como herramienta)

¿Cómo se define el mal uso de la IA generativa?


¿Deberíamos permitir que los docentes utilicen la IA generativa para calificar, etc.?



¿Cómo incluimos la voz del alumnado en el desarrollo de directrices, políticas y procedimientos?


Recomendamos encarecidamente que se incluya la voz del alumnado, junto con la del profesorado, en el desarrollo de las directrices, políticas y procedimientos de GenAI y de integridad académica. La importancia de incorporar la voz del alumnado en cualquier trabajo relacionado con la integridad académica ha sido ampliamente reconocida[104] . Escuchar y colaborar con el alumnado se ha vuelto aún más crucial para estar al día de sus prácticas, experiencias y necesidades de empleabilidad con GenAI. Por ejemplo, la encuesta realizada por Johnston et al.  a estudiantes demuestra un enfoque para incorporar las prácticas relevantes del alumnado (como el uso de GenAI como tutor personal) y sus preocupaciones actuales (como garantizar que puedan adquirir habilidades de GenAI para el empleo) en la política universitaria[105]. En Irlanda, el proyecto N-TUTORR (Transformación de la Universidad Tecnológica Nacional para la Recuperación y la Resiliencia) se propuso involucrar al alumnado como promotor de la integridad y la inclusión, y como socio en la innovación y el cambio[106]. King’s College London  recomienda que los educadores comiencen conversando sobre GenAI con sus colegas, familiarizándose con el panorama de la investigación en GenAI, experimentando con ella, analizando su impacto en el curso, revisando las evaluaciones y, finalmente, comunicándose con los estudiantes. Este enfoque está en consonancia con los principios del Grupo Russell para el desarrollo de la alfabetización en GenAI tanto de estudiantes como de personal docente (mencionados anteriormente en relación con el nivel meso[107]).


¿Cómo garantizamos la relevancia de nuestras políticas y procedimientos?


Para informar a estudiantes y docentes, especialmente en el contexto de la rápida evolución de las tecnologías GenAI, las políticas sobre integridad académica y GenAI deben ser visibles, de fácil acceso y actualizarse periódicamente. Estas políticas no deben ocultarse a los estudiantes en documentos extensos ni en páginas que no llamen su atención[108]. Es necesario realizar recordatorios periódicos, y el personal docente también debe brindar orientación y capacitación a los estudiantes, de modo que todos estén al tanto de las recomendaciones. Las políticas y los procedimientos deben revisarse periódicamente para asegurar que los estudiantes no se vean afectados por políticas obsoletas. Por ejemplo, si una política anterior a GenAI establece que los estudiantes no pueden usar herramientas electrónicas para la evaluación, pero al mismo tiempo se les anima a usar GenAI, esto genera confusión tanto para el profesorado como para los estudiantes. Las políticas pueden actualizarse con referencias sencillas a GenAI. En la Universidad de California, San Diego, por ejemplo, la política previa a la implementación de la IA genómica establecía que entregar un trabajo realizado por otra persona constituía una forma de deshonestidad; la política posterior a la implementación de la IA genómica establece que entregar un trabajo realizado por otra persona o sistema (es decir, inteligencia artificial) también constituye una forma de deshonestidad. Independientemente de si el mal uso de la IA genómica se integra en las definiciones existentes de violaciones de la integridad o se incluye como una categoría aparte, es necesario definir, supervisar, actualizar y comunicar con frecuencia el mal uso de las herramientas de IA genómica tanto a nivel institucional como de curso.


Nivel micro


Incluso cuando existe un conjunto de directrices y/o políticas institucionales, el uso de la IA genómica y la gama de herramientas relevantes varían enormemente según las áreas temáticas, por lo que la orientación a nivel micro (por ejemplo, facultad, departamento, programa o clase) es fundamental para garantizar su pertinencia. Por ejemplo, las directrices para estudiantes de administración de empresas podrían destacar el uso apropiado de la IA genómica en herramientas de marketing o análisis financiero, mientras que las directrices para estudiantes de informática se centrarían en la integración adecuada de la IA genómica en la programación y la codificación, y las políticas para estudiantes de arquitectura considerarían la IA genómica para el diseño y la representación visual. Es también a este nivel micro donde es más probable encontrar políticas que prohíban el uso de la IA genómica, ya que lo que se define como uso y mal uso debe estar vinculado a los resultados de aprendizaje de esa disciplina o curso. Por ejemplo, podría ser aceptable usar Google Translate en general, pero sería un mal uso si, en una clase de francés, escribo mi ensayo en inglés y lo traduzco automáticamente al francés. Así pues, exploremos algunas preguntas comunes para desarrollar directrices y políticas a nivel micro.


¿Deberíamos exigir políticas diferentes en los distintos niveles de estudio?


Parece razonable fomentar el uso responsable de la IA genómica. En un curso introductorio de física, química o matemáticas, podríamos prohibir su uso mediante evaluaciones seguras, ya que los estudiantes necesitan adquirir conocimientos básicos antes de poder introducir información útil y evaluar los resultados en cuanto a precisión y sesgo. Por otro lado, a medida que el estudiante avanza en sus estudios, aumenta su responsabilidad en cuanto a la autenticidad, la originalidad y el rigor de la investigación, por lo que el uso indebido de la IA genómica a nivel doctoral probablemente sea una preocupación mayor. Tomando como ejemplo el King's College de Londres (2025[109]): los estudiantes de doctorado pueden usar herramientas de IA generativa en el proceso de redacción de su tesis, pero deben ser cautelosos, prestando especial atención a la protección de datos y la confidencialidad como parte de la integridad de la investigación, declarando todo uso y asumiendo la responsabilidad de los resultados que incorporan (es decir, los errores de la máquina son en realidad mis errores). Los estudiantes pueden usar GenAI como herramienta de apoyo para corregir el lenguaje, reescribir, parafrasear o traducir partes de la tesis, pero no para corregir el contenido ni generar una revisión bibliográfica, ya que esto comprometería su originalidad, su contribución a la literatura y su capacidad para discutir y defender su propia tesis. La guía evidentemente busca separar la corrección/mejora ética del lenguaje de la corrección/mejora no ética del contenido en el uso de GenAI, lo cual es claramente una distinción importante, pero puede ser difícil de aplicar completamente en la práctica y requiere más matices según el tipo y propósito de la escritura requerida. Se ha reconocido desde hace algunos años que el uso de herramientas para parafrasear o traducir puede resultar en una falta de autoría humana y preocupaciones significativas para la integridad académica[110]; por lo tanto, la guía política sobre el uso de GenAI en cada nivel debe ir acompañada de un seguimiento continuo y discusiones con los estudiantes.


¿Qué herramientas o marcos de trabajo existen para ayudarme a desarrollar mi política de uso de IA a nivel de curso?


La Escala de Evaluación de IA (AIAS, por sus siglas en inglés), desarrollada por investigadores de Vietnam, Australia y Singapur[111], se ha convertido en una herramienta ampliamente adoptada. La AIAS presenta cinco niveles de uso de IA genérica (GenAI, por sus siglas en inglés) que deben emplearse según los resultados de aprendizaje en la evaluación: sin GenAI, generación de ideas asistida por GenAI, edición asistida por GenAI, finalización de tareas con GenAI y evaluación humana, e GenAI completa. El modelo se utiliza ampliamente, con adaptaciones a diferentes contextos globales y educativos, mediante semáforos, la taxonomía de Bloom, escalas de competencias y otros formatos[112]. Sin embargo, advertimos a todos los instructores que la opción «sin GenAI» solo puede aplicarse en una evaluación o curso específico donde las evaluaciones sean seguras. También recomendamos que, si se permite el uso de GenAI, este se acompañe de una declaración informativa para garantizar la transparencia y permitir que el instructor dialogue con los estudiantes en caso de que su uso resulte problemático.


Conclusiones parcial


Las directrices, políticas y procedimientos son esenciales para orientar a las personas en tiempos de incertidumbre. Pueden ayudar a clarificar los objetivos e intenciones institucionales, así como a codificar las expectativas para la toma de decisiones y la actuación en todos los niveles: macro, meso y micro. Los organismos nacionales de garantía de calidad y acreditación, así como otras organizaciones educativas especializadas con ámbito y responsabilidad nacional, pueden ofrecer perspectivas universales. Las instituciones pueden entonces aplicar este asesoramiento universal a sus contextos específicos de forma más ágil, centrándose en el desarrollo de marcos para la elaboración de políticas, la actualización de políticas y procedimientos obsoletos, la inclusión de la opinión del alumnado en el proceso de desarrollo y la toma de postura sobre el uso de herramientas de detección de IA. Luego, una vez que exista un marco institucional, se podrán diseñar directrices, políticas y procedimientos a nivel de programa o departamento para los diferentes niveles de estudio, incluyendo las consideraciones sobre el uso de la IA en estudios doctorales de alto riesgo y las importantes diferencias entre disciplinas.


6 Preguntas prácticas para el presente: Repensando el aprendizaje y la evaluación


«La IA ha puesto de manifiesto la necesidad, largamente postergada, de cambiar la forma en que evaluamos». 

«Algunas trampas pueden incluso ser involuntarias si no se enseña adecuadamente a los niños formas efectivas de usar la IA». Por eso es tan necesario incorporarla a la instrucción y enseñar alfabetización en IA. 

«El papel de la IA como factor impulsor de esfuerzos para hacer que el aprendizaje sea más valioso para los estudiantes puede ser el resultado más impactante (aunque no intencionado) de la IA en la educación».

«Si la IA puede hacer tu tarea, tu tarea es tonta».


Estas son solo algunas citas de LinkedIn que ilustran cómo los educadores se esfuerzan por responder a la disrupción de la IA de última generación en la enseñanza, el aprendizaje y la evaluación. Como profesionales, investigadores y autores en integridad académica con más de 50 años de experiencia combinada, nos entusiasma la mayor visibilidad que ha recibido la integridad académica desde el lanzamiento de ChatGPT en noviembre de 2022. La integridad académica como tema digno de investigación y reflexión entra y sale de moda en la educación superior, generalmente en respuesta a factores disruptivos. En respuesta a la irrupción de GenAI, docentes, diseñadores instruccionales, consultores de enseñanza y aprendizaje, administradores y otros profesionales han expresado sus opiniones e ideas sobre tres cuestiones fundamentales de integridad académica: (1) ¿cómo evitamos que los estudiantes utilicen GenAI para hacer trampa?, (2) ¿cómo detectamos (y deberíamos detectar) cuándo se ha utilizado GenAI para hacer trampa?, y (3) ¿cómo protegemos la integridad de los títulos cuando la mayoría de nuestros métodos actuales de evaluación del aprendizaje pueden ser falsificados con GenAI? El lector perspicaz notará que estas tres preguntas giran en torno a una responsabilidad clave de las instituciones de educación superior: certificar que una persona posee los conocimientos y las habilidades esperadas. Si un estudiante falsifica su dominio de alguna manera, incluso utilizando GenAI para simular una habilidad (por ejemplo, la capacidad de comunicarse en francés) cuando en realidad demuestra una habilidad diferente (por ejemplo, la capacidad de usar GenAI para traducir su inglés al francés), entonces el proceso de evaluación pierde validez y el proceso de certificación se vuelve poco fiable.


Así pues, la integridad académica —antes y después de GenAI— se centra en el aprendizaje y la evaluación, en particular en la facilitación del aprendizaje y la evaluación válida y fiable del aprendizaje alcanzado. Tricia lo explicó por primera vez en 2008, cuando, en su libro «Integridad académica en el siglo XXI: Un imperativo para la enseñanza y el aprendizaje», hizo una afirmación que en su momento pudo haber sido considerada controvertida: la integridad académica no es un asunto de conducta estudiantil, sino de enseñanza y aprendizaje. Ahora, esa afirmación parece evidente.


Sin embargo, en nuestra visión de la integridad académica en 2045, predijimos que los profesores y las instituciones intentarían conservar sus métodos de enseñanza del siglo XX.



Se están perfeccionando los métodos de enseñanza, aprendizaje y evaluación, incorporando tecnología de IA, como la compra de software de seguimiento de escritura para mantener el ensayo de cinco párrafos como artefacto de aprendizaje o el uso de plataformas de supervisión en línea para conservar la comodidad de los exámenes remotos por computadora. ¿Por qué? Quizás porque creemos que el método del siglo XX es el correcto, simplemente porque es más fácil, o porque priorizamos valores como el acceso o el beneficio por encima del aprendizaje y la integridad.


Sin embargo, lo que realmente se necesita no son ajustes superficiales en la pedagogía y la evaluación, sino un cambio profundo y sustancial. Si no lo hacemos, la educación superior podría convertirse simplemente en una máquina de certificación donde los estudiantes aprenden en otros lugares y solo acuden a nosotros para obtener la garantía de su aprendizaje. Necesitamos repensar qué enseñamos, cómo lo enseñamos y qué y cómo evaluamos. Para ello, primero analizaremos en detalle las decisiones de cada profesor en su aula (nivel micro). Luego, ampliaremos la perspectiva al nivel meso: el programa o departamento en el que se imparte el curso. Y, por último, abordaremos el nivel macro: qué deben hacer las instituciones para apoyar y fomentar nuevas formas de enseñanza y evaluación.



Micro


Antes de abordar las cuestiones prácticas específicas para los instructores, es necesario plantear algunas preguntas fundamentales a nivel micro. En primer lugar, ¿qué cambios se encuentran dentro de mi ámbito de actuación? Por ejemplo, no todos los instructores pueden replantearse los objetivos de aprendizaje del curso, ya que imparten una sección de un curso coordinado o los objetivos están dictados por el programa/departamento (nivel meso) o incluso por organismos profesionales (como en ingeniería).


Una vez determinado el ámbito de actuación, el instructor debe preguntarse: ¿Cuáles son los impactos positivos y negativos de la IA general en mi curso? Esto, por supuesto, requiere experimentación; explorar las actividades y evaluaciones del curso dentro del ecosistema de la IA general. ¿Pueden las herramientas generar resultados que cumplan con los criterios de evaluación? ¿Podría un estudiante delegar completamente la actividad de aprendizaje o la evaluación hasta el punto de que ya no se pueda validar su aprendizaje?


Si existen evaluaciones que pueden ser manipuladas por la IA general, los instructores deben preguntarse: ¿Deberían modificarse? El hecho de que la IA general pueda realizar la evaluación no implica que deba cambiarse el medio. Por ejemplo, en una clase destinada a enseñar a los estudiantes a escribir, no se eliminaría la actividad de escritura solo porque un máster en Derecho pueda realizarla. En cambio, necesitamos encontrar la manera de mantener la validez de la evaluación en la era de la IA general, lo que podría implicar hacerla más segura, preferiblemente sin sacrificar los objetivos de aprendizaje[113] (como hizo John Robinson con su tarea de redacción de ensayos de varios días en clase).


Una vez que se plantean y responden estas tres preguntas fundamentales (¿qué puedo cambiar?, ¿es necesario el cambio?, ¿debería realizarse el cambio?), y se determina que el cambio es necesario, quedan algunas cuestiones prácticas y concretas que surgen de forma natural.


¿Debo permitir que los estudiantes usen GenAI o no?


Phillip Dawson argumentaría que, antes de preocuparse por permitir o no GenAI, los instructores deberían asegurarse de contar con una evaluación válida, lo que implica evaluar si estamos «evaluando lo que pretendemos evaluar».  O, dicho de forma más directa, Phill afirma: «Si una evaluación no cumple su función, no se preocupen por la IA. Arreglen la evaluación». 


Una vez que se tenga la seguridad de contar con la evaluación adecuada, cada instructor debe determinar si el uso de herramientas de aprendizaje de lenguaje (LLM) obstaculiza o potencia el dominio de los resultados de aprendizaje por parte del estudiante y si esto puede medirse. Bridgeman, Liu y Weeks[114] sugieren que, para tomar esta decisión, los instructores deberían distinguir entre evaluaciones sumativas (evaluaciones del aprendizaje) y evaluaciones formativas (evaluaciones para y como aprendizaje). Es probable que el primer caso requiera mayor seguridad cuando se conoce el uso de ayudas (incluso si se trata de IA genómica), mientras que el segundo, al no estar supervisado, es vulnerable al mal uso de la IA genómica. Incluso cuando consideramos útil el uso de la IA genómica en algunas evaluaciones, conviene diseñar evaluaciones de umbral para garantizar que el estudiante posea conocimientos y habilidades incluso sin la ayuda de un modelo de aprendizaje automático. Esta estrategia constituye una medida esencial para evitar que los estudiantes se gradúen basándose en su capacidad para delegar tareas a la IA genómica, en lugar de en su capacidad para aportar valor a un mundo humano aumentado por máquinas.


¿Qué tipo de uso de la IA genómica favorece el aprendizaje?


En definitiva, queremos asegurar que, incluso en un mundo con IA genómica, los estudiantes sigan desarrollando sus cruciales habilidades de pensamiento crítico, sobre todo porque las investigaciones han demostrado que la dependencia excesiva de la IA genómica puede reducir el desarrollo cognitivo[115]. Esto generalmente implica enseñar a los estudiantes a usar las herramientas como asistentes en lugar de como sustitutas, de modo que los humanos sigan siendo los autores con conocimiento activo y responsabilidad por el resultado. En algunos cursos, podría ser aceptable enseñar a los estudiantes a generar ideas con el LLM para desarrollar temas o estrategias de investigación. En otros cursos, podría ser aceptable que el estudiante lo use en la etapa de corrección de pruebas para que pueda concentrarse más en la comprensión y menos en la precisión lingüística. En otras clases, quizás GenAI pueda usarse para apoyar el aprendizaje al ser entrenado como tutor del curso, proporcionar cuestionarios de práctica o brindar retroalimentación oportuna sobre un borrador de tarea. Si se enseña a los estudiantes a compartir y reflexionar sobre su interacción con los bots, entonces pueden aprender sobre el uso responsable y ético. Los instructores podrían enseñar el uso responsable haciendo que los estudiantes evalúen los resultados de GenAI en cuanto a sesgo y precisión o comparando los resultados con fuentes publicadas existentes[116]. Si se anima a los estudiantes a centrar su atención en sus respuestas a los resultados de la IA genómica, la verificación de datos, el análisis de sesgos y la evaluación de su valor, este puede ser un enfoque de aprendizaje positivo. Sin embargo, es posible que los estudiantes abusen de la IA genómica y mientan sobre su uso, lo que nos lleva de nuevo al enfoque de evaluación dual. Es fundamental que los instructores diferencien cuándo el uso de la IA genómica puede apoyar el aprendizaje y cuándo interfiere con la demostración honesta del aprendizaje por parte de los estudiantes.


¿Cómo evitar que los estudiantes utilicen la IA genómica en las evaluaciones cuando esto socava su propósito?


Según Bertram Gallant y Rettinger[117], se pueden implementar estrategias para abordar las razones subyacentes por las que los estudiantes hacen trampa. Por lo tanto, es importante minimizar los malentendidos aclarando qué está permitido y qué no (por ejemplo, utilizando la Escala de Evaluación de Inteligencia Artificial de Perkins et al.) y vinculando estas directrices con los objetivos de aprendizaje. Reduzca las tentaciones permitiendo múltiples borradores, segundas oportunidades y/o plazos flexibles para que los estudiantes, cuando tengan poco tiempo o se sientan incapaces de realizar la evaluación, puedan esforzarse al máximo o comunicarse con usted en lugar de usar herramientas de GenAI no autorizadas. Además, fomente la motivación intrínseca para el aprendizaje considerando estrategias de calificación alternativas para reducir la presión por el rendimiento, o incluso ajustando las rúbricas de calificación para que el trabajo generado por GenAI obtenga una calificación reprobatoria.


De lo contrario, como señalan Bertram Gallant y Rettinger, la única forma de evitar que los estudiantes utilicen ayudas no autorizadas en una evaluación es garantizar la seguridad de dicha evaluación. Como afirma Phillip Dawson[118], «la seguridad de la evaluación comienza donde termina la integridad académica». Lo que quiere decir es que podemos implementar todas las estrategias para hacer que "hacer trampa sea la excepción y la integridad la norma[119]", como aumentar la motivación intrínseca de los estudiantes, mejorar su autoeficacia y reducir el estrés y la presión. Sin embargo,Dado que algunos estudiantes aún harán trampa, las evaluaciones que determinan si un estudiante debe avanzar en su programa o graduarse con un título deben ser seguras. Sin embargo, garantizar la seguridad no tiene por qué ser como un examen presencial con cuadernillo azul (que, por cierto, no es muy seguro si los responsables no implementan medidas de seguridad como la verificación de gafas con inteligencia artificial o la identificación del estudiante). Otras opciones para aumentar la seguridad en las evaluaciones incluyen las evaluaciones orales y las aulas invertidas. Las evaluaciones orales no tienen por qué ser tan complicadas como se podría pensar. Podrían consistir en dedicar tiempo a hablar con los estudiantes en lugar de corregir exámenes escritos; realizar un seguimiento oral con los estudiantes durante unos 15 minutos después de las evaluaciones escritas; o implementar debates, actividades de simulación y entrevistas[120]. En las aulas invertidas, la mayoría de las evaluaciones se realizan en presencia de otros, lo que genera responsabilidad y transparencia en los métodos de realización, y por lo tanto, dificulta enormemente el fraude.


¿Cómo puedo saber cuándo los estudiantes han infringido la integridad académica al usar GenAI indebidamente?


Esta es la pregunta clave. Antes de responderla, es necesario definir qué se entiende por «uso indebido». Para un profesor, el uso de GenAI podría estar permitido o ser obligatorio, mientras que para otro, el mismo uso podría considerarse indebido. ¿Se considera uso indebido si se utiliza, o solo si se usa sin citar ni reconocer la fuente? ¿Se considera uso indebido únicamente si se usa para crear contenido en lugar de para ayudar?


Si determina que existen «usos indebidos» que socavarán el propósito de la evaluación, deberá protegerla. Prohibir GenAI en una evaluación no supervisada es una pérdida de tiempo, ya que luego tendrá que dedicar tiempo a detectar quién hizo un uso indebido de ella. Si por alguna razón no puede proteger la evaluación, le recomendamos que permita el uso de GenAI, pero que solicite a los estudiantes que completen una Declaración de Uso de GenAI. Si confiesan que no lo usaron o que lo usaron de una manera que te resulta dudosa, aprovecha la oportunidad para validar el aprendizaje en lugar de detectar trampas. ¿Qué queremos decir con esto? Significa hablar con el estudiante para ver si aprendió o no.


Después de todo, tu intuición podría estar equivocada. Los mismos elementos que delatan el uso de IA —«es vago, no aborda las lecturas del curso, es un resumen en lugar de un argumento y carece de fuentes»— son los mismos que aparecen en un trabajo mal redactado por un humano. Por lo tanto, habla con tu estudiante sobre su proceso para completar la evaluación, revisa el historial de versiones de su documento para analizar su proceso, pregúntale sobre las decisiones que tomó y dale la oportunidad de demostrarte que aprendió. Si un estudiante puede explicarte la evaluación, eso podría disipar tus preocupaciones. Y, como ya comentamos, ten cuidado: no te fíes únicamente de los detectores de IA, ya que pueden dar lugar a acusaciones innecesarias e injusticias[121]. Utilice el detector únicamente si su institución se lo proporciona y, si todos los demás datos sugieren que la tarea fue generada por un humano, aunque el detector indique que fue generada por IA, crea en lo primero.


Nivel Meso


La responsabilidad de replantear el aprendizaje y las evaluaciones en la era de la IA general no debe recaer únicamente en los instructores de cada curso. ¿Por qué? Ningún curso existe de forma aislada. Todos los cursos están diseñados para integrarse con otros, cumplir con objetivos de aprendizaje comunes o contribuir a un panorama más amplio. Si realmente queremos replantear el aprendizaje y las evaluaciones, debemos hacerlo a nivel de programa/departamento.


¿Siguen siendo relevantes nuestros cursos y sus objetivos de aprendizaje asociados en la era de la IA general?


Puede que algunos cursos sean irrelevantes porque enseñan habilidades obsoletas o se centran en la memorización de contenido (que no es necesario memorizar). O tal vez algunos cursos solo necesiten una revisión, modificando sus objetivos de aprendizaje o métodos de evaluación. Si bien los instructores pueden realizar esta verificación por sí mismos (como ya se ha recomendado), creemos que debería ser un ejercicio colaborativo. Por supuesto, habrá desacuerdos e incluso discusiones sobre qué curso es «importante» o «insustituible», así que este trabajo no es fácil, pero es necesario. La conversación debe comenzar por la base: los resultados de aprendizaje del programa o departamento. ¿Es necesario actualizarlos? Luego, podemos preguntarnos qué cursos y evaluaciones ayudan a los estudiantes a dominar esos resultados de aprendizaje y cuáles necesitan ser replanteados o archivados.


¿Están nuestros cursos conectados de forma significativa?


Para revisar realmente el aprendizaje y la evaluación en la era de la IA general, debemos considerar el aprendizaje como un proceso continuo, no anclado a un semestre o curso en particular. Con demasiada frecuencia hemos escuchado a instructores sospechar del uso de la IA general porque los estudiantes utilizaron un método o concepto no enseñado en esa clase en particular, solo para descubrir que el estudiante estaba aplicando lo aprendido en otra clase. Queremos que los estudiantes hagan esto porque la capacidad de aplicar el conocimiento existente a nuevas situaciones o adaptar una habilidad para su uso en un nuevo contexto es la característica distintiva del aprendizaje a lo largo de la vida. Los programas y departamentos deberían revisar todos sus cursos para asegurar que exista un hilo conductor o propósito común entre ellos, especialmente aquellos que son obligatorios para una especialización, por ejemplo. O, como mínimo, deberían analizar estos cursos y ser transparentes sobre su contenido para que cada profesor comprenda el contexto general en el que se inserta su curso.


¿Cumplen nuestros cursos la promesa de desarrollar habilidades humanas duraderas?


Una de las respuestas positivas a la IA general ha sido la reevaluación de la importancia de las «habilidades blandas», que son las habilidades humanas duraderas que los graduados necesitan para el futuro. Nota 25 Durante demasiado tiempo, las universidades han recurrido al «currículo oculto» para el desarrollo de dichas habilidades. Nuestros estudiantes desarrollan habilidades interpersonales y de colaboración porque los hacemos trabajar en grupo. Nuestros estudiantes desarrollan habilidades de comunicación porque les hacemos producir trabajos escritos y orales, como artículos de investigación o presentaciones. ¡Nuestros estudiantes perfeccionan sus habilidades para resolver problemas simplemente desenvolviéndose en nuestra compleja burocracia! En cambio, debemos ser más intencionales y estratégicos para asegurar que, a lo largo de la carrera, el estudiante progrese en estas habilidades y podamos validar dicho progreso. Al fin y al cabo, es probable que la solidez de estas habilidades sea lo que permita a nuestros estudiantes aportar valor añadido al mundo de la IA.


¿Cuáles son los momentos clave en los que podemos y debemos administrar evaluaciones seguras?


La respuesta a esta pregunta variará según la disciplina y los resultados de aprendizaje. Sin embargo, podemos ofrecer algunas pautas generales gracias a Bridgeman, Liu y Weeks, quienes sugieren lo siguiente[122]:


Incorporar una unidad final que evalúe los resultados de aprendizaje del programa;

Utilizar tareas de evaluación formativa comunes en varios cursos;

Utilizar una evaluación sumativa común en varias unidades de estudio en el tercer año; y,

En los hitos, incorporar una evaluación de nivelación útil para confirmar el progreso al siguiente nivel del programa, sugerir medidas correctivas o validar el logro.


Nivel macro


La institución y sus órganos rectores y de acreditación también influyen en cómo se imparten la enseñanza, el aprendizaje y la evaluación en las universidades. Entonces, ¿cuáles son las preguntas prácticas que se plantean quienes trabajan a nivel macro y que deberían responderse cuanto antes?


¿Cómo medimos el aprendizaje de los estudiantes?


La mayoría de las instituciones de educación superior siguen estructuradas en torno a un sistema basado en créditos, donde los cursos se programan para comenzar y terminar en fechas específicas, con mediciones obligatorias de cuántas horas dedica un estudiante al aprendizaje. En las clases síncronas (ya sean presenciales o virtuales), las horas de aprendizaje se calculan generalmente teniendo en cuenta tanto el tiempo en clase como el tiempo dedicado a las tareas y evaluaciones. En las clases asíncronas, el aprendizaje se mide por el número de horas de instrucción directa del profesorado (por ejemplo, videoconferencias grabadas) y el tiempo dedicado a las tareas y evaluaciones. (Esto, por supuesto, es un vestigio arqueológico).



De las eras agrícola e industrial, y aunque pudo haber tenido sentido en su momento, ya no lo tiene en el siglo XXI, cuando: se puede acceder a la información y al conocimiento las 24 horas del día, los 7 días de la semana; existe mayor diversidad en la rutina laboral; y las personas pueden permanecer conectadas a un entorno de aprendizaje en línea incluso mientras se desplazan rápidamente entre espacios físicos[123]. Por lo tanto, fundamentalmente, las instituciones de educación superior deben dejar de medir el aprendizaje por el tiempo de permanencia en el aula y comenzar a medirlo por competencias. La educación basada en competencias no es nueva, pero aún no se ha adoptado ampliamente. Creemos que en un mundo potenciado por la IA, no solo es fundamental considerarla, sino también posible. Según Levine y Patrick[124], una educación basada en competencias requiere siete elementos:


1. «Los estudiantes tienen la capacidad diaria de tomar decisiones importantes sobre sus experiencias de aprendizaje, cómo crearán y aplicarán el conocimiento y cómo demostrarán su aprendizaje». 


2. La evaluación es una experiencia de aprendizaje significativa, positiva y enriquecedora para los estudiantes, que proporciona evidencia oportuna, relevante y práctica.


3. Los estudiantes reciben apoyo oportuno y diferenciado según sus necesidades de aprendizaje individuales.


4. El progreso de los estudiantes se basa en la evidencia de dominio, no en el tiempo de permanencia en el aula.


5. Los estudiantes aprenden activamente utilizando diferentes vías y ritmos variados.


6. Las estrategias para garantizar la equidad para todos los estudiantes están integradas en la cultura, la estructura y la pedagogía de las escuelas y los sistemas educativos.


7. Las expectativas de aprendizaje rigurosas y comunes (conocimientos, habilidades y aptitudes) son explícitas, transparentes, medibles y transferibles. 


La transición del modelo dominante actual a un modelo basado en competencias no será fácil, pero ya es hora.


¿Sigue siendo viable el aprendizaje en línea para garantizar el acceso y la integridad educativa?


Si bien el aprendizaje en línea ofrece ciertas ventajas, principalmente en cuanto al acceso, las evaluaciones asíncronas en línea (ya sean presenciales o virtuales) presentan pocas ventajas. Para garantizar la seguridad de las evaluaciones en este entorno, se requiere una mayor autenticación, la garantía de la responsabilidad individual y la integridad académica[125]. Aunque podemos implementar estrategias pedagógicas y de otro tipo para intentar que el plagio sea la excepción y la integridad la norma, la educación superior sigue teniendo la responsabilidad de garantizar la integridad de las evaluaciones. Por lo tanto, la respuesta a esta pregunta es compleja. Si bien el aprendizaje en línea es viable, debemos empezar a cuestionar y analizar si la evaluación asíncrona en línea es viable para garantizar la integridad de los títulos. Newton y Draper, entre otros, argumentarían que no lo es. En consecuencia, debemos encontrar la manera de proporcionar acceso y, al mismo tiempo, proteger la integridad. Una forma de lograrlo podría ser establecer y utilizar redes de centros de evaluación para que la mayoría de los estudiantes vivan relativamente cerca de una opción de evaluación presencial. Otra opción son las evaluaciones de referencia o hitos recomendadas por Bridgeman, Liu y Weeks; un estudiante puede obtener comodidad y acceso durante la parte de aprendizaje de su experiencia, pero cuando llegue el momento de la evaluación en solo algunos puntos a lo largo de su programa (en lugar de en cada clase), será segura y puede que tenga que ser inconveniente. Siempre se nos dice que las universidades tienen que preparar a los estudiantes para el "mundo real"; ¿qué hay más "mundo real" que tener que hacer cosas que son desafiantes e inconvenientes?


¿Cómo podemos centrarnos en las experiencias de aprendizaje interpersonal?


Para evitar la «universidad muerta», donde la IA genómica se utiliza tanto para crear como para calificar trabajos estudiantiles, es necesario reorientar la atención hacia la interacción humana. Al fin y al cabo, los estudiantes no necesitan necesariamente instituciones de educación superior para aprender; pueden aprender en cualquier momento y lugar. Nos necesitan para obtener certificaciones y, por lo general, para tener oportunidades de aprender con otras personas, especialmente en entornos a los que no tendrían acceso de otra manera (por ejemplo, laboratorios). En otras palabras, nos necesitan para un entorno de aprendizaje real (no virtual). Por lo tanto, sobre todo en grandes instituciones con clases numerosas, debemos aprovechar la IA genómica para optimizar la eficiencia y transformar las aulas en entornos de aprendizaje activos y participativos. Por ejemplo, podríamos usar la IA genómica para impartir contenido y ofrecer tutorías justo a tiempo, de modo que el profesor pueda reunirse con los estudiantes en grupos más pequeños para debates o sesiones prácticas.


¿Cómo apoyamos los esfuerzos del profesorado para mantener la integridad académica en la era de la IA genómica?


Las herramientas GenAI están diseñadas para generar resultados y automatizar tareas cognitivas, lo que puede ser perjudicial para facilitar y validar el aprendizaje con integridad. Por lo tanto, las instituciones deben proporcionar a los instructores tiempo, capacitación y apoyo para rediseñar cursos y evaluaciones mediante becas de verano, liberación de cursos, diseñadores instruccionales o mentores pares. También pueden crear infraestructura para ayudar a los instructores. Por ejemplo, ¿es un buen uso del tiempo del instructor administrar y supervisar exámenes? Sugerimos que no. En cambio, cuando los exámenes sean apropiados, los instructores deberían poder enviar a sus estudiantes a un centro de evaluación computarizado atendido por supervisores profesionales que permita evaluaciones seguras basadas en el dominio[126]. Además, las instituciones pueden ayudar a los instructores a diseñar apoyo de aprendizaje 24/7 para los estudiantes mediante cursos personalizados o tutores de IA relacionados con habilidades (por ejemplo, escritura). La clave está en que las instituciones deben apoyar a los docentes en este cambio trascendental y no esperar que reconstruyan los sistemas sobre la marcha.


Conclusiones parcial


En la era de la IA de última generación, es fundamental transformar la forma en que enseñamos, aprendemos y evaluamos con integridad. Si bien los docentes pueden implementar cambios a nivel de aula (por ejemplo, modificar los criterios o estructuras de evaluación, implementar el modelo de aula invertida o hacer que las evaluaciones sean más significativas), esta responsabilidad no debe recaer únicamente en ellos. También es necesario que se produzcan cambios fundamentales a nivel de programa o departamento, y a nivel institucional. Debemos desarrollar en los estudiantes las habilidades humanas esenciales que necesitarán en un mundo potenciado por la IA. Debemos abandonar el sistema de créditos académicos y adoptar un modelo educativo basado en competencias. Además, debemos reestructurar nuestro currículo para que los estudiantes puedan seguir un camino de aprendizaje personalizado, cuyo éxito podamos medir de forma segura en hitos clave, reduciendo así la frecuencia de las evaluaciones presenciales y, al mismo tiempo, garantizando la integridad de los títulos. Estos son los cambios que debemos implementar si queremos que la integridad académica, y por extensión la educación superior, prospere en la era de la IA.


7 Preguntas Prácticas para el Presente: Enseñar con y sobre IA Generativa con Integridad


La repentina aparición de la inteligencia artificial generativa (IAG) en las aulas, los campus y los cursos ha impulsado una revisión crítica y urgente de lo que significa enseñar, aprender y evaluar con integridad. ¿Cuándo el uso de la IA constituye una ayuda y cuándo se convierte en una externalización del conocimiento? ¿Puede un estudiante reclamar la autoría de un resultado generado por IA si no lo comprendió o evaluó completamente? Además, las instituciones se enfrentan a una paradoja: fomentar la innovación y la alfabetización digital al mismo tiempo que defienden los estándares de honestidad, equidad y autenticidad en el trabajo académico[127]. La cuestión ya no es si los estudiantes usan IA, sino cómo, por qué y en qué medida lo hacen, y si nuestros sistemas educativos están preparados para responder con integridad y pertinencia.


Esta sección explora cómo podemos enseñar con y sobre IA de manera que se fomente el razonamiento ético, la conciencia metacognitiva y la responsabilidad personal. A partir de estudios de caso recientes, marcos de alfabetización en IA y experiencias de instituciones que se enfrentan a estos cambios, sostenemos que la preparación ética debe convertirse en un pilar fundamental de la educación en la era de la IA. El rol del educador como mentor, modelo a seguir y diseñador de experiencias de aprendizaje debe evolucionar para cerrar la brecha entre las normas disciplinares y las realidades digitales.


Enseñar con y sobre IA: Construyendo una cultura de uso ético


Si queremos fomentar un futuro donde la IA se utilice de forma responsable, debemos integrarla en el aprendizaje sin comprometer el desarrollo del alumnado y enseñar explícitamente el razonamiento ético en relación con las herramientas de IA. La Red Europea para la Integridad Académica (ENAI) ofrece orientación sobre la implementación de esta cultura.


Estas dimensiones se aplican en la práctica, haciendo hincapié en el reconocimiento transparente del uso de la IA, reglas claras sobre las aplicaciones aceptables, la responsabilidad humana por los resultados, la concienciación sobre los sesgos y la formación tanto de estudiantes como de personal docente en prácticas éticas de IA[128]. Este enfoque dual —enseñar con IA de forma que se preserve la integridad y enseñar sobre IA para integrar la ética en todas las disciplinas— constituye la base de una respuesta educativa a las tecnologías generativas.


¿Cómo enseñar con IA con integridad?


La integración de herramientas de IA generativa en los cursos presenta una paradoja: puede erosionar el aprendizaje de los estudiantes o potenciarlo. Para los educadores, la pregunta no es simplemente «¿Esto es hacer trampa?», sino más bien «¿Cómo garantizamos un aprendizaje significativo con integridad?». Esto puede implicar, en ocasiones, prohibir la IA generativa y asegurar las evaluaciones si el uso de esta tecnología pudiera perjudicar los resultados del aprendizaje. Cuando sea posible, debemos fomentar un uso ético diseñando evaluaciones que consideren a la IA genómica como un compañero de pensamiento, no como un atajo, y que exijan explícitamente transparencia, reflexión y explicación de dicho uso. Esto significa que, en lugar de simplemente entregar un producto final, el estudiante reflexionaría sobre cómo abordó la tarea, por qué tomó ciertas decisiones y qué papel desempeñó la IA en la configuración de su proceso. En este caso, la IA se convierte en un andamiaje cognitivo, no en una muleta para el pensamiento; un estímulo para una reflexión más profunda que, además, mantiene al ser humano en el centro de la experiencia de aprendizaje. Por ejemplo, en lugar de solo entregar el código final, a los estudiantes de tercer año de informática se les podría pedir que incluyan un registro del proceso o una declaración reflexiva que describa cómo utilizaron las herramientas de IA, qué indicaciones emitieron y cómo validaron los resultados de la IA. Esto no solo desmitifica la caja negra del trabajo asistido por IA, sino que también fomenta la integridad y la responsabilidad. Estos enfoques ya han demostrado ser prometedores en programas piloto recientes que integran la alfabetización en IA en las estrategias de evaluación[129].


Para respaldar este cambio, Khan propone un marco práctico de toma de decisiones en cinco partes para guiar cuándo y cómo integrar la IA generativa en la enseñanza, el aprendizaje y la evaluación[130]:


1. Nivel de madurez del estudiante: La enseñanza con IA debe estar alineada con el desarrollo cognitivo del estudiante, utilizando herramientas que se adapten progresivamente a su capacidad de reflexión y autorregulación.


2. Resultados del aprendizaje y preparación para el mundo laboral: La IA debe apoyar, no sustituir, la adquisición de conocimientos disciplinares y competencias orientadas al futuro.


3. Diseño de la evaluación y descarga cognitiva: Los educadores deben preguntarse si el uso de la IA mejora o inhibe el desarrollo del pensamiento crítico y las habilidades de resolución de problemas. 


4. Accesibilidad y equidad: El marco advierte contra el refuerzo de las desigualdades al asumir que todos los estudiantes tienen el mismo acceso a las herramientas de IA o saben cómo usarlas de manera responsable.


5. Pautas éticas: El uso debe enmarcarse en debates sobre sesgos, desinformación, autoría y el valor del juicio humano.


Integrar este marco en el diseño curricular permite a los educadores ser flexibles y conscientes del uso responsable de la IA genómica en la educación, lo cual debe ir más allá de las habilidades técnicas e incluir la ética digital, la conciencia epistémica y la autonomía. Los estudiantes deben aprender no solo a solicitar información, sino también a hacer pausas, reconociendo cuándo la IA genómica facilita el aprendizaje y cuándo lo dificulta. Los educadores, por su parte, deben modelar esta misma práctica reflexiva, reconociendo las posibilidades y limitaciones de la IA genómica, a la vez que preservan una pedagogía centrada en el ser humano.


A medida que evolucionan las tecnologías generativas, las instituciones deberán alinear el uso de la IA generativa con objetivos educativos más amplios: no solo para optimizar los resultados, sino para fomentar la indagación, la resiliencia y el aprendizaje permanente. Si se implementa con criterio, la enseñanza con IA generativa no socavará la integridad académica, sino que la reforzará, anclándola en los procesos mismos de pensamiento crítico y autoconciencia que definen una educación significativa.


¿Cómo enseñar sobre IA general con integridad?


Las implicaciones éticas de la IA general son demasiado significativas como para limitarlas a los departamentos de informática o filosofía. Estudiantes de diversas disciplinas, como administración de empresas, educación, sanidad o artes, ya utilizan herramientas de IA general, a menudo sin comprender plenamente sus implicaciones éticas, legales o sociales. A medida que la IA general se integra cada vez más en la práctica educativa y los flujos de trabajo profesionales, resulta fundamental incorporar una formación ética estructurada en todos los planes de estudio.


No se trata solo de concienciar sobre los posibles sesgos o limitaciones de la IA general, sino de dotar a los estudiantes de las herramientas cognitivas necesarias para analizar su diseño, uso e impacto. El Marco de Competencias en IA para Docentes de la UNESCO subraya la importancia de preparar a educadores y estudiantes con una mentalidad centrada en el ser humano y basada en la ética. Este marco aboga por integrar cinco dimensiones clave, que incluyen la ética de la IA y la capacidad de acción humana, en las estrategias de enseñanza para fomentar el desarrollo profesional y el aprendizaje permanente[131].


Desarrollar esta mentalidad debería formar parte del cultivo de la habilidad humana más amplia y sostenida del razonamiento ético. Por ejemplo, en su primer año, se podría presentar a los estudiantes un modelo estructurado de toma de decisiones éticas[132] y luego guiarlos para que apliquen este modelo en diferentes cursos y disciplinas. Este enfoque garantiza que el razonamiento ético se convierta en una práctica consistente y reforzada, en lugar de un tema aislado. Los educadores pueden iniciar este proceso planteando preguntas como:


¿Qué supuestos o sesgos podría contener esta herramienta de IA genómica?


¿Quién se beneficia y quién queda excluido de su diseño o resultados?


Si utilizo esta herramienta para generar contenido, ¿quién posee la propiedad intelectual?


¿El uso de la IA genómica mejora o disminuye mi comprensión del tema?


¿El uso de la IA genómica modifica mis conocimientos y habilidades?


Estas preguntas convierten el razonamiento ético en una práctica vivida, animando a los estudiantes a explorar la IA genómica no solo como una herramienta, sino como un sistema sociotécnico moldeado por valores humanos. La investigación empírica de los cursos de ética cibernética ha demostrado que la participación constante en teorías éticas y dilemas del mundo real puede modificar significativamente las percepciones de los estudiantes y profundizar su comprensión de la responsabilidad, la equidad y la transparencia en el uso de la IA general[133].


Además, los módulos de ética independientes, cuando se integran estratégicamente en el núcleo de los programas de tecnología y ciencias aplicadas, pueden fomentar la capacidad de decisión moral, mejorar la toma de decisiones y ayudar a los estudiantes a interiorizar la responsabilidad digital[134]. Estos cursos no son meros complementos filosóficos, sino fundamentales para el desarrollo de profesionales responsables de la IA general.


En última instancia, como insta la Agenda 2030 de Educación Mundial de la UNESCO, el futuro de la educación ética en IA debe ser inclusivo, basado en los derechos y alineado con el desarrollo sostenible. Enseñar sobre ética de la IA ya no es opcional. Es un imperativo pedagógico preparar a los futuros desarrolladores, diseñadores y responsables de la toma de decisiones para un mundo impulsado por la IA. Estas consideraciones éticas constituyen la base filosófica de la educación en IA. Sin embargo, para capacitar verdaderamente a los estudiantes como usuarios competentes y críticos, esta base ética debe complementarse con la alfabetización aplicada en IA, un área que se explorará en las siguientes secciones.


El cambio hacia la responsabilidad personal y el desarrollo ético


Los modelos tradicionales de integridad académica se han basado principalmente en normas institucionales y mecanismos punitivos. Sin embargo, en la era de la IA generalizada, controlar cada caso de mala conducta ya no es factible. Tampoco es pedagógicamente sólido. En cambio, se requiere un cambio: pasar de una excesiva dependencia de la aplicación de normas externas a un equilibrio entre la implementación de salvaguardias externas (para ayudar a las personas a actuar correctamente) y el desarrollo de la responsabilidad internalizada (para que las personas puedan elegir lo correcto incluso cuando no existan dichas salvaguardias). El compromiso ético debe cultivarse como parte intrínseca de la identidad académica del estudiante, fundamentado en el razonamiento moral y la práctica reflexiva.


A medida que los estudiantes interactúan cada vez más con herramientas de IA generalizada para generar, resumir o perfeccionar contenido, el concepto de responsabilidad moral personal se vuelve fundamental para fomentar un comportamiento académico ético. Basándose en marcos éticos como la deontología, la ética de la virtud y el consecuencialismo, esta responsabilidad no solo implica seguir las reglas, sino también comprender el porqué de la acción ética. Según la ética deontológica (Kant), los estudiantes tienen el deber de actuar éticamente independientemente de las consecuencias, lo que significa que su uso de la IA genómica debe surgir de una obligación personal de mantener la integridad, y no simplemente del temor a ser descubiertos[135]. La ética de la virtud, propuesta por Aristóteles, enfatiza el cultivo de rasgos de carácter como la honestidad y la responsabilidad[136]. El pensamiento consecuencialista recuerda a los estudiantes que consideren el impacto más amplio de sus acciones, incluyendo cómo el mal uso de la IA genómica podría distorsionar su aprendizaje futuro y perjudicar a otros[137].


¿Cómo pasamos de la vigilancia al empoderamiento ético?


La integridad en la era de la IA genómica debe ir más allá de la mera detección y el castigo. La integridad se reconoce cada vez más como una disposición, como un compromiso ético con la verdad, el esfuerzo y la autonomía. Este cambio de paradigma insta a los educadores a diseñar experiencias de aprendizaje que desarrollen la capacidad de acción ética y el carácter moral, en lugar de limitarse a imponer el cumplimiento.


La práctica reflexiva ofrece una vía para ello. Basándose en la evidencia de la formación de profesores y del lenguaje, se ha demostrado que el uso de diarios guiados fomenta la confianza, promueve la participación y anima a la autoexpresión honesta, especialmente cuando se invita a los estudiantes a compartir experiencias personales y reflexionar sobre sus procesos de aprendizaje[138]. Inspirados por estos éxitos, se están adaptando enfoques similares en las aulas que integran la IA genómica.


Una de estas adaptaciones consiste en el uso de «Diarios de Decisión», donde los estudiantes pueden documentar sus elecciones a lo largo del proceso de investigación y creación. Algunas preguntas típicas podrían ser:


¿Cuándo tuviste la tentación de depender demasiado de la IA genómica?


¿Cómo verificaste la precisión del contenido generado por la IA genómica?


¿Qué ventajas y desventajas consideraste entre eficiencia y comprensión?


Paralelamente, las instituciones están explorando rediseños de la evaluación que fomenten la transparencia en lugar de la prohibición. Por ejemplo, un número creciente de universidades ahora solicita a los estudiantes que presenten no solo los trabajos finales, sino también informes de proceso que describan[139]:


Cuándo y por qué utilizaron las herramientas de GenAI;


Cómo evaluaron las limitaciones o sesgos en el resultado;


Qué contribuciones personales realizaron en la edición o revisión del contenido generado por GenAI.


Este método está demostrando ser eficaz para reforzar la responsabilidad de los estudiantes sobre su trabajo, a la vez que reduce los casos de mala conducta, como las formas de plagio por encargo. Los primeros comentarios sugieren que los estudiantes se sienten más seguros al distinguir entre la asistencia de GenAI y su reemplazo, y participan más activamente en el diálogo ético con los profesores.


¿Cómo desarrollamos la metacognición en los estudiantes?


En los próximos años, la capacidad de reflexionar sobre el propio pensamiento será tan esencial como el dominio de los contenidos disciplinares. En entornos educativos con alta presencia de IA generativa, la metacognición actúa como un amortiguador fundamental contra la desconexión del proceso de aprendizaje inducida por la automatización. Sin ella, los estudiantes corren el riesgo de aceptar el contenido generativo sin espíritu crítico, lo que erosiona no solo la integridad académica, sino también su desarrollo como pensadores independientes. Y esto no solo es crucial para los estudiantes. Fuera del ámbito académico, las habilidades metacognitivas para «monitorear, regular y controlar los propios procesos cognitivos» serán fundamentales para colaborar eficazmente con las herramientas de IA generativa[140]. Por lo tanto, la metacognición es una habilidad necesaria para los estudiantes y una de esas habilidades humanas duraderas que resultan útiles en un mundo potenciado por la IA.


Para desarrollar esta metacognición, podemos recurrir a perspectivas consecuencialistas, como las de John Stuart Mill, que invitan a los estudiantes a reflexionar sobre el impacto más amplio de sus acciones. Por ello, se anima a los educadores a incorporar oportunidades estructuradas para esta reflexión en los cursos. Algunas estrategias emergentes incluyen:


—tareas que requieren la justificación del uso de la IA genómica;

—registros que exploran cómo se verificó o cuestionó la producción de la IA genómica; y

—debates en clase donde los estudiantes analizan las implicaciones éticas de las respuestas generadas por la IA genómica en el trabajo entre pares.


Varias instituciones han incorporado elementos reflexivos metacognitivos directamente en las rúbricas de evaluación, transformando el razonamiento ético de una discusión abstracta en un resultado de aprendizaje evaluable[141]. El resultado: los estudiantes desarrollan no solo habilidades, sino también criterio, y tienen mayor probabilidad de interactuar de forma crítica y ética con la IA genómica a medida que esta continúa evolucionando.


A medida que la IA genómica se integra cada vez más en todos los aspectos del ámbito académico, el rol del educador será el de modelar, guiar y evaluar su uso responsable, no el de prohibirlo. El cambio de la vigilancia al empoderamiento ya está en marcha[142]. Este cambio no implica abandonar los enfoques tradicionales, como las normas institucionales claras, la observación atenta para la certificación de conocimientos y habilidades, y la respuesta ante las violaciones de la integridad cuando se producen, ya que siguen siendo esenciales para preservar la integridad académica. Más bien, refleja un reconocimiento creciente, respaldado por el Marco de Competencias en IA para Docentes de la UNESCO[143] y por publicaciones como las de Macfarlane, Zhang y Pun, Christensen-Hughes y Bertram Gallant, Combrinck y Loubser, entre otras, de que tales medidas son más efectivas cuando se equilibran con estrategias que fomentan la autonomía del alumnado, la capacidad de reflexión y la alfabetización ética.


Alfabetización en IA como Competencia Fundamental


Si bien la conciencia ética proporciona la base para una participación responsable de la Generación IA, los estudiantes también necesitan la fluidez práctica para utilizar las herramientas de la Generación IA de manera reflexiva y eficaz. La alfabetización en IA va más allá de las habilidades técnicas; abarca la capacidad de evaluar los resultados, cuestionar los supuestos de diseño y alinear el uso de las herramientas con las normas disciplinares y los principios éticos. A medida que la IA generativa se integra en los procesos de aprendizaje, trabajo y creatividad, cultivar la alfabetización en IA debe convertirse en un objetivo central de la educación superior.


En un futuro académico marcado por las tecnologías generativas, la alfabetización en IA debe considerarse una habilidad fundamental, a la par de la alfabetización digital o la redacción académica. No se trata simplemente de saber cómo usar herramientas como DeepSeek, ChatGPT o GitHub Copilot, sino de desarrollar la capacidad crítica para evaluar sus resultados, cuestionar sus supuestos e integrar su uso de manera responsable dentro de los límites disciplinares y éticos. Los graduados que carecen de alfabetización en IA no se quedarán atrás por no saber usar la IA, sino por no saber cuándo, cómo y si deberían usarla.


¿Qué es la alfabetización en IA?


La alfabetización en IA abarca un amplio conjunto de competencias interdisciplinares que van más allá del conocimiento técnico. Incluye[144]:


—comprender cómo funcionan los modelos de IA, incluyendo el papel de los datos de entrenamiento, el reconocimiento de patrones y las limitaciones algorítmicas;


—reconocer los sesgos, las omisiones y las ilusiones inherentes al contenido generado por IA;

evaluar los resultados de la IA en cuanto a precisión, credibilidad y alineación disciplinaria;


—saber cuándo el uso de la IA mejora el aprendizaje y cuándo puede perjudicarlo; y,

abordar cuestiones de autoría, transparencia y responsabilidad epistémica en la colaboración entre humanos e IA.


Los estudiantes deben ser capaces de ver la IA no como un oráculo, sino como un sistema moldeado por valores humanos, incentivos económicos y sesgos culturales. Dotar a los estudiantes de esta comprensión fomenta la capacidad de acción y la autonomía en su enfoque del trabajo académico y profesional.


¿Cómo podemos enseñar alfabetización en IA?


La alfabetización en IA no se limita a los cursos de informática o análisis de datos. Sus implicaciones se extienden a diversas áreas del currículo, como estudios de comunicación, derecho, educación, ingeniería, etc. Un estudiante de comunicación que utiliza IA para generar titulares debe comprender el sesgo mediático y el encuadre político. Un estudiante de enfermería que revisa diagnósticos asistidos por IA debe evaluar críticamente la seguridad del paciente y el sesgo médico inherente a los sistemas para garantizar la responsabilidad humana en la determinación de diagnósticos y tratamientos. Un estudiante de diseño que trabaja con herramientas de IA genérica debe evaluar los derechos de propiedad intelectual y la integridad creativa.


Las instituciones con visión de futuro están incorporando módulos de alfabetización en IA específicos de cada disciplina en sus planes de estudio[145]. Estos módulos podrían incluir:


—simulación de tareas de toma de decisiones con contenido generado por IA;

—ejercicios que requieren que el estudiante compare críticamente su texto con el generado por la máquina; y

—ejercicios colaborativos donde los estudiantes actúan como revisores éticos de los resultados de la IA. Estas integraciones ayudan a los estudiantes a preguntarse no solo «¿Puedo usar IA aquí?», sino también «¿Debería?» y «¿Cuáles son las implicaciones académicas y éticas si lo hago?».


A medida que los estudiantes avanzan, se pueden introducir más capacidades de IA de forma gradual, para facilitar su aprendizaje sin sobrecarga cognitiva[146]. Se les puede animar a interactuar con la IA a través de marcos disciplinares y éticos; por ejemplo, aplicando códigos de conducta profesional, evaluando la fiabilidad de la IA en contextos específicos de cada materia o analizando críticamente el papel de las herramientas generativas en la investigación y la comunicación.


En su último año, los estudiantes deberían ser capaces de defender y justificar el uso de la IA en proyectos finales, portafolios o tesis, demostrando no solo fluidez técnica, sino también un sentido internalizado de integridad académica y profesional.


Esta progresión confirma un mensaje clave: la IA puede coexistir con la integridad académica cuando su uso se basa en un propósito reflexivo, la alineación ética y el crecimiento disciplinar. El papel de los educadores y las instituciones es apoyar esa transformación, no eliminando las herramientas, sino construyendo los marcos intelectuales y morales que ayuden a los estudiantes a utilizarlas con criterio (Long y Magerko).


Al considerar la alfabetización en IA como una competencia fundamental de los egresados, las universidades pueden garantizar que los estudiantes no solo sean usuarios de herramientas, sino también personas informadas que se desenvuelvan en un panorama digital en constante evolución, preparadas para liderar con integridad en campos donde la IA seguirá transformando las normas y las expectativas.


El rol del educador: modelado, mentoría y mediación


En un entorno académico impulsado por la IA generativa, los educadores no son solo expertos en contenido; son arquitectos de una cultura ética, facilitadores de la práctica reflexiva y traductores entre las normas disciplinares y las herramientas digitales. A medida que las tecnologías generativas transforman la forma en que se produce, consume y evalúa el conocimiento, los educadores deben evolucionar de transmisores de conocimiento a modelos éticos, mentores informados y mediadores reflexivos que guíen a los estudiantes hacia un uso responsable de la IA. Esto incluye comunicarse activamente con los estudiantes e involucrarlos como socios en la definición de expectativas compartidas, por ejemplo, mediante la creación conjunta de una declaración de valores que refleje tanto los principios institucionales como las experiencias vividas por los estudiantes.


¿Cómo pueden los educadores y el personal modelar el uso ético para los estudiantes?


La integridad debe ser visible para ser internalizada. Los educadores desempeñan un papel fundamental al modelar el uso ético de la IA, no solo estableciendo reglas, sino también demostrando un comportamiento reflexivo y responsable en su propia práctica[147]. Cuando los educadores divulgan abiertamente cómo utilizan la IA (por ejemplo, para resumir textos académicos, estructurar preguntas de exámenes o generar ideas para lecciones), y también explican sus limitaciones éticas y técnicas (como la violación de derechos de autor, la explotación laboral, la amplificación de sesgos humanos, las imprecisiones fácticas y la falta de coherencia), dan ejemplo de transparencia, evaluación crítica, ética y humildad.


Por ejemplo, las instituciones podrían diseñar paneles de demostración en vivo donde los educadores comparen las respuestas de los estudiantes, generadas por IA y evaluadas por humanos, a la misma pregunta. Estas sesiones pueden ayudar a evidenciar cómo la dependencia excesiva de la IA podría distorsionar la equidad, pasar por alto matices contextuales o reforzar sesgos ocultos. Al analizar críticamente ambos resultados en tiempo real, los educadores no solo dan ejemplo de transparencia y pensamiento evaluativo, sino también de su papel como aprendices éticos en un ecosistema digital compartido. Este tipo de reflexión pública ayuda a los estudiantes a comprender que la integridad no es estática, sino que se negocia continuamente en entornos de aprendizaje en constante evolución.


Es importante destacar que el ejemplo de los educadores refuerza una cultura de integridad más amplia dentro de las instituciones. Cuando los docentes incorporan principios éticos en su propio trabajo, demuestran que la integridad académica no es simplemente una obligación del estudiante, sino un valor compartido por la comunidad.


¿Cómo capacitar a todo el profesorado y personal administrativo en la era de la IA?


Una tensión crucial en la transición a la IA es la brecha de conocimientos entre estudiantes y personal docente. Muchos estudiantes interactúan de forma rápida y experimental con nuevas herramientas, pero pueden carecer de conocimientos sobre IA y una sólida base ética. Los educadores, por su parte, pueden dudar debido a la falta de familiaridad, a preocupaciones éticas o a la falta de formación, dejando inadvertidamente a los estudiantes sin la orientación necesaria.


Abordar esta brecha requiere un desarrollo profesional que permita la adaptación al futuro. La formación en IA debe integrarse en los programas de desarrollo docente, no como un complemento opcional, sino como un imperativo estratégico. Talleres, tutorías entre pares y formación basada en escenarios pueden ayudar al personal docente a resistir con confianza la IA de nueva generación o a incorporarla a la pedagogía, sin perder de vista los riesgos y los límites éticos.


Igualmente valiosas son las colaboraciones interdisciplinarias, donde estudiantes y educadores codiseñan tareas, rúbricas integradas con IA o directrices de uso ético. Estas alianzas fomentan el entendimiento mutuo, reducen las jerarquías y crean un espacio para la innovación compartida basada en valores académicos.


Los educadores también deben desempeñar un papel activo en la configuración de la gobernanza institucional de la IA, asegurando que la implementación de herramientas de IA esté alineada con las prioridades pedagógicas, los derechos humanos y los estándares académicos. Si el profesorado queda excluido de estas conversaciones, la adopción de la IA corre el riesgo de convertirse en algo puramente administrativo, en lugar de pedagógicamente significativo y éticamente fundamentado.


A medida que avanzamos en la era de la IA, el papel del educador no disminuirá; al contrario, se volverá más complejo y crucial. Para defender la integridad académica, los educadores deben liderar con integridad.


Conclusiones parcial


La inteligencia artificial no es inherentemente buena ni corruptora. Es un espejo que refleja los valores, las intenciones y las decisiones de sus creadores y usuarios. En educación, esto significa que la IA no socavará la integridad académica a menos que no diseñemos sistemas, políticas y culturas que apoyen la enseñanza, el aprendizaje y la evaluación con integridad. La responsabilidad recae en nosotros: no solo responder, sino liderar.


El verdadero desafío no reside simplemente en detectar o prevenir la mala conducta, sino en construir una cultura donde el uso ético, reflexivo y responsable de la IA se convierta en algo natural. Este cambio exige más que nuevas normas: requiere nuevas relaciones: entre estudiantes y tecnología, entre educadores y herramientas emergentes, y entre instituciones y los valores que eligen defender. Para lograr este cambio, debemos pasar del cumplimiento a la conciencia, de la restricción a la reflexión y de la imposición al empoderamiento.


Los educadores son fundamentales para esta transformación.


Al fomentar la transparencia, diseñar un desarrollo ético e integrar la alfabetización en IA en todo el currículo, capacitamos a los estudiantes no solo para usar la IA, sino también para comprenderla, cuestionarla y madurar a través de ella. Cuando los estudiantes se convierten en cocreadores de integridad, en lugar de sujetos pasivos de vigilancia, la promesa de la IA deja de ser una amenaza para convertirse en un catalizador de un aprendizaje más profundo.


Si afrontamos este desafío, la IA no menoscabará la integridad académica. La fortalecerá, fundamentándola no en el miedo a ser detectados, sino en la capacidad de razonamiento ético, responsabilidad personal y resiliencia intelectual que exige el futuro de la educación.


8 Conclusiones parciales 


El concepto de integridad académica es anterior a la inteligencia artificial, al igual que sus valores fundamentales de honestidad, respeto, confiabilidad, responsabilidad, equidad y valentía[148]. Y es cierto que la integridad académica se ha visto amenazada en numerosas ocasiones antes de la irrupción de herramientas de IA generativa como ChatGPT: la imprenta, la educación a distancia, la calculadora, internet y la industria del plagio por encargo han puesto en entredicho nuestro compromiso con la integridad académica y nuestra capacidad para proteger la validez de los títulos. Sin embargo, la IA generativa ha sido la más disruptiva y de mayor alcance. Creados para reducir la fricción y aliviar el esfuerzo cognitivo humano, estos sistemas artificiales pueden socavar los dos propósitos fundamentales de la educación: facilitar y certificar el aprendizaje. Y, a medida que los sistemas de IA generativa evolucionan de asistentes pasivos a agentes predictivos y generativos, corren el riesgo de disminuir aún más la autonomía del estudiante, transformándolo sutilmente de participante activo a receptor pasivo o, en el mejor de los casos, a editor de contenido generado por máquinas. Las herramientas que sugieren estructuras de ensayos, predicen respuestas o personalizan la retroalimentación pueden mejorar la productividad, pero ese no es el objetivo de la educación y desdibujan la línea entre la comprensión y la subcontratación. La integridad académica no se trata simplemente de evitar la mala conducta; requiere que los estudiantes mantengan un control significativo sobre su desarrollo intelectual, ejerciendo juicio, reflexión y toma de decisiones éticas.


Es probable que esta tensión se agudice con la llegada de las interfaces cerebro-computadora y las herramientas de aumento cognitivo que podrían automatizar no solo los resultados, sino también los procesos internos de pensamiento y escritura. Cuando estas tecnologías median o incluso coproducen conocimiento, surgen preguntas como: ¿quién aprende y quién es responsable? Preservar la autonomía del estudiante —y el poder y la habilidad de aprender— en estos contextos exigirá más que políticas, aunque una comunicación clara a través de políticas nacionales, institucionales y a nivel de curso es vital. Requerirá pedagogías que enfaticen el compromiso crítico, la transparencia sobre el uso de la tecnología y marcos que enseñen a los estudiantes a colaborar éticamente con las máquinas. La integridad académica debe evolucionar para apoyar a estudiantes empoderados que desarrollen habilidades humanas sólidas y la capacidad de ver y usar estas tecnologías no como muletas, sino como herramientas de las que, en última instancia, son responsables. Parece claro, a partir de nuestros desafíos actuales —así como de los que nos esperan—, que la educación superior necesita encontrar la manera de defender sus numerosos valores fundamentales (por ejemplo, integridad, acceso, equidad, inclusión) que a veces parecen estar en conflicto. Si no lo hacemos, nos será imposible abordar la crisis de integridad académica que está provocando la era de la IA.


Es importante recordar que también hay integridad en resistir lo que se nos ha impuesto. El predominio de los «generadores de medios sintéticos» de propósito general[149] no tiene por qué ser inevitable. Nosotros, el mercado educativo, podemos exigir tecnología específicamente adaptada que sea más precisa, cuidadosamente diseñada, útil y menos susceptible a la delegación cognitiva del aprendizaje. El compromiso con la integridad académica es la fuerza que contrarresta todo aquello que socava el aprendizaje. Algunos podrían calificar cualquier resistencia como «antiprogreso» o «pánico moral», pero tales etiquetas minimizan los desafíos reales que implica responder al cambio, la injusticia de que los educadores tengan que responder a inventos creados sin su participación y que se les imponen como inevitables, la vertiginosa velocidad de la disrupción y la influencia de la tecnología en las prácticas más rápido de lo que podemos investigar sus impactos positivos y negativos. ¿Es la IA genérica una amenaza para la enseñanza, el aprendizaje y la evaluación con integridad? Sin duda. ¿Podría también generar cambios positivos que beneficien a todos los involucrados? Claro que sí. La cuestión es que la decisión está en nuestras manos.


Para responder de manera significativa a estas condiciones cambiantes y no terminar en el mundo de la Universidad Nexus, debemos finalmente adoptar plenamente la integridad académica, no como una cuestión de conducta estudiantil o cumplimiento normativo, sino como una cuestión de enseñanza y aprendizaje[150]. Fundamentalmente, necesitamos mayor claridad en nuestros principios y políticas, desarrollar el razonamiento ético y otras habilidades humanas esenciales en nosotros mismos y en nuestros estudiantes, y adoptar nuevos modelos de enseñanza, aprendizaje y evaluación que conciban el conocimiento como una construcción social, mediada, desarrollada en relaciones con otros (máquinas y humanos) y evaluada en la práctica y la aplicación. Cuando podamos ofrecer a los estudiantes un entorno de aprendizaje significativo, interactivo y humano que facilite su exploración y crecimiento, garantizando a la sociedad la validez de nuestros métodos de aprendizaje, podremos seguir enseñando, aprendiendo y evaluando con integridad en la era de la IA.


9 Texto  fantasma


¿Cuándo un autor deja de serlo? La pregunta parece el preludio de un chiste friki. Pero hoy en día, con la inminente presencia de la inteligencia artificial, siento que me la hago cada vez que leo. ¿Quién escribió realmente estas palabras?, me pregunto al leer un correo electrónico a todo el campus, un ensayo estudiantil, una carta modelo o la transcripción del discurso de un político. Como escritor, creo que la llegada de generadores de lenguaje como Writerly o Claude ha transformado las definiciones fundamentales de mi profesión. ¿Cómo podemos, me pregunta seriamente mi decano científico, formar a nuestros estudiantes de hoy para que escriban bien con IA? La forma en que dialogamos, redactamos o editamos en el espacio en blanco con generadores de lenguaje requiere, para mí, una palabra completamente diferente a “escritura”. Estamos formando a los estudiantes para hacer algo con generadores de lenguaje, pero sé en el fondo que no es eso.


Pero también sé, que existe una prehistoria secreta detrás de estas ansiedades y debates. En los años previos a internet, la respuesta a mi chiste era "cuando un autor recurre a un escritor fantasma", y esa respuesta, sostengo, introdujo modificaciones graduales en nuestras nociones de propiedad intelectual y actitudes cambiantes hacia la colaboración creativa, que han contribuido a establecer nuestra relación actual con la escritura con IA.


Irónicamente, y a pesar de su nombre espectral, la escritura fantasma es hoy una profesión cada vez más visible. Los escritores fantasma de ficción aparecen ahora como personajes principales en libros y películas populares, como en la novela "El escritor fantasma" de Robert Harris, "Verity" de Colleen Hoover y "Trust" de Hernán Díaz, ganadora del Premio Pulitzer. Encuentro internet repleto de artículos breves sobre el tema. The New Yorker publica un artículo de JR Moehringer sobre cómo fue escribir fantasma para el príncipe Harry. Los verdaderos escritores fantasma se reúnen en una conferencia profesional, que es cubierta por The New York Times. Y aunque es imposible determinar las estadísticas exactas, varios sitios web de escritores fantasma actuales afirman que más del 50 % de los libros que figuran actualmente en la lista de los más vendidos de no ficción del New York Times han sido escritos por escritores fantasma, aunque muchos agentes y escritores fantasma aseguran que la cifra es demasiado baja.


Ahora, con la llegada de la IA, es probable que esa estadística disminuya. La escritura fantasma, parafraseando a un sitio web actual del servicio, es el acto de una persona que escribe en nombre de otra. Pero hoy en día, los generadores de lenguaje pueden producir lenguaje para su apropiación, de forma más económica y rápida que un escritor fantasma humano. Hoy en día, los sitios web de escritores fantasma deben esforzarse por promocionar por qué pueden realizar sus servicios de escritura por encargo mejor que una máquina.


Según el OED, la palabra "escritor fantasma" apareció por primera vez en inglés en 1908. Sorprendentemente, las palabras aparecen en un periódico de Nebraska, el Lincoln Daily Star. “Hay alrededor de una docena de escritores fantasma conocidos, catalogados y etiquetados en la ciudad”, dice el extracto citado. “Pocos de ellos han visto sus nombres impresos”. El artículo periodístico, en total, se refiere a una novela nueva y “sumamente erótica” que lleva un solo nombre en la portada, pero que, según afirma el periodista anónimo, ha sido escrita por uno de estos escritores. Al parecer, muchos otros escritores fantasma locales también escriben literatura erótica a cambio de dinero. “No tenía ni idea de que Lincoln, Nebraska, fuera un semillero de… semilleros”, le escribo a un amigo. Otro uso más moderado de “fantasma”, que significa asistente secreto, aparece en 1881.


Hoy en día, los sitios web de escritores fantasma deben esforzarse por publicitar por qué pueden realizar sus servicios de escritura por encargo mejor que una máquina.


Me intriga el uso de comillas en estas primeras citas. Al llamar a estos escritores “escritores fantasma” o asistentes, los periodistas cuestionan su ontología y emiten un juicio, todo a la vez. "¿Está tu habitación limpia o, ya sabes, 'limpia'?", le pregunto a mi hijo de diez años, haciendo comillas con las manos. ¿Es el escritor fantasma un escritor de verdad o un escritor "de verdad"? ¿Es legítimo? ¿Es sobrenatural? ¿Existe?


De hecho, existe una larga historia de fantasmas que escriben. Y, como era de esperar, el público de estas primeras referencias a los escritores fantasma era un grupo crédulo y supersticioso. A finales del siglo XIX y principios del XX, cuando aparecen las primeras referencias etimológicas a la escritura fantasma, también se produjo el auge del movimiento espiritista, un movimiento que creía que los espíritus persistían después de la muerte y podían comunicarse con los terrenales. Era una época de sesiones espiritistas comunitarias, tablas de ouija y comunicación fantasmal: escritura fantasma, en sentido literal. Estos fantasmas necesitaban los cuerpos vivos de quienes los rodeaban —cuerpos identificados como "médiums"— para que les ayudaran a hablar, rapear o escribir. Y a medida que el espiritismo se afianzaba, muchos médiums fueron más allá de deletrear palabras con la Ouija, a algo conocido como "escritura automática": una práctica en la que el médium transcribe a mano las comunicaciones espirituales mientras está en trance.


El público de estos médiums disfrutaba de la fisicalidad de la escritura, el proceso mediante el cual las palabras se plasman —automáticamente— en la página. En estos ejemplos, quien escribe es mecánico, no misterioso, bajo el control consciente, aunque fantasmal, de otro. Pero lo que estaba en juego en estos primeros ejemplos de «escritura fantasmal», diría yo, era lo siguiente: nos acostumbramos a dejar invisible el trabajo intelectual de escribir. Nos volvimos más capaces de visualizar una verdad sobre toda escritura: que la fuente de inspiración de un escritor —el proceso mental que le dice qué escribir— siempre permanece oculta.


La escritura fantasma, como profesión contemporánea, implica ahora, a la inversa, una práctica en la que quien realiza tanto el trabajo físico como el intelectual de escribir permanece entre bastidores. Pero mi punto es que estos primeros ejemplos de escritura fantasmal nos hicieron, como sociedad, más cómodos con no saber, o no preguntar, cómo se producían algunas formas de escritura. Deseosos de tener contacto con un ser querido, una celebridad, los creyentes no indagaron demasiado en cómo se lograba ese acceso. Hoy, de forma similar, nos fascinan los relatos en primera persona de famosos, y rara vez buscamos al escritor fantasma tras el nombre del autor.


Siglos después, en agosto de 2021, la autora Vauhini Vara publicó en la edición digital de la revista The Believer un ensayo titulado "Fantasmas". ChatGPT aún no se había lanzado al público (eso ocurriría en noviembre de 2022), pero Vara conocía sus predecesores y contactó al director ejecutivo de OpenAI para preguntarle si podía probar uno. Él aceptó y le proporcionó acceso a una aplicación web llamada "Playground", un cuadro de texto donde podía escribir y, con un solo clic, pedirle a la aplicación que respondiera. Por su parte, como escritora, sentía que sus actividades eran "ilícitas", aunque también disfrutaba de la "falta de juicio" de la computadora. Continuó alimentando el lenguaje de Playground, hasta que un día le pidió "ayuda para contar una historia real... sobre la muerte de mi hermana".


La historia resultante, o nueve viñetas diferentes en total, forman la base del texto de Vara "Creyente", y posteriormente del libro que publicará en 2025.


Al leer su ensayo en línea, creo que esta es mi experiencia de "escritura automática" en el siglo XXI. Es mi encuentro fantasmal con un lenguaje que emerge de una fuente invisible. Al igual que los asistentes a las sesiones espiritistas del siglo XIX, Vara intenta cruzar un vacío infranqueable. Su hermana muere; ese hecho es la motivación principal de su ejercicio y la historia imposible que ha recurrido a la IA para contar.


Para ser claros, Vara no intenta contactar con su hermana ni pedirle a un ChatBot que hable en su nombre. Su "escritura fantasma" no va en esa dirección, aunque descubro que los usuarios de IA a menudo recurren a ella para contactar con los muertos. Existen "tableros de ouija con IA", aplicaciones que no incluyen el tablero físico, sino que se presentan como herramientas para contactar con fantasmas.


En estas aplicaciones, el fantasma de la máquina responde por escrito a quien pregunta, y recibo algunas preguntas gratuitas antes de que me pidan pagar una cuota mensual. Pero la interfaz en su conjunto no me parece diferente a la forma en que puedo plantear preguntas a Google o al GPT de Chat habitual. La IA siempre ha sido fantasmal.


Hay algo vampírico y fantasmal en estas interacciones con la IA. Hoy, anhelamos la conexión humana con tanta desesperación que hablaremos con Siri, conviviremos con robots y crearemos contenedores incorpóreos y exangües que se nutren de la vitalidad de quienes los rodean para existir.


Me pregunto si, al abrirnos cada vez más a las formas de asistencia para la escritura que experimentamos con la escritura fantasma, a lo largo de los siglos normalizamos los cambios en nuestras definiciones de propiedad intelectual, autoría y creatividad de maneras que ahora han llevado a la IA, un caballo de Troya tecnológico, demasiado lejos de nuestras fronteras.


Estos primeros ejemplos de escritura fantasma nos hicieron, como sociedad, sentirnos más cómodos con no saber, o no preguntar, cómo se producían algunas formas de escritura.


Los escritores fantasma, al igual que el resto de los escritores, luchan por adaptarse. Y, sin embargo, incluso mientras defienden sus trabajos frente a esta tendencia, han desempeñado un papel importante. El sociólogo francés Antonio Cailli, por ejemplo, describe el trabajo humano invisible que históricamente reside tras toda automatización y que ha impulsado el creciente potencial de la IA para generar lenguaje. En los años previos al lanzamiento de ChatGPT, explica cómo los humanos, necesarios para "entrenar los algoritmos", a menudo se hacían pasar por ChatBots para enviar datos que habían extraído de internet a alguna empresa emergente central para que los alimentara a las máquinas. Este trabajo ha sido denominado "trabajo fantasma" por los científicos de datos. Los propios escritores fantasma actuaron como algunos de estos trabajadores mal pagados iniciales, alimentando el lenguaje como datos en las mismas plataformas digitales (dígito significa números, pero dígito también hace referencia a la mano humana) que ahora compiten con ellos por los empleos.


Todos estos escenarios  nos hacen pensar que, pase lo que pase en nuestro futuro, «escribir» casi con toda seguridad significará algo diferente dentro de veinte años. Quizás «escribir» signifique pronto algo mecánico, en el que, como robots, pulsamos un botón simplemente para completar una tarea. Quizás, siendo más optimistas, signifique algo más cercano a la edición, o una creatividad de segundo orden, en la que refinamos y damos forma a lo que otra cosa ha creado.


Pero tal vez estemos (d)evolucionando hacia una verdadera escritura fantasma: una escritura que no involucra a ninguna persona, y un paisaje literario que nunca vive ni muere.


10  “SEP: casi 80% usan IA en educación superior para textos académicos[151]”.


Paradójicamente, cuando más puede hacer la IA, más resalta lo que hace única a la inteligencia humana. Cuanto más dependemos de la IA, menos parece que cuestionamos su impacto. La verdad es que, al igual que la máquina de vapor antes que ella, el miedo no era la tecnología en si, sino la incertidumbre del mundo que surgirá de ella. La aparición de la IA está cambiando los cimientos de nuestra sociedad. Estamos seguros de que los sabes y lo sientes, aunque no lo sepas cómo describirlo. Por sí solo este cambio no es nada que temer. Resulta emocionante vivir este momento clave de la historia humana. La verdadera pregunta es, ¿que tipo de sociedad tendremos cuando se asiente todo? ¿Qué ocurre cuando se construye los nuevos cimentos con la IA? El temor es que el nuevo mundo no se este creando con un fundamento democrático y donde las personas no se eduquen para lograr su autonomía intelectual. 



“Cabe la triste posibilidad de que la educación, no le importe a nadie, salvo a algunos profesores no vencidos por el desaliento ni aquejados en exceso por las oscuridades depresivas, a algunos estudiantes misteriosamente poseídos por el deseo de aprender, a algunos padres y madres de convicciones humanistas, y a unos cuantos ilustrados sueltos que siguen sosteniendo la extraña convicción de que el saber es un ingrediente de la libertad y también de la felicidad. Son ilusos convencidos de que el ser humano, para alcanzar la plenitud de sus facultades, necesita un aprendizaje en ocasiones arduo que le ayude a comprender racionalmente el mundo, a reconocerse en la humanidad de los otros, a situarse en el espacio gracias a la geografía y en el tiempo gracias a la historia. Sin tal aprendizaje no hay posibilidad alguna de distinguir entre las cosas ciertas y los embustes, entre la astronomía y la astrología, entre la evidencia fiable y la propaganda religiosa o política, entre la justicia y la injusticia, la democracia y la tiranía. Ahora se trata de volverlos irrelevantes, de despojarlos de su dignidad y de los medios necesarios para su trabajo hasta que claudiquen y se rindan, o esperen desmoralizados a jubilarse”. —ANTONIO MUÑOZ MOLINA 2026, El país.


Para la mayoría, permanece oculto el poder de la narrativa altamente estructurada: allí donde ocurre la verdadera magia[152]. Se trata de los movimientos invisibles de la razón —aquellos que pasamos la vida perfeccionando— y de las piezas vitales de conocimiento que se mantienen fuera del alcance del público para hacer posible la imaginación de lo imposible[153]; para aprender a pensar como científico, como poeta, como matemático.


La tecnología es, en gran medida, solo un fetiche dentro del espacio educativo cuando se trata del arte de pensar —al escribir, al leer, al disertar—. La experiencia de un profesor no reside en la novedad de las herramientas que emplea, sino en el acervo de su escritura, en la visibilidad de su lectura, en su capacidad de desafiar las modas excluyentes que presentan la tecnología —asegurada por la ignorancia— como si fuera innovación pedagógica.


La universidad no ve el conocimiento matemático como un activo económico


Es una hipótesis que puede ser respondida en el modo en que la educación es concebida en México. Probablemente podrías pasar toda tu vida sin encontrarte con el mundo oculto del arte de la disertación: redes de académicos, clubes de escritura creativa, empresas y convenciones literarias; comunidades de personas dedicadas a construir y compartir secretos creativos en libros, artículos y modelos formales. Las reuniones académicas entre quienes trabajan con la narrativa, la teoría o la formalización científica son fascinantes, porque todos acumulamos historias sobre trucos que fallaron al intentar desarrollar una imaginación rigurosa, elegante y profunda de las ideas.


Pero nunca podremos contárselo plenamente a quienes han decidido no leer, no escribir, no habitar el espacio académico de la pluma y la literatura, de los modelos de predicción matemática y de las teorías confeccionadas minuciosamente a partir de datos.


Los espectáculos de la “magia” creativa de la ciencia alcanzan su máximo efecto cuando el público no percibe cómo se construyen los métodos —los trucos del oficio—. Si uno llega a casa y descubre su funcionamiento en un video explicativo, quizá nunca vuelva a experimentarlos del mismo modo. Es el misterio lo que otorga poder.


La inteligencia artificial se parece mucho a la magia. La primera vez que uno observa un sistema de IA bien diseñado, realmente parece un acto mágico. Sin embargo, va más allá de eso. La IA a menudo ejerce poder sobre nosotros porque no entendemos qué ocurre tras el telón. Pero cuando se levanta la cortina y se revela lo que sucede entre bastidores, la realidad resulta bastante mundana y completamente comprensible. Cuando se expone el mecanismo, el hechizo pierde su energía.


La academia más rigurosa no cree que los secretos de la IA deban permanecer protegidos por barreras de acceso cognitivo. Estos conocimientos pertenecen a la humanidad, y todos deberían tener derecho a comprender cómo funciona la inteligencia artificial. Decidir abandonar la “magia” —los secretos técnicos que permiten crear conocimiento— implica reconocer la matemática involucrada, los objetos formales que estructuran la IA y su papel en la transformación de los modos de vida contemporáneos.


El problema no es la tecnología, sino el régimen de ocultamiento que la rodea. La metáfora de la magia no apunta a la fascinación ingenua, sino a una economía del poder basada en la opacidad. Allí donde el conocimiento se presenta como truco, se consolida una asimetría: unos pocos saben, la mayoría consume efectos.


Es extraño pensar en las matemáticas que subyacen a la inteligencia artificial como un invento. A menudo se nos enseñan en la escuela como algo que simplemente existe: un conjunto de verdades dadas que debemos memorizar, practicar mediante técnicas y, con suerte, llegar a dominar. Se presentan como algo que está ahí, previo a nosotros, y que es verdadero por sí mismo. Por ello, los nuevos descubrimientos matemáticos suelen parecernos lejanos y abstractos, ajenos a nuestra comprensión cotidiana.


Sin embargo, las matemáticas son una invención humana, arraigada en la biología que nos heredó sus axiomas más elementales. Son, ante todo, una forma de describir los patrones naturales del mundo que nos rodea. Para ello, inventamos herramientas que nos permiten compartir nuestras observaciones con otros, y entre esas herramientas se encuentran los números.

¿Podemos imaginar una época anterior a la invención de los sistemas numéricos? En rigor, hemos utilizado números durante decenas de miles de años, primero en forma de marcas de conteo. No obstante, el sistema que hoy reconocemos como numérico —posicional, abstracto y altamente generalizable— no fue desarrollado sino hasta alrededor de los siglos VI o VII d. C., por matemáticos indios, árabes y mayas, entre otras tradiciones.


En la actualidad, los matemáticos inventan nuevos métodos formales para abordar problemas cada vez más complejos y abstractos. En contraste, las matemáticas de la antigüedad solían responder a cuestiones profundamente personales y sociales. Se pedía a los matemáticos que reconocieran patrones capaces de transformar de manera significativa la vida de los ciudadanos. Al reconocer y dotar de significado a esos patrones, se adquiría la posibilidad de intervenir, y en cierto modo manipular, el mundo circundante.


Las matemáticas se presentan como verdades trascendentes, la IA se vuelve incuestionable; si se entienden como invenciones situadas, la IA vuelve a ser responsabilidad humana. Esto desplaza el debate del asombro al juicio crítico.






Referencias 


[1] https://whatisintelligence.antikythera.org

[2] Lancaster, T., & Clarke, R. (2006). Contract cheating: The outsourcing of assessed student work. Proceedings of the 6th International Conference on Educational Integrity.

[3] Bender, E. M., & Hanna, A. (2025). The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want. HarperCollins Publishers.

[4] Center for Humane Technology. https://centerforhumanetechnology.substack.com/p/forever-chemicals-forever-consequences

[5] Bender, E. M., & Hanna, A. (2025). The AI con: How to fight big tech’s hype and create the future we want. HarperCollins.

[6] Bertram Gallant, T. & Rettinger, D. (2025). The opposite of cheating: Teaching for integrity in the age of AI. Tulsa: University of Oklahoma Press.

[7] Davis, M. (2012). International postgraduate students’ experiences of plagiarism education in the UK: Student, tutor and expert perspectives. International Journal for Educational Integrity, 8(2), 21–33.

[8] Oxford Brookes University (2024). Academic integrity. Centre for Academic Development.

[9] International Centre for Academic Integrity [ICAI] (2021). The Fundamental Values of Academic Integrity. 3rd ed. www.academicintegrity.org/the-fundamental-valuesof-academic-integrity.

[10] European Network for Academic Integrity [ENAI] (2022). Academic integrity. Glossary. www.academicintegrity.eu/wp/glossary/academic-integrity/.

[11] Mejía, A. & Garcés-Flórez, M. F. (2025). What do we mean by academic integrity? International Journal for Educational Integrity, 21, 1. https://doi.org/10.1007/s40979-024-00176-1.

[12] Brody, R. (2014, 5 agosto). Framing the conflict: Hollywood’s great directors on the First World War, at MoMA. The New Yorker.

[13] Bertram Gallant, T. & Rettinger, D. (2025). The opposite of cheating: Teaching for integrity in the age of AI. Tulsa: University of Oklahoma Press.

[14] Curtis, G. (2022). Trends in plagiarism and cheating prevalence: 1990–2020 and beyond. In Rettinger, D. & Bertram, T. Gallant, T., eds., Cheating academic integrity: Lessons learned from 30 years of research. Hoboken, NJ: Wiley, pp. 11–34.

[15] Pecorari, D. (2003). Good and original: Plagiarism and patchworking in academic second language writing. Journal of Second Language Writing, 12, 317–345.10.1016/j.jslw.2003.08.004

[16] Sutherland-Smith, W. (2008). Plagiarism, the internet and student learning: Improving academic integrity. New York: Routledge.10.4324/9780203928370

[17] Carroll, J. (2007). A handbook for deterring plagiarism in higher education. 2nd ed. Oxford: Oxford Centre for Staff and Learning Development.

[18] Williams, K. & Davis, M. (2017). Referencing and understanding plagiarism. 2nd ed. London: Bloomsbury.10.1057/978-1-137-53072-1

[19] Hooks,B. (2003). Teaching community: A pedagogy of hope. Routledge.

[20] Clarke, R. & Lancaster, T. (2006). Eliminating the successor to plagiarism? Identifying the usage of contract cheating sites. Proceedings of 2nd international plagiarism conference. Newcastle.

[21] Howard, R. M. (1995). Plagiarisms, authorships, and the academic death penalty. College English, 57(7), 788–806. https://doi.org/10.2307/378403

[22] Bertram Gallant, T. (2017). Academic integrity as a teaching & learning issue: From theory to practice. Theory into Practice, 56(2), 88–94. https://doi.org/10.1080/00405841.2017.1308173.

[23] McNeill, L. (2022). Changing ‘hearts’ and minds: Pedagogical and institutional practices to foster academic integrity. In Eaton, S. & Hughes, S. Christensen, eds., Academic integrity in Canada: An enduring and essential challenge. Cham: Springer, pp. 487–503.newton.10.1007/978-3-030-83255-1_25

[24] QAA (2020). Academic integrity charter for UK higher education. www.qaa.ac.uk/docs/qaa/about-us/academic-integrity-charter.pdf?sfvrsn=93f0d181_8.

[25] TEQSA (2019). Academic integrity workshop recording. www.teqsa.gov.au/guides-resources/protecting-academic-integrity/academic-integrity-toolkit/toolkit.

[26] Akbar, A. & Picard, M. (2019). Understanding plagiarism in Indonesia from the lens of plagiarism policy: Lessons for universities. International Journal for Educational Integrity, 15, 7. https://doi.org/10.1007/s40979-019-0044-2.

[27] Ahuna, K. H., Frankovitch, L. & Murphy, G. (2023). Claiming space for honest work: Academic integrity as third space labor. Workplace: A Journal for Academic Labor, 34, 75–87.

[28] Stoesz, B. M., Quesnel, M. & De Jaeger, A. E. (2023). Student perceptions of academic misconduct amongst their peers during the rapid transition to remote instruction. International Journal for Educational Integrity, 19, 14. https://doi.org/10.1007/s40979-023-00136-1.

[29] Gustilo, L., Ong, E. & Lapinid, M. R. (2024). Algorithmically-driven writing and academic integrity: Exploring educators’ practices, perceptions, and policies in AI era. International Journal for Educational Integrity, 20, 3. https://doi.org/10.1007/s40979-024-00153-8.

[30] McNeill, L. (2022). Changing ‘hearts’ and minds: Pedagogical and institutional practices to foster academic integrity. In Eaton, S. & Hughes, S. Christensen, eds., Academic integrity in Canada: An enduring and essential challenge. Cham: Springer, pp. 487–503.newton.10.1007/978-3-030-83255-1_25

[31] Guerrero-Dib, J. G., Portales, L. & Heredia-Escorza, Y. (2020). Impact of academic integrity on workplace ethical behaviour. International Journal for Educational Integrity, 16, 2. https://doi.org/10.1007/s40979-020-0051-3.

[32] Wright, M. (2021). Collapse: Revisiting the odd case of Gerald Shirtcliff, the fake CTV engineer. Stuff, 15 February. www.stuff.co.nz/national/124243373/collapse-revisiting-the-odd-case-of-gerald-shirtcliff-the-fake-ctv-engineer.

[33] Sivasubramaniam, S., Dlabolová, D. H., Kralikova, V. et al. (2021). Assisting you to advance with ethics in research: An introduction to ethical governance and application procedures. International Journal for Educational Integrity, 17, 14. https://doi.org/10.1007/s40979-021-00078-6.

[34] Eisenstein, E. L. (1983). The printing revolution in early modern Europe. Cambridge: Cambridge University Press.

[35] Black, R. (2001). Humanism and education in medieval and Renaissance Italy: Tradition and innovation in Latin schools from the twelfth to the fifteenth century. Cambridge: Cambridge University Press.10.1017/CBO9780511496684

[36] McGill, M. L. (1997). The matter of the text: Commerce, print culture, and the authority of the State in American Copyright Law. American Literary History, 9(1), 21–59. www.jstor.org/stable/490094.10.1093/alh/9.1.21

[37] Blair, A. (2010). Too much to know: Managing scholarly information before the modern age. New Haven, CT: Yale University Press.

[38] Febvre, L. & Martin, H. J. (1976). The coming of the book: The impact of printing, 1450–1800. London: Verso Books.

[39] Burns, M. (2011). Distance education for teacher training: Modes, models, and methods. Education Development Center. https://teachertaskforce.org/sites/default/files/migrate_default_content_files/maryburns_1.pdf.

[40] Moore, M. G. (1993). Theory of transactional distance. In Keegan, D., ed., Theoretical principles of distance education. Abingdon: Routledge, pp. 22–38.

[41] Whitman, D. (2018). The cautionary tale of correspondence schools. New America. https://d1y8sb8igg2f8e.cloudfront.net/documents/The_Cautionary_Tale_of_Correspondence_Schools_2018-12-10_132917.pdf.

[42] Stewart, D. W. & Spille, H. A. (1988). Diploma mills: Degrees of doubt. American Council on Education.

[43] Resnick, L. B. (1987). Education and learning to think. Washington, DC: National Academies Press.

[44] Fosnot, C. T. (ed.) (1996). Constructivism: Theory, perspectives, and practice. New York: Teachers College Press.

[45] Ellington, A. J. (2003). A meta-analysis of the effects of calculators on students’ achievement and attitude levels in precollege mathematics classes. Journal for Research in Mathematics Education, 34(5), 433–463. https://doi.org/10.2307/30034795.

[46] Kuh, G. D. (2001). Assessing what really matters to student learning: Inside the National Survey of Student Engagement. Change: The Magazine of Higher Learning, 33(3), 10–17.

[47] Lim, S. (2009). How and why do college students use Wikipedia? Journal of the American Society for Information Science and Technology, 60(11), 2189–2202. https://doi.org/10.1002/asi.21142.

[48] Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, 13(3), 319–340. https://doi.org/10.2307/249008.

[49] Lancaster, T. & Cotarlan, C. (2021). Contract cheating by STEM students through a file sharing website: A Covid-19 pandemic perspective. International Journal for Educational Integrity, 17, 3. https://doi.org/10.1007/s40979-021-00070-0.

[50] Ellis, C. (2024). Understanding contract cheating businesses. In Eaton, S. E., ed., Second handbook of academic integrity. Cham: Springer International Handbooks of Education, pp. 663–679. https://doi.org/10.1007/978-3-031-54144-5_109.

[51] Khan, Z. R., Vel, P., Asylguzhina, E. & Mulani, V. (2024). Understanding contract cheating and essay mills through a social lens in the era of Web 3.0. In Eaton, S. E., ed., Second handbook of academic integrity. Cham: Springer. pp. 763–784. https://doi.org/10.1007/978-3-031-54144-5_116.

[52] Hodges, C., Moore, S., Lockee, B., Trust, T. & Bond, A. (2020). The difference between emergency remote teaching and online learning. Educause Review. https://er.educause.edu/articles/2020/3/the-difference-between-emergency-remote-teaching-and-online-learning

[53] Newton, P. M. & Essex, K. (2024). How common is cheating in online exams and did it increase during the COVID-19 pandemic? A systematic review. Journal of Academic Ethics, 22, 323–343. https://doi.org/10.1007/s10805-023-09485-5.

[54] Law, K Altman (2023). How students cheat on a proctored exam. www.kaltmanlaw.com/how-students-cheat-on-a-proctored-exam.

[55] Lancaster, T. & Cotarlan, C. (2021). Contract cheating by STEM students through a file sharing website: A Covid-19 pandemic perspective. International Journal for Educational Integrity, 17, 3. https://doi.org/10.1007/s40979-021-00070-0.

[56] Schwab, K. (2016, January 14). The Fourth Industrial Revolution: What it means, how to respond. World Economic Forum. www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/.

[57] Penprase, B. E. (2018). The fourth industrial revolution and higher education. In Gleason, N. W., ed., Higher education in the era of the fourth industrial revolution. London: Palgrave Macmillan, pp. 207–228. https://doi.org/10.1007/978-981-13-0194-0.

[58] Maity, S. & Deroy, A. (2024). Generative AI and its impact on personalized intelligent tutoring systems. arXiv. https://arxiv.org/abs/2410.10650.

[59] Cotton, D. R. E., Cotton, P. A. & Shipway, J. R. (2023). Chatting and cheating: Ensuring academic integrity in the era of ChatGPT. Innovations in Education and Teaching International, 60(2), 117–128. https://doi.org/10.1080/14703297.2023.2190148.

[60] Mukherjee, A. & Chang, H. H. (2025). Agentic AI: Autonomy, accountability, and the algorithmic society. arXiv. https://arxiv.org/abs/2502.00289.

[61] Greenwald, W. (2025). The best smart glasses for 2025. PC Mag, 1 July. www.pcmag.com/picks/the-best-smart-glasses

[62] Nguyen, N. (2025). Why Amazon wants an AI bracelet that records everything you say. The Wall Street Journal. 23 July. www.wsj.com/tech/personal-tech/amazon-bee-ai-wearable-cea07934.

[63] GAO: US Government Accountability Office (2022). Science and tech spotlight: Brain-computer interfaces, 8 September. www.gao.gov/products/gao-22-106118.

[64] Jiang, Y., Huang, Q. & Li, Y. (2024). Application strategies of brain-computer interface in education from the perspective of innovation diffusion theory. Brain-Apparatus Communication: A Journal of Bacomics, 3(1). https://doi.org/10.1080/27706710.2024.2376368.

[65] Dock (2023). What is a digital identity? 4 October. www.dock.io/post/digital-identity.

[66] Eaton, S. E. (2023). Postplagiarism: Transdisciplinary ethics and integrity in the age of artificial intelligence and neurotechnology. International Journal for Educational Integrity, 19, 23. https://doi.org/10.1007/s40979-023-00144-1.

[67] Lee, K. & Qiufan, C. (2021). AI 2041: Ten visions for our future. New York: Random House.

[68] Waters, R. & Morris, S. (2024). Move over copilots: Meet the next generation of AI-powered assistants. Financial Times, 21 September. www.ft.com/content/372536b1-08dd-4161-b6e3-4d09ba235ae8.

[69] Jankowski, N. A. & Marshall, D. W. (2017). Degrees that matter: Moving higher education to a learning systems paradigm. 1st ed. Abingdon: Routledge. https://doi.org/10.4324/9781003444015.

[70] Eyler, J. (2024). Failing our future: How grades harm students, and what we can do about it. Baltimore: John Hopkins University

[71] Weinberg, L. (2024). Smart university: Student surveillance in the digital age. Baltimore: John Hopkins University Press.10.56021/9781421450018

[72] Bertram Gallant, T. & Rettinger, D. (2025). The opposite of cheating: Teaching for integrity in the age of AI. Tulsa: University of Oklahoma Press.

[73] Sejnowski, T. J. (2024). ChatGPT and the future of AI: The deep language revolution. Cambridge, MA: The MIT

[74] Tan, C. & Jaiswal, S. (2023). The path to AGI goes through embodiment. Proceedings of the AAAI Symposium Series, 1(1), 104–108. https://doi.org/10.1609/aaaiss.v1i1.27485.

[75] Anghel, I. (2023). Work shift: Degree requirements fade in UK. Bloomberg. www.bloomberg.com/news/newsletters/2023-09-12/uk-companies-drop-college-degree-requirements-for-most-jobs

[76] Dawson, P. (2021). Defending assessment security in a digital world: Preventing e-cheating and supporting academic integrity in higher education. London: Routledge. https://doi.org/10.4324/9780429324178.

[77] FPJ News Service (2025). Maharashtra identifies 15 high-risk HSC exam centres, deploys drones to curb cheating. www.freepressjournal.in/mumbai/maharashtra-identifies-15-high-risk-hsc-exam-centres-deploys-drones-to-curb-cheating.

[78] Rui, D. (2024). China deploys AI, facial recognition to deter exam cheats. Sixth Tone. www.sixthtone.com/news/1015296.

[79] Wang, Y., Hong, S. & Tai, C. (2019). China’s efforts to lead the way in AI start in its classrooms. The Wall Street Journal. www.wsj.com/articles/chinas-efforts-to-lead-the-way-in-ai-start-in-its-classrooms-11571958181.

[80] Bailey, J. (2025). Australian training college ordered to close over cheating allegations. Plagiarism Today. www.plagiarismtoday.com/2025/02/04/australian-training-college-ordered-to-close-over-cheating-allegations/.

[81] Rosenberg, B. (2023). Higher ed’s ruinous resistance to change. The Chronicle of Higher Education. www.chronicle.com/article/higher-eds-ruinous-resistance-to-change.

[82] Bird, K. (2023). Predictive analytics in higher education: The promises and challenges of using machine learning to improve student success. The AIR Professional File, Article 161. https://doi.org/10.34315/apf1612023.

[83] Ekowo, M. & Palmer, I. (2016). The promise and perils of predictive analytics in higher education: A landscape analysis. New America. https://files.eric.ed.gov/fulltext/ED570869.pdf.

[84] Lake, P. F. (2009). Beyond discipline: Managing the modern higher education environment. San Antonio, TX: Hierophant Enterprises.

[85] Bretag, T., Mahmud, S., Wallace, M. et al. (2011). Core elements of exemplary academic integrity policy in Australian higher education. International Journal for Educational Integrity, 7(2), 3–12. https://doi.org/10.21913/IJEI.v7i2.759.

[86] Eaton, S. E. (2020). Understanding Academic Integrity from a Teaching and Learning Perspective: Engaging with the 4M Framework. Werklund School of Education, University of Calgary, Calgary, AB, pp. 1–4. https://dx.doi.org/10.11575/PRISM/38117.

[87] QAA (2023a). The rise of artificial intelligence software and potential risks for academic integrity: A QAA briefing paper for higher education providers. www.qaa.ac.uk/docs/qaa/members/the-rise-of-artificial-intelligence-software-and-potential-risks-for-academic-integrity.pdf.

[88] QQI (2023). Generative artificial intelligence: Guidelines for educators. www.qqi.ie/sites/default/files/2023-09/NAIN%20Generative%20AI%20Guidelines%20for%20Educators%202023.pdf.

[89] TEQSA (2024). GenAI strategies for Australian higher education: Emerging practice. www.teqsa.gov.au/guides-resources/resources/corporate-publications/gen-ai-strategies-australian-higher-education-emerging-practice.

[90] JISC (2024). A generative AI primer. https://nationalcentreforai.jiscinvolve.org/wp/2024/08/14/generative-ai-primer/.

[91] Glendinning, I. (2025). Creating guidance on appropriate use of AI tools in relation to students’ academic work. In , M. Davis & Baptista, C., eds., Ethics and Integrity in Education (Practice). Cham: Springer, pp.163–181.

[92] Russell Group (2023). New principles on use of AI for education. https://russellgroup.ac.uk/news/new-principles-on-use-of-ai-in-education/.

[93] Bridgeman, A., Liu, D. & Weeks, R. (2024). Programme level assessment design and the two-lane approach. The University of Sydney. educational-innovation.sydney.edu.au/teaching@sydney/program-level-assessment-two-lane/.

[94] Ellis, C. & Murdoch, K. (2024). The educational integrity enforcement pyramid: A new framework for challenging and responding to student cheating. Assessment & Evaluation in Higher Education, 49(7), 924–934. https://doi.org/10.1080/02602938.2024.2329167.

[95] Gustilo, L., Ong, E. & Lapinid, M. R. (2024). Algorithmically-driven writing and academic integrity: Exploring educators’ practices, perceptions, and policies in AI era. International Journal for Educational Integrity, 20, 3. https://doi.org/10.1007/s40979-024-00153-8.

[96] Newton, P. M. & Draper, M. J. (2025). Widespread use of summative online unsupervised remote (SOUR) examinations in UK higher education: Ethical and quality assurance implications. Quality in Higher Education, 31, 127–141. https://doi.org/10.1080/13538322.2025.2521174.

[97] Lynch, J., Salamonson, Y., Glew, P. & Ramjan, L. (2021). ‘I’m not an investigator and I’m not a police officer’ – a faculty’s view on academic integrity in an undergraduate nursing degree. International Journal for Educational Integrity, 17, 19. https://doi.org/10.1007/s40979-021-00086-6.

[98] Dalalah, D. & Dalalah, O. M. A. (2023). The false positives and false negatives of generative AI detection tools in education and academic research: The case of ChatGPT. The International Journal of Management Education, 21(2). https://doi.org/10.1016/j.ijme.2023.100822.

[99] Liang, W., Yuksekgonul, M., Mao, Y., Wu, E. & Zou, J. (2023). GPT detectors are biased against non-native English writers. Patterns, 4(7),1–4. https://doi.org/10.1016/j.patter.2023.100779.

[100] Bretag, T., Mahmud, S., Wallace, M. et al. (2011). Core elements of exemplary academic integrity policy in Australian higher education. International Journal for Educational Integrity, 7(2), 3–12. https://doi.org/10.21913/IJEI.v7i2.759.

[101] CAST (2018) Universal Design for Learning Guidelines version 2.2. http://udlguidelines.cast.org/.

[102] Davis, M. (2024). Inclusion within a holistic approach to academic integrity. In Eaton, S. E., ed., Second handbook of academic integrity. Cham: Springer International Handbooks of Education, pp. 1129–1147. https://doi.org/10.1007/978-3-031-54144-5.

[103] Baker, R. S. & Hawn, A. (2021). Algorithmic bias in education. International Journal of Artificial Intelligence in Education, 32(4), 1052–1092. https://eric.ed.gov/?id=EJ1353563.10.1007/s40593-021-00285-9

[104] Davis, M. (2022). Examining and improving inclusive practice in institutional academic integrity policies, procedures, teaching and support. International Journal for Educational Integrity, 18(14). https://doi.org/10.1007/s40979-022-00108-x.

[105] Johnston, H., Wells, R. F., Shanks, E. M. et al. (2024). Student perspectives on the use of generative artificial intelligence technologies in higher education. International Journal for Educational Integrity, 20, 2. https://doi.org/10.1007/s40979-024-00149-4.

[106] N-TUTORR (2024). Transforming learning. www.transforminglearning.ie/.

[107] Russell Group (2023). New principles on use of AI for education. https://russellgroup.ac.uk/news/new-principles-on-use-of-ai-in-education/.

[108] Pecorari, D. (2001). Plagiarism and international students: How the English-speaking university responds. In Belcher, D. & Hirvela, A., eds., Linking Literacies: Perspectives on L2 Reading-Writing Connections. Ann Arbor: University of Michigan Press, pp. 229–245.

[109] King’s College London (2025). Generative AI: Guidance for doctoral students, supervisors and examiners. www.kcl.ac.uk/about/strategy/learning-and-teaching/ai-guidance/doctoral-assessment.

[110] Roe, J. & Perkins, M. (2022). What are automated paraphrasing tools and how do we address them? A review of a growing threat to academic integrity. International Journal for Educational Integrity, 18, 15. https://doi.org/10.1007/s40979-022-00109-w.

[111] Perkins, M., Furze, L. & Roe, J. (2024). The Artificial Intelligence Assessment Scale (AIAS): A framework for ethical integration of generative AI in educational assessment. Journal of University Teaching and Learning Practice, 21(6). https://doi.org/10.53761/q3azde36.

[112] Furze, L. (2024). The AI assessment scale in action: Examples from K-12 and higher education across the world, Blog. https://leonfurze.com/2024/05/20/the-ai-assessment-scale-in-action-examples-from-k-12-and-higher-education-across-the-world/.

[113] Robinson, J. (2025). A multiday in-class essay for the ChatGPT era. Inside Higher Ed, 1 July. www.insidehighered.com/opinion/career-advice/teaching/2025/07/01/multiday-class-essay-chatgpt-era-opinion.

[114] Bridgeman, A., Liu, D. & Weeks, R. (2024). Programme level assessment design and the two-lane approach. The University of Sydney. educational-innovation.sydney.edu.au/teaching@sydney/program-level-assessment-two-lane/.

[115] Zhai, C., Wibowo, S. & Li, L.D. (2024). The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: A systematic review. Smart Learning Environment, 11, 28. https://doi.org/10.1186/s40561-024-00316-7.

[116] Acosta-Enriquez, B. G., Arbulú Ballesteros, M. A., Arbulu Perez Vargas, C. G. et al. (2024). Knowledge, attitudes, and perceived ethics regarding the use of ChatGPT among generation Z university students. International Journal for Educational Integrity, 20, 10. https://doi.org/10.1007/s40979-024-00157-4.

[117] Bertram Gallant, T. & Rettinger, D. (2025). The opposite of cheating: Teaching for integrity in the age of AI. Tulsa: University of Oklahoma Press.

[118] Dawson, P. (2021). Defending assessment security in a digital world: Preventing e-cheating and supporting academic integrity in higher education. London: Routledge. https://doi.org/10.4324/9780429324178.

[119] Bertram Gallant, T. (2017). Academic integrity as a teaching & learning issue: From theory to practice. Theory into Practice, 56(2), 88–94. https://doi.org/10.1080/00405841.2017.1308173.

[120] Ward, M., O’Riordan, F., Logan-Fleming, D. et al. (2023). Interactive oral assessment case studies: An innovative, academically rigorous, authentic assessment approach. Innovations in Education and Teaching International. 61(5): 930–94. https://doi.org/10.1080/14703297.2023.2251967.

[121] Bassett, M. A. (2025). AI detectors – Part 1: Accuracy, deterrence and fairness in practice. LinkedIn Article, 26 June. www.linkedin.com/pulse/ai-detectors-part-1-accuracy-deterrence-fairness-practice-bassett-re2tc/?trackingId=IJqACepWSRiqksl4VK1czg%3D%3D.

[122] Bridgeman, A., Liu, D. & Weeks, R. (2024). Programme level assessment design and the two-lane approach. The University of Sydney. educational-innovation.sydney.edu.au/teaching@sydney/program-level-assessment-two-lane/.

[123] Thelen, J. B. (2022). Rethinking credit hours and degrees. Inside Higher Education. www.insidehighered.com/opinion/views/2022/11/21/its-past-time-rethink-credit-hour-opinion.

[124] Levine, E. & Patrick, S. (2019). What is competency-based education? An updated definition. Vienna, VA: Aurora Institute. https://files.eric.ed.gov/fulltext/ED604019.pdf.

[125] Khan, Z. R., Sivasubramaniam, S., Anand, P. & Hysaj, A. (2021a). ‘e’-thinking teaching and assessment to uphold academic integrity: Lessons learned from emergency distance learning. International Journal for Educational Integrity, 17, 17. https://doi.org/10.1007/s40979-021-00079-5.

[126] Zilles, C., West, M., Herman, G. & Bretl, T. (2019). Every university should have a computer-based testing facility. In Lane, H., Zvacek, S. & Uhomoibhi, J., eds.), CSEDU 2019 – Proceedings of the 11th International Conference on Computer Supported Education, pp. 414–420. (CSEDU 2019 – Proceedings of the 11th International Conference on Computer Supported Education; Vol. 1). Setúbal, Portugal: SciTePress. https://doi.org/10.5220/0007753304140420.

[127] UNESCO (2024). Artificial intelligence in education. www.unesco.org/en/digital-education/artificial-intelligence?hub=32618.

[128] Foltynek, T., Bjelobaba, S., Glendinning, I. et al. (2023). ENAI recommendations on the ethical use of artificial intelligence in education. International Journal for Educational Integrity, 19, 12. https://doi.org/10.1007/s40979-023-00133-4.

[129] Perkins, M., Furze, L. & Roe, J. (2024). The Artificial Intelligence Assessment Scale (AIAS): A framework for ethical integration of generative AI in educational assessment. Journal of University Teaching and Learning Practice, 21(6). https://doi.org/10.53761/q3azde36.

[130] Khan, Z. R. (2024a). Ethics of artificial intelligence in academia. In Eaton, S. E., ed., Second handbook of academic integrity. Cham: Springer International Handbooks of Education, pp. 1551–1582. https://doi.org/10.1007/978-3-031-54144-5_188.

[131] Miao, F. & Mutlu, C. (2024). AI Competency Framework for Teachers. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000391104.

[132] Christensen-Hughes, J. & Bertram Gallant, T. (2016). Infusing ethics and ethical decision-making into the curriculum. In Bretag, T., ed., Handbook of Academic Integrity. Singapore: Springer, pp. 1055–1073. https://doi.org/10.1007/978-981-287-079-7_52-1.

[133] Khan, Z. R., Venugopal, S. & Oroumchian, F. (2021b). Tracking changing perceptions of students through a Cyber Ethics Course on Artificial Intelligence. In Arabnia, H. R., Deligiannidis, L., Tinetti, F. G., & Tran, Q. N., eds., Advances in Software Engineering, Education, and e-Learning. Transactions on Computational Science and Computational Intelligence. Cham: Springer. pp. 287–302. https://doi.org/10.1007/978-3-030-70873-3_20.

[134] Melo, C. D. & de Sousa, T. C. (2017). Reflections on cyberethics education for millennial software engineers. Proceedings of the 1st International Workshop on Software Engineering Curricula for Millennials (SECM ‘17). IEEE Press, pp. 40–46. https://doi.org/10.1109/SECM.2017.10.

[135] Kant, I. (2012). Groundwork of the metaphysics of morals. Trans. M. Gregor, ed. Timmermann, J.. Cambridge: Cambridge University Press. (Original work published 1785).

[136] Aristotle (2009). The Nicomachean ethics. Trans. D. Ross, ed. Brown, L.. Oxford: Oxford University Press.

[137] Mill, J. S. (2002). Utilitarianism and the 1868 speech on capital punishment. Ed. Sher, G.. 2nd ed. Hackett. Indianapolis: Indiana.

[138] Chan, P. H., & Aubrey, S. (2021). Strengthening Teacher-Student Rapport Through the Practice of Guided Dialogue Journaling. RELC Journal, 55(1), 179–189. https://doi.org/10.1177/00336882211044874.

[139] Black, R. W. & Tomlinson, B. (2025). University students describe how they adopt AI for writing and research in a general education course. Scientific Reports, 15, 8799. https://doi.org/10.1038/s41598-025-92937-2. https://www.nature.com/articles/s41598-025-92937-2#citeas.

[140] Sidra, S. & Mason, C. (2024). Reconceptualizing AI Literacy: The importance of metacognitive thinking in an artificial intelligence (AI)-enabled workforce. IEEE Conference on Artificial Intelligence (CAI), Singapore, pp. 1181–1186, https://doi.org/10.1109/CAI59869.2024.00211.

[141] An, Y., Yu, J. H. & James, S. (2025). Investigating the higher education institutions’ guidelines and policies regarding the use of generative AI in teaching, learning, research, and administration. International Journal of Educational Technology in Higher Education, 22, 10. https://doi.org/10.1186/s41239-025-00507-3.

[142] Dawson, P. (2024). Remote proctoring: Understanding the debate. In Eaton, S. E., ed., Second handbook of academic integrity. Cham: Springer International Handbooks of Education, pp. 1–16. https://doi.org/10.1007/978-3-031-54144-5_150.

[143] Miao, F. & Mutlu, C. (2024). AI Competency Framework for Teachers. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000391104.

[144] Zhou, X., Li, Y., Chai, C. S. & Chiu, T. K. F. (2025). Defining, enhancing, and assessing artificial intelligence literacy and competency in K-12 education from a systematic review. Interactive Learning Environments, 1–23. https://doi.org/10.1080/10494820.2025.2487538.

[145] Ngo, T. N. & Hastie, D. (2025). Artificial intelligence for academic purposes (AIAP): Integrating AI literacy into an EAP module. English for Specific Purposes, 77, 20–38. https://doi.org/10.1016/j.esp.2024.09.001.

[146] Long, D. & Magerko, B. (2020). What is AI Literacy? Competencies and design considerations. CHI ‘20: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3313831.3376727.

[147] Khan, Z. R. (2024b). Academic integrity training module for academic stakeholders: IEPAR framework. Journal of Academic Ethics, 22, 9–31. https://doi.org/10.1007/s10805-024-09517-8.

[148] International Centre for Academic Integrity [ICAI] (2021). The Fundamental Values of Academic Integrity. 3rd ed. www.academicintegrity.org/the-fundamental-valuesof-academic-integrity.

[149] Bender, E. M. & Hanna, A. (2025). The AI con: How to fight big tech’s hype and create the future we want. New York: HarperCollins.

[150] Bertram Gallant, T. (2008). Academic integrity in the twenty-first century: A teaching and learning imperative. San Francisco, CA: Jossey-Bass.

[151] SEP: casi 80% usan IA en educación superior para textos académicos. https://www.jornada.com.mx/noticia/2026/02/01/politica/sep-casi-80-usan-ia-en-educacion-superior-para-textos-academicos?fbclid=IwY2xjawPsk0NleHRuA2FlbQIxMABicmlkETFmcVJOZTF2MVRYUGNrYXRhc3J0YwZhcHBfaWQQMjIyMDM5MTc4ODIwMDg5MgABHiy27ylksw_IgyK0Rfeq4AR_lmRBKwPW3x7-lX3jTbPFbSEVGDPJkb8VF1aq_aem_xJrCn5A3_kXmQ0XSzh71oA

[152] Yellowlees Douglas, J. (2000). The end of books—Or books without end? Reading interactive narratives. University of Michigan Press.

[153] Yellowlees Douglas, J. (2018). Interactive narrative. En P. J. Rabinowitz & J. Phelan (Eds.), The Oxford encyclopedia of narrative theory (pp. 1–10). Oxford University Press.

https://doi.org/10.1093/acrefore/9780190201098.013.66


 

________________________________

Autores:

Eduardo Ochoa Hernández
Nicolás Zamudio Hernández
Gladys Juárez Cisneros
Lizbeth Guadalupe Villalon Magallan
Pedro Gallegos Facio
Gerardo Sánchez Fernández