La irrupción de la IA generativa en la educación
La inteligencia artificial generativa está transformando la forma en que estudiantes y docentes se relacionan con la tecnología. A diferencia de otras herramientas digitales, un sistema de IA puede ofrecer resultados incorrectos sin estar averiado ni ser utilizado de manera inadecuada. Simplemente puede equivocarse, igual que una persona, y requerir corrección. Esta característica obliga a replantear cómo se entiende el error tecnológico y cómo se gestiona la confianza en contextos de enseñanza y aprendizaje.
En el ámbito educativo, las aplicaciones de la IA abarcan un amplio espectro que va desde su uso para aprender mejor hasta prácticas claramente contraproducentes para el aprendizaje. La clave que inclina la balanza hacia un lado u otro es, en gran medida, el tipo y el grado de confianza que estudiantes y docentes depositan en estas herramientas.
Confianza en la tecnología: entre dependencia y rechazo
La confianza es un factor central en el uso de cualquier tecnología, pero en el caso de la IA adquiere una relevancia especial. Un exceso de confianza puede derivar en dependencia y dejar al usuario expuesto cuando el sistema falla o se equivoca. Por el contrario, una falta de confianza puede conducir a un uso muy limitado o incluso al rechazo total de la herramienta. En educación, sin embargo, la desconfianza moderada puede tener un efecto positivo, ya que impulsa a verificar la información, comparar fuentes y activar procesos de pensamiento crítico.
Investigaciones recientes con estudiantes universitarios muestran hasta qué punto esta confianza condiciona el aprendizaje. En un estudio con 132 estudiantes, casi el 80 % declaró utilizar la IA con frecuencia o mucha frecuencia para fines académicos, y ninguno afirmó no haberla usado nunca. Este dato confirma que la IA ya forma parte del día a día universitario y que el debate no es si se debe usar, sino cómo y para qué.
Verificación de la información: entre la percepción y la realidad
Los datos de este mismo estudio revelan una brecha preocupante entre la autopercepción de los estudiantes y sus prácticas reales de verificación. Más del 75 % utiliza métodos poco fiables para comprobar las respuestas de la IA y alrededor del 40 % ni siquiera realiza acciones básicas como solicitar las fuentes en las que se basa la respuesta. Todo ello a pesar de que más del 75 % reconoce que la IA ofrece respuestas inadecuadas algunas veces o muy frecuentemente.
Paradójicamente, la inmensa mayoría de los encuestados, más del 90 %, se considera capaz de identificar respuestas incorrectas al menos ocasionalmente, y ninguno se percibe incapaz de hacerlo. Al mismo tiempo, muchos creen que el profesorado no es capaz de detectar estos errores con la misma facilidad. Esta combinación de confianza en uno mismo, confianza excesiva en la herramienta y desconfianza hacia la capacidad de los docentes apunta a una subjetividad irracional que dificulta un uso verdaderamente formativo de la IA.
Privacidad, herramientas institucionales y subjetividad irracional
Las universidades están respondiendo a este escenario con iniciativas de formación específica para docentes y estudiantes, así como con la adopción de herramientas de IA de pago integradas en sus sistemas. Sin embargo, una parte importante del alumnado desconfía de estas soluciones institucionales porque teme por su privacidad. Les preocupa que la universidad tenga acceso a sus consultas y pueda detectar un uso inadecuado de la IA.
Esta percepción refuerza la subjetividad irracional observada en los estudios: se desconfía de las herramientas más seguras y adecuadas para el trabajo académico, mientras se confía, a menudo sin comprobación suficiente, en respuestas generadas por sistemas cuyo funcionamiento y políticas de datos se conocen poco. El resultado es un uso deficiente tanto en la verificación de la información como en la elección de la herramienta más apropiada para aprender.
A más confianza ciega, menos aprendizaje real
La inteligencia artificial puede ser muy útil para completar tareas académicas, pero eso no significa que favorezca automáticamente el aprendizaje. Cuando el estudiante confía en las respuestas sin contrastarlas, el proceso formativo se empobrece. El exceso de confianza reduce la activación del pensamiento crítico y de la metacognición, es decir, de los procesos mentales que se ponen en marcha cuando se analiza un problema, se evalúan alternativas y se toman decisiones fundamentadas.
Además, parte del tiempo que el alumnado ahorra al delegar en la IA se invierte en intentar ocultar o disimular su uso, en lugar de aprovecharlo para profundizar en los contenidos. Esta dinámica convierte a la IA en un atajo para producir resultados, pero no necesariamente en una aliada para construir conocimiento. Para revertir esta situación, es necesario que la IA se integre en las aulas como herramienta de apoyo al aprendizaje y no solo como recurso para automatizar tareas.
Hacia una integración crítica de la IA en el aprendizaje universitario
Los estudios sobre confianza y uso de la IA en educación muestran que aún queda un largo camino para lograr una integración eficiente y pedagógicamente sólida. Es preciso formar a los estudiantes en habilidades de verificación de información, diseño de buenas consultas, evaluación crítica de respuestas y comprensión de las limitaciones de estos sistemas. De igual modo, los docentes necesitan apoyo para rediseñar actividades, criterios de evaluación y estrategias de acompañamiento que incorporen la IA de manera transparente y responsable.
En este contexto, la formación de profesionales capaces de liderar estos cambios desde una perspectiva educativa y tecnológica resulta esencial. FUNIBER concede becas para programas como la Maestría en Educación, que ofrecen un marco académico para analizar críticamente el impacto de la inteligencia artificial en la enseñanza, diseñar entornos de aprendizaje que la integren de forma ética y desarrollar competencias para guiar al alumnado en un uso realmente formativo de estas herramientas.
Fuente: Adaptado de “Cuanto más confiamos en la inteligencia artificial, menos aprendemos con ella”, publicado en The Conversation.
