Inteligencia artificial generativa en el aula: cómo diferenciar entre información fiable y creíble

La irrupción de la inteligencia artificial en la educación superior

La inteligencia artificial generativa ha dejado de ser una curiosidad tecnológica para convertirse en una herramienta cotidiana en la educación superior. Plataformas como ChatGPT, Gemini o Copilot se usan para resumir textos, aclarar conceptos complejos o crear materiales visuales y multimedia. Esta expansión abre oportunidades evidentes, pero también plantea preguntas clave: ¿hasta qué punto podemos confiar en lo que genera la IA? ¿Sabemos distinguir entre lo que “suena bien” y lo que realmente está respaldado por la evidencia científica?

Un estudio reciente desarrollado en la Universidad Miguel Hernández, publicado en la revista Comunicar, ofrece pistas interesantes para responder a estas cuestiones en el contexto universitario. La investigación se centra en el uso de inteligencia artificial generativa en la asignatura “Calidad Asistencial” del grado en Terapia Ocupacional y propone una distinción fundamental: no es lo mismo que la información sea creíble que sea fiable.

Qué entendemos por información creíble y por información fiable

El estudio diferencia de forma clara entre dos dimensiones que a menudo se confunden. La credibilidad tiene que ver con la confianza subjetiva que la persona usuaria deposita en la información generada por la IA. Suele estar asociada a cómo se presenta el contenido, a la claridad del lenguaje, a la coherencia aparente de las explicaciones y a la capacidad de la herramienta para adaptarse a las necesidades de quien pregunta. La fiabilidad, en cambio, se refiere al ajuste del contenido a la evidencia científica disponible, a la correspondencia con el temario oficial y a la calidad de las fuentes en que se basa.

Esta distinción es especialmente relevante en un momento en que los modelos de lenguaje pueden producir textos muy bien redactados, convincentes y personalizados, pero que no siempre son precisos o actuales desde el punto de vista académico. Organismos como la UNESCO advierten de la necesidad de fortalecer la alfabetización mediática y la evaluación crítica de los contenidos generados por IA, precisamente para evitar que la forma eclipse al fondo.

Una experiencia práctica: glosario multimedia con inteligencia artificial

La experiencia analizada en el artículo se desarrolló durante el curso 2024/2025 en la asignatura “Calidad Asistencial” del grado en Terapia Ocupacional. El alumnado trabajó en equipos para crear un glosario multimedia de conceptos clave, utilizando diferentes herramientas de inteligencia artificial generativa. En lugar de limitarse a definiciones textuales, los grupos elaboraron vídeos, imágenes, presentaciones y hasta canciones para explicar términos como “plan de mejora”, “seguridad del paciente” o “paciente activo-sumiso-pasivo”.

Entre las herramientas más empleadas destacaron ChatGPT para el texto, Canva para el diseño visual, Suno para la generación de canciones y Sora o InVideo para la creación de vídeos. El producto final se compartió en Padlet, una plataforma colaborativa donde el resto de la clase podía visualizar, comentar y valorar los materiales. Esta dinámica generó un entorno de aprendizaje activo, creativo y participativo, en línea con propuestas de innovación docente que recomiendan integrar la IA desde un enfoque pedagógico y no meramente instrumental.

Cómo valoraron el alumnado la credibilidad y la fiabilidad de la IA

El análisis de las respuestas del estudiantado muestra que la credibilidad de la IA se asoció sobre todo a la claridad del lenguaje, a la posibilidad de recibir ejemplos adaptados a la terapia ocupacional, a la personalización de las explicaciones y a la rapidez con la que se obtenían respuestas. También valoraron positivamente que la IA permitiera un aprendizaje más visual, musical y motivador, lo que facilitaba la comprensión y el recuerdo de conceptos abstractos.

Sin embargo, cuando se les preguntó por la fiabilidad, el criterio cambió de forma notable. Para considerar que la información era fiable, el estudiantado recurrió a estrategias de verificación activa. La más utilizada fue el contraste con el temario oficial y los apuntes de clase. También compararon respuestas entre distintas IAs, revisaron artículos científicos y páginas académicas, y en algunos casos subieron a la IA sus propios materiales docentes para que las respuestas se ajustaran al contenido validado. Además, utilizaron su propio juicio y conocimientos previos para detectar posibles incoherencias o errores, algo que coincide con advertencias de la literatura científica sobre las limitaciones de los modelos generativos, como señalan Holmes et al. en sus trabajos para UNESCO y análisis críticos recientes sobre IA generativa en educación superior.

El resultado es un uso de la IA como herramienta complementaria, no sustitutiva, del profesorado. El grupo reconoce al equipo docente como referencia principal de fiabilidad y recurre a la IA como apoyo para reforzar, clarificar y presentar de forma creativa lo trabajado en el aula. Esta combinación coincide con propuestas internacionales de “complementariedad humano–IA” en educación, donde la tecnología amplía posibilidades, pero no sustituye el juicio profesional ni el pensamiento crítico.

Hacia una alfabetización crítica en inteligencia artificial

La experiencia descrita refuerza la idea de que la clave no está en prohibir ni en aceptar acríticamente las herramientas de IA, sino en integrarlas con criterios pedagógicos claros. Diseñar actividades que obliguen al estudiantado a contrastar, analizar y justificar la información generada por la IA contribuye al desarrollo del pensamiento crítico y de competencias digitales avanzadas. Además, abre la puerta a modelos de aprendizaje más activos, donde el alumnado crea, evalúa y revisa contenidos en lugar de ser únicamente receptor.

Para que este enfoque sea sostenible, las instituciones de educación superior necesitan políticas claras sobre el uso responsable de la IA y programas formativos que preparen a docentes y estudiantes para este nuevo escenario, como recomiendan diversos informes internacionales y revisiones sistemáticas recientes. En esta línea, programas académicos como la Maestría en Educación que promueve FUNIBER ofrecen un marco idóneo para profundizar en el diseño de experiencias didácticas innovadoras, en la integración crítica de tecnologías emergentes y en la construcción de entornos de aprendizaje que combinen creatividad, rigor científico y responsabilidad ética.

Fuente: Carrillo Murcia, I., Mateu Martínez, O., Sánchez García, A., Fernández Peris, C., Vicente Ripoll, M. A. y Guilabert Mora, M. (2025). Inteligencias artificiales en el aula: visión crítica sobre fiabilidad y credibilidad. Comunicar, 82, XXXIII, 205-216. https://doi.org/10.5281/zenodo.16375672