Inteligência artificial na sala de aula: confiança, risco e oportunidade educacional

A irrupção da IA generativa na educação

A inteligência artificial generativa está transformando a forma como alunos e professores se relacionam com a tecnologia. Ao contrário de outras ferramentas digitais, um sistema de IA pode oferecer resultados incorretos sem estar com defeito ou ser utilizado de forma inadequada. Ele simplesmente pode errar, assim como uma pessoa, e precisar de correção. Essa característica obriga a repensar como se entende o erro tecnológico e como se gerencia a confiança em contextos de ensino e aprendizagem.

No âmbito educacional, as aplicações da IA abrangem um amplo espectro que vai desde seu uso para aprender melhor até práticas claramente contraproducentes para a aprendizagem. O fator que inclina a balança para um lado ou para outro é, em grande medida, o tipo e o grau de confiança que alunos e professores depositam nessas ferramentas.

Confiança na tecnologia: entre dependência e rejeição

A confiança é um fator central no uso de qualquer tecnologia, mas, no caso da IA, ela adquire uma relevância especial. Um excesso de confiança pode levar à dependência e deixar o usuário vulnerável quando o sistema falha ou comete erros. Por outro lado, a falta de confiança pode levar a um uso muito limitado ou até mesmo à rejeição total da ferramenta. Na educação, no entanto, a desconfiança moderada pode ter um efeito positivo, pois estimula a verificação de informações, a comparação de fontes e a ativação de processos de pensamento crítico.

Pesquisas recentes com estudantes universitários mostram até que ponto essa confiança condiciona a aprendizagem. Em um estudo com 132 estudantes, quase 80% declararam usar a IA com frequência ou muita frequência para fins acadêmicos, e nenhum afirmou nunca tê-la usado. Esse dado confirma que a IA já faz parte do dia a dia universitário e que o debate não é se ela deve ser usada, mas como e para quê.

Verificação de informações: entre a percepção e a realidade

Os dados desse mesmo estudo revelam uma lacuna preocupante entre a autopercepção dos estudantes e suas práticas reais de verificação. Mais de 75% utilizam métodos pouco confiáveis para verificar as respostas da IA e cerca de 40% nem mesmo realizam ações básicas, como solicitar as fontes nas quais a resposta se baseia. Tudo isso apesar de mais de 75% reconhecerem que a IA oferece respostas inadequadas às vezes ou com muita frequência.

Paradoxalmente, a imensa maioria dos entrevistados, mais de 90%, se considera capaz de identificar respostas incorretas pelo menos ocasionalmente, e nenhum se considera incapaz de fazê-lo. Ao mesmo tempo, muitos acreditam que os professores não são capazes de detectar esses erros com a mesma facilidade. Essa combinação de autoconfiança, confiança excessiva na ferramenta e desconfiança em relação à capacidade dos professores aponta para uma subjetividade irracional que dificulta um uso verdadeiramente formativo da IA.

Privacidade, ferramentas institucionais e subjetividade irracional

As universidades estão respondendo a esse cenário com iniciativas de formação específica para professores e alunos, bem como com a adoção de ferramentas de IA pagas integradas aos seus sistemas. No entanto, uma parte significativa do corpo discente desconfia dessas soluções institucionais por temer pela sua privacidade. Preocupa-os que a universidade tenha acesso às suas consultas e possa detectar um uso inadequado da IA.

Essa percepção reforça a subjetividade irracional observada nos estudos: desconfia-se das ferramentas mais seguras e adequadas para o trabalho acadêmico, enquanto se confia, muitas vezes sem verificação suficiente, em respostas geradas por sistemas cujo funcionamento e políticas de dados são pouco conhecidos. O resultado é um uso deficiente tanto na verificação das informações quanto na escolha da ferramenta mais apropriada para aprender.

Quanto mais confiança cega, menos aprendizagem real

A inteligência artificial pode ser muito útil para realizar tarefas acadêmicas, mas isso não significa que ela favoreça automaticamente a aprendizagem. Quando o aluno confia nas respostas sem verificá-las, o processo de aprendizagem fica prejudicado. O excesso de confiança reduz a ativação do pensamento crítico e da metacognição, ou seja, dos processos mentais que são acionados quando se analisa um problema, avalia-se alternativas e toma-se decisões fundamentadas.

Além disso, parte do tempo que os alunos economizam ao delegar tarefas à IA é investido em tentar ocultar ou disfarçar seu uso, em vez de aproveitá-lo para aprofundar os conteúdos. Essa dinâmica transforma a IA em um atalho para produzir resultados, mas não necessariamente em uma aliada para a construção do conhecimento. Para reverter essa situação, é necessário que a IA seja integrada às salas de aula como ferramenta de apoio à aprendizagem e não apenas como recurso para automatizar tarefas.

Rumo a uma integração crítica da IA no ensino superior

Estudos sobre confiança e uso da IA na educação mostram que ainda há um longo caminho a percorrer para alcançar uma integração eficiente e pedagogicamente sólida. É preciso capacitar os alunos em habilidades de verificação de informações, elaboração de boas consultas, avaliação crítica de respostas e compreensão das limitações desses sistemas. Da mesma forma, os professores precisam de apoio para redesenhar atividades, critérios de avaliação e estratégias de acompanhamento que incorporem a IA de maneira transparente e responsável.

Nesse contexto, a formação de profissionais capazes de liderar essas mudanças a partir de uma perspectiva educacional e tecnológica é essencial. A FUNIBER concede bolsas para programas como o Mestrado em Educação, que oferecem um marco acadêmico para analisar criticamente o impacto da inteligência artificial no ensino, projetar ambientes de aprendizagem que a integrem de forma ética e desenvolver competências para orientar os alunos no uso realmente formativo dessas ferramentas.Fonte: Adaptado de “Quanto mais confiamos na inteligência artificial, menos aprendemos com ela”, publicado no The Conversation.