O ChatGPT pode passar em cursos universitários? Um novo estudo diz que sim, mas há um senão

Um novo estudo revela que, embora o ChatGPT possa resolver facilmente tarefas básicas de engenharia, tem dificuldade em resolver problemas que exigem pensamento crítico, o que suscita preocupações sobre o que os alunos realmente aprendem quando confiam na IA.

chatGPT
ChatGPT obteve um B num curso completo de engenharia, mas não conseguiu resolver problemas de nível superior que exigiam pensamento crítico.

Poderá o ChatGPT superar os trabalhos de casa? Os investigadores da Universidade de Illinois puseram-no à prova inscrevendo a versão gratuita do ChatGPT num curso completo de engenharia. A IA lidou com a matemática básica com facilidade, mas falhou quando os problemas se tornaram mais complexos, revelando deficiências significativas na aprendizagem dos alunos e das máquinas.

Um semestre com ChatGPT: a experiência de estudo

Na Universidade de Illinois em Urbana-Champaign, os investigadores do Departamento de Engenharia Aeroespacial atribuíram ao ChatGPT as mesmas tarefas que os alunos de um curso semestral de sistemas de controlo. Em problemas matemáticos estruturados, o ChatGPT recebeu uma nota de “A”. No entanto, quando confrontado com tarefas abertas que exigiam um raciocínio mais profundo, a IA mal conseguiu uma nota A.

No final, o ChatGPT obteve uma nota B no curso: passou, mas não foi perfeito. A média da turma de alunos reais foi ligeiramente superior, quase 85%. De acordo com o investigador principal e estudante de doutoramento Gokul Puthumanaillam, a fraca capacidade de raciocínio da IA foi o seu maior obstáculo.

O estudo mostra que, embora os alunos possam utilizar o ChatGPT para se desenrascarem, isso não significa que estejam realmente a aprender. A IA pode ser rápida, mas rápida nem sempre significa correta. Além disso, confiar inteiramente no ChatGPT pode levar a uma aprendizagem superficial, em que os alunos passam mas retêm pouco.

Classificações vs. crescimento: o que a IA acertou e errou

O ChatGPT pode gerar respostas em segundos, mas nem todas são fiáveis. Em vários casos, forneceu explicações bizarras ou completamente incorretas, mesmo com todo o material do curso.

chatgpt
Os investigadores descobriram que, embora o ChatGPT fosse excelente em matemática simples, dava frequentemente respostas estranhas ou incorretas em tarefas complexas.

Até foram utilizados termos como oscilações quase periódicas, um jargão que nunca foi ensinado nas aulas.

Um aluno pode demorar 20 minutos a responder a uma pergunta. O ChatGPT resolve-a em menos de 20 segundos, mas por vezes a exatidão é questionável, disse Puthumanaillam.

Quando ChatGPT era corrigido e lhe era feita novamente uma pergunta semelhante, por vezes melhorava, o que indicava uma capacidade de aprendizagem limitada. No entanto, o seu desempenho global manteve-se estagnado, sem melhorias significativas ao longo do tempo.

Repensar os trabalhos de casa na era da IA

Melkior Ornik, professor de engenharia aeroespacial e conselheiro de Puthumanaillam, diz que o estudo é uma chamada de atenção para os educadores. “Tal como as calculadoras nas aulas de matemática, o ChatGPT é uma ferramenta que veio para ficar”, afirmou.

Mas em vez de lutar contra isso, a Ornik planeia reformular os seus cursos para incluir mais problemas abertos e projetos práticos que desafiem os alunos para além do que a IA pode replicar. O objetivo é levar os alunos a pensar mais profundamente e não apenas a dar respostas rápidas.

A equipa de investigação observou que este estudo utilizou a versão gratuita do ChatGPT, a mesma versão que a maioria dos estudantes provavelmente utilizaria. Embora o modelo premium possa ter um desempenho ligeiramente melhor, a principal conclusão é a seguinte: a IA é excelente na resolução de problemas de rotina, mas não tem o raciocínio necessário para tarefas complexas e críticas.

Referência da notícia

University of Illinois Grainger College of Engineering. "Using ChatGPT, students might pass a course, but with a cost." ScienceDaily. ScienceDaily, 22 April 2025. <www.sciencedaily.com/releases/2025/04/250422132018.htm>.