Setembro significa um (re)início de ano letivo para toda a comunidade escolar. Este ano, as aulas começam após o lançamento em massa do ChatGPT – a mais conhecida ferramenta de inteligência artificial generativa para gerar respostas de texto. Torna-se impossível ignorar o “grande elefante na sala” e é necessária uma séria reflexão. Esconder? Proibir? Usar? Explicar? Incentivar o uso? Em alguns níveis de ensino ou transversalmente?

No lançamento da versão massificada do ChatGPT – que em cinco dias teve um milhão de visitas e nos primeiros dois meses mais de 200 milhões de utilizadores –, todos nós fizemos perguntas (mais ou menos sérias) ao ChatGPT, em boa parte incentivados pelas notícias bombásticas da comunicação social. E todos ficámos abismados com as respostas obtidas, de modo quase instantâneo, gratuito e à distância de um clique. Um “não humano” que nos ajuda nas dúvidas, que gera os trabalhos aos mais preguiçosos, que “pensa” e “escreve” por nós, um “amigo-desconhecido” que nos aconselha e ouve os nossos potenciais lamentos. O caos estava instalado: de um lado os entusiastas, do outro, os assustados com o fim do mundo – e, em especial, com o fim da educação e da produção científica. As notícias surgiram em catadupa: Itália optou pelo bloqueio imediato; a Ordem dos Psicólogos teve de chamar à atenção para os perigos das “consultas ao desconhecido”; os professores tiveram que repensar a avaliação, muitos a optarem por abolir certo tipo de trabalhos, evitando o que não é presencial e comprovadamente elaborado pelo aluno.

Fiz recentemente uma experiência (que deu origem a um artigo científico no prelo, cujo título pode ser traduzido para “Porque é que o ChatGPT não é o melhor amigo dos caloiros de programação introdutória”): pedi ao ChatGPT para resolver três das avaliações parcelares de Algoritmia e Programação (dos 1°s ciclos de Engenharia Informática e Engenharia e Gestão Industrial) do primeiro semestre do ano letivo passado. E os resultados do aluno ChatGPT não foram os melhores, apesar da admirável rapidez com que respondeu às perguntas. Neste tipo de unidades curriculares pretende-se que o estudante se inicie no mundo da programação de computadores: pensamento computacional e posterior uso de uma linguagem de programação (no caso, uso do Python). Pretende-se uma resolução correta dos exercícios propostos e não uma qualquer (má) solução, mesmo que funcione. Tradicionalmente, estas unidades curriculares (existentes nos primeiros semestres das várias licenciaturas STEM, acrónimo inglês de Ciência, Tecnologia, Engenharia e Matemática) têm altas taxas de reprovação e de abandono. E as razões são várias, tais como serem no primeiro ano do ensino superior (quando ocorrem altas taxas de abandono) ou pela dificuldade na capacidade de abstração dos jovens caloiros. Curiosamente, encontramos um grupo de alunos que tem habitualmente dificuldades em ter sucesso nestas disciplinas: os chamados “autodidatas do YouTube” – aqueles que foram, na adolescência, aprendendo a programar computadores de forma autónoma e sem um professor. As respostas que o ChatGPT deu aos testes propostos na minha experiência são similares às dadas pelo referido grupo de alunos – o que não é de admirar, já que o mestre é o mesmo –, ou seja: muito complicadas, usando funções desnecessárias e com estratégias de resolução de problemas comprovadamente incorretas.

Esta semana, na aula de apresentação da disciplina, e para ilustrar o problema, contei uma pequena história – verdadeira – que aconteceu comigo há pouco tempo: após uma lavagem na máquina de lavar roupa a cuba deixou de abrir, impossibilitando retirar a roupa que estava no seu interior. Como apaixonada pela tecnologia, perguntei ao Dr. Google “como abrir a porta da máquina de lavar roupa”. Um dos primeiros resultados devolvidos era um vídeo que mostrava que uma faca era o suficiente para criar vácuo e abrir a cuba. Assim o tentei, mas sem grande sucesso, desistindo da estratégia quando percebi que a máquina estava a ficar riscada e a porta continuava fechada. Voltei ao pesquisador para encontrar o manual da marca que nas questões frequentes assinalava que provavelmente o filtro teria ficado obstruído por um objeto estranho – como uma moeda ou uns botões de punho – e que facilmente se desobstruía abrindo uma tampa existente no rodapé da máquina. Com força – e ajuda – consegui abrir a dita tampa de onde saiu um líquido estranho que não estava previsto no manual e sujou o chão, mas que resolveu o problema e me permitiu retirar a roupa que estava dentro da máquina de lavar.

PUB • CONTINUE A LER A SEGUIR

E porquê esta história?

Se usasse a faca, seguindo o YouTube, teria (com mais força, é certo) resolvido o meu problema, mas estragaria irremediavelmente a máquina, e anularia a respetiva garantia; seguindo o manual, consegui abrir a cuba da forma correta – apesar de ter sujado o chão, o que qualquer profissional preveria e teria evitado. Com o ensino introdutório de programação acontece exatamente o mesmo: com o YouTube consegue-se resolver o problema, mas de forma errada; a leitura simples do manual pode não chegar para executar impecavelmente a tarefa – o que um profissional certificado conseguiria.

Podemos extrapolar esta história a outras áreas: ninguém gostaria de ser operado por um cirurgião formado no Youtube ou ser representado por um advogado que dita alegações finais geradas pelo ChatGPT.

É sabido que o ChatGPT é alimentado pelo que encontra na Internet. É sabido que pela Internet há os mais variados disparates – pelo que não será de admirar que nem tudo o que o ChatGPT devolve seja de inquestionável qualidade. O fenómeno não é novo, e as suas consequências estão relacionadas com a (i)literacia digital. Durante anos repeti aos meus alunos universitários a frase: “a Wikipédia não é fonte de informação de um trabalho científico.” A Wikipédia é uma ferramenta colaborativa – pelo que qualquer um pode escrever as maiores inverdades sobre um determinado assunto. E esses disparates mantêm-se até serem verificados. No entretanto, podem ser consultados por alguém que os cita, ou republica, dando origem a disparates em maior escala, gerando desinformação e disseminação de falsidades. É necessário explicar aos alunos que tal pode acontecer – senão os seus trabalhos vão ser uma imagem desses erros. Em resumo: melhorar a sua literacia digital.

Com o ChatGPT ocorre o mesmo: é impossível proibir; até se pode incentivar a usar, mas é necessário apurar a literacia digital, assim como o pensamento crítico – quer dos alunos, quer dos professores. Deve explicar-se quais os limites dos direitos de autor, que nem todas as informações devolvidas são verdadeiras, corretas, bem-intencionadas, fidedignas e, finalmente, que os avaliadores conheçam ferramentas que auxiliem a distinguir um texto gerado pelo ChatGPT de um texto escrito por um humano. Tal como na vida, ensinar a responsabilidade, reconhecer os perigos e como fugir deles. Proibir não é seguramente o caminho, até porque a disrupção tecnológica é uma realidade.