Docentes apelam a uma reflexão ética profunda sobre a utilização da IA no ensino superior. Tema será abordado no próximo Fórum de Ética da UMinho.
A utilização irregular de ferramentas de inteligência artificial (IA) nos processos de avaliação académica motivou um apelo à reflexão ética por parte de docentes e investigadores da Universidade do Minho (UMinho), durante a reunião do Conselho Geral desta sexta-feira. O alerta surgiu no ponto da ordem de trabalhos relativo ao plano de atividades do Conselho de Ética, que viria a ser aprovado por unanimidade.
O professor Luís Barbosa foi uma das vozes que manifestou preocupação com o “índice elevado de utilização irregular de ferramentas de IA nos processos de avaliação”, sublinhando que esta situação “não se resolve com regulamentos ou medidas punitivas”, mas sim através de “uma reflexão profunda por parte da Universidade”.
Na mesma linha, a docente Maria do Céu Cortez frisou que “não é possível ignorar as questões éticas associadas à IA”, acrescentando que todos na comunidade académica “sentem necessidade de espaços de debate e formação” sobre o tema.
A presidente do Conselho de Ética, Cecília Leão, confirmou que esta problemática será incluída na agenda do Fórum de Ética deste ano. Segundo a responsável, as preocupações prendem-se, sobretudo, com os métodos de avaliação dos estudantes: “Temos recebido pedidos de avaliação relativos a trabalhos escritos, onde a questão da autoria se torna crítica. O mesmo se aplica à redação de artigos científicos no âmbito da investigação”.
Recorde-se que a mais recente versão do Código de Ética e Conduta da UMinho, publicada em Diário da República, já contempla uma secção dedicada à inteligência artificial, alinhada com o processo de revisão do Código Europeu de Conduta para a Integridade na Investigação.
Cecília Leão anunciou ainda a realização de workshops e seminários com investigadores, acompanhando o trabalho desenvolvido por outras instituições a nível nacional e europeu. Entre as propostas está a criação de uma regulamentação por níveis de risco – verde, amarelo e vermelho – para orientar a utilização ética e responsável da IA no contexto académico.
































