Maioria das universidades já adotou IA, mas capacidade institucional continua atrasada diz Relatório
A maioria das universidades já está a adotar ferramentas de inteligência artificial (IA) generativa, sobretudo no ensino, mas muitas continuam sem regras claras sobre a sua utilização, segundo os resultados de um diagnóstico divulgados hoje.
A conclusão resulta do diagnóstico nacional realizado pelo Conselho Nacional para a Inovação Pedagógica no Ensino Superior (CNIPES), apresentado hoje, em Tomar, num evento dedicado à "Liderança Estratégica para a Inteligência Artificial na Educação Superior".
Com base nas respostas de 68 instituições a um inquérito e na análise de estudos e de estratégias e diretrizes de organizações internacionais, governos e instituições de ensino superior, o grupo de trabalho concluiu que a adoção de IA avançou mais depressa do que a capacidade institucional de definir regras claras, consistentes e comparáveis.
"O sistema está a avançar mais depressa do que a governação que o deveria enquadrar", refere o relatório, que sublinha que na generalidade das universidades e politécnicos não estão ainda institucionalizadas rotinas de auditoria, validação e responsabilização.
Segundo os resultados do inquérito, 52,9% das instituições de ensino superior já adotaram a IA no ensino e 42,6% utiliza essas ferramentas na investigação, mas a gestão surge como o domínio menos adiantado, com apenas 26,5% das instituições a relatar ter adotado IA nessa área.
Além das divergências entre instituições, o CNIPES identificou ainda diferenças dentro da mesma unidade orgânica.
Em alguns casos, a formação dos docentes é mais robusta em comparação com a aposta na formação dos estudantes e a IA é integrada em disciplinas, cursos ou projetos específicos, ao invés de programas estruturais e longitudinais.
Quanto à governação, o órgão consultivo do Ministério da Educação, Ciência e Inovação alerta para a necessidade de mediação humana, sublinhando que os modelos generativos não são infalíveis e "sem verificação, cresce o risco de erro académico e institucional".
Por isso, os investigadores sublinham que o potencial da IA enquanto apoio legítimo não pode ser confundido com "substituição silenciosa ou julgamento humano" e sugerem a necessidade de declarar quando e como a IA contribuiu para um trabalho, académico ou administrativo, estando prevista "interpretação humana explícita e responsabilização clara".
"Estamos a falar de uma área que está em mudança muito rápida e isto coloca dificuldades às instituições, mas o cenário que nós vemos no diagnóstico não é exclusivo de Portugal", explicou à Lusa Sandra Soares, que integra a equipa do CNIPES dedicada ao digital e à IA.
Sandra Soares, que faz também parte do grupo de trabalho "Digital e IA na Educação", criado pelo Governo, admite que propor regras fixas "é complexo" num contexto de evolução constante, mas as instituições poderão criar orientações relativamente aos limites de uso, ao uso ético e responsável e à literacia em IA.
"É algo que deveria estar incluído no contexto das estratégias das instituições: a revisão não só dos métodos pedagógicos e da avaliação, mas também dos planos de estudo e do currículo para que todos tenham acesso a esta informação e saibam os riscos", refere.
Reconhecendo que a evidência científica sobre a adoção da IA no ensino superior ainda é parca, o CNIPES propõe a criação de uma plataforma que apoie os centros de excelência de inovação pedagógica da IA no ensino superior e na partilha de práticas, recursos e evidência útil à inovação do ensino e da aprendizagem.
Esta estrutura mapearia as práticas pedagógicas, necessidades e evidência emergente com o objetivo de ajudar a passar "da adoção fragmentada para uma resposta mais coerente, comparável".
No evento de apresentação das conclusões do diagnóstico, que está a decorrer em Tomar, o CNIPES vai ouvir reitores das universidades e presidentes dos politécnicos, cujos contributos também serão considerados nas recomendações que o grupo de trabalho vai entregar ao Governo até ao final de junho.