Limite aos chatbots: quase metade das universidades federais tem guias ou debate regras para usar IA

 

Fonte:


Quatro em cada dez universidades federais construíram ou discutem protocolos de uso ético de ferramentas de inteligência artificial (IA) generativa por parte dos alunos, professores e pesquisadores. Em geral, esses documentos apontam para a necessidade de transparência nas salas de aula e nos trabalhos científicos quanto à utilização dessa tecnologia e também uma preocupação com a proteção de dados sensíveis.

Veja: Influenciador e pré-candidato ao governo de MG pelo partido do MBL se envolve em briga com gerente de loja

Haitianos retidos: Grupo de imigrantes deixa Viracopos com visto de acolhimento humanitário

O uso de inteligência artificial no ensino superior é um dos aspectos que consta da primeira regulamentação dessa tecnologia na educação brasileira, que pode ser votada hoje na comissão especial formada pelo tema no Conselho Nacional de Educação (CNE). A previsão era de que o documento fosse aprovado no último encontro, há 15 dias, mas o Ministério da Educação (MEC) pediu adiamento para fazer considerações.

De acordo com Celso Niskier, relator da regulamentação para o ensino superior no CNE, as diretrizes discutidas devem conter a necessidade de sinalização clara do uso de IA por parte de professores, alunos e pesquisadores.

— O texto prevê que as instituições de ensino superior, públicas e privadas, precisarão construir seus protocolos internos de uso de inteligência artificial. Pelo que eu vi das universidades que publicaram até agora, elas estão em linha com as diretrizes que estamos definindo na regulamentação — afirmou Niskier.

Levantamento feito pelo GLOBO aponta que 30 (43%) das 69 universidades federais do país já possuem protocolos disponíveis ou os estão construindo. Dessas, 17 publicaram seus guias nos últimos dois anos — sendo muitas das principais instituições da rede, como as federais do Rio de Janeiro (UFRJ), de São Paulo (Unifesp), de Minas Gerais (UFMG) e da Bahia (UFBA). Além disso, 13 — como a federal do Rio Grande do Sul (UFRGS), do Piauí (UFPI), do Pará (UFPA) e do Cariri (UFCA) — formaram comissões institucionais para discutir o tema.

Três outras informaram que vão começar os debates agora. Essa lista inclui as universidades federais do Vale do São Francisco (Univasf), na Bahia; do Triângulo Mineiro (UFTM); e da Integração Latino-Americana (Unila), no Paraná.

Recomendações

Na maior parte dos protocolos já publicados, há a recomendação de que os professores devem definir em seus planos de aula o que consideram aceitável no uso de ferramentas de inteligência artificial generativa.

“Na ausência de autorização explícita (...), o uso dessas ferramentas para executar tarefas, nas provas ou avaliações em geral será considerado má conduta acadêmica, equivalente a plágio ou cola”, diz o documento produzido pela UFRJ em setembro de 2025.

Já a Universidade Federal de Mato Grosso do Sul (UFMS) definiu quais tarefas poderão ser realizadas com auxílio de IA. Entre elas, estão automação de tarefas repetitivas, levantamento de referências bibliográficas “com links verificáveis”, análise de grandes volumes de dados, identificação de padrões complexos, desenvolvimento de modelos e simulações, além de revisão gramatical.

O texto, no entanto, ressalta que o uso inadequado pode ser passível de sanção disciplinar e que todo resultado da IA deve passar por avaliação do aluno ou pesquisador e ser informado.

A Unifesp também aponta que todo uso precisa especificar a ferramenta utilizada, a finalidade e o conteúdo produzido ou modificado. Já a Universidade Federal Fluminense (UFF), assim como outras instituições, também pede a inclusão dos prompts (comandos dados pelo usuário à ferramenta).

De acordo com Guilherme Cintra, diretor de Inovação e Tecnologia da Fundação Lemann, é cada vez mais importante que o estudante ou pesquisador consiga explicitar o processo cognitivo seguido ao longo da atividade. Ele afirma ainda que em algumas avaliações os alunos são incentivados a apresentar o diálogo que tiveram com a ferramenta de IA e explicar o motivo de cada pergunta feita, quais fontes foram buscadas, o que foi extraído dessas referências e como isso contribuiu para o desenvolvimento da resposta.

— Esse tipo de abordagem privilegia a demonstração do processo de pensamento, algo que é muito mais difícil de falsificar do que simplesmente reproduzir um texto pronto — afirma.

Já a Universidade Federal da Paraíba (UFPB) definiu que é “terminantemente vedada a reprodução de textos gerados por ferramentas de IA”. A instituição também proibiu o envio de dados “inéditos, sensíveis ou identificáveis” a essas ferramentas — uma preocupação que é recorrente em outras instituições federais do país e um dos temas mais recorrentes nas principais universidades do mundo.

Harvard, por exemplo, tem uma classificação de sigilo de informações e define que os dois níveis mais secretos não devem nem ser discutidos em reuniões que estão sendo resumidas por IA. Além disso, ela e outras instituições importantes, como Cambridge e Yale, recomendam que os alunos utilizem apenas ferramentas licenciadas pelas próprias universidades — um cenário que ainda não se vê no Brasil.

Conheça alguns exemplos dos protocolos adotados:

Alagoas: A Universidade Federal de Alagoas (Ufal) é uma das poucas que disponibiliza uma IA gratuita para sua comunidade acadêmica. Ela estimula o uso, por exemplo, para revisão de literatura e para geração de ideias por “brainstorming” com a IA.

Uberlândia: A Universidade Federal de Uberlândia (UFU) recomenda aos professores que redesenhem avaliações para exigir “reflexão crítica” dos alunos e que façam provas presenciais para conteúdos fundamentais.

Goiás: A Universidade Federal de Goiás (UFG) aprova o uso, caso o professor da disciplina libere IA, para auxiliar o desenvolvimento de ideias e argumentos, para buscar soluções de problemas e para ajudar a interpretar dados.