Imagem: Anggalih Prasetya/Shutterstock
A inteligência artificial permite a realização de diversas tarefas de forma muito mais rápida, o que está revolucionando o mercado de trabalho. A ferramenta também está sendo utilizada em diversos setores, inclusiva na educação.
O problema, no entanto, é que a popularização da IA não foi acompanhada pela criação de regras ou mesmo diretrizes. Um cenário que, entre outras coisas, dificulta a adoção da tecnologia pelas principais instituições de ensino superior no Brasil.
Leia mais
Em artigo publicado no The Conversation, Rafael Cardoso Sampaio, professor da Universidade Federal do Paraná (UFPR), afirma que as ferramentas de IA já se integraram a quase todas as etapas do trabalho intelectual. Estudantes e pesquisadores as utilizam para explorar ideias, realizar buscas bibliográficas, ler e sintetizar artigos, aprimorar a escrita, traduzir textos e até mesmo para gerar ou corrigir códigos de programação para análise de dados.
Para os docentes, os mesmos recursos podem ser úteis na preparação de aulas e materiais didáticos, mas a sua existência introduz um dilema central no processo avaliativo, uma vez que as ferramentas para detectar conteúdo gerado por máquina mostram-se pouco confiáveis. Essa rápida e disseminada adoção, ocorrendo em um vácuo regulatório, transforma-se em um problema concreto e generalizado para as instituições de ensino superior. Sem diretrizes claras, instala-se um ambiente de profunda insegurança jurídica e pedagógica. Um professor que suspeita do uso indevido de IA em um trabalho encontra-se em uma posição delicada de atribuir uma nota zero sem o respaldo de uma política institucional clara e de métodos de detecção comprovadamente eficazes, expondo-se a contestações legais.
Rafael Cardoso Sampaio, professor da UFPR
Para o especialista, essa incerteza resulta em uma hesitação na hora de penalizar, o que, por sua vez, pode erodir o rigor acadêmico. A falta de um padrão institucional força a criação de “micro-regimes” em cada sala de aula, com regras que variam da proibição total à permissão tácita, gerando inconsistência e confusão.
Do lado dos estudantes, o cenário é de medo e oportunidades perdidas. Muitos utilizam as ferramentas de forma oculta, receosos de serem punidos por plágio ou desonestidade e perdem a chance de aprender a declarar e justificar usos legítimos da tecnologia. Logo, em vez de aprenderem a usar a tecnologia de forma ética e transparente, a falta de diretrizes concentra a conversa no proibicionismo e na “detecção”. Isso dificulta o desenvolvimento de um letramento em IA, habilidade fundamental para a formação profissional no século XXI.
Rafael Cardoso Sampaio, professor da UFPR
Além de minar a confiança entre docentes e discentes, a ausência de um diálogo estruturado sobre o tema expõe a comunidade acadêmica a riscos graves de privacidade e propriedade intelectual. Rafael Cardoso Sampaio afirma que o caminho para lidar com essa transformação não é a proibição, que se mostra ineficaz e alienante, mas a regulação com foco ético e pedagógico.
Para isso, ele defende a criação de comitês multidisciplinares, com participação de docentes, discentes e especialistas, para elaborar políticas de uso transparente, que definam o que é apoio legítimo e o que é fraude; além de fluxos e protocolos para lidar com incidentes; salvaguardas de LGPD e propriedade intelectual; e responsabilidade compartilhada nas discussões sobre o tema.
Esta post foi modificado pela última vez em 18 de agosto de 2025 11:37