| Compartilhamento |
|
Use este identificador para citar ou linkar para este item:
https://tedebc.ufma.br/jspui/handle/tede/6963| Tipo do documento: | Dissertação |
| Título: | Modelagem preditiva explicável para apoio à prevenção da evasão em cursos de graduação |
| Título(s) alternativo(s): | Explainable predictive modeling to support dropout prevention in undergraduate courses. |
| Autor: | SILVA, Ronald César Carneiro da ![]() |
| Primeiro orientador: | CLÍMACO, Francisco Glaubos Nunes |
| Primeiro coorientador: | TEIXEIRA, Alana de Araújo Oliveira Meireles |
| Primeiro membro da banca: | CLÍMACO, Francisco Glaubos Nunes |
| Segundo membro da banca: | TEIXEIRA, Alana de Araújo Oliveira Meireles |
| Terceiro membro da banca: | BORCHARTT, Tiago Bonini |
| Quarto membro da banca: | CARVALHO, Sergio Teixeira de |
| Resumo: | A evasão acadêmica ainda é um desafio recorrente nas instituições de ensino superior, gerando impactos pessoais para os estudantes e consequências sociais e institucionais relevantes. Nos últimos anos, modelos de aprendizado de máquina têm sido utilizados para estimar o risco de desligamento a partir de dados acadêmicos, demográficos e socioeconômicos dos discentes. Entretanto, apesar do bom desempenho preditivo, muitos desses modelos operam com baixa transparência, o que dificulta interpretar seus resultados. Nesse cenário, abordagens de Inteligência Artificial Explicável (XAI) surgem como alternativa para tornar as previsões mais compreensíveis e úteis na prática. Esta dissertação investiga como técnicas de Inteligência Artificial Explicável podem ser aplicadas a modelos preditivos para estimar o risco de desligamento acadêmico em cursos de graduação, com o objetivo de identificar os fatores que mais influenciam as decisões dos modelos e analisar o potencial das explicações geradas como suporte ao planejamento de estratégias institucionais de prevenção à evasão. A pesquisa foi conduzida a partir de dados de cursos de graduação presenciais da Universidade Federal do Maranhão- UFMA e adotou uma abordagem analítica estruturada que combina análise exploratória, modelagem preditiva segmentada por curso e técnicas de explicabilidade global e local. Foram utilizados diferentes algoritmos de aprendizado de máquina para estimar o risco de desligamento e métodos da XAI como SHAP, Permutation Importance, LIME e Anchors foram aplicados para interpretar as previsões e analisar a contribuição das variáveis nas decisões dos modelos. Osresultados indicam que os modelos preditivos apresentam bom desempenho na identificação de estudantes em risco, embora com variações entre cursos. As análises explicativas mostraram convergência entre técnicas ao apontar três dimensões acadêmicas como centrais na estrutura das previsões: a eficiência na conversão da carga horária matriculada em aprovações (IECH), o ritmo de progressão ao longo do curso (IEPL) e o desempenho global representado pela média de conclusão (MC). No contexto analisado, as variáveis demográficas apresentaram influência menos significativa nas previsões. Alémdisso os resultados sugerem que integrar modelagem preditiva e técnicas de explicabilidade torna o risco de desligamento mais interpretável, ao evidenciar padrões de desempenho acadêmico associados ao evento. As explicações ajudam a compreender quais fatores sustentam as estimativas de risco em diferentes cursos. Com isso, a abordagem pode apoiar a gestão acadêmica na identificação de perfis que demandam maior atenção e no planejamento de ações institucionais voltadas à permanência estudantil. |
| Abstract: | Academic dropout remains a recurring challenge in higher education institutions, generating personal impacts for students as well as relevant social and institutional consequences. In recent years, machine learning models have been used to estimate the risk of academic dropout based on students’ academic, demographic, and socioeconomic data. However, despite their good predictive performance, many of these models operate with limited transparency, making it difficult to interpret their results. In this context, Explainable Artificial Intelligence (XAI) approaches emerge as an alternative to make predictions more understandable and practically useful. This dissertation investigates how Explainable Artificial Intelligence techniques can be applied to predictive models to estimate the risk of academic dropout in undergraduate programs, aiming to identify the factors that most influence model decisions and to analyze the potential of the generated explanations as support for planning institutional strategies to prevent dropout. The research was conducted using data from on-campus undergraduate programs at the Federal University of Maranhão (UFMA) and adopted a structured analytical approach that combines exploratory analysis, course-segmented predictive modeling, and global and local explainability techniques. Different machine learning algorithms were used to estimate dropout risk, and XAI methods such as SHAP, Permutation Importance, LIME, and Anchors were applied to interpret predictions and analyze the contribution of variables to model decisions. The results indicate that predictive models show good performance in identifying students at risk, although with variations across programs. The explanatory analyses revealed convergence among techniques in identifying three academic dimensions as central to the structure of predictions: efficiency in converting enrolled workload into course approvals (IECH), the pace of progression throughout the program (IEPL), and overall academic performance represented by the completion GPA (MC). In the analyzed context, demographic variables showed less significant influence on predictions. Furthermore, the results suggest that integrating predictive modeling with explainability techniques makes dropout risk more interpretable by highlighting academic performance patterns associated with the event. The explanations help clarify which factors sustain risk estimates across different programs. Consequently, this approach can support academic management in identifying student profiles that require greater attention and in planning institutional actions aimed at promoting student retention. |
| Palavras-chave: | inteligência artificial; evasão acadêmica; modelagem preditiva; XAI; SHAP; artificial intelligence; academic dropout; predictive modeling; explainable AI; SHAP. |
| Área(s) do CNPq: | Ciência da Computação |
| Idioma: | por |
| País: | Brasil |
| Instituição: | Universidade Federal do Maranhão |
| Sigla da instituição: | UFMA |
| Departamento: | DEPARTAMENTO DE INFORMÁTICA/CCET |
| Programa: | PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO/CCET |
| Citação: | SILVA, Ronald César Carneiro da. Modelagem preditiva explicável para apoio à prevenção da evasão em cursos de graduação. 2026. 76 f. Dissertação (Programa de Pós-Graduação em Ciência da Computação/CCET) - Universidade Federal do Maranhão, São Luís, 2026. |
| Tipo de acesso: | Acesso Aberto |
| URI: | https://tedebc.ufma.br/jspui/handle/tede/6963 |
| Data de defesa: | 13-Mai-2026 |
| Aparece nas coleções: | DISSERTAÇÃO DE MESTRADO - PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| Ronald_Silva.pdf | Dissertação de Mestrado | 3,82 MB | Adobe PDF | Baixar/Abrir Pré-Visualizar |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.

