Exportar este item: EndNote BibTex

Use este identificador para citar ou linkar para este item: https://tedebc.ufma.br/jspui/handle/tede/6960
Tipo do documento: Dissertação
Título: Treinamento de funções de ativação em redes neurais artificiais: uma abordagem com regressão polinomial
Título(s) alternativo(s): Training activation functions in artificial neural networks: an approach with polynomial regression.
Autor: CAJADO, Carlos Eduardo Nascimento 
Primeiro orientador: ALMEIDA NETO, Areolino de
Primeiro membro da banca: ALMEIDA NETO, Areolino de
Segundo membro da banca: CORTES, Omar Andres Carmona
Terceiro membro da banca: OLIVEIRA, Alexandre Cesar Muniz de
Resumo: As redes neurais artificiais são amplamente aplicadas a problemas complexos, contudo, a escolha da função de ativação (FA) ideal ainda representa um desafio, especialmente devido à ausência de critérios consistentes que relacionem as características dos dados à função mais adequada. À luz dessas limitações, avanços recentes destacam o potencial das FA treináveis, que se ajustam dinamicamente durante o treinamento para aprimorar o desempenho da rede. Tal mecanismo ainda pode ser explorado na inserção de novas camadas ocultas em redes do tipo stacked autoencoder, a fim de favorecer maior profundidade estrutural sem comprometer a estabilidade ou a eficiência do aprendizado. Em vista disso, este trabalho propõe uma nova abordagem, baseada em regressão polinomial, para o desenvolvimento de funções de ativação treináveis. O método introduz um mecanismo de inserção de novas camadas escondidas, de modo a colaborar com as camadas já existentes, caracterizando-o como colaborativo. Isso permite a integração das novas camadas sem degradar o conhecimento adquirido pelas camadas anteriores. Deste modo, simultaneamente, potencializando a capacidade adaptativa e o desempenho da rede por meio do cálculo da estimativa do erro. Esse cálculo é utilizado para ajustar dinamicamente a saída dos neurônios ocultos, em comparação ao uso de FA fixas. O método é avaliado em oito bases de dados de benchmarking extraídas da plataforma OpenML, totalizando 4.800 experimentos, a fimdeanalisar seu impacto na estabilidade do treinamento, na adaptabilidade da estrutura e no desempenho da rede em comparação com a função de ativação sigmoide tradicional.
Abstract: Artificial neural networks are widely applied to complex problems; however, selecting an optimal activation function (AF) remains a challenge, particularly due to the lack of consistent criteria for relating data characteristics to the most appropriate function. In light of these limitations, recent advances highlight the potential of trainable activation functions, which dynamically adjust during training to improve network performance. Such a mechanism can also be leveraged to insert new hidden layers into stacked autoencoder networks, promoting greater structural depth without compromising training stability. In this context, this work proposes a novel approach based on polynomial regression to develop trainable activation functions. The methodology introduces a collaborative layer insertion mechanism, enabling the integration of new layers without degrading the knowledge acquired in previous ones, while simultaneously enhancing the network’s adaptive capacity and performance through the use of error estimation as a criterion for dynamically adjusting the outputs of hidden neurons, in comparison with fixed activation functions. The proposed approach is evaluated on eight benchmarking datasets extracted from the OpenML platform, totaling 4,800 experiments, analyzing its impact on training stability, adaptability, and overall network performance compared to the traditional sigmoid activation function.
Palavras-chave: deep learning;
funções de ativação treináveis;
regressão polinomial;
deep learning;
trainable activation functions;
polynomial regression.
Área(s) do CNPq: Ciência da Computação
Idioma: por
País: Brasil
Instituição: Universidade Federal do Maranhão
Sigla da instituição: UFMA
Departamento: DEPARTAMENTO DE INFORMÁTICA/CCET
Programa: PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO/CCET
Citação: CAJADO, Carlos Eduardo Nascimento. Treinamento de funções de ativação em redes neurais artificiais: uma abordagem com regressão polinomial. 2026. 80 f. Dissertação (Programa de Pós-Graduação em Ciência da Computação/CCET) - Universidade Federal do Maranhão, São Luís, 2026.
Tipo de acesso: Acesso Aberto
URI: https://tedebc.ufma.br/jspui/handle/tede/6960
Data de defesa: 10-Abr-2026
Aparece nas coleções:DISSERTAÇÃO DE MESTRADO - PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Carlos_cajado.pdfDissertação de Mestrado9,34 MBAdobe PDFBaixar/Abrir Pré-Visualizar


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.