| Compartilhamento |
|
Use este identificador para citar ou linkar para este item:
https://tedebc.ufma.br/jspui/handle/tede/6960| Tipo do documento: | Dissertação |
| Título: | Treinamento de funções de ativação em redes neurais artificiais: uma abordagem com regressão polinomial |
| Título(s) alternativo(s): | Training activation functions in artificial neural networks: an approach with polynomial regression. |
| Autor: | CAJADO, Carlos Eduardo Nascimento ![]() |
| Primeiro orientador: | ALMEIDA NETO, Areolino de |
| Primeiro membro da banca: | ALMEIDA NETO, Areolino de |
| Segundo membro da banca: | CORTES, Omar Andres Carmona |
| Terceiro membro da banca: | OLIVEIRA, Alexandre Cesar Muniz de |
| Resumo: | As redes neurais artificiais são amplamente aplicadas a problemas complexos, contudo, a escolha da função de ativação (FA) ideal ainda representa um desafio, especialmente devido à ausência de critérios consistentes que relacionem as características dos dados à função mais adequada. À luz dessas limitações, avanços recentes destacam o potencial das FA treináveis, que se ajustam dinamicamente durante o treinamento para aprimorar o desempenho da rede. Tal mecanismo ainda pode ser explorado na inserção de novas camadas ocultas em redes do tipo stacked autoencoder, a fim de favorecer maior profundidade estrutural sem comprometer a estabilidade ou a eficiência do aprendizado. Em vista disso, este trabalho propõe uma nova abordagem, baseada em regressão polinomial, para o desenvolvimento de funções de ativação treináveis. O método introduz um mecanismo de inserção de novas camadas escondidas, de modo a colaborar com as camadas já existentes, caracterizando-o como colaborativo. Isso permite a integração das novas camadas sem degradar o conhecimento adquirido pelas camadas anteriores. Deste modo, simultaneamente, potencializando a capacidade adaptativa e o desempenho da rede por meio do cálculo da estimativa do erro. Esse cálculo é utilizado para ajustar dinamicamente a saída dos neurônios ocultos, em comparação ao uso de FA fixas. O método é avaliado em oito bases de dados de benchmarking extraídas da plataforma OpenML, totalizando 4.800 experimentos, a fimdeanalisar seu impacto na estabilidade do treinamento, na adaptabilidade da estrutura e no desempenho da rede em comparação com a função de ativação sigmoide tradicional. |
| Abstract: | Artificial neural networks are widely applied to complex problems; however, selecting an optimal activation function (AF) remains a challenge, particularly due to the lack of consistent criteria for relating data characteristics to the most appropriate function. In light of these limitations, recent advances highlight the potential of trainable activation functions, which dynamically adjust during training to improve network performance. Such a mechanism can also be leveraged to insert new hidden layers into stacked autoencoder networks, promoting greater structural depth without compromising training stability. In this context, this work proposes a novel approach based on polynomial regression to develop trainable activation functions. The methodology introduces a collaborative layer insertion mechanism, enabling the integration of new layers without degrading the knowledge acquired in previous ones, while simultaneously enhancing the network’s adaptive capacity and performance through the use of error estimation as a criterion for dynamically adjusting the outputs of hidden neurons, in comparison with fixed activation functions. The proposed approach is evaluated on eight benchmarking datasets extracted from the OpenML platform, totaling 4,800 experiments, analyzing its impact on training stability, adaptability, and overall network performance compared to the traditional sigmoid activation function. |
| Palavras-chave: | deep learning; funções de ativação treináveis; regressão polinomial; deep learning; trainable activation functions; polynomial regression. |
| Área(s) do CNPq: | Ciência da Computação |
| Idioma: | por |
| País: | Brasil |
| Instituição: | Universidade Federal do Maranhão |
| Sigla da instituição: | UFMA |
| Departamento: | DEPARTAMENTO DE INFORMÁTICA/CCET |
| Programa: | PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO/CCET |
| Citação: | CAJADO, Carlos Eduardo Nascimento. Treinamento de funções de ativação em redes neurais artificiais: uma abordagem com regressão polinomial. 2026. 80 f. Dissertação (Programa de Pós-Graduação em Ciência da Computação/CCET) - Universidade Federal do Maranhão, São Luís, 2026. |
| Tipo de acesso: | Acesso Aberto |
| URI: | https://tedebc.ufma.br/jspui/handle/tede/6960 |
| Data de defesa: | 10-Abr-2026 |
| Aparece nas coleções: | DISSERTAÇÃO DE MESTRADO - PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| Carlos_cajado.pdf | Dissertação de Mestrado | 9,34 MB | Adobe PDF | Baixar/Abrir Pré-Visualizar |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.

