| Compartilhamento |
|
Use este identificador para citar ou linkar para este item:
https://tedebc.ufma.br/jspui/handle/tede/6960Registro completo de metadados
| Campo DC | Valor | Idioma |
|---|---|---|
| dc.creator | CAJADO, Carlos Eduardo Nascimento | - |
| dc.creator.Lattes | http://lattes.cnpq.br/8171760650846085 | por |
| dc.contributor.advisor1 | ALMEIDA NETO, Areolino de | - |
| dc.contributor.advisor1Lattes | http://lattes.cnpq.br/8041675571955870 | por |
| dc.contributor.referee1 | ALMEIDA NETO, Areolino de | - |
| dc.contributor.referee1Lattes | http://lattes.cnpq.br/8041675571955870 | por |
| dc.contributor.referee2 | CORTES, Omar Andres Carmona | - |
| dc.contributor.referee2Lattes | http://lattes.cnpq.br/5523293886612004 | por |
| dc.contributor.referee3 | OLIVEIRA, Alexandre Cesar Muniz de | - |
| dc.contributor.referee3Lattes | http://lattes.cnpq.br/5225588855422632 | por |
| dc.date.accessioned | 2026-05-13T18:05:58Z | - |
| dc.date.issued | 2026-04-10 | - |
| dc.identifier.citation | CAJADO, Carlos Eduardo Nascimento. Treinamento de funções de ativação em redes neurais artificiais: uma abordagem com regressão polinomial. 2026. 80 f. Dissertação (Programa de Pós-Graduação em Ciência da Computação/CCET) - Universidade Federal do Maranhão, São Luís, 2026. | por |
| dc.identifier.uri | https://tedebc.ufma.br/jspui/handle/tede/6960 | - |
| dc.description.resumo | As redes neurais artificiais são amplamente aplicadas a problemas complexos, contudo, a escolha da função de ativação (FA) ideal ainda representa um desafio, especialmente devido à ausência de critérios consistentes que relacionem as características dos dados à função mais adequada. À luz dessas limitações, avanços recentes destacam o potencial das FA treináveis, que se ajustam dinamicamente durante o treinamento para aprimorar o desempenho da rede. Tal mecanismo ainda pode ser explorado na inserção de novas camadas ocultas em redes do tipo stacked autoencoder, a fim de favorecer maior profundidade estrutural sem comprometer a estabilidade ou a eficiência do aprendizado. Em vista disso, este trabalho propõe uma nova abordagem, baseada em regressão polinomial, para o desenvolvimento de funções de ativação treináveis. O método introduz um mecanismo de inserção de novas camadas escondidas, de modo a colaborar com as camadas já existentes, caracterizando-o como colaborativo. Isso permite a integração das novas camadas sem degradar o conhecimento adquirido pelas camadas anteriores. Deste modo, simultaneamente, potencializando a capacidade adaptativa e o desempenho da rede por meio do cálculo da estimativa do erro. Esse cálculo é utilizado para ajustar dinamicamente a saída dos neurônios ocultos, em comparação ao uso de FA fixas. O método é avaliado em oito bases de dados de benchmarking extraídas da plataforma OpenML, totalizando 4.800 experimentos, a fimdeanalisar seu impacto na estabilidade do treinamento, na adaptabilidade da estrutura e no desempenho da rede em comparação com a função de ativação sigmoide tradicional. | por |
| dc.description.abstract | Artificial neural networks are widely applied to complex problems; however, selecting an optimal activation function (AF) remains a challenge, particularly due to the lack of consistent criteria for relating data characteristics to the most appropriate function. In light of these limitations, recent advances highlight the potential of trainable activation functions, which dynamically adjust during training to improve network performance. Such a mechanism can also be leveraged to insert new hidden layers into stacked autoencoder networks, promoting greater structural depth without compromising training stability. In this context, this work proposes a novel approach based on polynomial regression to develop trainable activation functions. The methodology introduces a collaborative layer insertion mechanism, enabling the integration of new layers without degrading the knowledge acquired in previous ones, while simultaneously enhancing the network’s adaptive capacity and performance through the use of error estimation as a criterion for dynamically adjusting the outputs of hidden neurons, in comparison with fixed activation functions. The proposed approach is evaluated on eight benchmarking datasets extracted from the OpenML platform, totaling 4,800 experiments, analyzing its impact on training stability, adaptability, and overall network performance compared to the traditional sigmoid activation function. | eng |
| dc.description.provenance | Submitted by Daniella Santos (daniella.santos@ufma.br) on 2026-05-13T18:05:58Z No. of bitstreams: 1 Carlos_cajado.pdf: 9567320 bytes, checksum: dcd0fcb6bdc960c9020aa1534f7ff227 (MD5) | eng |
| dc.description.provenance | Made available in DSpace on 2026-05-13T18:05:58Z (GMT). No. of bitstreams: 1 Carlos_cajado.pdf: 9567320 bytes, checksum: dcd0fcb6bdc960c9020aa1534f7ff227 (MD5) Previous issue date: 2026-04-10 | eng |
| dc.description.sponsorship | CAPES | por |
| dc.format | application/pdf | * |
| dc.language | por | por |
| dc.publisher | Universidade Federal do Maranhão | por |
| dc.publisher.department | DEPARTAMENTO DE INFORMÁTICA/CCET | por |
| dc.publisher.country | Brasil | por |
| dc.publisher.initials | UFMA | por |
| dc.publisher.program | PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO/CCET | por |
| dc.rights | Acesso Aberto | por |
| dc.subject | deep learning; | por |
| dc.subject | funções de ativação treináveis; | por |
| dc.subject | regressão polinomial; | por |
| dc.subject | deep learning; | eng |
| dc.subject | trainable activation functions; | eng |
| dc.subject | polynomial regression. | eng |
| dc.subject.cnpq | Ciência da Computação | por |
| dc.title | Treinamento de funções de ativação em redes neurais artificiais: uma abordagem com regressão polinomial | por |
| dc.title.alternative | Training activation functions in artificial neural networks: an approach with polynomial regression. | eng |
| dc.type | Dissertação | por |
| Aparece nas coleções: | DISSERTAÇÃO DE MESTRADO - PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO | |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| Carlos_cajado.pdf | Dissertação de Mestrado | 9,34 MB | Adobe PDF | Baixar/Abrir Pré-Visualizar |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.
