Exportar este item: EndNote BibTex

Use este identificador para citar ou linkar para este item: https://tedebc.ufma.br/jspui/handle/tede/6960
Registro completo de metadados
Campo DCValorIdioma
dc.creatorCAJADO, Carlos Eduardo Nascimento-
dc.creator.Latteshttp://lattes.cnpq.br/8171760650846085por
dc.contributor.advisor1ALMEIDA NETO, Areolino de-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/8041675571955870por
dc.contributor.referee1ALMEIDA NETO, Areolino de-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/8041675571955870por
dc.contributor.referee2CORTES, Omar Andres Carmona-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/5523293886612004por
dc.contributor.referee3OLIVEIRA, Alexandre Cesar Muniz de-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/5225588855422632por
dc.date.accessioned2026-05-13T18:05:58Z-
dc.date.issued2026-04-10-
dc.identifier.citationCAJADO, Carlos Eduardo Nascimento. Treinamento de funções de ativação em redes neurais artificiais: uma abordagem com regressão polinomial. 2026. 80 f. Dissertação (Programa de Pós-Graduação em Ciência da Computação/CCET) - Universidade Federal do Maranhão, São Luís, 2026.por
dc.identifier.urihttps://tedebc.ufma.br/jspui/handle/tede/6960-
dc.description.resumoAs redes neurais artificiais são amplamente aplicadas a problemas complexos, contudo, a escolha da função de ativação (FA) ideal ainda representa um desafio, especialmente devido à ausência de critérios consistentes que relacionem as características dos dados à função mais adequada. À luz dessas limitações, avanços recentes destacam o potencial das FA treináveis, que se ajustam dinamicamente durante o treinamento para aprimorar o desempenho da rede. Tal mecanismo ainda pode ser explorado na inserção de novas camadas ocultas em redes do tipo stacked autoencoder, a fim de favorecer maior profundidade estrutural sem comprometer a estabilidade ou a eficiência do aprendizado. Em vista disso, este trabalho propõe uma nova abordagem, baseada em regressão polinomial, para o desenvolvimento de funções de ativação treináveis. O método introduz um mecanismo de inserção de novas camadas escondidas, de modo a colaborar com as camadas já existentes, caracterizando-o como colaborativo. Isso permite a integração das novas camadas sem degradar o conhecimento adquirido pelas camadas anteriores. Deste modo, simultaneamente, potencializando a capacidade adaptativa e o desempenho da rede por meio do cálculo da estimativa do erro. Esse cálculo é utilizado para ajustar dinamicamente a saída dos neurônios ocultos, em comparação ao uso de FA fixas. O método é avaliado em oito bases de dados de benchmarking extraídas da plataforma OpenML, totalizando 4.800 experimentos, a fimdeanalisar seu impacto na estabilidade do treinamento, na adaptabilidade da estrutura e no desempenho da rede em comparação com a função de ativação sigmoide tradicional.por
dc.description.abstractArtificial neural networks are widely applied to complex problems; however, selecting an optimal activation function (AF) remains a challenge, particularly due to the lack of consistent criteria for relating data characteristics to the most appropriate function. In light of these limitations, recent advances highlight the potential of trainable activation functions, which dynamically adjust during training to improve network performance. Such a mechanism can also be leveraged to insert new hidden layers into stacked autoencoder networks, promoting greater structural depth without compromising training stability. In this context, this work proposes a novel approach based on polynomial regression to develop trainable activation functions. The methodology introduces a collaborative layer insertion mechanism, enabling the integration of new layers without degrading the knowledge acquired in previous ones, while simultaneously enhancing the network’s adaptive capacity and performance through the use of error estimation as a criterion for dynamically adjusting the outputs of hidden neurons, in comparison with fixed activation functions. The proposed approach is evaluated on eight benchmarking datasets extracted from the OpenML platform, totaling 4,800 experiments, analyzing its impact on training stability, adaptability, and overall network performance compared to the traditional sigmoid activation function.eng
dc.description.provenanceSubmitted by Daniella Santos (daniella.santos@ufma.br) on 2026-05-13T18:05:58Z No. of bitstreams: 1 Carlos_cajado.pdf: 9567320 bytes, checksum: dcd0fcb6bdc960c9020aa1534f7ff227 (MD5)eng
dc.description.provenanceMade available in DSpace on 2026-05-13T18:05:58Z (GMT). No. of bitstreams: 1 Carlos_cajado.pdf: 9567320 bytes, checksum: dcd0fcb6bdc960c9020aa1534f7ff227 (MD5) Previous issue date: 2026-04-10eng
dc.description.sponsorshipCAPESpor
dc.formatapplication/pdf*
dc.languageporpor
dc.publisherUniversidade Federal do Maranhãopor
dc.publisher.departmentDEPARTAMENTO DE INFORMÁTICA/CCETpor
dc.publisher.countryBrasilpor
dc.publisher.initialsUFMApor
dc.publisher.programPROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO/CCETpor
dc.rightsAcesso Abertopor
dc.subjectdeep learning;por
dc.subjectfunções de ativação treináveis;por
dc.subjectregressão polinomial;por
dc.subjectdeep learning;eng
dc.subjecttrainable activation functions;eng
dc.subjectpolynomial regression.eng
dc.subject.cnpqCiência da Computaçãopor
dc.titleTreinamento de funções de ativação em redes neurais artificiais: uma abordagem com regressão polinomialpor
dc.title.alternativeTraining activation functions in artificial neural networks: an approach with polynomial regression.eng
dc.typeDissertaçãopor
Aparece nas coleções:DISSERTAÇÃO DE MESTRADO - PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Carlos_cajado.pdfDissertação de Mestrado9,34 MBAdobe PDFBaixar/Abrir Pré-Visualizar


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.