Exportar este item: EndNote BibTex

Use este identificador para citar ou linkar para este item: https://tedebc.ufma.br/jspui/handle/tede/6900
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSOARES FILHO, Celso Luiz Silva-
dc.creator.Latteshttps://lattes.cnpq.br/8008817479152653por
dc.contributor.advisor1PAIVA, Anselmo Cardoso de-
dc.contributor.advisor1Latteshttps://lattes.cnpq.br/6446831084215512por
dc.contributor.advisor-co1QUINTANILHA, Darlan Bruno Pontes-
dc.contributor.advisor-co1Latteshttps://lattes.cnpq.br/4222253532775153por
dc.contributor.referee1PAIVA, Anselmo Cardoso de-
dc.contributor.referee1Latteshttps://lattes.cnpq.br/6446831084215512por
dc.contributor.referee2QUINTANILHA, Darlan Bruno Pontes-
dc.contributor.referee2Latteshttps://lattes.cnpq.br/4222253532775153por
dc.contributor.referee3CUNHA, António Manuel Trigueiros da Silva-
dc.contributor.referee3Latteshttps://lattes.cnpq.br/5627403952778618por
dc.contributor.referee4SILVA, Aristófanes Corrêa-
dc.contributor.referee4Latteshttps://lattes.cnpq.br/2446301582459104por
dc.date.accessioned2026-04-10T19:18:10Z-
dc.date.issued2026-03-13-
dc.identifier.citationSOARES FILHO, Celso Luiz Silva. Classificação de Exames PET de Corpo Inteiro usando Representações MIP e Aprendizado Profundo. 2026. 71 f. Dissertação( Programa de Pós-graduação em Engenharia de Eletricidade/CCET) - Universidade Federal do Maranhão, São Luís, 2026.por
dc.identifier.urihttps://tedebc.ufma.br/jspui/handle/tede/6900-
dc.description.resumoO câncer é um dos maiores desafios de saúde pública global, com estimativas de 35 milhões de novos casos até 2035. Nesse cenário, o exame de Tomografia por Emissão de Pósitrons (PET) é essencial para o diagnóstico e monitoramento. No entanto, a interpretação clínica desses exames é uma tarefa exaustiva, sujeita à subjetividade do especialista e limitada pela alta complexidade dos dados volumétricos 3D. Este trabalho propõe um método de classificação automática de exames PET de corpo inteiro de pacientes com câncer de pulmão, linfoma, melanoma e saudáveis, utilizando técnicas de aprendizado profundo aplicadas a representações de Projeção de Intensidade Máxima (MIP). O método é estruturado em quatro etapas: geração de imagens MIP nos eixos coronal e sagital, pré-processamento, extração de características e classificação. Foram avaliados seis arquiteturas para extração de atributos (ConvNeXt, EfficientNet-B0, Swin e VGG19) e três classificadores (MLP, SVM e XGBoost). O método alcançou resultados de 96,45% para a métrica de AUC, 91,98% de Acurácia, 91,63% de F1-Score, 91,18% de sensibilidade e uma precisão de 92,08%. Esses resultados mostram que a utilização de representações MIP, combinada a um conjunto de arquiteturas especializadas por perspectiva, permite atingir um desempenho satisfatório, aproximando-se de abordagens que utilizam volumes 3D e exames híbridos (PET/TC).por
dc.description.abstractCancer is one of the greatest global public health challenges, with an estimated 35 million new cases by 2035. In this context, Positron Emission Tomography (PET) is essential for diagnosis and monitoring. However, the clinical interpretation of these exams is an exhaustive task, subject to the specialist’s subjectivity and limited by the high complexity of 3D volumetric data. This work proposes a method for the automatic classification of whole-body PET scans of patients with lung cancer, lymphoma, melanoma, and healthy individuals, using deep learning techniques applied to Maximum Intensity Projection (MIP) representations. The method is structured in four stages: generation of MIP images in the coronal and sagittal axes, preprocessing, feature extraction, and classification. Six architectures for feature extraction (ConvNeXt, EfficientNet-B0, Swin, and VGG19) and three classifiers (MLP, SVM, and XGBoost) were evaluated. The method achieved results of 96.45% for the AUC metric, 91.98% for the accuracy, 91.63% for the F1-Score, 91.18% for the sensitivity, and a precision of 92.08%. These results show that the use of MIP representations, combined with a set of perspective-specific specialized architectures, allows for satisfactory performance, approaching approaches that use 3D volumes and hybrid examinations (PET/CT).eng
dc.description.provenanceSubmitted by Maria Aparecida (cidazen@gmail.com) on 2026-04-10T19:18:10Z No. of bitstreams: 1 Celso Luiz Silva Soares Filho.pdf: 5728208 bytes, checksum: e50d1327c5912e49ee373c4de5ee0609 (MD5)eng
dc.description.provenanceMade available in DSpace on 2026-04-10T19:18:10Z (GMT). No. of bitstreams: 1 Celso Luiz Silva Soares Filho.pdf: 5728208 bytes, checksum: e50d1327c5912e49ee373c4de5ee0609 (MD5) Previous issue date: 2026-03-13eng
dc.description.sponsorshipCAPESpor
dc.description.sponsorshipFAPEMApor
dc.description.sponsorshipCNPqpor
dc.formatapplication/pdf*
dc.languageporpor
dc.publisherUniversidade Federal do Maranhãopor
dc.publisher.departmentDEPARTAMENTO DE ENGENHARIA DA ELETRICIDADE/CCETpor
dc.publisher.countryBrasilpor
dc.publisher.initialsUFMApor
dc.publisher.programPROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE ELETRICIDADE/CCETpor
dc.rightsAcesso Abertopor
dc.subjectTomografia por Emissão de Pósitrons (PET);por
dc.subjectProjeção de Intensidade Máxima (MIP);por
dc.subjectClassificação Automática;por
dc.subjectAprendizado Profundopor
dc.subjectPositron Emission Tomography (PET);eng
dc.subjectMaximum Intensity Projection (MIP);eng
dc.subjectAutomatic Classification;eng
dc.subjectDeep Learningeng
dc.subject.cnpqCancerologiapor
dc.titleClassificação de Exames PET de Corpo Inteiro usando Representações MIP e Aprendizado Profundopor
dc.title.alternativeClassification of Whole-Body PET Scans using MIP Representations and Deep Learningeng
dc.typeDissertaçãopor
Aparece nas coleções:DISSERTAÇÃO DE MESTRADO - PROGRAMA DE PÓS GRADUAÇÃO EM ENGENHARIA DE ELETRICIDADE

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Celso Luiz Silva Soares Filho.pdfDissertação de Mestrado5,59 MBAdobe PDFBaixar/Abrir Pré-Visualizar


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.