Please use this identifier to cite or link to this item: http://hdl.handle.net/11422/9830
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorAlves, José Luis Drummond-
dc.contributor.authorPastura, Flávia Cristine Hofstetter-
dc.date.accessioned2019-09-25T18:13:08Z-
dc.date.available2023-12-21T03:06:23Z-
dc.date.issued2017-09-
dc.identifier.urihttp://hdl.handle.net/11422/9830-
dc.description.abstractThis work presents the development of a methodology for anthropometric data collection from human body laser scans. Based on the landmark´s localization, estimation and classification developed methods, it was possible to extract the xyz coordinates of 61 landmarks, 41 1-D measurements, 2-D measurements and 3-D measurements from the scanned image. These methods were tested in 70 digital human models, representatives of both sexes of different biotypes and ethnic origin. The results indicated that the methods are both efficient in the identification of landmarks, with a correct classification rate above 94%, and in the extraction of anthropometric measurements. This makes anthropometric data survey faster and more reliable, as errors inherent in traditional measurement methods such as data variability according to different measurers are eliminated. The contribution of this work is to collect anthropometric measurements quickly, accurately and in a standardized way through automation and dissociation of human interpretation in the collection of anthropometric data. This contribution resulted in a software for automated extraction of anthropometric measurements from Brazilian population scans.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal do Rio de Janeiropt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectEngenharia civilpt_BR
dc.subjectAntropometriapt_BR
dc.subjectDigitalização a laserpt_BR
dc.titleExtração automática de medidas antropométricas a partir de imagens geradas por digitalização a laser e câmeras CCDpt_BR
dc.typeTesept_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/4698405991507809pt_BR
dc.contributor.referee1Cunha, Gerson-
dc.contributor.referee2Conci, Aura-
dc.contributor.referee3Mól, Antonio Carlos de Abreu-
dc.contributor.referee4Oliveira, Márcia Gomes de-
dc.contributor.referee5Landau, Luiz-
dc.description.resumoEste trabalho apresenta o desenvolvimento de uma metodologia de coleta de dados antropométricos, a partir da imagem digitalizada a laser do corpo humano. Com base nos métodos de localização, estimação e classificação de marcos anatômicos desenvolvidos foi possível extrair da imagem digitalizada as coordenadas xyz de 61 marcos anatômicos, 41 medidas 1D, medidas 2D (área) e 3D (volume). Esses métodos foram testados em 70 modelos humanos digitais, representantes de ambos os sexos, de diferentes biotipos e origem étnica. Os resultados indicaram que os métodos são eficientes tanto na identificação dos marcos anatômicos, com taxa de classificação correta acima de 94%, quanto na extração de medidas antropométricas; o que torna a pesquisa de dados antropométricos mais rápida e confiável, na medida em que erros inerentes aos métodos tradicionais de medição, como a variabilidade nos dados obtidos por medidores distintos é eliminada. A contribuição desse trabalho está na obtenção de medidas antropométricas de forma rápida, precisa e padronizada por meio da automação e dissociação da interpretação humana na coleta de dados antropométricos. Essa contribuição se traduziu na elaboração de um software nacional para extração automática de medidas antropométricas a partir de imagens digitalizadas da população brasileira.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentInstituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenhariapt_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Civilpt_BR
dc.publisher.initialsUFRJpt_BR
dc.subject.cnpqCNPQ::ENGENHARIAS::ENGENHARIA CIVILpt_BR
dc.embargo.termsabertopt_BR
Appears in Collections:Engenharia Civil

Files in This Item:
File Description SizeFormat 
882926.pdf8.8 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.