Use este identificador para citar ou linkar para este item: https://repositorio.uema.br/jspui/handle/123456789/4147
Título: Classificação de libras em imagens através de redes neurais convolucionais
Título(s) alternativo(s): Classification of pounds in images using neural networks convolutional
Autor(es): Santos, Márcio Fabiano Oliveira de Moura
Orientador: Quarto, Cícero Costa
Membro da Banca: Santana, Ewaldo Eder Carvalho
Membro da Banca: Silva, Antônio Fhillipi Maciel
Data do documento: 2022-10-31
Editor: Universidade Estadual do Maranhão
Resumo: A alfabetização de pessoas surdas, é atualmente um grande desafio que tem gerado muitas discussões no contexto educacional. Apesar da existência da linguagem de sinais (Libras), a capacitação de pessoas para a realização de atividades de ensino nesta área é bastante escassa, e isso tem dificultado bastante o processo de ensino e aprendizagem de indivíduos com ou sem problemas auditivos. Com o crescimento da Internet e das tecnologias computacionais, houve a necessidade da criação de aplicações avançadas de Inteligência Artificial (IA) para aprimorar este processo. Um marco bastante importante foi o surgimento da Visão Computacional, que é uma área da Inteligência Artificial que procura analisar, fazer a interpretação e a extração de determinadas informações úteis de imagens, estudando também a utilização de emoções, reconhecimentos, e análise de movimentos interativos de seres humanos através de sistemas informatizados de IA. que simulam os pensamentos e ações de seres humanos. O tema deste trabalho aborda uma pesquisa relacionada à aplicação de redes neurais convolucionais (ou profundas), que são ligadas à visão computacional de forma análoga. Foram realizados experimentos através de uma base de dados de Libras que serviu de suporte para o treinamento nas imagens através do algoritmo de redes neurais profundas YOLOv5 para a realização da Classificação de alguns grupos de 6 e 7 imagens. Posteriormente, foram comparados os resultados dos testes, e observados quais épocas obtiveram uma melhor performance durante a classificação das imagens de Libras
Resumo: The literacy of deaf people is currently a major challenge that has generated many discussions in the educational context. Despite the existence of sign language (Libras), the training of people to carry out teaching activities in this area is quite scarce, and this has made the teaching and learning process of people with or without hearing problems very difficult. With the increasing growth of the internet and computer technologies, it was needed to create advanced artificial intelligence applications to improve this process. A very important milestone was the emergence of Computer Vision, which is an area of artificial intelligence that seeks to analyze, interpret and extract certain useful information from images, also studying the use of emotions, recognition, and analysis of interactive movements of human beings through computerized AI systems that simulate the thoughts and actions of human beings. The main subject of this work addresses a research related to the application of convolutional (or deep) neural network, which are similarly linked to computer vision. Experiments were carried out using a Libras database that served as support for the training of images through the YOLOv5 deep neural network algorithm to perform the Classification of some groups of 6 and 7 images. Subsequently, the results of the tests were compared, and it was observed which periods had a better performance during the classification of Libras images
Palavras-chave: Libras
Visão computacional.
Redes Neurais Convolucionais
YOLOv5
Libras
Computer Vision
Convolutional Neural Network
Aparece nas coleções:Mestrado Profissional em Engenharia da Computação e Sistemas - CCT - Dissertações

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DISSERTAÇÃO- MÁRCIO FABIANO OLIVEIRA DE MOURA SANTOS- PECS UEMA 2022.pdfPDF A738.72 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.