3DCNN Performance in Hand Gesture Recognition Applied to Robot Arm Interaction

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/90590
Registro completo de metadatos
Registro completo de metadatos
Campo DCValorIdioma
dc.contributorAutomática, Robótica y Visión Artificiales_ES
dc.contributorInformática Industrial y Redes de Computadoreses_ES
dc.contributor.authorCastro-Vargas, John Alejandro-
dc.contributor.authorZapata-Impata, Brayan S.-
dc.contributor.authorGil, Pablo-
dc.contributor.authorGarcia-Rodriguez, Jose-
dc.contributor.authorTorres, Fernando-
dc.contributor.otherUniversidad de Alicante. Departamento de Física, Ingeniería de Sistemas y Teoría de la Señales_ES
dc.contributor.otherUniversidad de Alicante. Departamento de Tecnología Informática y Computaciónes_ES
dc.contributor.otherUniversidad de Alicante. Instituto Universitario de Investigación Informáticaes_ES
dc.date.accessioned2019-04-03T08:42:24Z-
dc.date.available2019-04-03T08:42:24Z-
dc.date.issued2019-02-19-
dc.identifier.citationCastro-Vargas, J.; Zapata-Impata, B.; Gil, P.; Garcia-Rodriguez, J. and Torres, F. (2019). 3DCNN Performance in Hand Gesture Recognition Applied to Robot Arm Interaction.In Proceedings of the 8th International Conference on Pattern Recognition Applications and Methods - Volume 1: ICPRAM, ISBN 978-989-758-351-3, pages 802-806. DOI: 10.5220/0007570208020806es_ES
dc.identifier.isbn978-989-758-351-3-
dc.identifier.urihttp://hdl.handle.net/10045/90590-
dc.description.abstractIn the past, methods for hand sign recognition have been successfully tested in Human Robot Interaction (HRI) using traditional methodologies based on static image features and machine learning. However, the recognition of gestures in video sequences is a problem still open, because current detection methods achieve low scores when the background is undefined or in unstructured scenarios. Deep learning techniques are being applied to approach a solution for this problem in recent years. In this paper, we present a study in which we analyse the performance of a 3DCNN architecture for hand gesture recognition in an unstructured scenario. The system yields a score of 73% in both accuracy and F1. The aim of the work is the implementation of a system for commanding robots with gestures recorded by video in real scenarios.es_ES
dc.description.sponsorshipThis work was funded by the Ministry of Economy, Industry and Competitiveness from the Spanish Government through the DPI2015-68087-R and the pre-doctoral grant BES-2016-078290, by the European Commission and FEDER funds through the project COMMANDIA (SOE2/P1/F0638), action supported by Interreg-V Sudoe.es_ES
dc.languageenges_ES
dc.publisherSciTePresses_ES
dc.rights© 2019 by SCITEPRESS – Science and Technology Publications, Lda.es_ES
dc.subjectGesture Recognition from Videoes_ES
dc.subject3D Convolutional Neural Networkes_ES
dc.subjectInteraction human-robotes_ES
dc.subject.otherIngeniería de Sistemas y Automáticaes_ES
dc.subject.otherArquitectura y Tecnología de Computadoreses_ES
dc.title3DCNN Performance in Hand Gesture Recognition Applied to Robot Arm Interactiones_ES
dc.typeinfo:eu-repo/semantics/conferenceObjectes_ES
dc.peerreviewedsies_ES
dc.identifier.doi10.5220/0007570208020806-
dc.relation.publisherversionhttps://doi.org/10.5220/0007570208020806es_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.relation.projectIDinfo:eu-repo/grantAgreement/MINECO//DPI2015-68087-R-
Aparece en las colecciones:INV - AUROVA - Comunicaciones a Congresos Internacionales
INV - AIA - Comunicaciones a Congresos, Conferencias, etc.
INV - I2RC - Comunicaciones a Congresos, Conferencias, etc.

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailICPRAM_2019_118.pdfVersión final (acceso restringido)1,75 MBAdobe PDFAbrir    Solicitar una copia
ThumbnailICPRAM_2019_118_preprint.pdfPreprint (acceso abierto)1,56 MBAdobe PDFAbrir Vista previa


Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.