Bi-modal annoyance level detection from speech and text

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/81331
Registro completo de metadatos
Registro completo de metadatos
Campo DCValorIdioma
dc.contributor.authorJusto Blanco, Raquel-
dc.contributor.authorIrastorza, Jon-
dc.contributor.authorPérez, Saioa-
dc.contributor.authorTorres Barañano, María Inés-
dc.date.accessioned2018-10-03T10:37:31Z-
dc.date.available2018-10-03T10:37:31Z-
dc.date.issued2018-09-
dc.identifier.citationProcesamiento del Lenguaje Natural. 2018, 61: 83-89. doi:10.26342/2018-61-9es_ES
dc.identifier.issn1135-5948-
dc.identifier.urihttp://hdl.handle.net/10045/81331-
dc.description.abstractThe main goal of this work is the identification of emotional hints from speech. Machine learning researchers have analysed sets of acoustic parameters as potential cues for the identification of discrete emotional categories or, alternatively, of the dimensions of emotions. However, the semantic information gathered in the text message associated to its utterance can also provide valuable information that can be helpful for emotion detection. In this work this information is included within the acoustic information leading to a better system performance. Moreover, it is noticeable the use of a corpus that include spontaneous emotions gathered in a realistic environment. It is well known that emotion expression depends not only on cultural factors but also on the individual and on the specific situation. Thus, the conclusions extracted from the present work can be more easily extrapolated to a real system than those obtained from a classical corpus with simulated emotions.es_ES
dc.description.abstractEl principal objetivo de este trabajo es la detección de cambios emocionales a partir del habla. Diferentes trabajos basados en aprendizaje automático han analizado conjuntos de parámetros acústicos como potenciales indicadores en la identificación de categorías emocionales discretas o en la identificación dimensional de las emociones. Sin embargo, la información semántica recogida en el mensaje textual asociado a cada intervención, puede proporcionar información valiosa para la detección de emociones. En este trabajo se combina la información textual y acústica dando lugar a mejoras en el rendimiento del sistema. Es importante recalcar por otra parte, el uso de un corpus que incluye emociones espontáneas recogidas en un entorno realista. Es bien sabido que la expresión de la emoción depende no solo de factores culturales sino también de factores individuales y de situaciones particulares. Por lo tanto, las conclusiones extraídas en este trabajo se pueden extrapolar más fácilmente a un sistema real que aquellas obtenidas a partir de un corpus clásico en el que se simula el estado emocional.es_ES
dc.languageenges_ES
dc.publisherSociedad Española para el Procesamiento del Lenguaje Naturales_ES
dc.rights© Sociedad Española para el Procesamiento del Lenguaje Naturales_ES
dc.subjectSpeech processinges_ES
dc.subjectSemantic informationes_ES
dc.subjectEmotion detection on speeches_ES
dc.subjectAnnoyance trackinges_ES
dc.subjectMachine learninges_ES
dc.subjectProcesamiento del hablaes_ES
dc.subjectInformación semánticaes_ES
dc.subjectReconocimiento emocional en el hablaes_ES
dc.subjectRastreo del enfadoes_ES
dc.subjectAprendizaje automáticoes_ES
dc.subject.otherLenguajes y Sistemas Informáticoses_ES
dc.titleBi-modal annoyance level detection from speech and textes_ES
dc.title.alternativeDetección del nivel de enfado mediante un sistema bi-modal basado en habla y textoes_ES
dc.typeinfo:eu-repo/semantics/articlees_ES
dc.peerreviewedsies_ES
dc.identifier.doi10.26342/2018-61-9-
dc.relation.publisherversionhttps://doi.org/10.26342/2018-61-9es_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 61 (2018)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_61_09.pdf703,17 kBAdobe PDFAbrir Vista previa


Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.