Cross-lingual Training for Multiple-Choice Question Answering
Empreu sempre aquest identificador per citar o enllaçar aquest ítem
http://hdl.handle.net/10045/109291
Títol: | Cross-lingual Training for Multiple-Choice Question Answering |
---|---|
Títol alternatiu: | Entrenamiento Croslingüe para Búsqueda de Respuestas de Opción Múltiple |
Autors: | Echegoyen, Guillermo | Rodrigo Yuste, Álvaro | Peñas Padilla, Anselmo |
Paraules clau: | Question Answering | Multiple-Choice Reading Comprehension | Multilinguality | Búsqueda de Respuestas | Opción múltiple | Multilingüismo |
Àrees de coneixement: | Lenguajes y Sistemas Informáticos |
Data de publicació: | de setembre-2020 |
Editor: | Sociedad Española para el Procesamiento del Lenguaje Natural |
Citació bibliogràfica: | Procesamiento del Lenguaje Natural. 2020, 65: 37-44. https://doi.org/10.26342/2020-65-4 |
Resum: | In this work we explore to what extent multilingual models can be trained for one language and applied to a different one for the task of Multiple Choice Question Answering. We employ the RACE dataset to fine-tune both a monolingual and a multilingual models and apply these models to another different collections in different languages. The results show that both monolingual and multilingual models can be zero-shot transferred to a different dataset in the same language maintaining its performance. Besides, the multilingual model still performs good when it is applied to a different target language. Additionally, we find that exams that are more difficult to humans are harder for machines too. Finally, we advance the state-of-the-art for the QA4MRE Entrance Exams dataset in several languages. | En este trabajo exploramos en qué medida los modelos multilingües pueden ser entrenados para un solo idioma y aplicados a otro diferente para la tarea de respuesta a preguntas de opción múltiple. Empleamos el conjunto de datos RACE para ajustar tanto un modelo monolingüe como multilingüe y aplicamos estos modelos a otras colecciones en idiomas diferentes. Los resultados muestran que tanto los modelos monolingües como los multilingües pueden transferirse a un conjunto de datos diferente en el mismo idioma manteniendo su rendimiento. Además, el modelo multilingüe todavía funciona bien cuando se aplica a un idioma de destino diferente. Asimismo, hemos comprobado que los exámenes que son más difíciles para los humanos también son más difíciles para las máquinas. Finalmente, avanzamos el estado del arte para el conjunto de datos QA4MRE Entrance Exams en varios idiomas. |
Patrocinadors: | This work has been funded by the Spanish Research Agency under CHIST-ERA LIHLITH project (PCIN-2017-085/AEI) and deepReading (RTI2018-096846-B-C21 /MCIU/AEI/FEDER,UE). |
URI: | http://hdl.handle.net/10045/109291 |
ISSN: | 1135-5948 |
DOI: | 10.26342/2020-65-4 |
Idioma: | eng |
Tipus: | info:eu-repo/semantics/article |
Drets: | © Sociedad Española para el Procesamiento del Lenguaje Natural |
Revisió científica: | si |
Versió de l'editor: | https://doi.org/10.14198/10.26342/2020-65-4 |
Apareix a la col·lecció: | Procesamiento del Lenguaje Natural - Nº 65 (2020) |
Arxius per aquest ítem:
Arxiu | Descripció | Tamany | Format | |
---|---|---|---|---|
PLN_65_04.pdf | 897,05 kB | Adobe PDF | Obrir Vista prèvia | |
Tots els documents dipositats a RUA estan protegits per drets d'autors. Alguns drets reservats.