Overview of TESTLINK at IberLEF 2023: Linking Results to Clinical Laboratory Tests and Measurements

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/137199
Información del item - Informació de l'item - Item information
Título: Overview of TESTLINK at IberLEF 2023: Linking Results to Clinical Laboratory Tests and Measurements
Título alternativo: Resumen de TESTLINK en IberLEF 2023: Creación de relaciones entre análisis de laboratorio y mediciones clínicas y sus resultados
Autor/es: Altuna Díaz, Begoña | Agerri Gascón, Rodrigo | Salas-Espejo, Lidia | Saiz, José Javier | Lavelli, Alberto | Magnini, Bernardo | Speranza, Manuela | Zanoli, Roberto | Karunakaran, Goutham
Palabras clave: Named Entity Recognition | Information Extraction | Clinical NLP | Supervised Learning | Reconocimiento de Entidades Nombradas | Extracción de Información | PLN Clínico | Aprendizaje Supervisado
Fecha de publicación: sep-2023
Editor: Sociedad Española para el Procesamiento del Lenguaje Natural
Cita bibliográfica: Procesamiento del Lenguaje Natural. 2023, 71: 313-320. https://doi.org/10.26342/2023-71-24
Resumen: The TESTLINK task conducted at IberLEF2023 focuses on relation extraction from clinical cases in Spanish and Basque. The task consists in identifying clinical results and measures and linking them to the tests and measurements from which they were obtained. Three teams took part in the task and various (supervised) deep learning models were evaluated; interestingly, none of the teams explored the use of few-shot learning. The evaluation shows that in-domain fine-tuning and larger training datasets improve the results. In fact, the fact that supervised models significantly outperformed the baseline based on few-shot learning shows the crucial role still played by the availability of annotated training data. | La tarea TESTLINK de IberLEF2023 se centra en la extracción de relaciones de casos clínicos en español y euskera. La tarea consiste en identificar resultados y medidas clínicas y relacionarlos con las pruebas y mediciones de las que se obtuvieron. Tres equipos han participado en la tarea y se han evaluado varios modelos (supervisados) de aprendizaje profundo. Curiosamente, ninguno de los equipos exploró el uso del aprendizaje few-shot. La evaluación muestra que el fine-tuning en el dominio y conjuntos de datos de entrenamiento más grandes mejoran los resultados. De hecho, el hecho de que los modelos supervisados superaran significativamente la baseline basada en el aprendizaje few-shot muestra el papel crucial que aún desempeña la disponibilidad de datos de entrenamiento anotados.
Patrocinador/es: This work has been partially funded by the Basque Government postdoctoral grant POS 2022 2 0024.
URI: http://hdl.handle.net/10045/137199
ISSN: 1135-5948
DOI: 10.26342/2023-71-24
Idioma: eng
Tipo: info:eu-repo/semantics/article
Derechos: © Sociedad Española para el Procesamiento del Lenguaje Natural. Distribuido bajo Licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0
Revisión científica: si
Versión del editor: https://doi.org/10.26342/2023-71-24
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 71 (2023)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_71_24.pdf1,02 MBAdobe PDFAbrir Vista previa


Este ítem está licenciado bajo Licencia Creative Commons Creative Commons