Métricas para evaluación del acuerdo entre anotadores (humanos)

Fecha: 10 oct 2025
Visto: 0 vez

Este vídeo pertenece al “Módulo 4 – Anotación de datos. Guías y herramientas. Ejemplos en el dominio médico” del curso MOOC con título “Aprende los avances en IA en el procesamiento del lenguaje” disponible en UNED Abierta (https://iedra.uned.es/).

Se aclaran algunos conceptos de interés relacionados con las métricas para evaluar el acuerdo entre varios anotadores humanos (acuerdo entre sus decisiones), que permiten garantizar la calidad y fiabilidad de los datos anotados. En este video se presenta brevemente el porcentaje de acuerdo y los coeficientes Kappa.

Licencia: Copyright (Licencia propietaria)
    • Leonardo Campillos Llanos Científico Titular del CSIC en el Instituto de Lengua, Literatura y Antropología (ILLA)