Saltar para:
Logótipo
Comuta visibilidade da coluna esquerda
Você está em: Início > Publicações > Visualização > Evaluating WMT 2025 Metrics shared task submissions on the SSA-MTE African challenge set

Evaluating WMT 2025 Metrics shared task submissions on the SSA-MTE African challenge set

Título
Evaluating WMT 2025 Metrics shared task submissions on the SSA-MTE African challenge set
Tipo
Artigo em Livro de Atas de Conferência Internacional
Ano
2025
Autores
Li, Senyu
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Ali, Felermino D. M. A.
(Autor)
Outra
Ver página pessoal Sem permissões para visualizar e-mail institucional Pesquisar Publicações do Participante Sem AUTHENTICUS Sem ORCID
Wang, Jiayi
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Stenetorp, Pontus
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Cherry, Colin
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Adelani, David Ifeoluwa
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Ata de Conferência Internacional
Páginas: 913-919
10th Conference on Machine Translation
Suzhou, China, 2025
Indexação
Crossref
Outras Informações
Resumo (PT):
Abstract (EN): This paper presents the evaluation of submissions to the WMT 2025 Metrics Shared Task on the SSA-MTE challenge set, a large-scale benchmark for machine translation evaluation (MTE) in Sub-Saharan African languages. The SSA-MTE test sets contains over 12,768 human-annotated adequacy scores across 11 language pairs sourced from English, French, and Portuguese, spanning 6 commercial and open-source MT systems. Results show that correlations with human judgments remain generally low, with most systems falling below the 0.4 Spearman threshold for medium-level agreement. Performance varies widely across language pairs, with most correlations under 0.4; in some extremely low-resource cases, such as Portuguese–Emakhuwa, correlations drop to around 0.1, underscoring the difficulty of evaluating MT for very low-resource African languages. These findings highlight the urgent need for more research on robust, generalizable MT evaluation methods tailored for African languages.
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Documentos
Nome do Ficheiro Descrição Tamanho
2025.wmt-1.65 227.12 KB
Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Centro de Desporto da Universidade do Porto I Termos e Condições I Acessibilidade I Índice A-Z
Página gerada em: 2025-12-04 às 11:08:56 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias | Livro Amarelo Eletrónico