Traducció automàtica neuronal i traducció automàtica estadística: percepció i productivitat

Ariana López-Pereira

Resum

El camp de la traducció automàtica ha canviat per complet amb els progressos que han experimentat els motors de traducció automàtica neuronal (TAN), sobretot si es compara amb els resultats obtinguts amb els de traducció automàtica estadística (TAE). Així, és necessari revisar-ne l’ús i la percepció per part dels usuaris finals, els traductors. L'objectiu principal d'aquest treball és determinar la percepció i la productivitat, en termes de temps i nombre d'edicions, d'un grup de traductors a l’hora d’utilitzar sistemes de TAE i de TAN. Amb aquest objectiu, mitjançant la plataforma Dynamic Quality Framework (DQF) de TAUS, deu traductors professionals han avaluat, primerament, els segments de traducció automàtica en brut de dos textos, un manual d'instruccions i un text de màrqueting, proposats pel motor de Microsoft Translation (TAE) i de Google Neural Machine Translation (TAN). Posteriorment, sis dels deu traductors han posteditat dues proves de productivitat, a fi d’establir-ne el temps i la distància d'edició. Els resultats mostren que els traductors consideren el motor neuronal més productiu, atès que, segons la seva percepció, triguen menys temps a posteditar, la qual cosa comporta menys edicions. No obstant això, en comparar aquests resultats amb els obtinguts a les proves de productivitat, encara que la distància d'edició és menor amb el motor de TAE que amb el de TAN, el temps de postedició és molt més alt en el cas del motor neuronal.

Paraules clau

traducció automàtica neuronal; traducció automàtica estadística; distància d'edició; productivitat; percepció; postedició

Text complet:

PDF (Español)

Referències

Aranberri, N. (2014). Posedición, productividad y calidad. Tradumàtica: Tecnologies de la Traducció, n. 12, pp. 471–477. .

Bentivogli, L.; Bisazza, A.; Cettolo, M.; Federico, M. (2016). Neural versus Phrase-Based Machine Translation Quality: a Case Study, in: Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Austin, Texas: Association for Computational Linguistics, pp. 257-267. .

Esperança-Rodier, E.; Rossi, C.; Bérard, A.; Besacier, L. (2017). Evaluation of NMT and SMT Systems: A Study on Uses and Perceptions, in: Proceedings of the 39th Conference Translating and the Computer. London: AsLing, pp. 11-24. .

Görög, A. (2014). Quality evaluation today: the Dynamic Quality Framework, in: Proceedings of Translating and the Computer 36: ASLING: Proceedings. Geneva: Tradulex, pp. 155-164. .

Guerberof, A. (2009). Productivity and quality in MT post-editing, in: Proceedings of the Twelfth Machine Translation Summit (MT Summit XII), Beyond Translation Memories: New Tools for Translators Workshop. Ottawa, Canadá: MT Summit. .

Guerberof, A. (2013). What do professional translators think about post-editing?The Journal of Specialised Translation, n. 19, pp. 75–95. .

Katan, D. (2016). Translation at the cross-roads: Time for the transcreational turn? Perspectives. Studies in Translatology, v. 24, n. 3, pp. 365–381.

Koponen, M. (2012). Comparing human perceptions of post-editing effort with post-editing operations, in: Proceedings of the 7th Workshop on Statistical Machine Translation. Montreal, Canadá: Association for Computational Linguistics, pp. 181-190. .

Krings, H. P. (2001). Repairing texts. Kent: Kent State University Press.

Lohar, P.; Popovic, M.; Afli, H.; Way, A. (2019). A Systematic Comparison Between SMT and NMT on Translating User-Generated Content, in: Proceedings of CICLing 2019, the 20th International Conference on Computational Linguistics and Intelligent Text Processing, La Rochelle, France.

Moorkens, J. (2017). Under pressure: translation in times of austerity. Perspectives, v. 25, n. 3, pp. 464-477. .

Moorkens, J.; Toral, A.; Castilho, S.; Way, A. (2018). Translators’ perceptions of literary post-editing using statistical and neural machine translation. Translation Spaces, v. 7, n. 2, pp. 240-262.

Papineni, K.; Roukos, S.; Ward, T.; Zhu, W. J. (2002). Bleu: A Method for Automatic Evaluation of Machine Translation, in: Proceedings of 40th Annual Meeting of the Association for Computational Linguistics. Filadelfia: Association for Computational Linguistics, pp. 311-318. .

Shterionov, D.; Nagle, P.; Casanellas, L.; Superbo, R.; O’Dowd, T. (2017). Empirical evaluation of NMT and PBSMT quality for large-scale translation production, in: Proceedings of the Annual Conference of the European Association for Machine Translation (EAMT): User Track. Praga: European Association of Machine Translation, pp. 74-79. .

Snover, M.; Dorr, B.; Schwartz, R.; Micciulla, L.; Makhoul, J. (2006). A study of translation edit rate with targeted human annotation, in: Proceedings of the 7th Biennial Conference of the Association for Machine Translation in the Americas (AMTA-2006). Cambridge, Massachusetts: Association for Machine Translation in the Americas.

Torres-Hostench, O.; Presas, M.; Cid-Leal, P. (2016). El uso de traducción automática y posedición en las empresas de servicios lingüísticos españolas: informe de investigación ProjecTA 2015. Bellaterra, Cerdanyola del Vallès. .

Vilar, D.; Xu, J.; D’Haro L. F.; et al. (2006). Error analysis of statistical machine translation output, in: Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC’06). European Language Resources Association. Genoa, Italia, pp. 697-702. .

Way, A. (2013). Traditional and Emerging Use-Cases for Machine Translation, in: Proceedings of Translating and the Computer 35. London. .

Wołk, K.; Koržinek, D. (2017). Comparison and Adaptation of Automatic Evaluation Metrics for Quality Assessment of Re-Speaking. Computer Science, v. 18, n. 2, pp. 129. .

Mètriques darticles

Carregant mètriques ...

Metrics powered by PLOS ALM
Copyright (c) 2019 Ariana López Pereira
Llicència de Creative Commons
Aquesta obra està subjecta a una llicència de Reconeixement 4.0 Internacional de Creative Commons