Seleccionar página

Desde la traducción automática basada en reglas, hasta la traducción automática neural. Este artículo trata del desarrollo de la tecnología de la traducción automática, desde los años 50 hasta hoy en día.

La traducción automática es el proceso que efectúa un ordenador que transfiere un texto de una lengua de partida a otra lengua, llamada lengua de destino. Es posible que haya traductores humanos implicados en las fases de preedición y de posedición, es decir, al inicio o al final del proyecto. Sin embargo, estas personas no suelen participar en el proceso de traducción propiamente dicho.

Aunque la aparición de las primeras concepciones de traducción automática se remonta al siglo XVII, fue en la década de 1950 cuando la investigación financiada por el gobierno de Estados Unidos potenció el interés internacional por la investigación y la producción de sistemas de traducción automática.

La intención inicial era producir un sistema de traducción por ordenador de alta calidad completamente automático (FAHQMT), pero en 1952 «ya quedó claro que los objetivos de los sistemas completamente automatizados no eran realistas y que la intervención humana sería esencial» (Hutchins, 2006, p. 376). Muchos investigadores eran científicos y no lingüistas; por tanto, no eran conscientes de la necesidad de conocimientos del mundo real que surge en el proceso de traducción. Muchos elementos lingüísticos complejos no se podían programar fácilmente en un ordenador como, por ejemplo, la comprensión de los homónimos o las metáforas.

La primera demostración pública de un sistema de traducción automática, que tradujo 250 palabras entre el ruso y el inglés, tuvo lugar en EE. UU. en 1954. En ella se aplicó un enfoque centrado en la traducción literal. Esta arquitectura de primera generación se basaba en diccionarios y trataba de que coincidiera el texto de la lengua de partida con el de la lengua de destino palabra por palabra, es decir, que traducía literalmente. «Este enfoque era sencillo y económico, pero los resultados eran pobres y se limitaban a copiar las estructuras sintácticas de la lengua de partida» (Quah, 2006, p.70). Por lo tanto, era más adecuada para pares de lengua de partida y de destino que estaban estructuralmente relacionados. A pesar de la mala calidad de traducción, el proyecto fue bien recibido y generó aún más fondos para la investigación en la Unión Soviética y los Estados Unidos.

Sistemas de traducción automática de segunda generación

A mediados de la década de 1960 habían proliferado grupos de investigación en muchos países. Todavía se usaba el enfoque de la traducción literal, mientras que las nuevas investigaciones sobre enfoques basados en reglas, como la transferencia y la metalingüística, contribuyeron al inicio de los sistemas de traducción automática de segunda generación. En 1964, el gobierno de Estados Unidos encargó un informe sobre el avance de la investigación de traducción automática al Comité asesor de procesamiento automático del lenguaje (ALPAC, por sus siglas en inglés). El informe de ALPAC puso de relieve la lentitud, la falta de precisión y el alto coste de la traducción automática en comparación con los traductores humanos y predijo un futuro sombrío para el desarrollo de la traducción automática. Cesó la mayor parte de la financiación de Estados Unidos y se rechazó seguir investigando sobre traducción automática en todo el mundo.

Mientras que los sistemas de traducción automática habían demostrado no ser apropiados para sustituir a los traductores humanos en términos generales, se observó que estos sistemas eran bastante precisos cuando se trataba de textos poco complejos o muy específicos. Dieron buenos resultados los proyectos enmarcados en dominios específicos del lenguaje como, por ejemplo, el sistema Météo desarrollado en Canadá en 1976 para traducir las previsiones meteorológicas entre el francés y el inglés.

A finales de los años setenta, se redujo la investigación sobre el enfoque de traducción metalingüística de segunda generación. Este enfoque analiza el texto de partida y lo convierte en un lenguaje especial «metalingüístico» y luego se genera el texto de destino a partir de esta fórmula intermedia. El problema era la incapacidad de crear «una representación verdaderamente independiente del idioma que representara “todos” los posibles aspectos de la sintaxis y de la semántica de “todas” las lenguas conocidas» (Quah, 2006, p.73). Esta tarea queda inconclusa y los sistemas metalingüísticos solo están disponibles como prototipos.

El enfoque de la transferencia en la traducción automática

A finales de 1970 y principios de 1980, la investigación se centró más en el enfoque de la transferencia. En esta arquitectura, el texto de partida se analizaba a través de un diccionario de la lengua de origen y se transformaba en una fórmula abstracta. Esta fórmula se traducía a otra fórmula abstracta del texto de destino a través de un diccionario bilingüe y posteriormente se convertía en un texto de destino final con un diccionario en la lengua final. Este enfoque basado en reglas era menos complicado que el metalingüístico y más adecuado para emplearlo con múltiples idiomas que la traducción literal. Los problemas surgieron cuando el conocimiento recogido en los diccionarios resultaba insuficiente para lidiar con las ambigüedades. Sus aplicaciones comprendían la traducción en línea y el mercado computacional japonés.

La programación y actualización de los diccionarios de traducción automática constituía un proceso laborioso y caro. Se necesitaba que los diccionarios contuvieran grandes volúmenes de información para afrontar cuestiones como la ambigüedad léxica, estructuras sintácticas complejas, lenguaje idiomático y anáforas en multitud de idiomas diferentes. Austermül (2001, p.173) destaca cómo «el conocimiento del mundo es especialmente difícil de aplicar a los sistemas de traducción automática»; puesto que un ordenador no puede tomar decisiones basadas en sus conocimientos tal y como hacen los humanos. Si un diccionario es demasiado pequeño, la información que contendrá no será suficiente; si es demasiado grande, el ordenador tendrá menos probabilidades de seleccionar la opción de traducción correcta.

El crecimiento del enfoque estadístico en la traducción automática

En los años 1990, las investigaciones dieron como resultado una tercera generación de sistemas de traducción automática: las arquitecturas basadas en corpus, concretamente los enfoques estadístico y basado en ejemplos. El enfoque estadístico divide el texto de partida en segmentos que luego compara con un corpus bilingüe alineado utilizando las probabilidades de evidencia estadística y de distorsión con el fin de elegir la traducción más adecuada. El enfoque basado en ejemplos imita las combinaciones de ejemplos de datos pretraducidos en la base de datos. Para que este enfoque funcionara correctamente, la base de datos debía contener concordancias que se aproximaran a las del texto de partida. Este enfoque sienta las bases de las herramientas con memorias de traducción asistida.

La eficacia de la traducción automática

Todas las arquitecturas de traducción automática suelen funcionar mejor con textos técnicos que contengan un vocabulario limitado o repetitivo. Gross (1992, p.103) demuestra cómo las traducciones generales que precisan del conocimiento del mundo real se ajustan mejor a la labor de los traductores humanos, mientras que los conceptos matemáticos y abstractos se ajustan mejor a los sistemas de traducción automática. A los traductores humanos les falta la velocidad y la coherencia terminológica de la traducción automática y les puede aburrir tantas repeticiones y el lenguaje técnico.

En los años 1980 se produjo un movimiento importante a favor del uso del lenguaje controlado, todavía clave para que la traducción automática funcione correctamente. En una fase de preedición, un redactor simplifica el texto de partida de acuerdo con unas reglas específicas para facilitar al ordenador la tarea de la traducción. A continuación, la máquina lleva a cabo rápidamente el proceso de traducción. Seguidamente, un traductor humano posedita el documento para que logre una calidad apta para su publicación. La Comisión Europea (que ha estado investigando y utilizando la traducción automática desde los años 1960) ha descubierto que «siempre y cuando la traducción se restrinja en temática y tipo de texto… podrán lograrse mejoras significativas en términos de calidad» (Hutchins, 2005).

Debido al auge de las comunicaciones internacionales y al crecimiento del sector de la localización, se ha hecho patente que los traductores humanos no son capaces de satisfacer la fuerte demanda de intercambio de información entre lenguas, a menudo, a gran escala, rápida (incluso instantánea) y barata. Se han llevado a cabo grandes inversiones en el desarrollo de sistemas de traducción automática para el uso público y privado, sobre todo en las lenguas con mayor número de hablantes. Los sistemas híbridos que combinan arquitecturas basadas en reglas y en corpus se han presentado junto con los sistemas para mejorar la precisión permitiendo la implicación del factor humano en la fase de traducción.

La era de la comunicación de masas ha cambiado la importancia que las empresas le dan a las traducciones «de etiqueta» (Gross 1992, p.99) porque a veces el objetivo se limita a un intercambio simple de información. Por ejemplo, los empleados europeos solo necesitan tener una idea de qué trata un documento con el fin de valorar si merece la pena traducirlos y que sean aptos para publicarlos y los usuarios en sus casas puede que queden satisfechos con sistemas basados en traducción automática por Internet que sean gratuitos y les permitan entender lo básico de lo que dice un sitio web. Cuando se precisa que el destinatario asimile información concreta del texto, como ocurre con un manual de instrucciones dirigido a un técnico, en lugar de una laboriosa disección del texto con calidad apta para la publicación, la traducción automática ha demostrado ser mucho más rápida y eficiente en términos de costes que los traductores humanos.

Los últimos desarrollos en la traducción automática

Los últimos desarrollos en el área de la traducción automática han incluido la incorporación de un aprendizaje profundo y de redes neuronales que permiten aumentar la precisión. Los proveedores de servicios lingüísticos actualmente ofrecen motores de traducción automática en los que además de incorporar la terminología de un ámbito específico como, por ejemplo, las ciencias de la salud, el sector turístico o la informática, el usuario puede cargar sus propios registros de traducción para tratar de mejorar la precisión, el estilo y la calidad de los resultados que se consiguen con la traducción automática.

El día 15 de noviembre 2016, Google anunció que iba a empezar a emplear la traducción automática neural en su herramienta Google Translate. Ha empezado a usarlo con un total de ocho combinaciones de idiomas, con el inglés como lengua de partida y destino, combinado con francés, alemán, español, portugués, chino, japonés, coreano y turco.

 

Apúntate para mi seminario online Your Essential Machine Translation Briefing en ProZ.com el día 8 de febrero, 2017. En él, hablaré sobre los últimos desarrollos en la traducción automática y compartiré unas estrategias para los traductores independientes. Además, puedes escuchar una entrevista que hice con Tess Whitty sobre el seminario online, en su podcast. O escríbeme tu opinión abajo.

¿Trabajas con la traducción automática? ¿Qué opinas sobre ella?

 

Referencias

Austermühl, F. (2001). Electronic Tools for Translators. Manchester: St Jerome.

Betts, R. (2005). Wycliffe Associates’ EasyEnglish. In: Communicator, Spring 2005.

Chesterman, A. (2004). Norms of the Future. In: Kemble, I. (Ed.) Translation Norms, what is ‘normal’ in the translation profession? Proceedings of the 2004 Portsmouth Translation Conference.

Dodd,C. (2005). Taming the English Language. In: Communicator, Spring 2005

Finderer, R. (2009). The Rise of the Machines. In ITI BULLETIN January-February 2009

Google. (2010). Google Translate Help. Retrieved January 23, 2010, from here

Gross, A. (1992) Limitations of Computers as Translation Tools. In Computers and Translation. Ed. Newton,J. London:Routledge.

Guerra, A.F. (2000). METEO system. In F. Fernández (Ed.) Machine Translation Capabilities and Limitations [Electronic Version] (p.72). Valencia: Artes Gráficas Soler. Retrieved January 12, 2010, from here.

Hutchins, J. (1998). The Origins of the Translator’s Workstation. Machine Translation, vol. 13(4), p.287-307. Retrieved January 7, 2010, from here

Hutchins, J. (2005). Current commercial machine translation systems and computer-based translation tools:system types and their uses. Retrieved January 7, 2010, from here

Hutchins, J. (2006). Machine Translation: History. In K. Brown (Ed.) Encyclopedia of Language and Linguistics [Electronic Version] (pp375-383). Oxford: Elsevier. Retrieved January 7, 2010, from here

Melby, A. (1992). The Translator Workstation. In Computers and Translation. Ed. Newton,J. London:Routledge.

Newton, J. (1992). The Perkins Experience. In Computers and Translation. Ed. Newton,J. London:Routledge.

Pym, P.J. (1990). Pre-editing and the use of simplified writing for machine translation: an engineer’s experience of operating and machine translation system. Translating and the Computer, vol. 10. Retrieved January 9, 2010 from here

Turovsky, B. (2016). Found in translation. More accurate, fluent sentences in Google Translate. From here

Quah, C.K. (2006) Translation and Technology, Basingstoke: Palgrave.

Van de Meer, J. (2009). Let a thousand machine translation systems bloom. Retrieved January 23, 2010 from here

Veritas, L.S (2009). Statistical Machine Translation and Example-based Machine Translation. Retrieved January 23, 2010, from here

Pin It on Pinterest

Share This