La traducción automática se enfrenta a constantes desafíos, especialmente cuando se trata de convertir contenido entre lenguajes que difieren en su tratamiento del género. Un reciente estudio ha revelado las dificultades que los modelos de lenguaje grande, como GPT-4 y Google Translate, tienen al trasladar contenido de lenguajes sin género a lenguajes con género natural, como el inglés. Estas dificultades se agravan en situaciones de bajo recursos donde los datos de entrenamiento son limitados.
En un esfuerzo por mejorar la precisión y la equidad en las traducciones automáticas, se introdujo el conjunto de datos Translate-with-Care (TWC), diseñado para evaluar el desempeño de sistemas de traducción al gestionar contenido de lenguajes sin género, tales como el persa, finlandés o indonesio. Este nuevo corpus está compuesto por 3,950 escenarios complejos destinados a observar cómo estos sistemas evitan los sesgos de género y mantienen la coherencia lógica.
Los análisis han mostrado que todos los modelos analizados tienden a elegir pronombres masculinos cuando se enfrentan a ambigüedades de género, favoreciendo representaciones masculinas en contextos de éxito profesional o liderazgo. Esta inclinación puede perpetuar estereotipos perjudiciales y socavar la confianza en estas tecnologías.
Un hallazgo significativo es que el ajuste fino del modelo mBART-50 con el conjunto de datos TWC ha demostrado mejorar substancialmente los sesgos detectados, superando a otros modelos propietarios y demostrando una mayor generalización. Este ajuste no sólo corrige sesgos de género, sino que también mejora la resolución semántica de oraciones ambiguas que anteriormente los modelos fallaban en traducir completamente.
En conclusión, el estudio sugiere que los enfoques específicos dirigidos a la coherencia semántica y de género en la traducción automática podrían contribuir a unos sistemas de traducción más equitativos y precisos, promoviendo una comunicación intercultural efectiva.