Traduzione automatica e potenziali rischi (Parte 1)

MT scaled

Le macchine sono affidabili per lavare i piatti o tenere nota delle attività in programma, ma vi fidereste a lasciar parlare una macchina al vostro posto?

Poiché il mondo dell’istruzione e della tecnologia sono in fermento per via delle potenzialità (e delle insidie) legate agli strumenti basati sull’intelligenza artificiale come ChatGPT, è il momento giusto per saperne di più su altro strumento spesso considerato la soluzione a problemi complessi: la traduzione automatica (MT). Non si può negare che software di traduzione automatica come Google Translate e Microsoft Translator siano diventati incredibilmente sofisticati. Basata su algoritmi e reti neurali all’avanguardia, la traduzione automatica è in grado di fare di tutto, dal tradurre centinaia di pagine di gergo tecnico all’aiutare gli utenti a ordinare cibo all’estero.

Ma cosa succede quando qualcosa non va per il verso giusto? Questo post, il primo di due dedicati alla traduzione automatica, ne analizza i potenziali rischi.

Gli errori possono portare a incomprensioni dalla portata disastrosa

È facile immaginare di utilizzare la traduzione automatica per colmare lacune semplici ma potenzialmente imbarazzanti nella comunicazione, ad esempio chiedere indicazioni in aeroporto o salutare in una lingua che non si conosce bene.

Tuttavia, poiché gli algoritmi di traduzione automatica non hanno la capacità di interpretare il tono, il contesto e i modi di dire, possono rapidamente trasformare un’interazione sociale apparentemente banale in esternazioni di violenza. Nell’ottobre 2017, ad esempio, Facebook commise un errore grave traducendo il sottotitolo delle foto di un utente palestinese (yusbihuhum, ovvero il termine arabo per dire “buongiorno”) in “attaccateli” in ebraico e “fategli del male” in inglese. L’uomo venne arrestato e interrogato dalla polizia israeliana.

In effetti, in uno studio sugli errori gravi nella traduzione automatica, i ricercatori dell’Imperial College London hanno scoperto che gli algoritmi di traduzione automatica hanno particolari problemi con il linguaggio legato alla violenza. Non soltanto tendono a tradurlo in modo errato, ma spesso introducono contenuti violenti e implicazioni offensive non presenti nelle frasi di origine.

Fiducia eccessiva in ambienti ad alto rischio

L’entusiasmo delle organizzazioni per la promozione e l’adozione della traduzione automatica, spesso vista come metodo di risparmio, è particolarmente pericoloso in situazioni ad alto rischio.

Ad esempio, l’utilizzo di Google Translate per fornire istruzioni in pronto-soccorso spesso ha come esito errori gravi, in particolare con le lingue rare. Non si può in alcun modo sottovalutare l’importanza di una traduzione di qualità elevata in ambito sanitario. Misure, dosaggi, istruzioni, sintomi e altro ancora devono essere riferiti con estrema accuratezza per evitare reazioni allergiche, overdose e altri esiti potenzialmente fatali.

Anche le organizzazioni governative utilizzano la traduzione automatica in settori in cui gli errori di traduzione possono avere un impatto catastrofico. A fine 2022 l’Ente federale per la gestione delle emergenze (FEMA) ha revocato l’incarico a un’azienda che ha utilizzato la traduzione automatica per fornire supporto post catastrofe a comunità di nativi dell’Alaska. Al momento dei soccorsi dopo un pericoloso tifone, i nativi di lingua inupiaq e altre lingue sono stati accolti con frasi grottesche come “Tuo marito è un orso polare smilzo”.

Anche l’utilizzo della traduzione automatica da parte delle forze dell’ordine dà adito a questioni legali spinose. Ad esempio, nel 2017 la polizia locale ha utilizzato Google Translate per convincere un guidatore di lingua spagnola a consentire loro di perquisire la sua auto. Tuttavia, il tribunale ha sentenziato che le traduzioni di Google Translate non sono neanche lontanamente sufficienti come base per una perquisizione ufficiale e il caso è stato archiviato.

Strumenti di machine learning e dilemmi etici

Infine, il rapido sviluppo degli strumenti di machine learning solleva già di per sé alcune questioni etiche. I ricercatori hanno scoperto che l’addestramento di un singolo modello di IA di grandi dimensioni comporta l’emissione di oltre 284.000 kg (626.000 libbre) di CO2 equivalente, una quantità pari a circa cinque volte le emissioni di un’automobile media nel corso dell’intero ciclo di vita! Anche se assumere traduttori umani può non sembrare così vantaggioso dal punto di vista economico, si tratta di una scelta molto più rispettosa dell’ambiente per le aziende impegnate nella sostenibilità.

Al contempo, gli algoritmi che supportano questa tecnologia spesso fanno affidamento sul lavoro invisibile di “microlavoratori” sottopagati, ovvero persone, spesso di paesi in via di sviluppo, che addestrano gli algoritmi rimuovendo materiali offensivi, valutando i risultati e svolgendo altre attività noiose. Anche se gli strumenti di machine learning cercano di convincerci di essere allo stesso livello dei traduttori umani, in realtà non funzionano senza una rigorosa supervisione e input da parte dell’uomo.

Dovremmo usare la traduzione automatica?

I rischi legati alla traduzione automatica non significano che essa non debba mai essere utilizzata, anche se di rado essa può emulare l’accuratezza e la competenza culturale dei traduttori umani di qualità. Nella seconda parte vedremo come evitare alcuni di questi problemi. Nel frattempo, l’opzione migliore è collaborare con un’azienda che garantisca servizi di traduzione di alta qualità, inclusi linguisti esperti che effettuano il post editing della traduzione automatica.