5 domande a Isabella Massardo
Esperta di tecnologie per la traduzione
L’intelligenza artificiale è davvero una minaccia per il mondo del lavoro? Perché la traduzione automatica a volte si comporta in modo incomprensibile? Una macchina può sviluppare un bias culturale? Ha risposto per noi a queste e altre domande Isabella Massardo, traduttrice, terminologa, formatrice ed esperta di tecnologie per la traduzione.

Cosa provi e cosa pensi quando vedi una TDM?
Innanzitutto credo che, al di là della solidarietà professionale, si debba rispetto a chiunque si cimenti in un’attività comunque impegnativa come la traduzione, quantomeno per il tentativo. Per questo non penso che esistano TDM e mi astengo da giudizi di valore di questo tipo.
Credo che esistano traduzioni che soddisfano le esigenze del cliente e traduzioni che non le soddisfano. In ogni caso, spesso il cliente non ha la capacità di valutare correttamente una traduzione, per cui è portato a esprimersi negativamente anche su traduzioni di buon livello o, viceversa, ad accettare traduzioni che altri, per esempio un traduttore, considererebbe TDM. Nella mia lunga esperienza mi è capitato di notare che spesso certi giudizi di valore non sono esattamente basati su elementi obiettivi.


Nel 1955, un gruppo di lavoro dell’Università di Dartmouth aveva previsto che sarebbero bastati 2 mesi di lavoro e 10 scienziati per portare l’intelligenza artificiale al livello di quella umana. Non è andata proprio così. Oggi le aspettative sulla sua evoluzione sono ancora così sovrastimate?
Non è andata così perché semplicemente non bastavano i 10 scienziati e perché a quel tempo le conoscenze non erano sufficienti. Non dimentichiamoci che fino a 15 anni fa l’approccio generale era il modello a regole. Quell’affermazione quindi va vista nell’ottica di un obiettivo più alto, per altro conseguito: quello di farsi finanziare ulteriori ricerche.
Le aspettative sono sovrastimate per gli stessi motivi per cui furono esagerate allora. Oggi, in più, nella ricerca c’è un enorme coinvolgimento della comunità industriale e commerciale, non più solo di quella militare o scientifica, come nel 1955. I primi a dire che l’Artificial General Intelligence (AGI) è ancora lontana sono quelli che se ne occupano, perché l’intelligenza artificiale risolve SOLO un problema alla volta. Non dimentichiamo, però, che, nelle parole di Ray Kurzweil, “the singularity is near”. E Kurzweil ha un impressionante tasso di successo, molto più alto di quello di visionari più acclamati, come per esempio Jeremy Rifkin.

L’intelligenza artificiale impara a comportarsi come noi umani sulla base dei dati che le forniamo, ma non è in grado di compiere scelte di carattere morale o di valutare ciò che è giusto o sbagliato. Il rischio che facciano loro i nostri bias culturali è reale?
Le macchine non hanno bias. II bias degli algoritmi è tutto dovuto ai modelli che creiamo, quindi, al bias del compilatore del modello. Per esempio, l’effetto classico è affidare a un algoritmo la selezione del personale e scegliere in base a sesso, gruppo etnico e così via.
La riduzione del bias è un argomento di estrema attualità proprio perché con il deep learning, cioè il machine learning con algoritmo non supervisionato, questo è il rischio che si corre. In teoria, la soluzione sarebbe sottoporre qualunque decisione a una valutazione da parte di un essere umano, il che però non esclude nuovi bias. Al momento, l’attenzione non è sull’eliminazione del bias, ma sul suo controllo.
[Abbiamo parlato di bias di genere in un articolo dedicato al linguaggio inclusivo]


I motori di traduzione automatica basati su reti neurali hanno segnato un altro passo avanti in termini di qualità rispetto a quelli statistici. Tuttavia, sembrano comportarsi in modi a volte incomprensibili, ad esempio inventandosi parole o restituendo volgarità fuori contesto. Com’è possibile?
Non è vero. Questa è la classica fake news. Innanzi tutto, anche i motori neurali sono statistici, o più propriamente, stocastici. Qualunque algoritmo di machine learning e deep learning è considerato una scatola nera (black box). I primi a riconoscerlo sono gli stessi ricercatori. Questo non toglie che gli algoritmi si possono ingannare e che, da parte di quelli che vorrebbero valutarli, occorre la massima onestà intellettuale.
Gli esempi come quello qui sopra non sono proprio intellettualmente onesti. La valutazione va fatta su regole condivise. Inserire delle parole a caso o delle stringhe fuori contesto, ovvero usare dei testi inappropriati, non è intellettualmente onesto. Uno specialista non li userebbe mai perché non portano da nessuna parte. Per esempio, di recente, si è parlato di GLUE e di BERT come di un progresso nell’interpretazione del linguaggio naturale. In realtà, anche in quel caso, le premesse sono diverse: in applicazioni di machine learning o deep learning la differenza la fanno la quantità e la qualità dei dati. Esempio: io posso ingannare un valutatore in un test di Turing facendogli credere, come è successo, di essere una macchina. Viceversa, non è possibile per una macchina, al momento attuale, ingannare un essere umano in un’interazione alla pari, perché un algoritmo può solo “mimick” il comportamento umano. Una macchina non può indovinare.

Oltre alla traduzione automatica, esistono auricolari in grado di tradurre in tempo reale conversazioni, chatbot che rispondono alle tue domande, motori in grado di scrivere contenuti da zero. Molte persone vedono queste applicazioni del deep learning come una minaccia. Tu di che idea sei?
Posta così, la domanda fa pensare che si sia già raggiunta una AGI, cosa che ovviamente non è ancora accaduta. Ciascuno dei prodotti o servizi che hai citato è la combinazione di più risorse, tecnologie e algoritmi, come abbiamo anche visto durante Artigiani delle parole 2019.
La cosa peggiore che un individuo convinto della superiorità dell’intelletto umano possa fare è non solo sentirsi minacciato dalle macchine, ma dichiararlo apertamente e mettersi a piagnucolare. Il modo migliore per riaffermare la superiorità dell’intelletto umano è proprio quella di condurre lo sviluppo di tecnologie sempre più sofisticate in attività a supporto e aiuto degli esseri umani e dell’intera umanità. In altre parole, i benefici che si possono ricavare, per esempio da applicazioni di Natural Language Processing, soprattutto per l’umanità meno fortunata, controbilanciano le limitate difficoltà a cui certe categorie professionali (come la nostra) possono andare incontro.

Se vuoi saperne di più su intelligenza artificiale e machine learning, puoi seguire il blog di Isabella oppure leggere questi libri consigliati da lei:
- Erik Brynjolfsson e Andrew McAfee, The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies
- Ethem Alpaydin, Machine Learning
- Hannah Fry, Hello World: Being Human in the Age of Algorithms
- Ray Kurzweil, Singularity is Near e The Age of Spiritual Machines
- Alec Ross, The Industries of the Future
Questa intervista fa parte della serie 5 domande. Facci sapere cosa ne pensi nei commenti oppure sulle nostre pagine Facebook, Instagram e Twitter.