fbpx

Intelligenza artificiale – vantaggi, rischi e tutele

Qualche tempo fa, durante il webinar tenuto dalla patent attorney Claudia Castellano, abbiamo accennato alla relazione tra intelligenza artificiale e proprietà intellettuale. Siccome l’argomento ci riguarda da vicino, perché molti settori della traduzione, sia a livello prettamente operativo, sia gestionale, sono già interessati dall’automazione, abbiamo deciso di approfondire. Per questo appuntamento della rubrica vi proponiamo quindi Intelligenza artificiale – L’impatto sulle nostre vite, diritti e libertà, un saggio che non riguarda soltanto la traduzione, ma che studia gli algoritmi ad ampio spettro. Cercheremo di analizzarne gli aspetti più interessanti e di integrarli con alcuni spunti tratti da articoli di esperti del settore della proprietà intellettuale.

Gli autori, Alessandro Longo e Guido Scorza, spiegano in modo semplice e accessibile l’evoluzione dell’intelligenza artificiale, i sui principali vantaggi e campi di applicazione. Non si fermano però a un ottimismo entusiasta, al contrario, cercano di sviscerare tutte le sfide e i rischi che l’IA pone a livello socio-economico, giuridico e di parità.

Prima di tutto una nota linguistica. Il saggio è molto utile a chi traduce o vuole tradurre testi su questo argomento perché è disseminato di “box”, ovvero schede di approfondimento, che spiegano nel dettaglio il significato di alcuni concetti tecnici come deep learning, black box, deepfake e il muro del significato.

Dall’agricoltura al marketing, dalla finanza al giornalismo, fino ad arrivare al settore sanitario, molti sono gli ambiti lavorativi interessati dall’applicazione dell’IA e i significativi cambiamenti già in atto per molte categorie di lavoratrici e lavoratori. L’automazione avrà un impatto sempre maggiore su professioni ad alte e basse competenze. Come si legge in questo articolo sull’uso degli algoritmi nel settore medico-scientifico (https://tinyurl.com/2mt78rew) “l’IA non sostituirà il medico, ma i medici che faranno uso dell’IA sostituiranno quelli che la rifiutano o che non la sanno usare”.

Tutto bene insomma, basta adeguarsi, giusto?

Non esattamente. All’interno del saggio vengono riportati studi, ricerche e inchieste che rivelano come un uso senza controllo dell’automazione rischi di esacerbare le disuguaglianze, concentrando i benefici dell’aumento della produttività nelle mani di poche persone a scapito della maggioranza che subirà conseguenze quali l’erosione del welfare, rischi per la sicurezza e la tutela dei diritti sul lavoro. Emblematico l’esempio dei rider, sottoposti alla competizione senza limiti dell’algoritmo che premia disponibilità e velocità senza considerazione per la qualità della vita di lavoratori e lavoratrici. Ampio spazio viene poi riservato ai bias degli algoritmi. Vengono presi in esame gli studi delle esperte e attiviste Joy Buolamwini (https://tinyurl.com/57bxa4c6) e Cathy O’Neil (https://tinyurl.com/2ewt2urp) che hanno messo in discussione l’idea che gli algoritmi, a differenza degli esseri umani, siano oggettivi e non commettano errori. In realtà è stato dimostrato che anche gli algoritmi possono sbagliare perché sono programmati e addestrati da esseri umani e che quando un pregiudizio viene inserito nel sistema questo lo automatizza, “ottimizzando” di fatto le discriminazioni e rendendo impossibili le correzioni umane. Gli autori esplorano poi uno dei rischi più sottili dell’IA, ovvero il de-skilling. Se è vero che intelligenza umana e artificiale possono completarsi a vicenda, sopperendo ai reciproci limiti, lo è altrettanto il fatto che chi si abitua a demandare compiti all’automazione, smette di prestarci attenzione, fino a disapprenderli completamente in una sorta di “regressione cognitiva” che prende appunto il nome di de-skilling e che porta a una sempre maggiore dipendenza dalle macchine. Significativo l’esempio portato dagli autori di due disastri aerei del Boeing 737 Max, nel 2018, attribuiti all’intelligenza artificiale che, in circostanze eccezionali, ha commesso un errore fatale. Resta però il fatto che i piloti non hanno saputo reagire prontamente come avrebbero dovuto. Anche in casi in cui l’ultima parola spetta a una persona, gli autori si chiedono come si possa sapere che la decisione presa non sia stata influenzata dall’output di un algoritmo senza che questo sia stato messo in discussione con il giusto senso critico.

Di fronte a questi rischi, quali sono gli strumenti giuridici di tutela?

La posizione più formale delle istituzioni europee è rappresentata dalla Risoluzione del Parlamento europeo del 16 febbraio 2017 che stabiliva le prime linee guida per definire il rapporto tra diritto, etica e intelligenza artificiale. Tuttavia, a questo orientamento “di principio” non corrispondevano ancora regole chiare e concrete, non soltanto sull’uso dei dati, ma anche sulla trasparenza con cui vengono trattati. Uno dei problemi principali legati al controllo dell’IA è rappresentato dal funzionamento stesso degli algoritmi e della black box che sfugge alla comprensione degli stessi programmatori. Da allora la Commissione Europea ha proseguito i lavori e il 21 aprile 2021 ha pubblicato la proposta di regolamento sull’approccio europeo all’Intelligenza Artificiale (https://tinyurl.com/3tdkndw6) che ne valuta i rischi e stila il primo quadro giuridico europeo sull’IA per salvaguardare i valori e i diritti fondamentali del’UE e al contempo rafforzare gli investimenti nell’innovazione.

Dal punto di vista della tutela della proprietà intellettuale, al momento non è consentito brevettare gli algoritmi, considerata l’ampia varietà di applicazione che potrebbero avere, ma si possono tutelare i metodi che li implementano, a patto che vengano rispettate le caratteristiche di brevettabilità. Per quanto riguarda poi il diritto d’autore, nonostante esistano intelligenze artificiali dotate di attività inventiva e creativa detta “computazionale”, la natura antropocentrica del diritto non consente di considerarle soggetti giuridici, quindi non riconosce loro diritti di copyright, patrimoniali, né responsabilità. Come si può leggere in questo articolo (https://tinyurl.com/467sjm38), infatti, sono già state rifiutate due domande (EP18275163 e EP18275174) dall’Ufficio Europeo dei brevetti che indicavano come inventore un algoritmo di IA, in quanto “secondo il disposto dell’Art. 81 e della Regola 19 della Convenzione Europea dei Brevetti, l’inventore deve essere una persona fisica e, di conseguenza, la designazione d’inventore deve contenere un nome, un cognome ed un indirizzo dell’inventore”. Tuttavia, così come successe in passato per la tutela dei software, non è detto che l’attuale normativa non verrà adattata alle nuove esigenze e agli sviluppi della tecnologia. Un domani potrebbe essere persino necessario ripensare al concetto di autorialità per riconoscere e tutelare anche l’attività inventiva “computazionale” e ritrovarsi con opere d’arte, letterarie e traduzioni firmate da un’Intelligenza Artificiale.

Come avrete intuito l’argomento è complesso e non si può risolvere in poche righe. Vi lasciamo quindi con alcune domande aperte: Dovremmo cominciare a ripensare all’idea di progresso intrinsecamente legato agli sviluppi della tecnologia? La scelta più efficiente e produttiva è anche la più giusta ed etica? Dove porre il limite di cosa è giusto demandare all’automazione?

Per approfondire, vi lasciamo alcune fonti:

https://www.jacobacci.com/pubblicazioni/p-ncf-intelligenza-artificiale-brevettare-gli-algoritmi?utm_campaign=Pubblicazioni&utm_content=172483718&utm_medium=social&utm_source=facebook&hss_channel=fbp-249268005164862

https://www.studiotorta.com/wp-content/uploads/2020/12/laura-trevisanello-macchine-intelligenti-che-creano-ed-inventano.-profili-e-rilievi-critici-del-nuovo-rapporto-tra-intelligenza-artificiale-e-diritti-di-propriet-intellettuale.-1.pdf

https://www.agendadigitale.eu/mercati-digitali/intelligenza-artificiale-e-proprieta-intellettuale-le-questioni-aperte/

https://www.bugnion.eu/it/intelligenza-artificiale-e-proprieta-intellettuale-fine-primo-round/

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:52021PC0206&from=EN

https://www.youtube.com/watch?v=UG_X_7g63rY

https://www.ajl.org/

https://www.lastampa.it/topnews/firme/data-storie/2021/05/20/news/l-algoritmo-identifica-i-bianchi-ma-non-i-neri-la-denuncia-dell-attivista-cancellata-anche-dalla-tv-1.40294927?ref=twhpv

 

Ringraziamo Ilenia Gradinello, che ha scritto questo articolo per noi.