Conosciamo la reale velocità della tecnologia? Comprendiamo il grado di controllo delle nostre città? Possiamo davvero essere protagonisti della nostra privacy?

Su queste domande si basa il dibattito che vive da anni, e che da questo gennaio si sta alimentando ancora di più, in merito all’intelligenza artificiale e le sue implicazioni etiche.

Si parla molto di Intelligenza Artificiale come la nuova frontiera dell’informatica. Il World Economic Forum nel 2019 la definisce “il motore pulsante della quarta rivoluzione industriale”, c’è chi la percepisce come fondamentale “base per uno sviluppo sostenibile dell’umanità”.

Allo stesso tempo, però, se ne parla anche come lo strumento che negli ultimi anni ci ha privato della nostra privacy, o come la causa per cui i nostri posti di lavoro verranno delegati a delle macchine.

Cerchiamo allora di comprendere, prima di ogni appellativo, ciò che realmente il termine “Intelligenza artificiale” rappresenta.

Per Intelligenza Artificiale si intende quella disciplina, appartenente all’informatica, che studia i fondamenti teorici, le metodologie e le tecniche che permettono di progettare sistemi hardware e software capaci di fornire all’elaboratore elettronico delle prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.

Ha una storia antica, forse più di quello che molti di noi si aspettano. Nasce come disciplina nel 1956, nel New Hampshire. Durante un convegno viene posta una sfida: viene chiesto a un team di 10 persone di realizzare una macchina in grado di simulare ogni aspetto dell’apprendimento e dell’intelligenza umana.

Sono molteplici i passi in avanti che l’intelligenza artificiale ha fatto da quel lontano 1956, e sono numerose le rivoluzioni che ha portato nella vita quotidiana, nei centri di ricerca, nelle aziende. È riuscita ad avere le più svariate implicazioni di massima rilevanza, in settori che ci riguardano come cittadini, da quello economico, a quello sanitario, ambientale e sociale.

Eppure, oggi, la relazione tra uomo e macchina, tra umanità e artificio, si trova in un complesso sistema di regole e complicazioni, difficili da gestire, da comprendere e da analizzare.

Ci troviamo in quella che viene chiamata dagli esperti “terza ondata” della trasformazione industriale. Troviamo l’origine del rapporto tra umanità e meccanica nei i processi standardizzati di Henry Ford, trasformati poi in processi automatizzati negli anni ‘90; ma nell’ “ondata” di cui siamo protagonisti, uomini e macchine collaborano insieme, sono uno il braccio destro dell’altro.

L’intelligenza artificiale ci ha permesso di poter avere, nel settore della sanità, sistemi di apprendimento automatizzato, che tramite immagini, riescono ad individuare con più esattezza diverse patologie in fase precoce; nel settore automobilistico permette la progettazione e realizzazione di veicoli autonomi; nel settore giuridico l’IA si è diffusa tramite lo sviluppo di quei meccanismi di “giustizia predittiva”, riuscendo tramite algoritmi a “predire” l’orientamento del ragionamento del Giudice.

L’IA apprende per esperienza. Essa riesce, tramite il “machine-learning”, ad avere una formazione che si basa sulla comprensione dell’errore.

E’ proprio prendendo coscienza di questo meccanismo dell’intelligenza artificiale, che iniziano a sorgere i primi problemi, i primi dibattiti e i primi ostacoli a questo “motore del nostro secolo”.

L’intelligenza artificiale lavora con i dati, utilizza quel flusso infinito di big data che l’umanità ogni istante produce come strumento per potersi formare e per poter comprendere la realtà che la circonda. Una realtà che ad oggi ingloba uomo, mondo e macchina.

Alexander Kogan, nel 2015 chiede l’autorizzazione a Facebook di scaricare i dati dei profili a fini accademici. Nel 2019 si scopre che quei dati finiscono nel calderone della campagna elettorale di Donald Trump, passando per Cambridge Analytica.

Sempre nel 2015, il sistema di riconoscimento di immagini di Google, catalogava le persone di colore come “Gorilla”; in immagini di uomini in cucina, gli individui venivano automaticamente catalogati come “genere femminile”.

Proprio dopo eventi come questi, inizia nel mondo a diffondersi l’idea che collocare l’intelligenza artificiale in una dimensione etica non è più opinabile, ma è diventata una vera e propria necessità. È diventato fondamentale per l’uomo poter gestire e definire meglio la sottile linea di margine tra ciò che possiamo concedere all’IA per svilupparsi, e ciò che diventa violazione della nostra privacy.

Nasce una vera e propria etica dell’intelligenza artificiale che ad oggi studia le conseguenze economiche, sociali e culturali dello sviluppo dell’intelligenza artificiale.

Con essa iniziano le mobilitazioni dagli enti che sono protagonisti del grande dibattito; Google fonda nel 2018 una commissione etica all’interno della sua azienda, nel 2019 diverse città degli Stati Uniti vietano il riconoscimento facciale in luoghi pubblici; Google, Microsoft e Salesforce si oppongono all’utilizzo delle proprie IA per la caccia ai migranti ed iniziano negli ultimi anni numerosi investimenti per la tutela della privacy.

Elon Musk fonda ,nel 2015, OpenAI, un’organizzazione non profit di ricerca con lo scopo di promuovere e sviluppare un’intelligenza artificiale amichevole in modo che l’umanità possa trarne beneficio.

Le iniziative dei vari enti, non sono state sufficienti in questi anni, e ce lo dimostrano i fatti di cronaca in Cina, dove ad aprile del 2019, vennero scannerizzate, in meno di un mese, mezzo milione di persone per tenere sotto controllo la minoranza degli Uiguri.

A gennaio del 2020, l’Unione Europea apre il nuovo anno dichiarando che è arrivato il momento di agire e lavorare per un’intelligenza artificiale etica e sicura, per ogni cittadino, per ogni angolo di quel mondo che fa parte della nostra realtà; e lo fa proponendo il divieto del riconoscimento facciale nei luoghi pubblici per un massimo di cinque anni, considerando la possibile eccezione per progetti di sicurezza, per la ricerca e per lo sviluppo.

L’UE comunica a tutti gli stati membri che si è presentata la necessità di imporre obblighi agli sviluppatori di IA e agli utenti che ne usufruiscono.

Un IA etica, secondo l’UE è capace di: agire sorvegliando l’umanità, è robusta e sicura, garantisce riservatezza e una eccellente governance dei dati, è trasparente, promuove la diversità, il benessere sociale e ambientale ed infine garantisce di essere responsabile e priva di pregiudizi.

E’ arrivato il momento, durante la nostra “ondata” tecnologica, di prendere consapevolezza che ogni sviluppo comporta degli svantaggi, comporta delle responsabilità e che necessita un’applicazione regolamentata eticamente.

Dobbiamo riuscire a contenere le implicazioni dannose, rispettando quelli che sono i diritti dell’uomo, senza però arrestare l’innovazione, senza permetterci di bloccare un processo in continuo divenire, che da tempo fa parte della nostra realtà.

Valentina Rossi