Abusi dell’intelligenza artificiale

Giovedì, 26 Settembre, 2019

Serve un patto sociale globale

È ormai acclarato che ogni epoca porta con sé cambiamenti più o meno profondi, più o meno intensi, più o meno radicali.

Un fatto altrettanto certo è che la fase storica che stiamo attraversando è sicuramente una delle più decisive da questo punto di vista. Il motivo è chiaro e sotto gli occhi di tutti, e cioè il cambio paradigmatico determinato da due elementi importanti e interconnessi tra loro: la globalizzazione e l’innovazione tecnologica, che trova nell’intelligenza artificiale una delle sue espressioni più importanti.

Questa evoluzione non è però scevra di rischi. Le tecnologie dell’informazione dell’intelligenza artificiale possono diventare degli strumenti straordinariamente efficienti nel controllare i comportamenti degli individui. Queste tecnologie possono diventare intrusive e condizionare la nostra sfera privata. Ma possono anche diventare uno strumento di repressione e di controllo e limitazione delle libertà democratiche.

La sorveglianza di giornalisti, attivisti, figure dell’opposizione, critici può condurre a detenzioni arbitrarie, a volte a torture e, forse, anche uccisioni extragiudiziali. Basta scorrere la cronaca per trovare nel mondo quotidianamente violazioni di questo genere. Ma queste tecnologie, se male utilizzate minano anche le nostre libertà individuali. Poche settimane fa in Italia si è verificato il caso delle intercettazioni a strascico che hanno coinvolto migliaia di ignari cittadini. Tale sorveglianza è possibile solo a causa del poco controllo sulle esportazioni e sui trasferimenti di tecnologia ai governi con politiche ben note di repressione e su un quadro legislativo inadeguato ad assicurare una reale protezione dei cittadini da abusi.

Quale etica per l’intelligenza artificiale

Tra le varie riflessioni che essa ha stimolato e che a nostro avviso dovrebbe stimolare sempre più, vi è quella sull’etica applicata a tale innovazione, e soprattutto sulla gestione di tale tecnologia a livello mondiale. Perché tale affermazione? Semplice, ogni epoca ha cambiato la percezione del mondo e delle sue prospettive e la nostra sta conoscendo in tal senso la nascita di nuove disuguaglianze, che unite a quelle precedenti (mai completamente superate purtroppo) sta innescando nuove riflessioni.

Non è un caso che di recente anche il Consiglio d’Europa per tramite dell’Anti-Discrimination Department si è espresso in tal senso con uno studio diretto ad individuare le nuove forme di discriminazione, potenzialmente create da questi sistemi fatti da algoritmi che riconoscono a volte solo determinate situazioni da non discriminare, ma probabilmente ne potrebbero determinare di nuove.

Lo stesso World Economic Forum si sta occupando di tale problematica, che contiene in se questioni etiche, normative, economiche, sociali e culturali, così come le Nazioni Unite. In Europa da questo punto di vista siamo avanti rispetto ad altre aree del mondo, dove ad esempio si preferisce guardare più all’obiettivo che alla tutela dei diritti della privacy: pensiamo ad esempio alla Cina, dove tale problema è sicuramente meno considerato che da noi o agli stessi Stati Uniti d’America, dove dopo l’11 settembre 2001 molte libertà e tutele sono state sacrificate in nome della sicurezza.

Già in passato il “Grande Orecchio o Grande Fratello” Echelon nato per scopi militari e di difesa dell’Occidente dall’avversario sovietico aveva posto dopo la sua scoperta da parte dell’opinione pubblica mondiale tale problematica. Così come le rivelazioni del collaboratore della NSA americana, l’Agenzia di Intelligence specializzata nelle comunicazioni, che ha rivelato tra l’altro l’esistenza nello Stato dello Utah di un “Data Center” progettato di memorizzare dati nell’ordine degli exabyte, cioè una mole di dati a dir poco impressionante, le cui finalità sono ovviamente coperte da segreto. Sicuramente queste sono informazioni conosciute a causa di rivelazioni, ma probabilmente in questa rincorsa alla gestione dei dati e delle informazioni che costituiscono l’oro nero del nuovo millennio altri paesi si staranno attrezzando se non lo avranno già fatto in tale direzione.

Il rapporto Sherpa

Altro tema degli ultimi giorni in questa direzione è l’utilizzo di applicazioni – come l’ormai celebre Faceapp – per la modifica facciale degli utenti dei social network: anche qui si sono sollevate una serie di polemiche sull’utilizzo di tali dati informativi, nello specifico biometrici, da parte degli sviluppatori e diffusori di tali applicazioni, poiché lo sviluppo di strumenti di riconoscimento facciale è già una realtà consolidata.

E ancora, il rapporto “Sherpa” ha evidenziato pochi giorni addietro che l’IA potrebbe essere intossicata da attacchi hacker per indirizzare ed influenzare gli utenti del web.

Il problema è elefantiaco e di certo non può risolversi con poche semplici righe, ma di certo a nostro avviso, la ricetta di risoluzione di tale problema dalle enormi ricadute è sicuramente da trovare nella giusta misura e taratura tra diritti umani e innovazione, tra privacy e nuove tecnologie, tra democrazia e sicurezza, tra potere informativo e libertà individuali, tra Stato e globalizzazione.

Vi è la necessità di implementare un patto sociale, estenderlo alla nuova realtà, profondamente mutata, aggiornarlo e proiettarlo per la tutela di diritti fondamentali vecchi e nuovi, che necessitano di una protezione e di una tutela che deve passare da accordi globali e non solo nazionali e regionali, poiché i confini di tali questioni rievocano più l’immagine de “L’allegoria delle Repubblica Universale” che i confini di ogni singolo Stato che poco può di fronte a tali questioni, ma che in sinergia con gli altri stati e cono le Organizzazioni Sovranazionali ed internazionali deve affrontare e non più procrastinare.

Le raccomandazioni delle Nazioni unite

Le Nazioni Unite in un recente documento del maggio 2019 hanno individuato alcune raccomandazioni da dare agli Stati e alle imprese per ridurre l’impatto delle nuove tecnologie sul rispetto dei diritti umani. Queste raccomandazioni possono essere così sintetizzate:

  1. si dovrebbe imporre una moratoria immediata sull’esportazione, la vendita, il trasferimento, l’uso o la manutenzione di strumenti di sorveglianza sviluppati privatamente fino all’istituzione di un regime di salvaguardia conforme ai diritti umani.
  2. Gli Stati che acquistano o usano le tecnologie di sorveglianza dovrebbero garantire che le leggi nazionali ne consentano l’uso solo in conformità con le norme sui diritti umani di legalità, necessità e legittimità degli obiettivi e stabilire meccanismi legali di ricorso coerenti con i loro obbligo di fornire alle vittime di abusi connessi alla sorveglianza un rimedio efficace.
  3. Si dovrebbero inoltre istituire meccanismi che garantiscano l’approvazione pubblica o comunitaria, la supervisione e il controllo dell’acquisto delle tecnologie di sorveglianza.
  4. Gli Stati esportatori dovrebbero aderire all’accordo di Wassenaar e attenersi alle sue norme e ai suoi standard nella misura in cui questi sono coerenti con il diritto internazionale dei diritti umani.
  5. Le società di sorveglianza private dovrebbero affermare pubblicamente la loro responsabilità di rispettare la libertà di espressione, la privacy e i relativi diritti umani e integrare i processi di due diligence in materia di diritti umani sin dalle prime fasi di sviluppo del prodotto e durante le loro operazioni.
  6. Le società dovrebbero inoltre istituire solide garanzie per far sì che qualsiasi uso dei loro prodotti o servizi sia conforme alle norme sui diritti umani.
  7. Si dovrebbero, inoltre, istituire meccanismi di ricorso e risarcimento efficaci che consentano alle vittime di violazioni dei diritti umani legate alla sorveglianza di presentare reclami e chiedere gli opportuni risarcimenti.

Anche se questo scenario può apparire molto lontano dalla nostra vita quotidiana le tecnologie intrusive della nostra libertà e della nostra privacy sono sempre più diffuse. Quelle evidenziate dal documento delle Nazioni Unite sono delle raccomandazioni ancora embrionali e molto generiche, ma che servono ad evidenziare il problema e nello stesso tempo indicare delle possibili vie di regolamentazione.

Il controllo assume spesso il volto benevolo della persuasione, spesso occulta, ma non per questo è meno pericoloso e meno efficace. Dare delle regole a questo contesto è una sfida di libertà per garantire che i diritti umani che faticosamente si sono consolidati negli anni siano ancora oggi garantiti, ma soprattutto per rendere più umana e più etica la società dell’Intelligenza Artificiale.