È ormai da anni che si cercano le possibili applicazioni pratiche di algoritmi e sistemi di proto-Intelligenze Artificiali nel mondo della giustizia per le funzioni più disparate, dalla mera ricerca di precedenti in casi analoghi sino alla elaborazione della sentenza o decreto… da un giudice robot!
Nonostante la spinta innovativa sia stata generalmente positiva, uno dei problemi principali di queste tecnologie è che sono spesso affette dai bias di conferma (fenomeno che indirizza le ricerche attraverso premesse di impostazione che in pratica diventano filtri delle piattaforme) e/o dai pregiudizi di coloro che hanno elaborato le tecnologie, con l’effetto negativo, già verificato in alcune esperienze straniere, di operare una elaborazione dei dati che viene “indirizzata” e così pervenire a risultati in qualche maniera voluti.
Nel Regno Unito ad esempio, il software Hart, attualmente in uso presso alcuni uffici giudiziari, ha contribuito ad aiutare e velocizzare il lavoro, ma è stato anche tacciato di trattamento discriminatorio ai danni di alcune categorie che si sono viste senza una corretta motivazione penalizzate nell’assegnazione del c.d. “livello di rischio”.
È evidente che ogni sistema matematico che analizza i dati è agnostico sul valore dei dati sottostanti. Tuttavia, i sistemi decisionali algoritmici non possono che fare propri ed elaborare i dati che sono stati inseriti in maniera distorta, cosicché i sistemi finiscono per “assorbire” gli eventuali pregiudizi di chi ha creato il sistema, che diventano base e premessa nella produzione del risultato.
Un algoritmo può essere utilizzato per prevedere i tassi di recidività tra i criminali, ma se gli input sono prevenuti nei confronti delle persone di specifiche etnie, gli algoritmi sovrastimeranno il rischio di recidività di quelle etnie e sottostimeranno i rischi per le altre. Allo stesso modo, un algoritmo di linguaggio predittivo può anticipare la probabilità che alcune parole vengano usate in tandem, come “Parigi” con “Francia” o come “Seoul” con “Corea del Sud”, ma associare “uomo” con “dottore” e “donna” con “casalinga” significa dare per scontato un pregiudizio che vede gli uomini laureati e le donne casalinghe, così da influire sul risultato della ricerca perché i dati sottostanti inseriti nel sistema riflettono un pregiudizio.
Se a questo si aggiunge una generale tendenza a fidarsi della neutralità e dell’accuratezza dei computer molto più di quella degli esseri umani, ci rendiamo subito conto di come i sistemi decisionali automatizzati alimentati dall’Intelligenza Artificiale possano invece portare a realizzare cittadinanze di seconda classe, ai danni di quella parte di popolazione che avrà più difficoltà nel far valere i propri diritti.
Mentre in merito al rischio degli effetti discriminanti, che abbiamo sopra descritto, sembra infatti che negli ultimi anni ci sia stata una progressiva sensibilizzazione, è proprio la generale ed acritica tendenza di fidarsi più dei sistemi basati sull’Intelligenza Artificiale che sull’azione dell’uomo che porta pericoli meno evidenti ma non meno allarmanti: il fatto stesso di delegare competenze tecniche a meccanismi automatizzati, costituisce infatti un pericolo progressivamente maggiore, poiché una loro sempre più ampia diffusione ed un conseguente spostamento di abilità dalle persone alle macchine, addirittura con loro capacità di correggersi/affinarsi, rischia di creare una prospettiva che va a minare l’esistenza stessa della società.
Sostanzialmente, Il problema dei “pregiudizi” dell’automazione si acuirebbe nell’applicazione di normative/procedimenti di settore specifici e complessi; si pensi all’uso di droni per rilevare difformità edilizie o di telecamere con riconoscimento facciale per il controllo del comportamento sociale.
In tali ambiti, se le società si affideranno sempre più ai sistemi automatizzati ritenendoli meglio attrezzati di quanto non lo sia l’uomo per padroneggiare un’ampia gamma di regole complicate, le impostazioni discriminanti sommate alla capacità di autogestione dei sistemi basati sull’I.A., metteranno davvero a rischio la libertà delle persone, creando un nuovo elemento caratterizzante la differenza sociale e cioè il diverso grado di accesso alla impostazione ed alla direzione di sistemi che saranno sempre più pervasivi nella nostra vita quotidiana, avendo la capacità non solo di controllo, ma anche di indirizzo delle nostre condotte e delle nostre scelte: pensiamo ad un sistema che supporti la propaganda politica, impostato sulla elaborazione di dati (raccolti tramite Google, Twitter, Facebook, Instagram ecc.) da cui trae i profili degli abitanti di un paese, potendone quindi conoscere i valori in cui credono, i loro desideri-paure, il loro credo religioso, ecc..
Il Grande Fratello questa volta è arrivato davvero! Siamo pronti a cedere la gestione delle nostre scelte e delle nostre libertà fondamentali a strumenti di cui avremo sempre meno il controllo?