Il 1° dicembre 2023, a pochi giorni dagli incontri decisivi tra le istituzioni UE a proposito del regolamento sull’intelligenza artificiale (noto come “AI Act”), si è tenuto a Torino, presso il Centro Studi San Carlo, il convegno Intelligenza artificiale: una sfida umana tra manipolazione, controllo e regole.
L’incontro, introdotto e moderato dall’avv. Stefano Maria Commodo, ha visto la partecipazione di accademici, professionisti ed esperti in materia di intelligenza artificiale (IA): il prof. Alberto Oddenino, l’avv. Stefano Faraoni, il prof. Alberto Poma, il dott. Agostino Ghiglia e Don Luca Peyron.
Prima degli interventi dei relatori, l’avv. Fabrizio Lala ha illustrato il quadro normativo europeo, costituito da un lato dalla proposta di regolamento sull’intelligenza artificiale della Commissione europea, e, dall’altro, dalle norme vigenti nelle materie che interessano l’IA e il suo sviluppo, a partire dalle norme in materia di privacy, commercio elettronico e responsabilità da prodotti difettosi.
In proposito, è interessante notare come, soltanto una settimana dopo il convegno, le istituzioni europee abbiano annunciato di aver raggiunto un accordo sul contenuto del regolamento AI Act, che dunque nelle prossime settimane verrà formalmente promulgato dall’Unione Europea. (per approfondimenti, vedi il contributo Regolamento sull’intelligenza artificiale: raggiunto l’accordo, si attende il testo definitivo).
Ha aperto il dibattito il professor Alberto Oddenino, docente di Diritto Internazionale presso l’Università degli Studi di Torino, illustrando alcuni tra i profili di maggior criticità nello sviluppo dell’utilizzo dell’IA, con particolare riguardo al tema dell’IA generativa. Il prof. Oddenino ha sottolineato che già oggi, questa si pone come elemento sostitutivo del pensiero umano, con risultati che a prima vista paiono prodigiosi, ma che in realtà si basano su un funzionamento probabilistico poco trasparente. L’IA generativa, infatti, si fonda su correlazioni sintattiche tra i termini che utilizza. Al contrario, il campo semantico sembrerebbe ancora esclusivamente proprio dell’essere umano. Tuttavia, attraverso l’uso del linguaggio, l’IA lo deforma restituendolo in altre forme, creando anche cose che non esistono. Queste sono definite come tendenze allucinatorie dell’IA generativa, che si osservano quando il sistema, interrogato su un determinato argomento, restituisca una risposta apparentemente coerente, ma in realtà non rispondente alla realtà.
Come sottolineato dal prof. Oddenino, il tema evoca gravi rischi di tipo cognitivo – attraverso la progressiva sostituzione del pensiero umano, il quale sempre più poggia sull’IA, con inevitabile impoverimento delle nostre capacità anche logiche ed argomentative – ed epistemologico – osservandosi una forte concentrazione di potere e conseguente appiattimento della conoscenza e standardizzazione del pensiero. Per porre un argine a questa situazione sempre più preoccupante per le future generazioni, occorrerebbe pensare a regole che proteggano i più giovani, per assicurare un pieno sviluppo del loro processo cognitivo.
L’intervento del prof. Alberto Oddenino è disponibile qui:
Il secondo intervento è stato presentato dall’avv. Stefano Faraoni, esperto di diritto delle nuove tecnologie, che ha illustrato l’oggetto del progetto di ricerca che sta conducendo presso l’Università di York, legato al tema della manipolazione algoritmica. L’avv. Faraoni ha evidenziato come nella società contemporanea chiunque risulti esposto a manipolazioni dei propri interessi e delle proprie azioni attraverso algoritmi. Tale forma di manipolazione viene definita in inglese nudge, ovvero spinta gentile. Attraverso questa “spinta gentile”, solitamente impercettibile quando si utilizzino sistemi informatici, gli algoritmi inclusi nel programma possono portare l’individuo a compiere scelte che altrimenti non farebbe, o spingerlo a limitare in maniera inconsapevole i propri interessi.
I sistemi tecnologici esistenti, che utilizziamo nella vita quotidiana, come smartphone, computer, smartwatch, sono già in grado di sfruttare i numerosissimi dati che acquisiscono sui nostri interessi e sulle nostre abitudini, principalmente allo scopo di spingerci ad intrattenerci con questi sistemi più a lungo possibile. Ad esempio, ciò avviene quando utilizziamo i social network, che già includono algoritmi di IA i quali, in base alle abitudini e alle preferenze che manifestiamo online (effettuando determinate ricerche, visitando determinati siti, compiendo acquisti, ecc.…) , sono capaci di orientare i contenuti che visualizziamo, anche influenzando – senza che ce ne accorgiamo – le nostre scelte di navigazione, cosi come, più in generale, le nostre decisioni di carattere economico, fino a spingerci a scelte che autonomamente non avremmo compiuto.
L’intervento dell’avv. Faraoni è disponibile qui:
Ha poi preso la parola il prof. Luca Poma, giornalista, autore e per anni consigliere dell’ex Ministro degli Esteri Giulio Terzi di Sant’Agata, il cui intervento si è concentrato su un aspetto peculiare e di particolare interesse ai fini della discussione sulle prospettive attuali e future dell’uso dei sistemi di IA: l’utilizzo di tali tecnologie nell’esperienza cinese, nell’ambito di un sistema che si può definire di social scoring. Attraverso questo sistema informatizzato, il quale costituisce una forma di monitoraggio dei comportamenti sociali della popolazione cinese, a determinate azioni dei cittadini corrispondono reazioni da parte del sistema, impostato seguendo i criteri definiti a livello governativo.
Ad esempio, a fronte di proteste da parte di determinati soggetti, questi potrebbero dover soggiacere a sanzioni quali il divieto di effettuare viaggi al di fuori dei confini della Cina. L’esposizione di questo tema ha permesso non solo di illustrare l’esperienza in tema di IA di una realtà molto diversa da quella europea, bensì anche di svolgere alcune riflessioni sulle alte potenzialità manipolative dell’IA e delle sue evidenti potenzialità di controllo delle persone e della loro libertà. Di tali aspetti occorre dunque tener conto fin d’ora anche in occidente, per permettere di definire un uso delle tecnologie di IA che sia tale da non costituire un ostacolo al pieno sviluppo dei diritti umani.
L’intervento del prof. Luca Poma è disponibile qui:
Il dott. Agostino Ghiglia, membro del Collegio del Garante per la protezione dei dati personali, ha raccontato in modo coinvolgente l’attività svolta dal Garante nei confronti di varie importanti aziende attive nel campo dell’intelligenza artificiale. Oltre al caso più noto, quello che ha visto il Garante bloccare temporaneamente in Italia l’attività del Chatbot di IA generativa più noto al pubblico, Chat GPT, sino ad ottenere dall’azienda statunitense il rispetto delle norme fondamentali a tutela dei dati personali e della privacy dei cittadini italiani, il dott. Ghiglia ha evocato anche altre recenti esperienze del Garante in materia. Come i casi Replica e TikTok.
Ne è emersa la particolare attenzione del Garante per la tutela dei minori nei confronti dei gravi rischi ai quali vengono esposti quando utilizzino sistemi di IA senza adeguate tutele.
D’altro canto, il discorso del dott. Ghiglia ha permesso di dimostrare che le norme a tutela dei dati personali costituiscono un’utile arma difensiva nei confronti di alcuni tra gli aspetti più pericolosi sistemi di IA – a partire da quelli di tipo generativo.
L’ultimo relatore a prendere la parola è stato Don Luigi Peyron, ideatore dell’Istituto italiano per l’intelligenza artificiale, pensato come un polo di eccellenza nazionale legato a ricerca, sviluppo e disseminazione di saperi nel campo delle applicazioni dell’IA in Italia, con lo scopo di guidare lo sviluppo dell’IA e diventare un punto di riferimento a livello nazionale ed internazionale.
Don Peyron ha ripercorso con passione i passi che hanno portato all’ultimo, recente annuncio da parte del Ministro Urso circa la prossima realizzazione dell’Istituto italiano per l’intelligenza artificiale a Torino. Soprattutto, Don Luca ha evidenziato quelli che dovrebbero, secondo lui, essere i tratti caratteristici dell’Istituto: un punto di riferimento a livello europeo, e perché no anche mondiale, in materia.
Tenuto conto del particolare iter di sviluppo dell’Istituto e in particolare dei suoi settori precipui di attività, automotive e aerospazio, Don Peyron ha evidenziato come questo secondo ambito possa costituire il viatico affinché l’Istituto si occupi soprattutto di aspetti legati al rapporto tra l’IA e l’uomo.