Intelligence

Democrazia artificiale e nuovo capitalismo. Quando la politica brancola nell’algoritmo

Pochi giorni fa, un gruppo di dipendenti ed ex dipendenti di Google Deep Mind e di Open AI hanno pubblicato una lettera aperta. La trovate qui.

La lettera, utile sottolinearlo, ha l’endorsement di tre tra i principali protagonisti del campo: Yoshua Bengio, Geoffrey Hinton e Stuart Russel. Per capirci, due dei tre hanno ricevuto il premio Turing, l’equivalente di un Oscar, in questo settore.

Cosa dice, in soldoni, la lettera aperta?

Prima di tutto, che le “AI companies” sono in possesso di importanti informazioni non di pubblico dominio sulle reali capacità dei loro sistemi, sulla affidabilità delle misure di protezione da rischi sistemici, e sui reali livelli di rischio delle varie tipologie di danno che l’AI può generare.

Poi, che i firmatari della lettera aperta (tra cui alcuni mantengono l’anonimato) sono vincolati da accordi di riservatezza che impediscono la divulgazione di tali informazioni al di fuori delle aziende per cui lavorano. 

Inoltre, che le normative in materia di protezione dei whistleblowers non possono essere utilizzate, perché presuppongono che siano avvenuti crimini o violazioni di legge, e poiché, in USA, non ci sono norme che prevedano sanzioni, non può per definizione scattare la protezione a loro riservata.

Ancora, che le aziende hanno tutta la convenienza ad evitare ogni forma di controllo e che i firmatari della lettera non nutrono alcuna fiducia nelle regole intere della corporate governance, visto che, tra l’altro, molti dei rischi di cui sono preoccupati sono oggi privi di qualsiasi forma di regolamentazione.

Infine, che alcuni tra essi hanno ragionevole motivo di temere atti di ritorsione, rispetto ai quali esistono già molti precedenti nell’industria privata.

Cosa chiedono, alla fine? Fondamentalmente che le aziende diventino “buone”. Sui dettagli passiamo, ché oggi non siamo in vena di favole.

Allora, partiamo dalle cose più semplici.

Il problema della tutela dei whistleblowers: il primo nome a venirci in mente è quello di Edward Snowden. Se vi andasse di ripercorrerne la storia, qui trovate il link al primo articolo del Guardian con cui si aprirono le danze, undici anni fa. Come racconta questo articolo di Wired, le rivelazioni di Snowden hanno sollevato un velo, ma la sua e la nostra battaglia contro lo stato di sorveglianza l’abbiamo persa tutti.

Ma è un altro il nome a cui corre la memoria: è quello di Alison McDermot, una stimata consulente nel campo della gestione delle “risorse umane”, incaricata di produrre una relazione sull’ambiente di lavoro del più grande sito di stoccaggio di scorie nucleari del Regno Unito, quello di Sellafield. Bastano i quattro minuti di questo video per capire quanto si possa realmente contare sulle norme a protezione dei whistleblowers quando il sistema giudiziario e la politica si piegano agli interessi delle corporations o della burocrazia.

E andiamo alle cose più complesse.

Il tema dei controlli, prima di tutto. Hanno vinto loro. I vari Altman, Musk, Bezos, Zuckerberg, Pichai, Nadella, prima a colpi di annunci apocalittici, poi con l’efficace lavoro ai fianchi dei legislatori di tutto il mondo occidentale e l’impiego di stormi di lobbisti pluridecorati, sono riusciti, in USA, a convincere il decisore pubblico a non decidere (lasciando largo spazio alla autoregolamentazione), e, in Europa, ad annacquare l’AI Act al punto che è ragionevole prevedere che non avremo veri controlli, ma tonnellate di fuffa aziendale e  adempimenti “paperwork” per la cui gestione si è già scatenato il mercato dei consulenti alla McKinsey’s. Quanto accade in Cina è un’altra storia, ma ne parleremo in separata sede.

E infine, il cuore del problema: le grandi big dell’AI “sanno cose” che non “dicono”. Quando dobbiamo preoccuparci?

Semplicemente, non lo sappiamo. Siamo al centro di una lotta, feroce, tra due grandi narrazioni contrastanti.

La prima è quella che ci racconta che il rischio “esistenziale” per il genere umano è vicino. Uno dei protagonisti di questo filone, ad esempio, è quel Nick Bostrom di cui si ricorda la teoria secondo cui è altamente probabile che viviamo in una simulazione, ma che ai nostri fini è utile citare per il suo libro “Superintelligenza” e per essere uno dei fondatori di quel “Future of Life Institute” che, poco più di un anno fa, lanciò una lettera aperta con cui si chiedeva una moratoria di sei mesi nell’addestramento di quelli che oggi l’AI Act definisce modelli a rischio sistemico. Abbiamo consultato l’elenco dei firmatari in questi giorni. Più di 33mila firme. Alcune illustri, come la superstar della storia del futuro, Yuval Noah Harari. Ma la parte divertente è che abbiamo contato 1285 sedicenti CEO, amministratori delegati, insomma. Vogliamo scommettere su quante delle loro 1285 aziende si siano fermate per sei mesi?

La seconda posizione è quella che ci dice che, almeno con “questa” AI, i rischi esistenziali sono ancora solo fantascienza o speculazioni filosofiche. Anche in questo caso non mancano i guru dell’AI, come Yann LeCun, che, come si può vedere da questa immagine, tratta dal video di una sua recente lezione, non ha troppa fiducia, diciamo, nelle attuali capacità dei sistemi basati sul Machine Learning di avvicinarsi a quanto persino animali non umani sono in grado fare in termini di “senso comune” e capacità di adattarsi a situazioni non previste.

 

Come dicevamo, è un dibattito sul cui esito non ci sbilanciamo, ma che almeno non manca di senso dell’umorismo, come fa notare Gary Marcus nel suo blog.

 

Ma il vero tema, qui, ancora una volta, non è quale delle due scuole di pensiero abbia ragione. Il vero tema è che, pur in questa fase di incertezza e mancanza di trasparenza, regole e controlli, abbiamo già delegato a modelli e sistemi di AI sin troppe decisioni. E i risultati si vedono.

Per vederli, un ottimo punto di osservazione è il sito dell’organizzazione “Responsible AI Collaborative”, che ha organizzato un processo di raccolta delle segnalazioni e dato vita all’AI Incident Database

Provate a guardare solo l’elenco degli incidenti del report mensile di maggio. Troverete 26 nuove segnalazioni, tra cui immancabili deepfake, chatbot che entrano in comunità di supporto on line senza essere stati invitati, discriminazioni di genere nei programmi di prevenzione del suicidio per i reduci di guerra, informazioni non accurate e dannose in ambito sanitario, arresti di persone erroneamente identificate come ladri da sistemi di identificazione biometrica remota, discriminazioni razziali, indicizzazione di libri generati con l’AI da parte di Google Books, violazioni della privacy e quant’altro.

E poiché siamo in giorni di voto, un’ultima considerazione sull’impatto di questa tecnologia sui processi che governano i nostri sistemi più o meno formalmente democratici.

Posto che le minacce non nascono con l’AI (provate a cercare qualche intervista di Umberto Rapetto sulla sicurezza della nostra pubblica amministrazione), e che il vero attacco alla nostra capacità collettiva di vivere e coltivare la democrazia è già stato portato, con successo, dal web dei big data e dei social network, ci sono molte domande aperte. 

E come sempre, uno che fa ottime domande è Bruce Schneier

Nel suo lungo ultimo articolo su AI e democrazia, tratta molti temi, che riprenderemo, prova a ragionare su quale impatto può avere l’AI sulle diverse dimensioni delle istituzioni democratiche, e sui cittadini come soggetti attivi. Ma se volessimo oggi tirarne fuori un solo concetto, non potrebbe che essere questo: “L’intelligenza artificiale è fondamentalmente una tecnologia in grado di ottimizzare il potere. Dobbiamo assicurarci che essa ci aiuti a distribuire il potere, non a concentrarlo ulteriormente. Se i cambiamenti saranno positivi o negativi dipenderà da noi.”

Buon voto, e alla prossima.

 

Fotosintesi è una testata giornalistica finanziata da lettori come te. Ci piacerebbe essere al tuo fianco qualora volessi condividere l’informazione internazionale e le battaglie per i diritti umani.

 

Condividi