Rassegna stampa

POLITICO Chiunque può controllare l’intelligenza artificiale? E’ guerra globale per gestire la tecnologia più pericolosa del mondo

In un piovoso pomeriggio di novembre, la vicepresidente degli Stati Uniti Kamala Harris e Nick Clegg di Meta sono entrati faticosamente in una grande tenda nel parco di una casa di campagna inglese del XIX secolo a nord di Londra, hanno preso posto a un tavolo circolare e, tra le altre cose, si sono messi a cercare la via per salvare l’umanità.

Nel clima cupo di Bletchley Park, che era stato utilizzato come quartier generale degli Alleati per la decifrazione dei codici della Seconda Guerra Mondiale, Clegg e Harris si unirono a un incontro d’élite di leader globali, accademici e dirigenti tecnologici per affrontare quella che i pessimisti temono sia una nuova devastante minaccia per il mondo: intelligenza artificiale in fuga.

I politici e i dirigenti tecnologici hanno concordato una dichiarazione congiunta di buone intenzioni dopo due giorni di colloqui, ma nessuna risposta univoca su cosa si dovrebbe fare. Invece, hanno avanzato proposte rivali su come gestire una tecnologia che dominerà gran parte del prossimo decennio – e probabilmente sconvolgerà tutto, dagli affari e l’assistenza sanitaria alla democrazia stessa.

Clegg, ex vice primo ministro britannico, sosteneva che il controllo dell’intelligenza artificiale era come costruire un aereo già in volo: un lavoro intrinsecamente rischioso e difficile. Harris ha esaltato gli sforzi di Washington per affrontare i pericoli dell’intelligenza artificiale attraverso accordi commerciali volontari come gold standard mondiale. Ursula von der Leyen, presidente della Commissione europea, presente anche lei, ha esortato gli altri a seguire le nuove regole giuridicamente vincolanti di Bruxelles per dominare la tecnologia.

Il dibattito ha rappresentato un’istantanea di una verità più grande. Nell’ultimo anno, in tutto il mondo ha infuriato una battaglia politica, per lo più nell’ombra, su come – e se – controllare l’intelligenza artificiale. Questo nuovo Grande Gioco digitale è ben lungi dall’essere concluso. Chiunque vinca consoliderà il proprio dominio sulle regole occidentali per una tecnologia che definirà l’era. Una volta stabilite queste regole, sarà quasi impossibile riscriverle.

Per coloro che hanno assistito in prima persona alla conversazione, le contrattazioni sotto la pioggia britannica erano simili alle potenze europee del XIX secolo che si spartivano il mondo.

“Sembrava una realtà alternativa”, ha detto Amba Kak, capo dell’AI Now Institute, un’organizzazione no-profit, che ha partecipato alle discussioni. Al termine dell’incontro, 29 paesi, tra cui Cina, membri dell’Unione Europea e Stati Uniti, hanno firmato un accordo volontario per ridurre i rischi che hanno scalato l’agenda politica grazie all’arrivo del ChatGPT di OpenAI.

Nell’anno a venire, la battaglia spietata per il controllo della tecnologia creerà vincitori e vinti. Entro la fine del 2024, i politici si aspettano che molti nuovi standard di intelligenza artificiale siano stati finalizzati.

Per questo articolo, POLITICO ha parlato con più di tre dozzine di politici, policymaker, dirigenti tecnologici e altri, a molti dei quali è stato concesso l’anonimato per discutere questioni delicate, per comprendere le dinamiche in gioco mentre il mondo è alle prese con questa nuova tecnologia dirompente.

La domanda che devono affrontare è se gli Stati Uniti, l’UE o il Regno Unito – o chiunque altro – saranno in grado di ideare un piano condiviso da tutte le democrazie occidentali. Se le economie industrializzate liberali non riuscissero a raggiungere un regime comune tra loro, la Cina potrebbe intervenire per stabilire le regole globali per una tecnologia che – in uno scenario apocalittico – alcuni temono abbia il potenziale di spazzare via l’umanità dalla faccia della Terra.

Mentre Bruxelles e Washington presentano i loro piani contrastanti per la regolamentazione dell’intelligenza artificiale, le possibilità di un accordo sembrano tutt’altro che promettenti.

Giostre in Giappone
Un mese prima della conferenza, sotto la pioggia inglese, i politici stavano cercando freneticamente di fare progressi dall’altra parte del mondo. Era ottobre e Věra Jourová scese esausta dal suo volo di 16 ore da Bruxelles al Giappone. La politica ceca aveva assunto solo da poche settimane il suo nuovo ruolo di principale inviato tecnologico dell’UE, e il suo primo incarico internazionale non sarebbe stato facile.

La missione di Jourová era quella di vendere il regolamento europeo sull’intelligenza artificiale in un incontro del G7 in cui i leader occidentali si erano riuniti per cercare di progettare nuovi standard globali per la forma più avanzata di questa tecnologia, nota come “IA generativa”, il potente sviluppo dietro ChatGPT e gli strumenti rivali.

L’approccio di Bruxelles è sancito dall’Artificial Intelligence Act dell’UE, il primo tentativo al mondo di vincolare la legislazione sulla questione. A differenza della posizione favorita dagli Stati Uniti, la visione dell’UE prevede il divieto delle forme più invasive della tecnologia e regole rigide che impongono ad aziende come Google e Microsoft di essere più aperte su come progettano prodotti basati sull’intelligenza artificiale.

“L’intelligenza artificiale generativa ha invaso le nostre vite così rapidamente e abbiamo bisogno di qualcosa di veloce”, ha detto Jourová a POLITICO dopo aver preso il treno ad alta velocità di due ore da Tokyo a Kyoto per il vertice.

All’incontro di tre giorni in Giappone, Nathaniel Fick ha avuto un campo rivale.

In qualità di principale diplomatico digitale di Joe Biden, Fick, ex dirigente tecnologico, non ha proposto divieti o requisiti rigorosi. Invece, ha spinto per un regime più leggero basato principalmente sugli impegni volontari dell’industria e sulle leggi nazionali esistenti.

“Le persone possono aspettarsi che gli Stati Uniti integrino le questioni politiche sull’intelligenza artificiale in tutto ciò che facciamo”, ha detto Fick a POLITICO dopo la conclusione del vertice di Kyoto. “I quadri, i codici, i principi che svilupperemo diventeranno la base per l’azione”.

Negli incontri con i politici del G7, i dirigenti delle aziende tecnologiche e altre figure influenti, Jourová e Fick hanno fatto valere le loro ragioni.

Per la Jourová dell’UE la situazione era semplice. Bruxelles si era già affermata come la polizia digitale dell’Occidente, con una raffica di normative su tutto, dalla protezione della privacy dei consumatori al controllo dei social media.

Il programma del summit era fitto, con pochi tempi morti a parte qualche pausa sigaretta e pranzi frettolosi nella mensa. Jourová ha sostenuto che solo l’Europa può garantire il rigore necessario. L’UE, ha affermato, potrebbe colpire le aziende con multe colossali e vietare le forme più invasive di intelligenza artificiale, come il social scoring, che sono algoritmi complessi che tracciano i movimenti delle persone, tristemente utilizzati in Cina.

“È venuta con un piano, ed era convincerci che le regole dell’Europa erano l’unico gioco possibile”, ha detto una delle persone che hanno incontrato Jourová. Un altro funzionario di un paese del G7 ha affermato che il capo digitale europeo ha respinto la proposta alternativa di Washington per la mancanza di una legislazione vincolante.

La controffensiva di Fick si basava sulla posizione indiscussa dell’America come potenza mondiale nello sviluppo dell’intelligenza artificiale.

Uno stallo politico a Capitol Hill significa che probabilmente non arriverà presto una legislazione completa da parte di Washington. Ma la Casa Bianca ha già fatto una raffica di annunci. Lo scorso luglio, l’amministrazione Biden ha ottenuto impegni volontari da parte dei principali giganti della tecnologia come Amazon per rendere l’intelligenza artificiale più sicura. Quindi Biden ha emesso un ordine esecutivo, annunciato il 30 ottobre, che ha conferito potere alle agenzie federali di agire.

Il discorso di Fick includeva la critica alla legislazione di Bruxelles per aver imposto troppi oneri normativi alle imprese, rispetto alla volontà di Washington di consentire alle aziende di innovare, secondo due persone che hanno incontrato Fick in Giappone.

“Il messaggio era chiaro”, ha detto un altro diplomatico occidentale presente al vertice del G7 di Kyoto. “Washington non avrebbe lasciato che Bruxelles facesse ciò che voleva”.

Cucina raffinata prima dell’apocalisse
In Europa, gli sforzi per raggiungere un consenso continuavano, in un contesto improbabile.

Una sontuosa cena di sei portate al Palazzo dell’Eliseo, la residenza ufficiale del presidente francese del XVIII secolo a Parigi, non è esattamente sinonimo di alta tecnologia.

Ma durante un pasto di cinque ore a base di cucina gourmet e buon vino a novembre, Emmanuel Macron ha tenuto corte con 40 esperti del settore, tra cui il presidente di OpenAI Greg Brockman e il capo guru dell’intelligenza artificiale di Meta, Yann LeCun.

La conversazione a cena si è rapidamente spostata sulla regolamentazione.

Macron è un agente di potere globale. La Francia ha una grande industria nazionale dell’intelligenza artificiale e il presidente è personalmente ansioso di guidare gli sforzi internazionali per stabilire regole globali per questa tecnologia. A differenza degli stereotipi dei politici francesi amanti della regolamentazione, Macron rimane diffidente nei confronti dell’AI Act di Bruxelles, temendo che possa ostacolare aziende come Mistral, una startup di intelligenza artificiale co-fondata da Cedric O, ex ministro francese del digitale.

Mentre Macron ascoltava attentamente, i suoi ospiti a cena esponevano le loro proposte rivali. La discussione ha messo in luce un altro aspetto chiave del dibattito globale sull’IA: lo scontro tra coloro che credono che i rischi più gravi siano ancora lontani molti anni e coloro che pensano che siano già arrivati. Questa è la battaglia al centro dell’intero dibattito globale. Ciò contrappone coloro che adottano un approccio più ottimista al potenziale dell’intelligenza artificiale e vogliono consentire quanta più sperimentazione possibile, contro altri che temono che sia già troppo tardi per proteggere l’umanità da gravi danni.

Brockman di OpenAI, uno di quelli che sono rilassati riguardo ai rischi immediati e pensano che l’attenzione dovrebbe concentrarsi sull’affrontare le minacce a lungo termine, ha detto al presidente francese che l’intelligenza artificiale è in gran parte una forza positiva, secondo tre persone che hanno partecipato alla cena. Qualsiasi regolamentazione, in particolare quelle che potrebbero ostacolare la crescita vertiginosa dell’azienda, dovrebbe concentrarsi sulle minacce a lungo termine, come l’intelligenza artificiale che alla fine prevale sul controllo umano, ha aggiunto.

Altri, come Meredith Whittaker, una tecnologa americana presente alla cena di Parigi di novembre, hanno sostenuto che i danni nel mondo reale dell’intelligenza artificiale esistente – inclusi set di dati difettosi che consolidano pregiudizi razziali e di genere – richiedono che i politici agiscano ora.

“Macron ha capito tutto”, ha detto uno dei partecipanti a cui, come gli altri presenti, è stato concesso l’anonimato per discutere dell’incontro privato. “Voleva che la gente sapesse che dietro una maggiore regolamentazione c’è la Francia, ma anche che la Francia è anche aperta agli affari”.

Argomentazioni simili – che contrappongono la necessità di regole che si concentrino sui rischi a lungo termine a un’immediata repressione di emergenza – si stanno diffondendo nelle capitali occidentali.

Deepfake spaventosi
Mentre i leader nazionali cercavano di affrontare il problema, i dirigenti tecnologici attraversavano il pianeta esortando i politici a non regolamentare eccessivamente.

Eric Schmidt, ex amministratore delegato di Google, e il fondatore di LinkedIn Reid Hoffman hanno volato tra Washington, Londra e Parigi per offrire il proprio punto di vista su come gestire l’intelligenza artificiale, secondo cinque persone che hanno familiarità con le discussioni. Una repressione troppo zelante, sostenevano i titani della tecnologia, darebbe alla Cina autoritaria un vantaggio decisivo nel campo dell’intelligenza artificiale. Molti come Schmidt e Hoffman hanno investito molto nelle startup basate sull’intelligenza artificiale.

Per rafforzare le loro argomentazioni, i capi tecnologici che vogliono una regolamentazione più leggera sono diventati personali. I lobbisti dell’intelligenza artificiale hanno mostrato ad almeno due leader occidentali video deepfake realistici – dei leader stessi. Queste contraffazioni generate dall’intelligenza artificiale sono ancora all’avanguardia della tecnologia e sono spesso goffe e facili da individuare. Ma i lobbisti hanno utilizzato i deepfake per mostrare ai leader come la tecnologia avesse il potenziale per evolversi e comportare seri rischi in futuro, secondo tre persone informate di quegli incontri.

Gli oppositori sostengono che tali tattiche consentono ad aziende come OpenAI e Alphabet di sottovalutare il modo in cui la tecnologia sta danneggiando le persone in questo momento, ad esempio rifiutando le richieste di benefici governativi da parte di minoranze e persone svantaggiate nella società.

“La maggior parte degli americani non si rende conto che l’intelligenza artificiale è già disponibile”, ha affermato Cory Booker, senatore democratico degli Stati Uniti. “Voglio assicurarmi che le nostre attuali leggi contro la discriminazione… le nostre attuali leggi che affermano le protezioni, vengano effettivamente applicate”.

Verso il 2024, coloro che vogliono un tocco più leggero sembrano vincere, nonostante le nuove norme vincolanti dell’UE sull’intelligenza artificiale.

Dopo che Bruxelles ha raggiunto un accordo politico a dicembre sulla legge sull’intelligenza artificiale, Macron – fresco della sua cena personale sull’intelligenza artificiale – si è schierato con il cancelliere tedesco Olaf Scholz e il primo ministro italiano Giorgia Meloni per sollecitare meno controlli sulle ultime forme di tecnologia. Il presidente francese temeva che tale regolamentazione avrebbe ostacolato i campioni locali, tra cui Mistral, la società francese di intelligenza artificiale sostenuta, in parte, da Schmidt, l’ex capo di Google.

La Francia è rimasta un ostacolo fino a quando, all’inizio di febbraio, ha finalmente ceduto alle pressioni politiche per sostenere le regole, seppur con importanti riserve. “Regoleremo le cose che non produrremo o inventeremo più”, ha detto Macron davanti a un pubblico a Tolosa dopo aver ottenuto alcune eccezioni dell’ultimo minuto per le aziende europee. “Questa non è mai una buona idea.”

Armi biologiche e Big Tech
Tristan Harris pensava di aver sferrato un pugno da KO.

In un’udienza privata tra legislatori statunitensi ed esperti di tecnologia a settembre, Harris, co-fondatore del Center for Humane Technology, un’organizzazione no-profit, ha descritto come i suoi ingegneri avevano costretto l’ultimo prodotto di intelligenza artificiale di Meta a commettere un atto terrificante: la costruzione di un’arma biologica .

Ciò ha dimostrato che l’approccio di Meta all’intelligenza artificiale era troppo lassista e potenzialmente pericoloso, hanno sostenuto Harris, secondo due funzionari presenti all’incontro.

Il colosso tecnologico di Mark Zuckerberg ha favorito la cosiddetta tecnologia open source – l’intelligenza artificiale facilmente accessibile a tutti – con poche garanzie contro gli abusi. Tale apertura, ha aggiunto Harris, porterebbe a danni nel mondo reale, inclusa la diffusione di armi di distruzione di massa generate dall’intelligenza artificiale.

Secondo coloro che sono favorevoli a concedere in licenza l’IA avanzata a poche aziende selezionate, i rischi immediati sono troppo gravi per essere diffusi nel resto del mondo. Secondo sei politici coinvolti in quegli incontri, una presentazione PowerPoint che avvertiva che i modelli di intelligenza artificiale open source avrebbero scatenato armi biologiche incontrollabili accessibili ai terroristi è stata presentata in privato a funzionari governativi a Londra, Parigi e Washington. POLITICO non è riuscito a determinare quale organizzazione si nascondesse dietro queste terribili previsioni.

Microsoft e OpenAI sono tra le aziende che preferiscono limitare la tecnologia a un numero limitato di aziende in modo che le autorità di regolamentazione possano costruire legami con gli innovatori dell’IA.

“Un approccio basato sulle licenze è la strada giusta da seguire”, ha detto a POLITICO Natasha Crampton, responsabile AI di Microsoft. “Consente una stretta interazione tra lo sviluppatore della tecnologia e l’ente regolatore per valutare realmente i rischi”.

I critici del dominio della Silicon Valley sostengono che le Big Tech abbiano tutto l’interesse a escludere la concorrenza. Secondo il sostenitore dell’open source Mark Surman, direttore esecutivo della Mozilla Foundation, le più grandi aziende tecnologiche del mondo vogliono catturare per sé il nascente settore dell’intelligenza artificiale e tagliare fuori i rivali emergenti.

Durante l’autunno, Surman ha visitato le capitali occidentali per esortare gli alti funzionari di Stati Uniti, Unione Europea e Regno Unito a non limitare chi potrebbe sviluppare modelli di intelligenza artificiale di prossima generazione. A differenza di altri giganti della Silicon Valley, Meta di Zuckerberg si è schierato con persone come Surman che vogliono mantenere la tecnologia aperta a tutti, un punto che ha rafforzato con lo scontro con Harris sulle armi biologiche a settembre.

L’approccio aperto sta conquistando amici nelle zone potenti di Washington, anche se i funzionari statunitensi rimangono divisi. A Bruxelles, i politici hanno concordato di liberare quasi tutta l’intelligenza artificiale open source dalla supervisione più severa, a condizione che la tecnologia non venga utilizzata in pratiche illegali, come il riconoscimento facciale su larga scala. Nel Regno Unito, tuttavia, i funzionari tendono a limitare l’intelligenza artificiale più avanzata a una manciata di paesi.

“Se lasciamo l’intelligenza artificiale nelle mani di pochi, non ci saranno abbastanza occhi là fuori per scrutare cosa ne fanno”, ha detto Surman.

Il futuro è qui
Se il 2023 è stato l’anno in cui le lobby dell’intelligenza artificiale hanno fatto irruzione nel mainstream politico, il 2024 deciderà chi vincerà.

Le date delle decisioni chiave si stanno avvicinando rapidamente. Entro l’estate entreranno in vigore alcune parti dell’AI Act europeo. L’ordine esecutivo rivale della Casa Bianca sull’intelligenza artificiale sta già cambiando il modo in cui le agenzie federali gestiscono la tecnologia. Entro la fine dell’anno sono previste ulteriori riforme a Washington.

Altri paesi come il Regno Unito, il Giappone e il Canada – così come la Cina – stanno elaborando i propri piani, che includono una maggiore supervisione dell’intelligenza artificiale più avanzata e sforzi per convincere altri paesi ad adottare le loro regole.

Ciò che è chiaro, secondo le decine di esperti di intelligenza artificiale che hanno parlato con POLITICO, è che nel 2024 è improbabile che il desiderio di azione politica del pubblico scompaia. L’impatto dell’intelligenza artificiale, soprattutto in un anno di elezioni di massa dagli Stati Uniti e dall’UE alle Filippine all’India, è tutt’altro che certo.

“La questione della perdita di controllo dell’intelligenza artificiale viene improvvisamente presa sul serio”, ha affermato Max Tegmark, presidente del Future of Life Institute, un’organizzazione no-profit che sostiene maggiori controlli sull’intelligenza artificiale. “Le persone si stanno rendendo conto che questa non è più una cosa a lungo termine. Sta succedendo.”

Icona di Verificata con community

Mark Scott,
Gian Volpicelli,
Mohar Chatterjee,
Vincent Manancourt,
Clothilde Goujard
and Brendan Bordelon

Photo-illustrations by Raphaël Vicenzi for POLITICO

Questo giornale vive di donazioni. Ecco come fare per offrire nuova linfa all’informazione indipendente

Puoi effettuare una donazione una tantum, mensile o annuale, utilizzando PayPal.

Condividi