Intelligence

Montagne Russe. Quando tra realtà e fiction non sai cosa scegliere, forse è il caso di iniziare a organizzarsi

Oggi andiamo sull’ottovolante.

E poi proviamo a scendere.

Personalmente, odio gli ottovolanti, così come qualunque “attrazione” che implichi sfidare la paura del vuoto,                                           o comporti repentine accelerazioni, o variazioni brusche dell’inclinazione della superficie su cui mi reggo. Insomma, qualsiasi cosa sia meno stabile di una sedia a dondolo. Il che non mi ha impedito di fare paracadutismo sportivo, ma questa è un’altra storia, e non ci conosciamo abbastanza per raccontarcela.

Sono successe molte cose dall’ultima puntata di questa rubrica, e non proveremo nemmeno a farne un riassunto. Sono tempi interessanti, e lo showdown di venerdì scorso tra Trump, JD Vance, Volodymyr Zelenskyy e una coorte di giornalisti di vario lignaggio sta ancora producendo scosse di assestamento in ciò che rimane dei vecchi consolidati versanti che consentivano a qualcuno di cantare del “lato occidentale delle cose”.

Oggi siamo ancora in attesa che finiscano i tremori, e anche quello, come gli ottovolanti, richiede fare i conti con sensazioni non rassicuranti.

E allora, visto che qui si parla di intelligenza artificiale come pretesto per raccontare altre cose. Iniziamo da un racconto. Questo qui.

Il titolo è “How the AI takeover might happen in two years” – ovvero “come l’intelligenza artificiale potrebbe prendere il sopravvento in due anni”. E’ ben scritto, invidio cordialmente lo stile, ma l’autore è un ragazzo sveglio, e non solo sa tenere la penna meglio di me, ma sa di cosa scrive, visto che lavora – a quanto dice Linkedin – per il Redwood Reseach – un gruppo di ricerca di Berkeley che lavora su progetti sul tema dell’allineamento “etico” dell’intelligenza artificiale, e i cui servizi di consulenza sono destinati a clienti come Google Deep Mind e Anthropic, insomma, gente così.

Non ve lo spoilero il racconto, promesso, ma è una lettura interessante. Fiction distopica? Totalmente. E’ come provare a farsi un’idea di come si evolveranno la politica USA ed il rapporto di forze tra oligarchi tecnologici e istituzioni repubblicane documentandosi su Zero Day, o come capire se siamo soli nell’universo analizzando la sceneggiatura di Men in Black.

Però siamo sull’ottovolante, no? Che è comunque più divertente – se, a differenza di chi vi scrive, sopportate i 4.5g di un qualunque impianto serio – che leggere le 528 pagine di “Superintelligenza” di Nick Bostrom (comunque caldamente consigliate a chi volesse approfondire).

Ma prima di lasciarvi alla lettura del racconto di Joshua Clymer, proviamo a mettere un piede sulla solida terra, e vediamo se restiamo dritti. Non troppo, a dire la verità. Perché la realtà, in tempi interessanti come questi, sa fare di meglio.

E cominciamo dal video che trovate a questo link a un post di Luiza Jarovsky, che, tra le altre cose, produce un’ottima newsletter su questioni legali relative all’utilizzo dell’intelligenza artificiale.

Il video dura solo sei secondi, e mostra alcuni solerti addetti alla sicurezza che riportano a più miti consigli un robot che presenta segni visibili di aggressività verso il pubblico di un evento che potrebbe essere un concerto, apparentemente in Cina.

Non ho fatto particolari ricerche sulla fonte del video, di cui c’è una versione leggermente più lunga su youtube a questo link

Ma non ha molta importanza. Prima di tutto, perché quello che normalmente gira su Youtube (o Instagram o Meta o TikTok) è sempre più frequentemente spazzatura (c’è un nuovo termine – AI Slop – che tra non molto diventerà di uso comune, e ci ritorneremo su). E poi perché, in generale, è abbastanza il caso di diffidare sempre di qualunque video vi faccia vedere un qualsiasi tipo di robot in funzione, per le ragioni che, se volete, trovate molto ben spiegate qui, in questo ottimo articolo della rivista dell’Electronic Engineer Institute “Spectrum”, non fosse altro che per il fatto che non è mai facile vedere quello che c’è fuori dall’inquadratura e se, per esempio, un robot sia davvero autonomo o in qualche modo supervisionato o controllato da un operatore umano.

Ma il punto, per provare finalmente a scendere dall’ottovolante e riprendere contatto con la solida terra su cui proviamo a camminare ogni giorno, non è se il video sia vero o no. Né se, a differenza della prima presentazione del suo nuovo progetto robotico (fatevi due risate qui) oggi Mr. Doge sia in grado di presentare i progetti di Tesla Robot senza ricorrere a un non insuperabile ballerino di nome Dojo e a un ridicolo costume.

Il punto è che – oltre agli immancabili usi securitari e militari di cui abbiamo già parlato – il confine tra realtà, fiction e quella vischiosa melassa che sempre più si frappone tra l’una e l’altra è sempre più labile.

E che AIREC, il robot protagonista di questo progetto di ricerca applicata al “caregiving”, non a caso in Giappone, dove i trend demografici sono drammaticamente simili ai nostri ma la ricerca tecnologica continua a marciare a ben altre velocità, è molto più vicino alla realtà di quanto Luiza Jarowsky abbia usato come esempio per il suo ottimo post sulle implicazioni legali dell’utilizzo di robot artificialmente intelligenti (spoiler: è molto, molto complicato solo immaginare quali possano essere le implicazioni in termini di potenziale responsabilità).

E allora il punto, forse, è che, per quanto possiamo immaginare o sentirci dire che scenari inquietanti – quando non del tutto distopici – siano solo il frutto di teorie cospirative seminate ad arte da quei soliti luddisti ecofondamentalisti che bloccano il traffico, imbrattano quadri e buttano in caciara tutto quanto è ricerca, tecnologia, sviluppo e “crescita” (di chi e per chi?), le cose che ci raccontano persone attendibili e affidabili come i reporter di Reuters ci riportano sempre alla necessità di fare i conti con quello che succede nel mondo reale.

In cui, per dire, succedono cose come queste.

E, a proposito di Elon Musk, parliamo della famosa mail inviata qualche giorno fa a decine di migliaia di dipendenti pubblici di varie amministrazioni statunitensi, con cui si chiedeva di elencare in cinque punti quali risultati si fossero conseguiti nell’ultima settimana di lavoro. In questo tweet, (proprio non ce la facciamo a chiamarlo “post su X”) il Doge in persona annunciava che una mancata risposta sarebbe stata considerata equivalente alla presentazione delle dimissioni.

La storia è nota. Si è scatenato un ambaradan di dichiarazioni, controdichiarazioni, è intervenuto Trump in persona dicendo che era una grande idea, che serviva per scoprire se i destinatari “esistessero davvero”, e via così di fantasia al potere, fino alla apparizione di Musk a una probabilmente non del tutto genuina riunione del consiglio di gabinetto della presidenza Trump, in cui il Doge ha candidamente ammesso (opps…) di aver cancellato, con i tagli a USAID, i finanziamenti al contenimento delle epidemie di Ebola, ma che era stato bravissimo, con il suo team, a rimediare immediatamente all’errore. Del resto, chi non fa non sbaglia.

E, anche qui, il punto non è se la motosega sia proprio quella originale di Milei, o perché Elon si presenti a una riunione di gabinetto vestito come la caricatura di un lenone, ma che, nel mondo reale del General Service Administration’s Technology Transformation Services, diciamo l’equivalente della nostra Agenzia per l’Italia Digitale, un ex ingegnere della Tesla, sodale di Musk, di nome Thomas Shedd, stia lavorando per introdurre in modo estensivo l’utilizzo dell’AI in tutte le attività dell’amministrazione. Per usare le sue parole, “le cose si faranno intense”.

E veniamo a noi, allora. Torniamo alle carte che abbiamo in mano, e a come possiamo giocarcele per il caso che domani ci si debba incrociare con i nostri Trump, i nostri Musk e i nostri Thomas Shedd. Di gente altrettanto “hungry and foolish”, nel privato, ne circola parecchia; nel pubblico, grazie a età media che potrei abbassare e a budget all’osso, non ancora altrettanta, ma tempus fugit.

Nel nostro triste mondo reale, lontani come siamo dalle mirabolanti ricerche dei caregiver robotizzati nipponici e dalle motoseghe rotanti del Doge, potremmo pensare di trovarci ancora a ere geologiche di distanza da momenti di tale caos creativo. Ma siamo abituati a vedere come le onde lunghe, prima o poi, siano destinate a varcare l’Atlantico e raggiungere le nostre coste, e dobbiamo mettere nel conto che, prima o poi, qualche Thomas Shedd di casa nostra avrà carta bianca.

E allora torniamo a qualche considerazione legale, prima di chiudere.

In Europa abbiamo l’AI Act, che, per quanto sia stato annacquato e sia pieno di buchi, è pur sempre un regolamento europeo già operativo e che si applica anche alle pubbliche amministrazioni. E l’AI Act ha un articolo fantastico, che è l’Art. 86, scampato per miracolo alle ben più efficaci motoseghe dei lobbisti (forse troppo concentrati su come salvare gli investimenti francesi sui grandi modelli “general purpose” per accorgersi di questa norma salvavita) che stabilisce, grosso modo, che “qualsiasi persona interessata soggetta a una decisione adottata dall’utilizzatore sulla base dei risultati di un sistema di IA ad alto rischio (…) e che produca effetti giuridici o incida in modo analogo in modo significativo su tale persona in un modo che ritiene abbia un impatto negativo sulla sua salute,  sicurezza o i diritti fondamentali, ha il diritto di ottenere dall’utilizzatore spiegazioni chiare e significative del ruolo del sistema di IA nella procedura decisionale e dei principali elementi della decisione adottata.

Che una spiegazione “chiara e significativa” si possa sempre ottenere da sistemi che possono essere delle vere e proprie “scatole nere” – come scrive Luiza Jarowski, è tutto da dimostrare. Il che è un ottimo, davvero ottimo motivo per iniziare a ragionare su come ci si possa attrezzare collettivamente per usare questo articolo come un grimaldello con cui lottare per i nostri diritti. Ce ne sarà bisogno, motoseghe o no.

Alla prossima



Ecco un elenco link di utili per verifiche e approfondimenti 

Racconto di Joshua Clymer

Sito della Redwood Research

Video Robot “aggressivo”

Newsletter di Luiza Jarowsky 

Video Robot “aggressivo” n.2

Articolo di IEEE Spectrum

Video presentazione Tesla Robot

Articolo e video Reuter progetto AIREC

Video di Elon Musk alla CPAC

Tweet con annuncio lettera ai dipendenti pubblici USA

Intervento di Musk a riunione gabinetto Trump

Inchiesta di 404 Media su programmi AI nell’amministrazione USA

Articolo 86 AI Act


Iscriviti per ricevere gli ultimi articoli pubblicati su Fotosintesi!

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.

Condividi