Intelligence

Rischi accettabili

In una recente intervista con Nicolai Tangen, il chief executive officer della banca che gestisce il fondo sovrano norvegese, Elon Musk ha previsto che, in base all’attuale velocità di sviluppo delle tecnologie hardware e software, entro il 2026 potremmo disporre di una forma di intelligenza artificiale in grado di superare le capacità cognitive del più intelligente tra noi umani.

La quantità di previsioni di questo genere propagatesi negli ultimi due anni nel circo mediatico che si affolla attorno al business dell’intelligenza artificiale ha ormai probabilmente generato un sano effetto tisana e lo scontato ed atteso crollo della curva dell’attenzione collettiva, per cui ci qui, oggi, ci limitiamo ad aggiungere questa intervista all’ormai lunghissimo elenco delle profezie sull’AI che non si autoavverano.

Ma, a proposito di Elon Musk, e per volare – letteralmente – più bassi, senza scomodare Nick Bostrom e il dibattito sulle superintelligenze: voi che leggete, oggi, la comprereste un’auto a guida autonoma, anche nella remotissima ipotesi che non costasse uno sproposito?

Secondo quanto sostiene Gary Marcus, autore dell’eccellente libro “Rebooting AI”, sul suo blog, potrebbe non essere ancora una buona idea. A dispetto delle profezie e delle brochure aziendali, non solo non abbiamo dati scientificamente significativi per definire il rischio (i migliori disponibili sono qui ), ma, in generale, tutti gli operatori che stanno pesantemente investendo sulle auto a guida autonoma (come Waymo, Cruise, TAS, General Motors, Zox ecc.) hanno talmente tanti problemi, a far funzionare i loro progetti e a rientrare dai loro investimenti, che l’intero settore della guida autonoma è destinata ad affrontare lo scoppio della bolla in tempi brevi. E, tornando a voi, accettereste di affidarvi a un sistema di AI che avesse ipoteticamente anche solo lo zero virgola uno per cento di probabilità di errore, per farvi trasportare con pupo, suoceri e cagnolino, da un “sistema a guida autonoma”? Ce lo giochiamo un cucciolotto su mille e il conto del veterinario?

Ma ciò che non accetteremmo mai per il nostro shopping o la nostra gita fuori porta, in altri contesti va benissimo.

E un esempio agghiacciante lo troviamo a Gaza.

Un’inchiesta in due parti del sito investigativo 972.com ha diffuso informazioni sul sistema con cui l’esercito israeliano gestisce l’individuazione e l’eliminazione degli operativi di Hamas e delle altre organizzazioni palestinesi la cui neutralizzazione è l’obiettivo dichiarato del governo israeliano.

Sette diverse fonti, attuali ed ex membri degli apparati di intelligence israeliani, tra cui personale attualmente in forza alle unità impiegate nei bombardamenti di Gaza, hanno fornito un quadro molto chiaro di come l’esercito israeliano individui i suoi cosiddetti “power target” .

Con l’operazione “Iron Swords”, lanciata dopo gli attacchi di Hamas del 7 ottobre, governo e apparati militari israeliani hanno tolto qualsiasi limite all’individuazione di bersagli di natura non militare. E i “power target” sono quindi diventati case private, ospedali, infrastrutture, scuole, ambulanze, veicoli di ONG, qualsiasi cosa. Tutto quanto possa portare pressione politica su Hamas, da parte della popolazione civile palestinese, anche se non c’è nessun collegamento diretto tra il “power target” e il suo utilizzo a scopo militare.

Nel decidere quale bersaglio scegliere da database che comprendono, ormai, qualsiasi entità che si trovi all’interno della striscia di Gaza, uno dei parametri è il numero delle vittime collaterali che possono essere uccise in un attacco. Un numero calcolato in anticipo.

Secondo una delle fonti citate dall’inchiesta, “I numeri sono aumentati da dozzine di morti civili (considerati accettabili) come danni collaterali di un attacco a un alto ufficiale in operazioni precedenti, a centinaia di morti civili”. E qui, anche qui, la tecnologia fa la sua parte.

Ma il numero di vittime civili è il frutto non solo di un cambio di “politiche”, ma dell’utilizzo di una serie di sistemi basati sull’intelligenza artificiale.

Uno di questi è “Hasbora” (The Gospel, il Vangelo), grazie al quale è possibile tenere costantemente aggiornato l’elenco dei possibili bersagli, in quella che una delle fonti dell’inchiesta, un ex officiale dell’intelligence israeliana, ha definito, una “fabbrica di omicidi di massa”.

E, se preferiste non fidarvi delle inchieste giornalistiche, alla pagina istituzionale dell’IDF che presenta il sistema “Vangelo”, esso viene orgogliosamente rappresentato, nel più puro stile “bullshit-job” della comunicazione istituzionale, tra video di edifici che esplodono con dentro donne e bambini massacrati, come un sistema che “consente l’utilizzo di sistemi automatizzati per produrre velocemente elenchi di bersagli, e lavora grazie a materiale di intelligence accurato e di alta qualità in base ai bisogni operativi”.

Quali siano i bisogni operativi lo si capisce facilmente dalle parole del ministro israeliano della difesa Gallant, “stiamo combattendo contro animali umani, e agiamo conseguentemente”. 

E proseguendo nell’analisi della fabbrica di omicidi di massa, il “Vangelo” non è che uno degli strumenti a disposizione. Potremmo parlare del sistema “Lavanda”, utilizzato per contrassegnare i singoli operativi di Hamas, a qualunque livello gerarchico, come potenziali bersagli dei bombardamenti aerei, e che già nelle prime settimane di operazioni ha marcato almeno 37mila palestinesi – e quindi le loro case e le loro famiglie – come obiettivi di attacco aereo.

Certo, c’è la cosiddetta supervisione umana, i principi di ethical AI, innanzitutto, ma secondo le fonti dell’inchiesta un numero così alto di bersagli ha reso i controlli una semplice formalità burocratica, venti secondi per ogni “file” prima dell’autorizzazione a colpire. E con un tasso di errore, secondo le stesse fonti dell’inchiesta, pari a circa il 10 per cento. Il dieci per cento, con fino a cento vittime collaterali considerate accettabili se l’obiettivo è di alto livello, quindici per i comuni “operativi”. Fateli voi un po’ di conti.

E potremmo parlare del sistema “Where is Daddy?”, che viene utilizzato per individuare la presenza dell’obiettivo dell’attacco all’interno della propria casa, che è un “power target”, per definizione. Una delle fonti dell’inchiesta ha dichiarato: “non siamo interessati ad uccidere gli operativi di Hamas solo quando sono in un obiettivo militare o durante un combattimento. Al contrario, come prima opzione vengono bombardati quando sono nella propria casa. E’ molto più facile colpire una casa”. E poiché le bombe intelligenti costano, quelle vanno riservate solo ai vertici di Hamas. Per gli operativi, e le loro famiglie, si usano bombe non ad alta precisione.

Se tutto questo vi fa orrore, e se trovate in qualche modo consolante leggere questo articolo comodamente seduti nella vostra casa, in uno qualunque dei civili paesi di quell’Unione Europea che si fa vanto della sua avanzatissima normativa sull’intelligenza artificiale che mette “l’uomo al centro”, e che regola tutto il regolabile con la più avanzata regolamentazione basata sul rispetto dei diritti umani e dei “valori europei” (qualunque cosa ciò voglia dire), forse sarà utile chiudere ricordando che l’unica norma dell’AI Act su cui nessuna discussione è mai stata aperta nel dibattito politico è la non applicabilità della normativa al settore della difesa.

E l’uomo al centro è anche quello inquadrato del sensore ottico di un drone, al minuto 0.49 di questo video, un attimo prima che arrivi il missile.

 

Condividi