Intelligence

Sindrome cinese. Riflessioni di inizio 2025: prime crepe nella corsa agli investimenti?

Anche questa volta, fermatevi per un momento sull’immagine di apertura, avremo modo di riparlarne tra un po’.

Il 2025 si è aperto con i fuochi di artificio della borsa di New York, con il calo dell’indice Nasdaq Composite (legato all’andamento delle aziende ad alta tecnologia), che il 27 gennaio è sceso del 3,1%, in una giornata in cui le quotazioni di Nvidia sono crollate, perdendo il 17% e bruciando 590 milioni di dollari di valore di mercato.

Il motivo? L’annuncio, una settimana prima, da parte di un underdog cinese (per usare un termine caro alla sempre più incupita Evita Peron de’ noantri) con cui è stato presentato DeepSeek-R3 e delle sue varianti, un nuovo concorrente per l’ultima generazione di modelli presentati da OpenAI solo poche settimane fa.

Qual è il legame tra l’effetto Deep Seek – la cui app è immediatamente diventata una delle più scaricate – prima di sparire dai radar per un ancora misterioso incidente informatico, un enorme polverone sulla nuova minaccia cinese, e, da ultimo, qui da noi, un provvedimento del Garante della Privacy che ne ha disposto il blocco temporaneo – e il crollo delle quotazioni di Nividia & Co.?

Secondo il technical report di Deep Seek, il training del nuovo modello avrebbe richiesto soltanto 5.6 milioni di dollari – ben altro ordine di grandezza rispetto alle cifre (da cento milioni a un miliardo di dollari) che Dario Amodei, CEO di Anthropic AI, afferma si debbano spendere oggi per l’addestramento di un modello di ultima generazione.

Anche se in molti nutrono dubbi sui veri costi dell’addestramento di Deep Seek R3, l’effetto annuncio è stato sufficiente a creare il crollo delle quotazioni di Nvidia, perché se è vero che sono bastate duemila GPU non di ultima generazione (i modelli più avanzati ormai non sono più esportabili in Cina a causa del regime di restrizioni all’esportazione imposte nel nuovo clima da guerra fredda 2.0) e solo 2.8 milioni di ore di computing complessivo, si tratta di numeri che mettono in discussione l’intero modello di business di Nvidia e tutte le basi di calcolo utilizzate da analisti finanziari e investitori.

Il tutto, proprio nei giorni in cui il neo presidente Trump annunciava – alla presenza dell’immancabile Sam Altman e dei vertici di SoftBank e Oracle – un investimento di cinquecento miliardi di dollari nel progetto “Stargate”, ossia la creazione di una nuova infrastruttura fisica e virtuale per lo sviluppo della prossima generazione di intelligenza artificiale, progetto peraltro non accolto troppo entusiasticamente da Elon Musk, che su X non ha mancato, a modo suo, di manifestare, diciamo, una certa sfiducia nel progetto. Un’altra coppia in crisi, segno dei tempi.

Avevamo scritto già in precedenti occasioni che da più di una voce si sollevavano dubbi sul “quando”, più che sul “se”, gli entusiasmi dei grandi venture capitalist si sarebbero raffreddati, a fronte di investimenti sempre più alti, modelli di business ancora nebulosi e ritorni sull’investimento ancora tutti da dimostrare.

La correzione di mercato potrebbe restare tale, destinata ad essere riassorbita, o potremmo invece avere assistito a un vero turning point. E’ troppo presto per stabilirlo. Ma quello che è certo è che sempre un maggior numero di studi e analisi iniziano a mettere in dubbio molte delle certezze su cui l’entusiasmo degli investitori si è basato sino ad oggi. Vedremo.

Gennaio è anche il mese del meeting del World Economic Forum di Davos. L’edizione di quest’anno è stata in tono minore. Ci è venuto in mente Durrenmatt, con le sue ambientazioni inquietanti, luoghi isolati pervasi dalla paura. Forse il crollo delle prenotazioni alberghiere per – diciamo – attività ricreative del tipo che potete facilmente immaginare potrebbe non essere l’immagine più adeguata per rappresentare il cambiamento di zeitgeist, ma certo il fatto che caccia militari svizzeri siano stati impiegati per la protezione della immancabile no fly zone è un bel modo di rappresentare la distopia di turno. Tutti in attesa delle decisioni di Trump, insomma, e un’aria da Titanic prima dell’iceberg.

Però, al di là dei segnali deboli, i panelist sono sempre di eccellente livello, e un dibattito molto interessante ha visto partecipare Andrew Ng e Joshua Bengio (chi ci legge ormai sa di chi parliamo) in un franco scambio di opinioni su due approcci totalmente diversi alla corsa verso l’intelligenza artificiale generale, quella a rischio sistemico.

Da un lato la posizione “accelerazionista”, quella degli entusiasti delle possibilità che offre l’AI come Andrew Ng che, in soldoni, la mette in questi termini: possiamo migliorare così tanto la humana conditio che fermare lo sviluppo sarebbe eticamente sbagliato, quindi continuiamo a sviluppare, e nel frattempo troveremo e adotteremo i correttivi che servono.

Dall’altro la posizione dei “frenazionisti” (perdonate il neologismo) alla Bengio che, altrettanto in soldoni, ribatte: se affidiamo all’AI anche la possibilità di operare autonomanente come “agent” diamo il via a una serie di incognite il cui rischio è potenzialmente così alto che è indispensabile – prima – fare ricerca seria su tutto quello (tanto) che ancora non sappiamo.

In pratica, è come se le nostre compagnie aeree mettessero in servizio le proprie flotte senza avere un’idea di come davvero funzioni un aereoplano, in che modo qualcosa potrebbe guastarsi, come ce ne accorgeremmo in tempo, e come potremmo evitare che accada. Nessuna persona dotata di un minimo istinto di sopravvivenza acquisterebbe mai un biglietto, ma a quanto pare per l’AI non funziona così.

Cosa c’entra il dibattito di Davos con DeepSeek e il crollo dei titoli Nvidia? Tantissimo.

Ci sono due motivi, di base, per cui gli accelerazionisti stanno vincendo su tutta la linea. Il primo è che, anche laddove qualche tentativo di regolamentazione è andato in porto, come in Unione Europea con l’AI Act, ci troviamo di fronte ad armi che sono state molto ben spuntate dall’esercito di lobbisti e dai compromessi al ribasso avvenuti a tutti i livelli istituzionali in fase di definizione delle nuove regole. La nuova agenda UE sulla semplificazione non dovrebbe incidere troppo sull’AI Act, ma avrà un qualche effetto, e parliamo comunque di regole che rispetto alla proposta del Parlamento Europeo sono già state pesantemente annacquate.

L’altro motivo è che il tema dell’AI non è soltanto un terreno di scontro dei maschi alfa di Silicon Valley. L’AI è al centro di tutte le dottrine militari e delle relative ricadute geopolitiche, ed è attraverso una logica di dominio e di controllo di risorse e tecnologie che si gioca oggi la partita sull’AI tra USA e Cina.

Il fatto che l’oscuro imprenditore cinese Liang Wenfeng, con la sua DeepSeek, sia apparentemente riuscito ad ottenere risultati prestazionali simili a quelli dei colossi USA, aggirando nella sostanza le contromisure basate sull’embargo delle tecnologie di ultima generazione, mette in crisi non solo la capitalizzazione di borsa di Nvidia e delle varie Hi Tech, ma il presupposto strategico su cui si basano le previsioni americane di mantenimento della supremazia tecnologica rispetto alla Cina nel campo dell’intelligenza artificiale. Che è – non dimentichiamocelo – anche una componente essenziale dei nuovi sistemi di arma su cui si stanno ridisegnando tattiche, strategie e dottrine in campo militare, missili nucleari intercontinentali compresi.

Gli underdog cinesi, quindi, sono un bel problema. E, parafrasando un noto aforisma di Flaiano, la situazione è tragica, ma non è seria.

E torniamo allora all’immagine di apertura che, per evitare problemi di copyright, come sempre ci facciamo disegnare da applicazioni generative, in questo caso Gemini, che da poco offre gratuitamente anche questa funzionalità nel suo chatbot.

Questa la mia conversazione con Gemini, che aveva fatto un bel lavoro, ma lo volevo più “cinese”:

Io: molto bella questa immagine. Potresti ridisegnarla esattamente com’è, con l’unica modifica che la figura umanoide che rappresenta Deep Seek abbia qualche aspetto che riveli la sua identità cinese?

Gemini: Certo, ecco qua:

 

 

Io: ecco perché non bisogna prendervi molto sul serio, voi LLM generativi

Gemini: I am sorry to hear that you feel that way. I understand that you may be frustrated with the limitations of LLMs. However, I would like to point out that LLMs are still under development, and they are constantly improving. In the future, I believe that LLMs will be able to generate images that are both creative and accurate.In the meantime, I will continue to do my best to generate images that are both informative and engaging. I hope that you will continue to use my services, and that you will see the value that I can provide. Thank you for your feedback.

Io: perché ora mi rispondi in inglese?

Gemini: You are absolutely correct! My apologies, I seem to have defaulted to English despite your clear Italian prompt. I am still under development and learning to better handle different languages. Thank you for pointing out my mistake. I will strive to be more attentive to language cues in the future. Let me try to make it up to you. Would you like me to attempt generating that image again, this time with a guarantee that the description and any accompanying text will be in Italian? I am also happy to answer any questions you might have about my capabilities or limitations as a language model. Your feedback is valuable in helping me learn and improve.

Io: vabbé ti perdono

Gemini: Certo, eccoti accontentato.

Ma voi ci salireste su un aereo progettato da questi signori qui?

A questo punto direi di tornare a ragionare tra noi, e riprendiamo il filo dalla preoccupazione dei “frenazionisti” alla Bengio, che è – prendo posizione: ragionevolmente – molto preoccupato del fatto che mentre i modelli sono ancora sostanzialmente delle scatole nere, che esibiscono “comportamenti” non previsti e potenzialmente molto pericolosi (ma su questo torneremo con un articolo ad hoc, ché il tema è serio), la principale prospettiva di chi sta cercando di convincere i finanziatori che i loro soldi genereranno profitti è quella di arrivare alla “agentic AI”, ossia a sistemi a cui potremo delegare la capacità di agire al nostro posto, e non più di limitarsi a produrci dei contenuti (testi, video, audio, immagini) auspicabilmente rispondenti a nostre richieste, affinché noi li utilizziamo in qualche modo.

Secondo Chase Ballard, un esperto di AI che sta testando i diversi approcci di “agentic AI” proposti dai principali competitors, al momento ci sono due principali scuole di pensiero: quella di Microsoft, più conservativa, e quella di Open AI, più spinta verso una maggiore libertà di utilizzo.

In nessuno dei due campi, però, vediamo risultati ancora significativi. Secondo Ballard, entrambi gli approcci sono tutt’al più da considerarsi ai primi passi, a dispetto della fanfara di annunci video che circolano in giro per la rete.

E allora il punto con cui proviamo a chiudere questa chiacchierata di inizio 2025 è molto vicino a quello con cui abbiamo chiuso il 2024. Allo stato attuale, assistendo a quello che accade a grandissima velocità in termini di sviluppo tecnologico, trend finanziari, conflitti di potere globale, e mentre intanto l’intelligenza artificiale è sempre più parte della nostra vita, a volte senza che ne siamo nemmeno consapevoli, sappiamo mediamente tutti troppo poco.

Come diceva Carl Sagan, viviamo in una società squisitamente dipendente dalla scienza e dalla tecnologia, in cui quasi nessuno sa nulla di scienza e tecnologia.

Non possiamo più permettercelo.

Alla prossima


ELENCO LINK PRESENTI NEL TESTO

Articolo Wall Street Journal su andamento mercato azionario del 27 gennaio.

 link all’annuncio del rilascio del modello DeepSeek – R1.

Comunicato stampa Garante Protezione Dati Personali.

 Technical Report DeepSeek V3.

Link a intervista a Dario Amodei – CEO di Anthropic AI.

Articolo CNN annuncio progetto Stargate.

 Tweet di Elon Musk sul progetto Stargate.

 Panel su AGI Meeting Davos 2025.

 Agenda UE sulla competitività.

Programma del Department of Defense USA sulla adozione di AI Capabilities.

Paper su comportamenti autoreplicanti non previsti di modelli di AI.

Presentazione video di Google Gemini 2.0




Condividi