Gemini 3: la rivoluzione silenziosa che ha infranto il muro dell’impossibile
di Simona Baseggio, Lorenzo Romano e Gabriele Silva
Fino a pochi mesi fa, nel dibattito sull’intelligenza artificiale si affacciava una convinzione sommessa ma sempre più diffusa: ci stavamo forse avvicinando a un “muro” evolutivo. Un limite naturale — computazionale, architetturale, o forse persino epistemologico — oltre il quale i modelli linguistici di grandi dimensioni (LLM) non sembravano più in grado di migliorare in modo sostanziale. Una sorta di plateau tecnologico, dove ogni millimetro di progresso costava un patrimonio di energia senza restituire vera qualità. Forse il muro non era tecnologico: era psicologico. È tipico dell’uomo credere che il progresso abbia un tetto, almeno finché qualcuno non lo sfonda senza bussare.
Con il lancio di Gemini 3, Google ha frantumato questo presunto muro. Non si è limitata a spostare l’asticella: ha polverizzato il campo da gioco. E lo ha fatto con una compostezza quasi disarmante.
I benchmark ufficiali pubblicati da Google non lasciano margine a interpretazioni: Gemini 1.5, già considerato un traguardo, è stato superato in ogni ambito — dal ragionamento logico alla comprensione multimodale, fino alla sintesi linguistica più raffinata. Ma ciò che davvero colpisce non sono solo i numeri, bensì la qualità dell’esperienza d’uso.
È quell’aspetto che non entra nelle tabelle ma resta nella memoria: la differenza tra un motore potente e un’auto che ti fa venire voglia di guidare.
Come ha osservato Oriol Vinyals — Vice President of Research di Google DeepMind — nel suo intervento pubblico su X, il team ha scoperto che quel muro non esisteva. Era solo un’allucinazione collettiva di chi non aveva i mezzi per andare oltre. O meglio, quel muro non era ancora stato raggiunto: “We did not hit the wall people were talking about,” scrive Vinyals. Il segreto? Un nuovo approccio all’addestramento su larga scala, nuovi dataset, nuove ottimizzazioni architetturali e, soprattutto, una sorprendente indipendenza dall’hardware dominante nel settore.
Per comprendere l’entità del miglioramento, basta guardare alcuni esempi concreti. Gemini 3 riesce, in tempo reale, a leggere un’immagine con il menu di un ristorante scritto a mano, identificare i piatti, descrivere gli ingredienti e suggerire un ordine in base ai tuoi gusti alimentari. Può visionare un video, capirne la trama, individuare incongruenze logiche o i buchi di sceneggiatura, e formulare riassunti puntuali — qualcosa che solo pochi mesi fa richiedeva pipeline complesse e risultati spesso incerti. Persino nei giochi da tavolo, Gemini mostra di saper leggere una scacchiera reale fotografata e proporre la prossima mossa per vincere, tenendo conto delle regole e del contesto.
Non sono “feature”. È una nuova specie di intelligenza.
Ma ciò che segna davvero un punto di svolta epocale non è il software, è l’infrastruttura con cui tutto ciò è stato realizzato.
A differenza della quasi totalità dei modelli concorrenti — basati su GPU Nvidia, diventate il cuore pulsante dell’intero ecosistema IA —, mentre il mondo intero è in fila per comprare le GPU di Nvidia, diventate ormai la valuta di riserva dell’ecosistema AI, Google ha fatto l’impensabile: Gemini 3 è stato addestrato senza usare GPU Nvidia.
Il modello più potente del pianeta gira interamente su TPU (Tensor Processing Units), l’hardware proprietario di Mountain View. Non è solo un’alternativa, ma una soluzione superiore.
Ma cosa sono esattamente GPU e TPU, e perché contano tanto?
Le GPU (Graphics Processing Units) sono nate per gestire la grafica dei videogiochi, ma col tempo si sono rivelate perfette anche per l’intelligenza artificiale, perché riescono a eseguire milioni di operazioni matematiche in parallelo — una capacità fondamentale per addestrare i modelli linguistici. Fino ad oggi, Nvidia è stata la regina incontrastata in questo campo. Ma sono motori da corsa montati su un trattore.
Le TPU (Tensor Processing Units), invece, sono chip progettati da Google, su misura proprio per l’intelligenza artificiale. Sono pensati appositamente per lavorare con i “tensori”, le strutture matematiche su cui si basano le reti neurali. In pratica, se le GPU sono un motore potente adattato per l’IA, le TPU sono motori costruiti apposta per questa corsa, sono il motore nativo di questa rivoluzione.
Il fatto che Google sia riuscita ad allenare il suo modello più avanzato con solo le sue TPU significa che non ha più bisogno dei chip Nvidia, né della loro filiera. Google sta dicendo al mondo: “Non abbiamo bisogno di nessuno”. Una rivoluzione silenziosa ma pesantissima: Google non solo ha l’algoritmo migliore, ma ha anche il controllo completo della macchina su cui corre.
È un messaggio diretto al mercato: non solo abbiamo il miglior modello, ma lo abbiamo costruito con tecnologia nostra, dalla A alla Z.
Per Nvidia, questa è una doccia fredda. Fino ad oggi dominatrice incontrastata nella fornitura di GPU per il training di IA generativa, si trova ora di fronte a un colosso che non solo può farne a meno, ma ottiene risultati migliori con un’infrastruttura proprietaria. È la prima volta che un attore del calibro di Google mostra non solo autonomia, ma leadership tecnologica hardware e software integrata.
Una leadership del genere vale più di un vantaggio competitivo: è una trincea. Chi resta fuori potrà ancora competere sul prodotto, ma difficilmente recupererà sull’infrastruttura.
E ora la domanda che aleggia sull’intero settore è una sola:
Google condividerà questo vantaggio o lo conserverà come leva competitiva?
Aprirà l’accesso alle proprie TPU e modelli Gemini in modo diffuso, come fece a suo tempo con Android nel mondo mobile, o preferirà una strategia più chiusa, volta a consolidare un dominio esclusivo nel cloud e nell’IA? Le implicazioni sono enormi, sia per gli sviluppatori sia per gli equilibri geopolitici dell’innovazione.
Una cosa, però, è certa: il futuro che credevamo lontano è già arrivato.
Non ci ha avvisati, è entrato dalla porta sul retro, ha cambiato le regole del gioco e ora fa girare i motori senza chiedere alle GPU il permesso.


