
Negli ultimi dieci anni il cloud è stato un dogma. Un po’ per necessità, un po’ perché sembrava la strada inevitabile per qualsiasi azienda che volesse innovare. Poi è arrivato il 2026 e ci siamo accorti che “cloud-first” non è più una strategia, ma una scelta da valutare con molta più attenzione.
Il termine che descrive meglio questo cambio di passo è geopatriation: riportare dati e workload da ambienti hyperscale a infrastrutture locali, cloud sovrani o data center on-premises. Un ritorno non nostalgico, ma profondamente razionale.
La spinta arriva da tre fronti: costi, geopolitica e intelligenza artificiale. E non si tratta di piccoli segnali. Oggi l’83% delle aziende sta già pianificando di spostare almeno una parte dei workload fuori dai grandi provider pubblici. Chi lavora nell’IT lo vede tutti i giorni: non è un fenomeno isolato, è una tendenza globale.
Perché parlare di geopatriation e non di semplice “repatriation”
Il cloud repatriation è un concetto tecnico: si guarda ai costi, alle performance, alle inefficienze accumulate nel tempo. La geopatriation va oltre. Qui entra in gioco la giurisdizione, cioè il tema più sensibile del nostro decennio.
Dove risiedono veramente i dati? Quali leggi si applicano? Chi può accedervi, anche senza che il cliente venga avvisato? Domande che fino a pochi anni fa sembravano per paranoici; oggi sono la base di qualsiasi board meeting serio.
Gartner ha iniziato a monitorare il fenomeno già nel 2025, quando le richieste di consulenza su come ridurre la dipendenza dagli hyperscaler sono letteralmente esplose.
La traiettoria è chiara: entro il 2030 tre quarti delle aziende europee avranno riportato in casa almeno una parte significativa dei propri carichi critici.
Il modello del cloud illimitato si è incrinato
Per anni abbiamo dato per scontato che il cloud fosse la scelta più economica, soprattutto grazie alla sua elasticità. La verità del 2026 è meno romantica: per molte aziende, i costi “pay‑as‑you‑go” sono diventati imprevedibili e, soprattutto, difficili da giustificare.
Le egress fees sono il punto dolente. Il solo movimento dei dati fuori dal cloud può arrivare a pesare fino al 20% del conto totale. E nei casi peggiori si paga un’uscita cento volte superiore a un normale transito di rete.
Una distorsione che rende il cloud perfetto per i picchi, ma molto meno conveniente per carichi stabili e prevedibili.
Non è teoria. 37signals ha dichiarato risparmi per 10 milioni di dollari in cinque anni dopo aver riportato tutto on-prem. GEICO, stessa storia: i costi reali in cloud erano più che doppi rispetto alle stime on-prem.
Sovranità digitale: il tema che nessuno può più evitare
Fra GDPR, US Cloud Act, DORA e AI Act, le aziende europee si sono ritrovate in mezzo a un puzzle normativo difficile da ignorare. Il punto più delicato riguarda il cosiddetto sovereignty gap: un divario fra quello che le normative europee richiedono e quello che le infrastrutture americane possono garantire.
Il Cloud Act permette agli USA di accedere ai dati custoditi da provider americani ovunque nel mondo. Anche se si trovano fisicamente in un data center europeo. Anche senza poter avvisare il cliente. Per il settore finanziario, sanitario o governativo questa è una vulnerabilità inaccettabile.
Le aziende oggi ragionano su tre livelli di sovranità: dati, operazioni e tecnologia. Non basta più sapere dove sono i server. Serve controllare chi può accedervi, chi fornisce supporto, da quale Paese lo fa, e quanto dipendiamo da API proprietarie impossibili da migrare.
L’AI cambia tutto, molto più velocemente del previsto
La motivazione più forte, però, arriva dall’intelligenza artificiale. La diffusione di modelli proprietari, agenti autonomi e infrastrutture di inferenza continue ha messo in crisi i costi del cloud. Oggi le aziende non valutano più solo uptime e latenza, ma quanto pagano per ogni token elaborato.
Il risultato è sorprendente: con un utilizzo continuo, l’hardware on‑prem raggiunge il punto di pareggio rispetto al cloud in quattro mesi. In alcune configurazioni, l’on‑prem può essere fino a diciotto volte più conveniente delle API offerte dai provider.
Il problema, però, non sono solo i costi. Le GPU di nuova generazione, memoria HBM e DRAM sono diventate risorse scarse, costose e soggette a priorità decise dai vendor.
Avere il proprio hardware significa avere la libertà di crescere e aggiornare i modelli senza essere limitati da quote, code di provisioning o vincoli contrattuali.
Verso un modello ibrido più maturo
Geopatriation non significa abbandonare il cloud. Significa usarlo con logica. Il futuro è un’architettura a tre livelli: zone sovrane per gli asset critici, livelli protetti per i dati operativi e zone aperte per tutto ciò che richiede agilità.
Questo equilibrio si regge su due pilastri tecnici: Kubernetes, che permette di spostare workload senza riscriverli, e il confidential computing, che garantisce che i dati restino protetti anche mentre vengono elaborati.
L’Italia come laboratorio europeo
Il caso italiano è quasi emblematico. Il mercato dei data center sta crescendo a una velocità notevole, mentre i grandi provider internazionali investono in regioni locali per rispondere alle richieste di residenza dei dati.
Allo stesso tempo, operatori nazionali ricordano che la vera sovranità non riguarda solo la posizione fisica dell’hardware, ma soprattutto chi controlla i contratti, le chiavi di cifratura e i processi operativi.
Il ritorno on‑prem non è una passeggiata
Portare tutto in casa richiede competenze che oggi sono rare, costose e difficili da trattenere. L’infrastruttura deve essere resiliente, con cicli di refresh sempre più ravvicinati a causa dell’evoluzione frenetica dell’AI. E le aziende scoprono presto che gestire un data center significa assumersi la totale responsabilità della continuità operativa.
Proprio per questo, il ruolo degli MSSP sta cambiando. Non più solo monitoraggio e reazione, ma governance attiva: sistemi agentici che decidono dove spostare i dati in base a costi, normative e disponibilità.
Una sorta di “controllo traffico” intelligente distribuito sull’intera infrastruttura.
In conclusione
La geopatriation non è un ritorno al passato. È un cambio di mentalità. È la presa di coscienza che i dati non sono solo informazioni, ma patrimonio strategico. E che l’AI, per funzionare davvero, ha bisogno di un livello di controllo impossibile da ottenere senza un’infrastruttura che sia sotto la nostra piena sovranità.
Il vero tema del 2026 non è più usare o meno il cloud, ma decidere con cura dove deve vivere ogni singolo bit di intelligenza.
