Loading...
Intelligenza artificiale e memoria: Dell prevede una domanda fino a 625 volte superiore entro il 2028
Tecnologia

Intelligenza artificiale e memoria: Dell prevede una domanda fino a 625 volte superiore entro il 2028

Disponibile in formato audio

Il fondatore di Dell Technologies traccia uno scenario senza precedenti per il mercato DRAM, con possibili carenze fino al 2027 e hyperscaler già in corsa per assicurarsi le forniture dei prossimi cinque anni

Il superciclo della memoria AI secondo Michael Dell

C'è un dato che Michael Dell ha voluto mettere nero su bianco, e che da solo basta a ridimensionare qualsiasi previsione prudente sul futuro dell'infrastruttura tecnologica globale: la domanda di memoria legata all'intelligenza artificiale potrebbe crescere fino a 625 volte rispetto ai livelli attuali. Non entro un orizzonte lontano, ma da qui al 2028.

Il fondatore e CEO di Dell Technologies ha delineato questo scenario parlando del cosiddetto superciclo della memoria, un fenomeno che il settore dell'hardware conosce bene ma che questa volta, stando a quanto emerge dalle analisi di mercato, assume proporzioni mai viste prima. La causa è semplice da individuare, assai più complessa da gestire: i modelli di intelligenza artificiale generativa, i large language model e le applicazioni di machine learning richiedono quantità di memoria DRAM (Dynamic Random Access Memory) che crescono esponenzialmente ad ogni nuova generazione.

E la domanda, a oggi, non mostra il minimo segnale di rallentamento.

Numeri fuori scala: cosa significano 625 volte

Per comprendere la portata della previsione di Dell, occorre contestualizzare. Quando si parla di un incremento di 625 volte, ci si riferisce al fabbisogno complessivo di memoria ad alta larghezza di banda, quella che alimenta le GPU e gli acceleratori utilizzati nei data center per l'addestramento e l'inferenza dei modelli AI. Ogni nuovo modello, ogni aggiornamento architetturale, ogni ampliamento delle finestre di contesto si traduce in un appetito di memoria sempre più vorace.

Non si tratta di una crescita lineare. È una curva che si impenna, e che costringe l'intera filiera produttiva a ripensare tempi e volumi. Michael Dell ha sottolineato come questo superciclo sia strutturalmente diverso dai precedenti boom della memoria, perché alimentato da una convergenza di fattori: la diffusione capillare dell'AI generativa, l'espansione dei servizi cloud e la competizione tra le grandi piattaforme tecnologiche per offrire capacità computazionale sempre maggiore.

Hyperscaler in prima linea: la corsa agli accordi di fornitura

A muoversi per primi sono stati, prevedibilmente, gli hyperscaler, i giganti del cloud computing come Amazon Web Services, Microsoft Azure e Google Cloud. Questi operatori stanno investendo cifre colossali nella memoria e, come sottolineato dagli analisti del settore, hanno già iniziato a stipulare accordi di fornitura a lungo termine con i principali produttori mondiali di DRAM, in particolare Samsung, SK Hynix e Micron.

La novità è la durata di questi contratti: non più accordi annuali o biennali, ma impegni che si estendono su un arco di cinque anni. Un segnale inequivocabile. Le aziende che dominano il cloud computing non stanno semplicemente reagendo alla domanda corrente, ma si stanno posizionando per un orizzonte temporale in cui la disponibilità di memoria sarà un fattore competitivo decisivo.

È una dinamica che ricorda, per certi versi, la corsa alle materie prime critiche, dove chi si muove prima e con maggiore determinazione si assicura un vantaggio difficile da colmare. E proprio come accade per le materie prime, anche nel caso della memoria DRAM l'offerta non può essere aumentata con la stessa velocità della domanda.

Carenza DRAM fino al 2027: un collo di bottiglia strutturale

Qui si annida il problema più serio. La produzione di chip di memoria ad alte prestazioni richiede tempi lunghi: costruire o ampliare un impianto di fabbricazione (una fab, nel gergo del settore) costa miliardi di dollari e può richiedere dai due ai tre anni prima di raggiungere la piena operatività. È un vincolo fisico e industriale che nessuna iniezione di capitale può aggirare nel breve periodo.

Il risultato? Il mercato DRAM resta sotto forte pressione, con analisti e operatori che prevedono possibili carenze almeno fino al 2027. Una condizione che rischia di creare un collo di bottiglia per l'intero ecosistema dell'intelligenza artificiale: se non c'è abbastanza memoria, anche i processori più potenti restano parzialmente inutilizzati.

Questa tensione strutturale tra domanda e offerta avrà inevitabilmente effetti sui prezzi. Chi ha necessità di espandere la propria infrastruttura AI, che si tratti di un'azienda tecnologica o di un ente di ricerca pubblico, dovrà fare i conti con costi crescenti e tempi di approvvigionamento dilatati.

Le ricadute su ricerca e sistema universitario

Lo scenario tracciato da Dell non riguarda soltanto i colossi della Silicon Valley. Le implicazioni si estendono a chiunque operi nel campo della ricerca computazionale avanzata, comprese le università e gli enti di ricerca italiani che negli ultimi anni hanno accelerato l'adozione di infrastrutture AI per progetti in ambiti che vanno dalla biomedicina alla linguistica computazionale, dalla fisica delle particelle alle scienze sociali.

In un contesto di risorse strutturalmente limitate come quello del sistema accademico italiano, la possibile carenza di componenti chiave e l'aumento dei costi di approvvigionamento rischiano di ampliare il divario con i centri di ricerca meglio finanziati a livello internazionale. È una questione che meriterebbe una riflessione strategica, tanto a livello di singoli atenei quanto nelle sedi istituzionali dove si decidono gli investimenti in ricerca e innovazione. Così come in altri ambiti della ricerca scientifica, dove i risultati arrivano solo dopo anni di impegno costante e investimenti mirati, come dimostra ad esempio il recupero dell'ozono dopo 38 anni di politiche internazionali, anche nel campo delle infrastrutture AI la lungimiranza nelle scelte di oggi determinerà la competitività di domani.

Il messaggio di Michael Dell, in definitiva, è tanto chiaro quanto scomodo: la fame di memoria dell'intelligenza artificiale non si fermerà. E chi non si prepara per tempo rischia di restare tagliato fuori da una trasformazione tecnologica che, nel bene e nel male, sta ridisegnando le regole del gioco.

Pubblicato il: 10 aprile 2026 alle ore 07:23

Domande frequenti

Cosa si intende per superciclo della memoria AI secondo Michael Dell?

Il superciclo della memoria AI è un fenomeno descritto da Michael Dell in cui la domanda di memoria DRAM per applicazioni di intelligenza artificiale potrebbe crescere fino a 625 volte entro il 2028. Questo incremento è guidato dalla diffusione dei modelli AI generativi e dalla crescente necessità di capacità computazionale.

Perché la domanda di memoria DRAM sta crescendo così rapidamente nel settore AI?

La domanda cresce rapidamente perché i modelli di intelligenza artificiale, come i large language model, richiedono sempre più memoria per funzionare, soprattutto con ogni nuova generazione e aggiornamento. La combinazione di servizi cloud in espansione e competizione tecnologica alimenta ulteriormente questa crescita esponenziale.

Quali sono le strategie adottate dagli hyperscaler per fronteggiare la carenza di memoria?

Gli hyperscaler come Amazon, Microsoft e Google stanno stipulando accordi di fornitura a lungo termine con i principali produttori di DRAM, spesso su orizzonti di cinque anni. Questa strategia mira a garantirsi l'accesso prioritario alla memoria, diventata un fattore competitivo chiave.

Perché si prevede una carenza di DRAM almeno fino al 2027?

La produzione di chip di memoria ad alte prestazioni richiede investimenti e tempi di realizzazione molto lunghi, spesso superiori a due anni. Di conseguenza, l'offerta non riesce a tenere il passo con la domanda crescente, creando un collo di bottiglia strutturale che durerà almeno fino al 2027.

Quali sono le possibili conseguenze per la ricerca e le università italiane?

Università e centri di ricerca italiani, già soggetti a risorse limitate, potrebbero subire un aumento dei costi e difficoltà di accesso alla memoria necessaria per progetti avanzati di AI. Questo rischio potrebbe ampliare il divario competitivo con istituzioni internazionali meglio finanziate.

Savino Grimaldi

Articolo creato da

Savino Grimaldi

Giornalista Pubblicista Savino Grimaldi è un giornalista laureando in Economia e Commercio, con una solida esperienza maturata nel settore della formazione. Da anni lavora con competenza nell’ambito della formazione professionale, distinguendosi per una conoscenza approfondita delle politiche attive del lavoro e delle dinamiche che legano istruzione, occupazione e sviluppo delle competenze. Alla preparazione economica e professionale affianca una grande passione per la lettura e per il giornalismo, che ne arricchiscono il profilo umano e culturale. Spazia con disinvoltura tra diverse tematiche, offrendo sempre il proprio punto di vista con equilibrio, sensibilità e spirito critico.

Articoli Correlati