Il mondo tecnologico si trova ad affrontare una grave carenza di chip di memoria e, mentre le aziende al CES sono ansiose di mostrare le innovazioni, la realtà è molto più urgente: una grave scarsità di DRAM (memoria dinamica ad accesso casuale) minaccia la disponibilità e l’accessibilità futura dei prodotti. Questo non è solo un problema per i costruttori di PC più accaniti; Anche laptop e telefoni sono a rischio poiché i produttori danno priorità ai data center AI rispetto ai dispositivi consumer.

Diverse aziende stanno adottando misure coraggiose per mitigare la crisi, anche se il successo non è garantito. Questi sforzi dipendono dal cambiamento delle strategie, dalla riduzione della dipendenza dall’intelligenza artificiale basata sul cloud e dal convincere il mercato delle memorie a reinvestire nella produzione di DRAM di livello consumer.

Il drenaggio della domanda di intelligenza artificiale

La carenza attuale non è casuale. L’aumento della domanda di memoria a larghezza di banda elevata (HBM) per i data center AI ha portato i principali produttori a ridurre la priorità della produzione DRAM, il tipo di memoria utilizzata nei laptop e negli smartphone di tutti i giorni. Questo squilibrio costringe i consumatori a fare affidamento su servizi di intelligenza artificiale basati su cloud come ChatGPT perché i loro dispositivi non hanno la memoria necessaria per eseguire questi modelli localmente.

Il COO di Dell, Jeff Clarke, ha riconosciuto la gravità della situazione, affermando che le condizioni attuali sono “la peggiore carenza che abbia mai visto”. I prezzi sono già aumentati, con la DRAM che aumenterà del 40% alla fine del 2025 e si prevede che aumenterà di un altro 60% all’inizio del 2026. Importanti produttori come Asus e Dell hanno annunciato aumenti di prezzo e aggiustamenti della configurazione per far fronte alla scarsità.

Soluzioni innovative: intelligenza artificiale on-device e riprogettazione termica

Nonostante le prospettive cupe, due società stanno tentando di interrompere lo status quo. Phison, un produttore di controller taiwanese, ha sviluppato aiDAPTIV, una cache SSD in grado di espandere efficacemente la larghezza di banda della memoria per le attività di intelligenza artificiale. Ciò consente ai produttori di ridurre la capacità DRAM nei laptop (ad esempio, da 32 GB a 16 GB) senza influire in modo significativo sulle prestazioni, alleviando potenzialmente la tensione di fornitura. Il supporto iniziale di MSI e Intel suggerisce che potrebbe essere possibile una rapida implementazione.

Ventiva, nel frattempo, sta affrontando la questione dal punto di vista termico. Il loro sistema di raffreddamento senza ventola rimuove i componenti di raffreddamento ingombranti, creando spazio per moduli DRAM aggiuntivi all’interno dei laptop. Il CEO Carl Schlachte sostiene che l’ottimizzazione dello spazio fisico per la memoria è una soluzione chiave trascurata. L’idea è quella di rendere l’elaborazione dell’intelligenza artificiale sui dispositivi così attraente per i consumatori e le imprese da stimolare la domanda di DRAM, incentivando i produttori a reinvestire nella sua produzione.

La scommessa a lungo termine

Il successo di queste strategie dipende da uno sforzo collettivo da parte dei produttori di laptop, Intel, AMD e dei produttori di memorie. Convincerli a dare priorità all’intelligenza artificiale sul dispositivo e spostare l’attenzione sulla DRAM richiede un messaggio e una domanda di mercato unificati. Se questi sforzi falliscono, le conseguenze sono disastrose: prezzi gonfiati, prestazioni ridotte e continua dipendenza da costosi servizi cloud.

Come ha detto Schlachte, “Speriamo i soldi della nostra eredità nel data center… e te lo affitteranno di nuovo.” L’industria tecnologica è a un bivio: reindirizzare le risorse verso il potenziamento dei consumatori con capacità di intelligenza artificiale locale o cedere il controllo a una manciata di aziende dominanti nel cloud. Il risultato determinerà il futuro dell’informatica negli anni a venire.