De technologiewereld wordt geconfronteerd met een kritiek tekort aan geheugenchips, en hoewel bedrijven op CES graag innovaties willen presenteren, is de realiteit veel urgenter: een ernstige schaarste aan DRAM (dynamisch willekeurig toegankelijk geheugen) bedreigt de toekomstige beschikbaarheid en betaalbaarheid van producten. Dit is niet alleen een probleem voor hardcore pc-bouwers; laptops en telefoons lopen ook gevaar omdat fabrikanten AI-datacenters voorrang geven boven consumentenapparatuur.
Verschillende bedrijven ondernemen gedurfde stappen om de crisis te verzachten, hoewel succes niet gegarandeerd is. Deze inspanningen zijn afhankelijk van veranderende strategieën, het verminderen van de afhankelijkheid van cloudgebaseerde AI en het overtuigen van de geheugenmarkt om te herinvesteren in DRAM-productie op consumentenniveau.
De AI-vraagdrainage
Het huidige tekort is niet willekeurig. De sterke stijging van de vraag naar geheugen met hoge bandbreedte (HBM) voor AI-datacenters heeft ertoe geleid dat grote fabrikanten minder prioriteit hebben gegeven aan de productie van DRAM – het type geheugen dat wordt gebruikt in alledaagse laptops en smartphones. Deze onevenwichtigheid dwingt consumenten om te vertrouwen op cloudgebaseerde AI-diensten zoals ChatGPT, omdat hun apparaten niet over het benodigde geheugen beschikken om deze modellen lokaal uit te voeren.
Jeff Clarke, COO van Dell, erkende de ernst van de situatie en stelde dat de huidige omstandigheden “het ergste tekort zijn dat ik ooit heb gezien”. De prijzen zijn al enorm gestegen: DRAM is eind 2025 met 40% gestegen en zal naar verwachting begin 2026 met nog eens 60% stijgen. Grote fabrikanten als Asus en Dell hebben prijsverhogingen en configuratieaanpassingen aangekondigd om aan de schaarste het hoofd te bieden.
Innovatieve oplossingen: AI op het apparaat en thermisch herontwerp
Ondanks de sombere vooruitzichten proberen twee bedrijven de status quo te ontwrichten. Phison, een Taiwanese controllerfabrikant, heeft aiDAPTIV ontwikkeld, een SSD-cache die de geheugenbandbreedte voor AI-taken effectief kan uitbreiden. Hierdoor kunnen fabrikanten de DRAM-capaciteit in laptops verminderen (bijvoorbeeld van 32 GB naar 16 GB) zonder de prestaties aanzienlijk te beïnvloeden, waardoor de aanboddruk mogelijk wordt verlicht. Vroege ondersteuning van MSI en Intel suggereert dat een snelle implementatie mogelijk is.
Ventiva pakt het probleem ondertussen vanuit een thermisch perspectief aan. Hun ventilatorloze koelsysteem verwijdert omvangrijke koelcomponenten, waardoor er ruimte ontstaat voor extra DRAM-modules in laptops. CEO Carl Schlachte stelt dat het optimaliseren van de fysieke ruimte voor geheugen een belangrijke over het hoofd geziene oplossing is. Het idee is om AI-verwerking op apparaten zo aantrekkelijk te maken voor consumenten en bedrijven dat het de vraag naar DRAM stimuleert, waardoor fabrikanten worden gestimuleerd om opnieuw in de productie ervan te investeren.
De langetermijngok
Het succes van deze strategieën hangt af van een collectieve inspanning van laptopfabrikanten, Intel, AMD en geheugenproducenten. Om hen ervan te overtuigen prioriteit te geven aan AI op het apparaat en de focus terug te verleggen naar DRAM, is een uniforme boodschap en marktvraag vereist. Als deze inspanningen mislukken, zijn de gevolgen verschrikkelijk: hogere prijzen, verminderde prestaties en een voortdurende afhankelijkheid van dure clouddiensten.
Zoals Schlachte het verwoordde: “We verspillen ons erfenisgeld aan het datacenter… en zij gaan dit aan jou terug verhuren.” De technologie-industrie staat op een kruispunt: ofwel middelen inzetten om consumenten te voorzien van lokale AI-mogelijkheden, ofwel de controle overdragen aan een handvol cloud-dominante bedrijven. De uitkomst zal de toekomst van computers voor de komende jaren bepalen.
