Die Tech-Welt ist mit einem kritischen Mangel an Speicherchips konfrontiert, und während Unternehmen auf der CES bestrebt sind, Innovationen vorzustellen, ist die Realität weitaus dringlicher: Ein gravierender Mangel an DRAM (Dynamic Random Access Memory) gefährdet die zukünftige Produktverfügbarkeit und Erschwinglichkeit. Dies ist nicht nur ein Problem für Hardcore-PC-Hersteller. Laptops und Telefone sind ebenfalls gefährdet, da Hersteller KI-Rechenzentren Vorrang vor Verbrauchergeräten einräumen.
Mehrere Unternehmen ergreifen mutige Schritte, um die Krise abzumildern, auch wenn der Erfolg nicht garantiert ist. Bei diesen Bemühungen geht es darum, Strategien zu ändern, die Abhängigkeit von Cloud-basierter KI zu verringern und den Speichermarkt davon zu überzeugen, wieder in die DRAM-Produktion für Verbraucher zu investieren.
Der KI-Nachfrageabfluss
Der aktuelle Mangel ist kein Zufall. Die steigende Nachfrage nach High-Bandwidth-Speicher (HBM) für KI-Rechenzentren hat dazu geführt, dass große Hersteller der DRAM-Produktion – dem Speichertyp, der in alltäglichen Laptops und Smartphones verwendet wird – eine geringere Priorität einräumen. Dieses Ungleichgewicht zwingt Verbraucher dazu, sich auf Cloud-basierte KI-Dienste wie ChatGPT zu verlassen, da ihren Geräten der erforderliche Speicher fehlt, um diese Modelle lokal auszuführen.
Jeff Clarke, COO von Dell, erkannte den Ernst der Lage an und erklärte, dass die aktuellen Bedingungen „der schlimmste Mangel sind, den ich je gesehen habe“. Die Preise sind bereits gestiegen, wobei DRAM Ende 2025 um 40 % stieg und Anfang 2026 voraussichtlich um weitere 60 % steigen wird. Große Hersteller wie Asus und Dell haben Preiserhöhungen und Konfigurationsanpassungen angekündigt, um der Knappheit entgegenzuwirken.
Innovative Lösungen: On-Device-KI und thermisches Redesign
Trotz der düsteren Aussichten versuchen zwei Unternehmen, den Status quo zu stören. Phison, ein taiwanesischer Controller-Hersteller, hat aiDAPTIV entwickelt, einen SSD-Cache, der die Speicherbandbreite für KI-Aufgaben effektiv erweitern kann. Dadurch können Hersteller die DRAM-Kapazität in Laptops reduzieren (z. B. von 32 GB auf 16 GB), ohne die Leistung wesentlich zu beeinträchtigen, was möglicherweise die Versorgungsbelastung verringert. Die frühe Unterstützung von MSI und Intel deutet darauf hin, dass eine schnelle Implementierung möglich sein könnte.
Ventiva geht das Problem unterdessen aus thermischer Sicht an. Ihr lüfterloses Kühlsystem macht sperrige Kühlkomponenten überflüssig und schafft so Platz für zusätzliche DRAM-Module in Laptops. CEO Carl Schlachte argumentiert, dass die Optimierung des physischen Speicherplatzes eine wichtige, übersehene Lösung sei. Die Idee besteht darin, die KI-Verarbeitung auf dem Gerät für Verbraucher und Unternehmen so attraktiv zu machen, dass die Nachfrage nach DRAM steigt und die Hersteller einen Anreiz erhalten, wieder in die Produktion zu investieren.
Das langfristige Glücksspiel
Der Erfolg dieser Strategien hängt von der gemeinsamen Anstrengung der Laptop-Hersteller, Intel, AMD und Speicherhersteller ab. Um sie davon zu überzeugen, der KI auf dem Gerät Priorität einzuräumen und den Fokus wieder auf DRAM zu verlagern, sind eine einheitliche Botschaft und eine einheitliche Marktnachfrage erforderlich. Scheitern diese Bemühungen, sind die Folgen verheerend: überhöhte Preise, geringere Leistung und anhaltende Abhängigkeit von teuren Cloud-Diensten.
Wie Schlachte es ausdrückte: „Wir verschwenden unser Erbschaftsgeld für das Rechenzentrum … und sie werden es an Sie zurückvermieten.“ Die Technologiebranche steht an einem Scheideweg: Entweder müssen Ressourcen umgeleitet werden, um Verbraucher mit lokalen KI-Funktionen auszustatten, oder die Kontrolle wird an eine Handvoll Cloud-dominierender Unternehmen abgegeben. Das Ergebnis wird die Zukunft der Informatik in den kommenden Jahren bestimmen.



















