Додому Najnowsze wiadomości i artykuły Nadchodzący kryzys pamięci: jak technologia cofa się

Nadchodzący kryzys pamięci: jak technologia cofa się

Nadchodzący kryzys pamięci: jak technologia cofa się

Świat technologii stoi w obliczu krytycznego niedoboru układów pamięci i choć firmy na targach CES z radością chwalą się innowacjami, rzeczywistość jest znacznie poważniejsza: poważny niedobór pamięci DRAM (dynamicznej pamięci o dostępie swobodnym) zagraża przyszłej dostępności i cenom produktów. Nie dotyczy to tylko hardkorowych producentów komputerów PC; laptopy i telefony są również zagrożone, ponieważ producenci przedkładają centra danych AI nad urządzenia konsumenckie.

Kilka firm podejmuje odważne kroki, aby załagodzić kryzys, choć sukces nie jest gwarantowany. Wysiłki te zależą od zmiany strategii, zmniejszenia zależności od sztucznej inteligencji w chmurze i przekonania rynku pamięci do ponownego inwestowania w produkcję DRAM klasy konsumenckiej.

Wyczerpywanie się popytu na sztuczną inteligencję

Obecny niedobór nie jest dziełem przypadku. Gwałtowny wzrost zapotrzebowania na szybką pamięć (HBM) dla centrów danych AI doprowadził głównych producentów do zmiany priorytetu produkcji DRAM – rodzaju pamięci używanej w popularnych laptopach i smartfonach. Ta nierównowaga zmusza konsumentów do polegania na usługach AI opartych na chmurze, takich jak ChatGPT, ponieważ ich urządzeniom brakuje pamięci niezbędnej do lokalnego uruchamiania tych modeli.

Dyrektor operacyjny firmy Dell, Jeff Clark, potwierdził powagę sytuacji, stwierdzając, że obecne warunki to „najgorszy niedobór, jaki kiedykolwiek widziałem”. Ceny już wzrosły: do końca 2025 r. pamięć DRAM wzrośnie o 40%, a na początku 2026 r. spodziewany jest kolejny wzrost o 60%. Główni producenci, tacy jak Asus i Dell, ogłosili podwyżki cen i dostosowania konfiguracji, aby zaradzić niedoborom.

Innowacyjne rozwiązania: sztuczna inteligencja w urządzeniu i przeprojektowanie termiczne

Pomimo ponurych perspektyw dwie firmy próbują zakłócić status quo. Phison, tajwański producent kontrolerów, opracował aiDAPTIV, pamięć podręczną SSD, która może skutecznie zwiększać przepustowość pamięci na potrzeby zadań AI. Pozwala to producentom zmniejszyć pojemność pamięci DRAM w laptopach (na przykład z 32 GB do 16 GB) bez znaczącego zmniejszania wydajności, potencjalnie zmniejszając ciśnienie zasilania. Wczesne wsparcie ze strony MSI i Intela wskazuje na potencjał szybkiego wdrożenia.

Tymczasem Ventiva rozwiązuje problem z termicznego punktu widzenia. Ich bezwentylatorowy system chłodzenia eliminuje nieporęczne elementy chłodzące, uwalniając miejsce na dodatkowe moduły DRAM wewnątrz laptopów. Dyrektor generalny Karl Schlachte twierdzi, że optymalizacja przestrzeni pamięci fizycznej to kluczowe, utracone rozwiązanie. Pomysł polega na tym, aby lokalne przetwarzanie sztucznej inteligencji na urządzeniu było tak atrakcyjne dla konsumentów i firm, że zwiększy popyt na pamięć DRAM, co skłoniło producentów do ponownego inwestowania w jej produkcję.

Stopa długoterminowa

Powodzenie tych strategii zależy od wspólnych wysiłków producentów laptopów, firm Intel, AMD i producentów pamięci. Przekonanie ich, aby priorytetowo potraktowali sztuczną inteligencję urządzeń i skupili się z powrotem na pamięci DRAM, wymaga jednolitego przekazu i zapotrzebowania rynku. Jeśli te wysiłki zawiodą, konsekwencje będą katastrofalne: zawyżone ceny, zmniejszona wydajność i dalsza zależność od drogich usług w chmurze.

Jak to ujął Schlachte: „Wydajemy pieniądze z spadku na centra danych… a oni je wam wynajmują”. Branża technologiczna znalazła się na rozdrożu: albo przekieruje zasoby w stronę zapewnienia konsumentom lokalnych możliwości sztucznej inteligencji, albo skapituluje przed kilkoma firmami dominującymi w chmurze. Wynik będzie kształtował przyszłość informatyki na nadchodzące lata.

Exit mobile version