Le monde de la technologie est confronté à une grave pénurie de puces mémoire, et tandis que les entreprises au CES sont impatientes de présenter leurs innovations, la réalité est bien plus pressante : une grave pénurie de DRAM (mémoire vive dynamique) menace la disponibilité et l’accessibilité des produits à l’avenir. Ce n’est pas seulement un problème pour les constructeurs de PC inconditionnels ; les ordinateurs portables et les téléphones sont également menacés, car les fabricants donnent la priorité aux centres de données IA plutôt qu’aux appareils grand public.
Plusieurs entreprises prennent des mesures audacieuses pour atténuer la crise, même si le succès n’est pas garanti. Ces efforts dépendent de l’évolution des stratégies, de la réduction de la dépendance à l’égard de l’IA basée sur le cloud et de la conviction du marché de la mémoire de réinvestir dans la production de DRAM grand public.
La fuite de la demande en IA
La pénurie actuelle n’est pas due au hasard. L’augmentation de la demande de mémoire à large bande passante (HBM) pour les centres de données d’IA a conduit les grands fabricants à déprioriser la production de DRAM – le type de mémoire utilisé au quotidien dans les ordinateurs portables et les smartphones. Ce déséquilibre oblige les consommateurs à s’appuyer sur des services d’IA basés sur le cloud comme ChatGPT, car leurs appareils ne disposent pas de la mémoire nécessaire pour exécuter ces modèles localement.
Jeff Clarke, COO de Dell, a reconnu la gravité de la situation, déclarant que les conditions actuelles constituent « la pire pénurie que j’ai jamais vue ». Les prix ont déjà grimpé, la DRAM ayant augmenté de 40 % fin 2025 et devrait encore augmenter de 60 % début 2026. De grands fabricants comme Asus et Dell ont annoncé des augmentations de prix et des ajustements de configuration pour faire face à la rareté.
Solutions innovantes : IA sur appareil et refonte thermique
Malgré ces sombres perspectives, deux entreprises tentent de perturber le statu quo. Phison, un fabricant de contrôleurs taïwanais, a développé aiDAPTIV, un cache SSD capable d’étendre efficacement la bande passante mémoire pour les tâches d’IA. Cela permet aux fabricants de réduire la capacité DRAM des ordinateurs portables (par exemple, de 32 Go à 16 Go) sans impact significatif sur les performances, ce qui pourrait potentiellement alléger la pression sur l’approvisionnement. Le support initial de MSI et d’Intel suggère qu’une mise en œuvre rapide pourrait être possible.
Ventiva, quant à elle, aborde le problème sous l’angle thermique. Leur système de refroidissement sans ventilateur supprime les composants de refroidissement encombrants, créant ainsi de l’espace pour des modules DRAM supplémentaires dans les ordinateurs portables. Le PDG Carl Schlachte affirme que l’optimisation de l’espace physique pour la mémoire est une solution clé négligée. L’idée est de rendre le traitement de l’IA sur appareil si attrayant pour les consommateurs et les entreprises qu’il stimule la demande de DRAM, incitant ainsi les fabricants à réinvestir dans sa production.
Le pari à long terme
Le succès de ces stratégies dépend d’un effort collectif des fabricants d’ordinateurs portables, d’Intel, d’AMD et des producteurs de mémoire. Les convaincre de donner la priorité à l’IA sur les appareils et de se concentrer à nouveau sur la DRAM nécessite un message unifié et une demande du marché. Si ces efforts échouent, les conséquences sont désastreuses : prix gonflés, performances réduites et dépendance continue à des services cloud coûteux.
Comme le dit Schlachte : « Nous gaspillons l’argent de notre héritage sur le centre de données… et ils vont vous le louer. » L’industrie technologique est à la croisée des chemins : soit rediriger les ressources vers l’autonomisation des consommateurs avec des capacités d’IA locales, soit céder le contrôle à une poignée d’entreprises dominantes dans le cloud. Le résultat déterminera l’avenir de l’informatique pour les années à venir.



















