El mundo de la tecnología se enfrenta a una escasez crítica de chips de memoria y, si bien las empresas en CES están ansiosas por mostrar sus innovaciones, la realidad es mucho más apremiante: una grave escasez de DRAM (memoria dinámica de acceso aleatorio) amenaza la futura disponibilidad y asequibilidad de los productos. Esto no es sólo un problema para los desarrolladores de PC incondicionales; Las computadoras portátiles y los teléfonos también están en riesgo a medida que los fabricantes priorizan los centros de datos de IA sobre los dispositivos de consumo.

Varias empresas están tomando medidas audaces para mitigar la crisis, aunque el éxito no está garantizado. Estos esfuerzos dependen de cambiar estrategias, reducir la dependencia de la IA basada en la nube y convencer al mercado de la memoria para que reinvierta en la producción de DRAM de consumo.

La fuga de demanda de IA

La escasez actual no es aleatoria. El aumento de la demanda de memoria de alto ancho de banda (HBM) para centros de datos de IA ha llevado a los principales fabricantes a despriorizar la producción de DRAM, el tipo de memoria que se utiliza en las computadoras portátiles y teléfonos inteligentes de todos los días. Este desequilibrio obliga a los consumidores a depender de servicios de inteligencia artificial basados ​​en la nube como ChatGPT porque sus dispositivos carecen de la memoria necesaria para ejecutar estos modelos localmente.

El director de operaciones de Dell, Jeff Clarke, reconoció la gravedad de la situación y afirmó que las condiciones actuales son “la peor escasez que he visto jamás”. Los precios ya se han disparado: la DRAM aumentó un 40% a finales de 2025 y se prevé que aumente otro 60% a principios de 2026. Los principales fabricantes como Asus y Dell han anunciado aumentos de precios y ajustes de configuración para hacer frente a la escasez.

Soluciones innovadoras: IA en el dispositivo y rediseño térmico

A pesar del sombrío panorama, dos empresas están intentando alterar el status quo. Phison, un fabricante taiwanés de controladores, ha desarrollado aiDAPTIV, un caché SSD que puede ampliar eficazmente el ancho de banda de la memoria para tareas de IA. Esto permite a los fabricantes reducir la capacidad de DRAM en las computadoras portátiles (por ejemplo, de 32 GB a 16 GB) sin afectar significativamente el rendimiento, lo que podría aliviar la tensión en el suministro. El soporte inicial de MSI e Intel sugiere que es posible una implementación rápida.

Mientras tanto, Ventiva está abordando el problema desde una perspectiva térmica. Su sistema de refrigeración sin ventilador elimina componentes de refrigeración voluminosos, creando espacio para módulos DRAM adicionales dentro de las computadoras portátiles. El director ejecutivo, Carl Schlachte, sostiene que optimizar el espacio físico para la memoria es una solución clave que se pasa por alto. La idea es hacer que el procesamiento de IA en el dispositivo sea tan atractivo para los consumidores y las empresas que impulse la demanda de DRAM, incentivando a los fabricantes a reinvertir en su producción.

La apuesta a largo plazo

El éxito de estas estrategias depende de un esfuerzo colectivo de los fabricantes de portátiles, Intel, AMD y los productores de memoria. Convencerlos de priorizar la IA en el dispositivo y volver a centrarse en la DRAM requiere un mensaje unificado y una demanda del mercado. Si estos esfuerzos fracasan, las consecuencias son nefastas: precios inflados, rendimiento reducido y dependencia continua de costosos servicios en la nube.

Como dijo Schlachte: “Desperdiciamos el dinero de nuestra herencia en el centro de datos… y te lo van a alquilar de nuevo”. La industria tecnológica se encuentra en una encrucijada: redirigir los recursos hacia el empoderamiento de los consumidores con capacidades locales de inteligencia artificial o entregar el control a un puñado de empresas que dominan la nube. El resultado determinará el futuro de la informática en los años venideros.