Actions mémoire pour l’IA : vraie opportunité ou simple emballement ?
L’infrastructure IA a créé l’une des pénuries de mémoire les plus intenses jamais vues dans l’industrie des semi‑conducteurs. Des entreprises comme Micron, Seagate, Western Digital et SanDisk se retrouvent au centre de ce boom, et de la volatilité qui l’accompagne.
Voici une analyse succinte pour comprendre l’opportunité, les risques, et si le secteur a encore du potentiel.
Les types de mémoire essentiels pour l’IA
Les charges de travail IA reposent principalement sur trois catégories :
1. DRAM (Dynamic RAM)
Utilisée pour l’accès rapide aux données lors de l’entraînement et de l’inférence.
Leaders : Micron, SK Hynix, Samsung.
Micron a déjà vendu toute sa capacité DRAM pour 2026 en raison de la demande IA.
2. HBM (High‑Bandwidth Memory)
La mémoire la plus critique pour les accélérateurs IA (ex. : GPU Nvidia).
Leaders : Micron (HBM3E, HBM4), SK Hynix.
La HBM4 de Micron atteint 2,8 To/s de bande passante et est entièrement réservée pour 2026.
3. NAND / Stockage (SSD & HDD)
Utilisée pour le stockage des centres de données, les checkpoints de modèles et la récupération.
Leaders : Seagate (HDD), Western Digital (HDD + NAND), Micron (NAND).
Toute la capacité HDD nearline de Seagate pour 2026 est déjà engagée.
L’infrastructure IA repose sur deux types d’acteurs très différents : les fabricants de mémoire et les fournisseurs de stockage.
Les fabricants produisent les puces DRAM, HBM et NAND qui alimentent les accélérateurs IA.
Les entreprises de stockage, elles, construisent les systèmes nécessaires pour héberger les immenses volumes de données utilisés par les modèles.
Les deux groupes bénéficient de la croissance de l’IA, mais pour des raisons différentes, et avec des profils de risque distincts.
Les fabricants de mémoire (DRAM, HBM, NAND)
Ces entreprises fabriquent les puces mémoire utilisées dans les GPU et serveurs IA. Leur activité dépend directement de :
- la croissance des GPU,
- la taille des modèles IA,
- la pénurie de HBM,
- les cycles de prix DRAM.
Acteurs clés
- Micron — DRAM, HBM, NAND
- SK Hynix — DRAM, HBM, NAND
- Samsung — DRAM, HBM, NAND
- Western Digital — NAND (mais pas DRAM/HBM)
Pourquoi ce groupe compte
C’est ici que se situe le goulot d’étranglement de l’IA. La demande en HBM est telle que :
- Micron est complet jusqu’en 2026,
- SK Hynix augmente massivement sa capacité,
- Samsung tente de rattraper son retard en HBM4.
Ce groupe offre l’exposition la plus directe à la croissance de l’IA.
Les entreprises de stockage pour l’IA
Ces entreprises ne fabriquent pas de puces mémoire. Elles construisent l’infrastructure de stockage nécessaire pour conserver :
- les datasets d’entraînement,
- les embeddings,
- les checkpoints,
- les logs,
- les corpus RAG,
- les sorties d’inférence.
Un modèle économique différent, et une thèse d’investissement différente.
1. HDD (stockage magnétique)
Utilisé pour le stockage massif à bas coût. Essentiel pour l’IA car les datasets sont gigantesques.
Leaders
- Seagate
- Western Digital
La capacité HDD nearline de Seagate pour 2026 est déjà entièrement réservée.
Systèmes de stockage flash (basés sur NAND)
Utilisés pour les pipelines IA à haute performance :
- RAG,
- accès rapide aux données d’entraînement,
- stockage à faible latence pour l’inférence.
Leaders
- Everpure (nouveau nom de Pure Storage)
- NetApp
- Samsung
- Sandisk
Ces entreprises achètent la NAND (Micron, Samsung, SK Hynix) et construisent des systèmes haut de gamme.
Pourquoi les actions mémoire ont flambé
Le boom de l’IA a forcé les hyperscalers à construire des centres de données massifs nécessitant des quantités inédites de RAM, HBM et stockage.
Cela a créé une pénurie structurelle, pas cyclique.
L’offre ne devrait pas rattraper la demande avant 2027.
Pourquoi elles ont chuté récemment
Deux raisons principales :
Craintes d’un assouplissement de la pénurie
Ce qui a déclenché une vente massive. Les actions se sont reprises depuis.
L’annonce d’une nouvelle technologie : TurboQuant de Google
TurboQuant est un algorithme de compression mémoire qui réduit l’empreinte mémoire des grands modèles. Les investisseurs ont craint une baisse future de la demande en DRAM/HBM.
TurboQuant représente‑t‑il une menace réelle ?
Pas à court terme.
- La compression réduit la mémoire par modèle, mais les modèles deviennent plus grands.
- Les hyperscalers réservent toujours toute la capacité HBM et HDD jusqu’en 2026.
- Micron et SK Hynix restent complets sur la HBM.
- Les besoins en stockage (HDD + flash) continuent d’augmenter avec la taille des datasets.
TurboQuant ralentit la croissance, il ne l’inverse pas.
Conclusion pour les investisseurs
Le secteur conserve un fort potentiel pluriannuel. Les pénuries sont structurelles, et la construction d’infrastructures IA est loin d’être terminée.
La récente correction a été motivée par la peur, pas par les fondamentaux.
Les technologies de compression comme TurboQuant méritent d’être surveillées, mais elles ne suppriment pas le besoin :
- de mémoire à haute bande passante (HBM),
- de DRAM,
- de stockage massif (HDD + systèmes flash).
Quel groupe offre la meilleure opportunité ?
Les fabricants de mémoire offrent aujourd’hui l’exposition la plus directe et la plus explosive à la croissance de l’IA. La HBM et la DRAM restent les principaux goulots d’étranglement, et l’offre est déjà vendue plusieurs années à l’avance. Les entreprises de stockage bénéficient également de l’IA, mais leur croissance est plus régulière et moins liée à la demande en accélérateurs.
En résumé :
- Mémoire = potentiel plus élevé, mais plus volatile.
- Stockage = croissance plus stable, profil plus défensif.