Dans un futur très proche, toute infrastructure technologique deviendra, de fait, une infrastructure d’intelligence artificielle
Toute infrastructure devient une infrastructure d’IA
Et ce n’est pas une exagération. À mesure que les entreprises étendent l’usage des modèles d’IA générative et des agents autonomes, chaque couche de la stack technologique — du la puce au cloud, en passant par l’orchestration — sera redéfinie pour supporter les charges de travail IA.
Shaun O’Meara, Chief Technology Officer, Mirantis partage son expertise sur le sujet.
Cette transition marque une nouvelle rupture, après celle du passage des datacenters physiques au cloud computing. D’ici quelques années, une large partie des applications traditionnelles pourrait disparaître, remplacée par des systèmes et workflows pilotés, et peut-être modifiés en temps réel, par l’IA elle-même.
Pourquoi l’infrastructure IA bouleverse les anciens modèles
L’histoire du cloud a été façonnée par l’abstraction: la virtualisation, les conteneurs, les API et les moteurs d’orchestration ont rendu les couches inférieures — matériel, système d’exploitation — de plus en plus invisibles.
Les charges de travail IA inversent cette logique. La performance à grande échelle dépend désormais directement du matériel et des interconnexions sous-jacentes. L’entraînement et l’inférence sont étroitement liés aux CPU, GPU, à la mémoire et au réseau. Et au lieu de masquer la complexité, l’IA la met en pleine lumière.
Et cela crée un paradoxe : plus l’adoption de l’IA s’accélère, plus les entreprises doivent comprendre et optimiser leur infrastructure dans les moindres détails. La promesse d’une simplicité “serverless” s’efface lorsque les ingénieurs de plateforme doivent jongler avec des architectures NUMA, des lignes PCI ou des interconnexions GPU pour atteindre un niveau de performance acceptable.
La nouvelle complexité de la stack
Au cœur de cette transformation se trouve la relation entre CPU et GPU. Les GPU sont les moteurs de l’IA, mais ils ne peuvent fonctionner seuls: les CPU alimentent les pipelines de données, gèrent le prétraitement et la planification des tâches. Dans bien des cas, les workloads combinant CPU et GPU fonctionnent mieux que ceux reposant sur les GPU seuls. La mise à l’échelle des modèles suppose donc une orchestration globale de ces ressources, au lieu d’une gestion en silos isolés les uns des autres.
Le réseau joue un rôle tout aussi critique. Quatre types de fabric structurent l’infrastructure IA: les réseaux de données (flux est-ouest et nord-sud), les réseaux longue distance qui relient les régions, les interconnexions PCI entre dispositifs, et les réseaux RDMA (Remote Direct Memory Access) pour les clusters GPU à très faible latence. Et chacun doit être pris en compte jusqu’à la couche stockage lors de la conception d’une infrastructure IA.
La pénurie de GPU n’est que la partie émergée du problème, puisque la véritable contrainte se situe désormais du côté de l’énergie et de l’espace physique disponible dans les datacenters. Chez l’un des partenaires de Mirantis, 100 % du budget énergétique est consommé alors que seulement 20 % du site est utilisé. Sous l’effet des nouvelles exigences de l’IA, les règles de conception des datacenters sont en train d’être réécrites: densité énergétique accrue par rack, exigences de refroidissement plus strictes et les délais de livraison du matériel sont plus longs.

Shaun O’Meara, Chief Technology Officer, Mirantis
Gouvernance et souveraineté
Les workloads IA soulèvent des enjeux de souveraineté que les applications traditionnelles rencontraient rarement. Les exigences de localisation des données, les réglementations comme le RGPD ou le DORA imposent de nouvelles contraintes sur le lieu et la manière dont les modèles sont exécutés.
Les entreprises doivent garantir non seulement la disponibilité et la performance, mais aussi la gouvernance démontrable de chaque agent, modèle et outil déployé. La souveraineté devient à la fois géographique, juridique et opérationnelle. Dans les environnements mutualisés, elle implique en outre une isolation stricte entre workloads qui pourraient appartenir à des équipes, des divisions ou bien même des organisations partenaires différents.
Les développeurs et le fossé de l’abstraction
Les développeurs d’applications IA ne souhaitent pas gérer la complexité du matériel, des interconnexions et des fabrics, alors la solution n’est pas de leur transférer cette charge, mais de concevoir des plateformes capables de masquer les détails d’infrastructure tout en assurant contrôle, sécurité et performance à grande échelle.
Les piliers de l’infrastructure IA
L’infrastructure IA peut être décomposée en quatre couches interdépendantes:
- Les workloads
La couche supérieure correspond aux workloads eux-mêmes: entraînement, fine-tuning, inférence ou orchestration d’agents. Si l’entraînement à grande échelle mobilise souvent des milliers de GPU interconnectés, le fine-tuning ou l’inférence de petits modèles peuvent ne nécessiter qu’une poignée de ressources. La capacité à gérer ces deux extrêmes est essentielle.
- L’expérience développeur
Vient ensuite la couche d’usage. Les développeurs ont besoin de cohérence: les modèles doivent s’exécuter avec des performances prévisibles, sans devoir régler manuellement de manière excessive. Ils doivent pouvoir accéder aux ressources d’entraînement, aux environnements d’inférence et aux capacités de partitionnement GPU à mesure que les équipements vieillissent. C’est à ce niveau que les portails en libre-service, les API et les catalogues rendent l’IA accessible à l’ensemble de l’organisation.
- L’infrastructure en tant que service
Sous les workloads et l’expérience utilisateur se trouve l’infrastructure brute, qu’elle soit déployée sur site, dans le cloud ou sur l’edge.
- La gestion et l’observabilité
Enfin, la base repose sur le plan de gestion: la couche qui provisionne, supervise et optimise tout ce qui se situe au-dessus. Elle doit séparer le contrôle des données afin que les défaillances du plan de gestion n’interrompent pas les workloads. Elle doit offrir de la répétabilité via des modèles déclaratifs, une observabilité complète à chaque couche, et la flexibilité nécessaire pour changer de fournisseurs, de frameworks ou de tissus d’interconnexion selon les besoins. C’est à ce niveau que les entreprises gagnent, ou perdent, leur souveraineté.
Les principes stratégiques des plateformes IA
Quels principes doivent guider la prochaine génération de plateformes d’infrastructure pour l’intelligence artificielle? Plusieurs impératifs s’imposent:
- Pilotabilité – Les plateformes ne peuvent plus être assemblées à la main ni reposer sur des architectures fragiles. Elles doivent pouvoir évoluer facilement, se mettre à jour sans rupture et s’améliorer en continu tout au long de leur cycle de vie.
- Observabilité – Chaque couche, du GPU à la couche applicative, doit être mesurable et instrumentée. La performance n’est plus un simple objectif, mais une exigence non négociable.
- Flexibilité – Les entreprises doivent pouvoir faire évoluer leur stack technologique au rythme du marché, sans dépendre d’un fournisseur unique qui pourrait les bloquer. L’infrastructure doit s’adapter, pas se réécrire à chaque changement.
- Répétabilité – Les modèles et configurations déclaratives permettent de capitaliser sur des architectures éprouvées, de réduire la complexité et d’éviter de réinventer la roue à chaque projet.
- Computing sans frontières – Les ressources doivent pouvoir être localisées, sécurisées et utilisées partout, dans un datacenter, dans le cloud ou sur l’edge, avec la même visibilité et le même niveau de contrôle.
- Contrats de performance – Plutôt que d’abstraire complètement le matériel, les workloads doivent pouvoir définir leurs besoins de performance et recevoir des garanties concrètes. L’abstraction devient ainsi une promesse: les applications demandent, l’infrastructure répond de manière fiable et prévisible.
Ensemble, ces principes redéfinissent ce que doit être une infrastructure ouverte et stratégique: souple, mesurable et conçue pour répondre aux exigences réelles des workloads IA.
L’open source, la voie d’avenir
Dans un environnement où chaque cycle d’innovation compte, les entreprises qui déploient des infrastructures IA doivent pouvoir en tirer des résultats concrets sans attendre des mois. Les solutions propriétaires promettent souvent une mise en œuvre rapide, en regroupant tous les composants dans un écosystème fermé. Mais cette efficacité apparente a un coût: l’innovation y dépend du calendrier du fournisseur, et la flexibilité s’efface au profit du verrouillage technologique.
L’approche open source offre une alternative plus durable. Une infrastructure composable, fondée sur des modèles déclaratifs, permet aux plateformes d’évoluer au même rythme que leur écosystème. Les modèles assurent la répétabilité, les contrats garantissent la performance, et ce computing sans frontières mentionné plus tôt rend les ressources accessibles et sécurisées, où qu’elles se trouvent. Ainsi, les entreprises gardent le contrôle de leur architecture et de leur évolution, au lieu d’attendre qu’une plateforme monolithique s’adapte pour elles.
En conclusion
Toute infrastructure devient une infrastructure d’IA.
Cette mutation, aussi majeure que celle du cloud, sera plus complexe, plus gourmande en ressources et bien plus exigeante en matière de souveraineté. Les entreprises qui réussiront seront celles capables d’allier pilotabilité, observabilité, flexibilité et ouverture, tout en concevant des systèmes adaptés à la rareté, qu’il s’agisse d’énergie, de GPU ou d’espace bien physique. Leur force résidera dans des plateformes offrant de véritables garanties de performance, plutôt que des abstractions séduisantes… mais trompeuses.
L’IA n’attendra pas que le marché se stabilise.
Les organisations doivent choisir dès maintenant: céder à la rapidité des écosystèmes fermés ou bâtir une infrastructure ouverte, stratégique et souveraine. L’avenir appartiendra à celles qui sauront exploiter l’IA en toute sécurité, à grande échelle, sur une infrastructure qu’elles maîtrisent pleinement.
Téléchargez cette ressource
10 tendances clés de l’Expérience Client (CX) 2025
Dans le contexte actuel, l'expérience client est un levier clé de réussite. Pour rester compétitives, les entreprises doivent adopter des stratégies CX audacieuses, en s'appuyant sur le cloud, le digital et l'IA. Alors quelles stratégies mettre en place pour garder une longueur d’avance ?
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Cybersécurité 2026 : identité, visibilité et IA, les ruptures qui redessinent les standards de résilience
- L’IA, le Quantique et le Web 4.0 se défient en 2026
- Hausse continue de la fraude à l’identité !
- Comment le cloud hybride structure l’avenir de l’IA
- Les 7 paradoxes de la transformation digitale en France
