L'industrie de l'intelligence artificielle entre dans une nouvelle ère d'infrastructures colossales. OpenAI, en partenariat avec Oracle et SoftBank, vient d'annoncer un investissement de 400 milliards de dollars pour construire cinq nouveaux centres de données aux États-Unis, qui s'ajouteront au site « Stargate » déjà opérationnel au Texas. Ce projet pharaonique devrait atteindre 500 milliards de dollars d'ici fin 2025.

Une puissance électrique équivalente à dix réacteurs nucléaires

L'objectif affiché est de créer une capacité de calcul approchant les 7 gigawatts, une puissance électrique comparable à celle de dix réacteurs nucléaires. Cette démesure énergétique s'explique par les besoins exponentiels de l'IA générative, dont ChatGPT est le fer de lance avec ses 700 millions d'utilisateurs hebdomadaires.

Les cinq nouveaux sites s'étendront sur plusieurs États américains :

  • Trois sites développés par Oracle et OpenAI au Texas, au Nouveau-Mexique et dans le Midwest
  • Deux sites gérés par SoftBank en Ohio et au Texas
  • Une extension de 600 mégawatts près du site principal d'Abilene, Texas

Ces infrastructures devraient créer plus de 25 000 emplois sur site et représenter l'un des plus importants déploiements technologiques de la décennie.

Répondre à la demande explosive de ChatGPT

Derrière ces chiffres astronomiques se cache une réalité opérationnelle : OpenAI peine aujourd'hui à satisfaire la demande existante. Les limitations de capacité touchent régulièrement les utilisateurs, y compris les abonnés payants de ChatGPT Plus.

« L'IA ne pourra tenir ses promesses que si nous construisons la puissance de calcul nécessaire », a déclaré Sam Altman, PDG d'OpenAI.

La situation actuelle est particulièrement tendue. Les fonctionnalités les plus gourmandes en calcul, comme la génération d'images ou les modèles de raisonnement simulé, rencontrent fréquemment des restrictions d'usage. Les utilisateurs gratuits, qui représentent un vivier essentiel pour les futures souscriptions, subissent des limitations encore plus strictes.

Préparer l'avenir de l'IA générative

Au-delà de répondre à la demande immédiate, ces infrastructures sont cruciales pour l'entraînement des futures générations de modèles d'IA. Ce processus nécessite des milliers de puces spécialisées fonctionnant sans interruption pendant des mois, consommant des quantités d'énergie phénoménales.

La course à la puissance de calcul devient un enjeu stratégique majeur dans l'industrie technologique. Les prochains modèles, plus complexes et plus performants, exigeront des ressources computationnelles encore plus importantes que les systèmes actuels.

Un modèle financier qui interroge

La structure financière de ces investissements massifs suscite cependant des interrogations chez les observateurs du secteur. Le modèle apparaît comme circulaire : Nvidia, principal fournisseur de puces, investit 100 milliards de dollars dans OpenAI, qui reverse ensuite cette somme en achetant des systèmes Nvidia.

Oracle suit un schéma similaire avec un contrat de 30 milliards de dollars par an où la société construit des infrastructures qu'OpenAI paie pour utiliser. Cette circulation d'argent entre fournisseurs et clients soulève des questions sur la viabilité économique à long terme.

La complexité s'accroît avec les récentes discussions sur un possible système de location des puces : Nvidia créerait une entité distincte pour acheter ses propres GPU, puis les louerait à OpenAI, ajoutant une nouvelle couche d'ingénierie financière.

Le spectre de la bulle technologique

Malgré la demande réelle et croissante pour les services d'IA, l'ampleur des investissements fait craindre une surchauffe du secteur. Sam Altman lui-même a évoqué la possibilité d'une « bulle de l'IA », soulevant la question du devenir de ces infrastructures gigantesques en cas de correction du marché.

Les enjeux dépassent le simple cadre économique. La consommation énergétique de ces data centers pose des questions environnementales cruciales, tandis que leur concentration géographique interroge sur la souveraineté technologique des différentes régions du monde.

À retenir

  • OpenAI investit 400 milliards de dollars dans six data centers dédiés à l'IA
  • Objectif : atteindre 7 gigawatts de capacité de calcul d'ici 2025
  • Motivation : répondre aux 700 millions d'utilisateurs de ChatGPT et développer les futurs modèles
  • Structure financière circulaire entre OpenAI, Nvidia et Oracle
  • Risques de bulle spéculative et questions environnementales