Le 12 mai 2026, CME Group annonce le premier marché à terme sur la puissance de calcul. Derrière le communiqué : une opération de qualification qui transforme un input opaque en classe d'actifs. Anatomie d'un acte performatif.
Le communiqué tient en quatre paragraphes secs. Le 12 mai 2026, CME Group et Silicon Data, adossé au prop trader chicagoan DRW, annoncent l'ouverture, plus tard dans l'année et sous réserve d'agrément de la CFTC, du premier marché à terme sur la puissance de calcul. Les contrats seront cash-settled, indexés sur les benchmarks quotidiens de location de GPU H100 et B200 produits par Silicon Data, et destinés — selon la formule consacrée — aux traders, institutions financières, AI builders et fournisseurs de cloud. Terry Duffy, président de CME, conclut par une phrase calibrée pour la citation : « compute is the new oil of the 21st century ». Don Wilson, fondateur de DRW, surenchérit : « compute will become the largest commodity in the world ».
Le marché a réagi par un haussement d'épaules. Le titre CME a clôturé inchangé, Nvidia n'a pas bougé. Aucun produit ne sera coté avant plusieurs mois. Aucun volume n'a été échangé. Pourtant, à lire l'annonce avec attention, on tient ici quelque chose de plus rare qu'un nouveau dérivé : un acte de qualification. Le compute n'est pas devenu une commodité parce que CME l'a décrété. Mais CME a publiquement engagé le travail institutionnel — indices de référence, structure de contrat, chambre de compensation — qui prétend en faire une. Et c'est ce travail-là, plutôt que le contrat lui-même, qui mérite l'attention. Parce qu'il est rarement réversible, et parce qu'il porte avec lui une histoire qu'il faut connaître.
Ce qui suit n'est pas une analyse de positionnement boursier, ni un commentaire sur les perspectives de CME. C'est une tentative de réponse à une question plus large : que se passe-t-il, exactement, quand on décide qu'une chose est une matière première ? Et que se passe-t-il, dans le cas particulier du calcul artificiel, quand cette chose résiste — par sa nature même — à la qualification qu'on cherche à lui imposer ?
La fabrique d'une commodité
L'analogie pétrolière n'est pas un ornement rhétorique. Elle est l'argument. Le 30 mars 1983, le NYMEX — alors une petite bourse new-yorkaise dont le contrat phare portait sur les pommes de terre du Maine — lance le premier contrat à terme sur le brut WTI. Trois mille contrats échangés le premier mois. Quarante ans plus tard, le WTI traite 1,7 million de contrats par jour pour une valeur notionnelle journalière d'environ 125 milliards de dollars, et son prix dicte celui de toute la complexe énergétique mondiale.
L'histoire est si bien connue qu'on en oublie la singularité. Avant 1983, le pétrole n'était pas une commodité au sens financier moderne. C'était une matière stratégique régulée par des gouvernements et un cartel — l'OPEP — dont les sept majors fixaient les prix par négociation bilatérale opaque. Il fallut deux conditions pour que la qualification devînt possible. La première fut politique : la dérégulation des prix domestiques américains par l'administration Reagan en janvier 1981. La seconde fut institutionnelle : le contrat NYMEX, conçu par l'économiste Arnold Safir, qui standardisa l'objet en barils de 1 000 unités de WTI livrable à Cushing, Oklahoma. Sans la première, le marché libre n'existait pas. Sans la seconde, il n'avait pas de prix.
Ce que CME et Silicon Data tentent en 2026 reproduit la séquence à l'identique. La première condition — l'existence d'un marché spot — est déjà là. Le marché de la location GPU à la demande pèse plusieurs milliards de dollars annuels, fragmenté entre hyperscalers (AWS, Azure, Google Cloud, Oracle), neoclouds (CoreWeave, Lambda, Crusoe) et plateformes spécialisées. La seconde condition — l'objet standardisé, l'underlying mesurable — est précisément ce que Silicon Data prétend produire depuis 2025 avec ses indices SDH100RT et SDB200RT, distribués sur Bloomberg et Refinitiv. La séquence est connue. Reste à savoir si elle peut aboutir.
L'analogie a cependant ses limites — et c'est précisément là que l'affaire devient intéressante. Une commodité, au sens technique, n'est pas seulement quelque chose qu'on achète et qu'on vend. C'est un objet qui satisfait quatre conditions cumulatives : fongibilité (un baril vaut un baril), standardisabilité (qualités définies, livraison normée), stockabilité ou continuité de flux (pour que le hedging ait un sens temporel), et diffusion de l'offre (suffisamment de producteurs pour qu'aucun ne dicte le prix). Le pétrole WTI satisfait les quatre. Le compute n'en satisfait clairement aucune.
Pourquoi un GPU-heure n'est pas un baril
Reprenons les quatre conditions, une par une. C'est dans cet exercice ingrat que se loge l'essentiel du pari de Silicon Data — et la totalité du scepticisme de ses contradicteurs.
La fongibilité, cette fiction utile
Un baril de WTI livré à Cushing est, par construction du contrat, indiscernable de n'importe quel autre baril de WTI livré à Cushing. Une GPU-heure ne l'est pas. La même H100, louée chez AWS à Virginie du Nord, chez CoreWeave à Las Vegas, ou chez un neocloud secondaire en Estonie, n'offre ni la même bande passante interconnect, ni la même qualité de réseau, ni la même fiabilité d'uptime, ni la même latence. Pour un job de training distribué sur 1024 GPUs, la topologie du fabric InfiniBand pèse autant que la puce. Pour un job d'inférence à faible latence, la géographie pèse autant que la puissance. La GPU-heure n'est pas un objet : c'est un agrégat de dimensions, dont la prix moyen normalisé est une convention, pas une mesure.
Silicon Data est explicite sur ce point. Sa méthodologie collecte plus de trois millions de points de prix quotidiens, en couvrant — selon ses chiffres — 80 % du marché de location H100 et 95 % des neoclouds. Elle normalise ensuite ces points pour produire un benchmark like-for-like. Mais une normalisation n'est pas une équivalence : c'est un choix de pondération. Et le choix de pondération est, par définition, contestable.
La standardisation, contre l'obsolescence
Le pétrole de 1983 ressemble au pétrole de 2026 — moins quelques nuances de teneur en soufre. Une H100 lancée fin 2022 ne ressemble déjà plus à une B200 livrée en 2025, et ressemblera encore moins à une B300 ou GB300 en 2027. NVIDIA a structuré son cycle produit sur 18 à 24 mois, chaque génération offrant des gains de performance par dollar de 2× à 3×. Cette obsolescence intégrée pose un problème mathématiquement insoluble pour un contrat à terme long : l'underlying d'aujourd'hui n'est plus l'objet économiquement pertinent dans douze mois. Les producteurs et utilisateurs s'orientent déjà vers la génération suivante, dont les prix de location ne sont pas couverts par l'instrument.
Le contrat WTI n'a jamais eu ce problème. Un baril de pétrole de 2030 sera, sauf accident, un baril de pétrole. C'est l'absence d'innovation matérielle profonde qui rend les commodités traditionnelles hedgeables sur la durée. La solution la plus discutée pour le compute consiste à abstraire le hardware en unités de performance — une Effective Compute Hour, normalisée par un benchmark MLPerf de référence. Mais cette abstraction repose elle-même sur un benchmark vivant, mis à jour, lui aussi contestable. On déplace le problème, on ne le résout pas.
La stockabilité, ou son absence
Une commodité stockable autorise un arbitrage classique entre spot et forward — c'est ce qu'on appelle le cost-of-carry. Si le prix à terme dépasse trop le prix spot, augmenté du coût de stockage et du taux d'intérêt, un trader peut acheter spot, stocker, vendre forward, et bloquer un profit sans risque. Cette arbitrage discipline la courbe forward et la rend cohérente.
Le compute n'est pas stockable. Une H100-heure non utilisée le 12 mai à 14h est perdue à jamais. Cela rapproche le compute de l'électricité, autre commodité non stockable — et le rapprochement n'est pas innocent. Les marchés à terme d'électricité existent (PJM, ERCOT, EEX), mais ils sont notoirement difficiles, fragmentés par zone géographique (locational marginal pricing), et leurs courbes forward sont moins informatives que celles des produits stockables. Le compute, qui combinera vraisemblablement non-stockabilité et obsolescence, hérite des pathologies de l'électricité en plus des siennes propres.
La diffusion de l'offre, et l'ombre de Jensen
NVIDIA contrôle plus de 80 % du marché des GPUs IA. À l'amont, TSMC fabrique l'essentiel de ces puces sur ses lignes N4 et N3. À l'aval, quatre hyperscalers concentrent une fraction massive de la capacité installée. Cette structure tri-couches verrouillée — un quasi-monopole de design, un quasi-monopole de fonderie, un oligopole d'opérateurs — ne ressemble en rien au marché pétrolier de 1983, déjà fragmenté entre des dizaines de producteurs nationaux et de raffineurs indépendants.
Le risque, dans ce cas, n'est pas tant la manipulation au sens strict — quoique le précédent des onions futures, dont nous reparlons plus loin, soit dans toutes les mémoires — que la colinéarité des prix. Si NVIDIA décide unilatéralement d'augmenter le tarif des H200 de 15 %, l'ensemble de la courbe forward se déplacera mécaniquement, sans qu'aucun signal d'équilibre offre-demande de marché n'ait été produit. Le contrat à terme reflétera fidèlement une politique de prix, pas une découverte de prix.
| Critère | Pétrole (WTI, 1983 →) | Compute (H100/B200, 2026) |
|---|---|---|
| Fongibilité | Élevée — qualité WTI normée | Faible — la GPU-heure dépend du réseau, du fabric, de la latence, du provider |
| Stabilité de l'objet | Très haute — un baril en 2030 reste un baril | Faible — cycles NVIDIA de 18–24 mois ; obsolescence intégrée |
| Stockabilité | Élevée — cuves, tankers, réserves stratégiques | Nulle — une heure non utilisée est perdue (proche de l'électricité) |
| Diffusion offre | Diffuse — des dizaines de producteurs et raffineurs | Concentrée — NVIDIA >80 % design ; TSMC dominant fab ; 4 hyperscalers |
| Substituabilité géographique | Limitée — frais de transport et qualité (Brent/WTI) | Variable — bande passante et latence fixent des zones de prix |
| Référence de prix | Cushing (livraison physique) | Indice composite Silicon Data (cash-settled) |
Ce que fait vraiment Silicon Data
Pour comprendre ce qui est mis en jeu, il faut entrer dans le détail de l'indice. Silicon Data publie quotidiennement, sur Bloomberg (tickers SDH100RT et SDB200RT) et Refinitiv, un benchmark pour la location à la demande de H100 et de B200. La méthodologie est, en première approximation, classique pour un index provider : collecte de prix affichés et négociés auprès d'environ cinquante providers, filtrage statistique des valeurs aberrantes, normalisation par configuration et localisation, agrégation pondérée. Le résultat est un nombre — un prix horaire moyen — qui prétend représenter « le » prix du marché.
Trois observations sur ce mécanisme. D'abord, l'indice agrège deux populations très différentes : les hyperscalers, qui négocient massivement sur contrat long et affichent des tarifs spot élevés (le Silicon Data H100 Hyperscaler Index a oscillé entre 7,40 et 7,52 $ entre mars et avril 2026, avec un coefficient de variation de 0,47 %), et les neoclouds, dont les tarifs sont plus bas mais bien plus volatils. Silicon Data publie d'ailleurs deux indices distincts pour chaque GPU — l'un Hyperscaler, l'autre Neocloud — précisément parce que la fusion des deux populations produirait un signal incohérent. Le contrat à terme CME devra choisir lequel il référence.
Ensuite, l'indice est publié, pas négocié. Il ne reflète pas un prix d'équilibre issu d'un échange organisé, mais une moyenne statistique de transactions bilatérales opaques. Sa qualité dépend entièrement de la transparence des providers échantillonnés et du jugement méthodologique de Silicon Data. Le contrôle de cette méthodologie devient, par construction, un enjeu politique majeur — d'où la pertinence des avertissements de la CFTC sur les benchmark administrators, comparables à ceux qui suivirent le scandale Libor.
Enfin, l'indice se rapporte au spot, alors que l'essentiel du marché GPU se transacte sur contrat long (six mois à cinq ans, selon SemiAnalysis). En février 2026, les prix de contrat un an pour des H100 ont bondi de 15 à 20 % en quelques semaines. Le benchmark spot quotidien manque donc, par construction, ce qui constitue le cœur économique du marché qu'il prétend décrire. La courbe forward — produite mathématiquement à partir de l'indice spot et des contrats à terme à venir — comblera-t-elle le manque ? C'est tout l'enjeu.
Précédents, réussis et désastreux
L'histoire des marchés à terme est un cimetière. Pour chaque WTI réussi, plusieurs contrats ont disparu — par illiquidité, par obsolescence, ou par scandale. Trois précédents méritent d'être convoqués à l'appui ou au procès du projet CME.
Le WTI, parabole de succès
Le contrat brut WTI lancé en 1983 demeure le modèle. Trois mille contrats échangés le premier mois, plus de cent mille au bout d'un an, deux millions par jour aujourd'hui. La leçon : un contrat à terme réussit lorsqu'il satisfait simultanément deux populations hétérogènes mais complémentaires — les hedgers (producteurs et consommateurs cherchant à se couvrir) et les spéculateurs (apporteurs de liquidité acceptant le risque). Les premiers donnent au contrat sa raison d'être. Les seconds lui donnent sa profondeur.
Dans le cas du compute, la population des hedgers existe — AI labs, hyperscalers, neoclouds, lenders financant des data centers — mais elle est peu nombreuse et fortement intégrée verticalement. Un hyperscaler qui possède son propre parc GPU n'a pas besoin de se couvrir contre la hausse du prix du compute : il bénéficie de cette hausse. Asymétriquement, les AI labs qui louent du compute ont un intérêt évident à couvrir leur exposition. Le marché potentiel est donc plus étroit, et plus déséquilibré du côté de l'achat de protection, que ne l'était le marché pétrolier en 1983.
Les onions, parabole d'échec
En 1955, deux traders — Vincent Kosuga et Sam Siegel — accumulent environ 98 % du stock disponible d'oignons jaunes via le marché à terme de Chicago. Le prix atteint 2,75 $ le sac de 50 livres, puis s'effondre à 10 cents lorsque les deux opérateurs libèrent leur stock. Producteurs ruinés. Scandale national. En août 1958, le président Eisenhower signe l'Onion Futures Act, qui interdit purement et simplement la négociation de contrats à terme sur les oignons. La loi tient toujours en 2026.
La leçon onionne est subtile. Ce n'est pas que les marchés à terme sont mauvais — la recherche économique contemporaine montre plutôt que l'interdiction de 1958 a augmenté la volatilité spot des prix des oignons. C'est qu'un marché à terme adossé à un underlying dont l'offre peut être verrouillée par un petit nombre d'acteurs est vulnérable à la corner. Or le compute, on l'a vu, est précisément dans cette configuration : l'offre matérielle est dominée par NVIDIA, la capacité installée par quatre hyperscalers. Le risque de manipulation — non pas frauduleuse, mais structurelle — est élevé.
La bande passante, parabole oubliée
Au tournant des années 2000, en pleine bulle télécoms, plusieurs initiatives ont tenté de créer des marchés à terme pour la bande passante télécom. Enron Broadband Services, Williams Communications, Band-X au Royaume-Uni. Toutes ont échoué, pour des raisons qui résonnent étrangement aujourd'hui : hétérogénéité de l'objet (un mégabit-seconde dépend du chemin, de la latence, du SLA), évolution technologique rapide (la fibre optique multipliait les capacités par dix tous les deux ans), concentration de l'offre (quelques opérateurs longs courriers), absence de standardisation acceptée.
L'analogie est, ici, presque trop parfaite pour être ignorée. Le compute partage avec la bande passante de l'an 2000 chacun des quatre traits qui ont condamné l'expérience télécom. Que les concepteurs du contrat compute n'évoquent pas publiquement ce précédent est, en soi, instructif.
L'enjeu, au-delà du contrat
Admettons, pour le besoin du raisonnement, que le contrat lui-même connaisse un succès mitigé — quelques milliers de positions, peu de profondeur, peu d'usage. Ce serait, après tout, un résultat normal pour un nouveau produit. Pourquoi, alors, l'opération mériterait-elle l'attention au-delà du cercle des traders spécialisés ?
Parce que la conséquence la plus importante de l'annonce du 12 mai n'est pas le contrat. C'est l'institutionnalisation d'un objet de pensée. Quand Larry Fink, président de BlackRock, déclare au Milken Institute, dix jours plus tôt, que « buying futures of compute » deviendra une nouvelle classe d'actifs, il ne décrit pas un fait, il en pose un. Quand CME inscrit la livraison de tels contrats à son calendrier réglementaire, il ratifie l'existence de l'objet. Et quand Silicon Data distribue ses indices sur Bloomberg, il fournit la métrique qui permettra à des analystes, lenders, fonds d'infrastructure, banques d'investissement, de raisonner sur le compute comme ils raisonnent aujourd'hui sur le pétrole.
Compute is the new oil of the 21st century. Every AI model trained, every transaction cleared, every byte processed runs on compute. — Terry Duffy, CEO CME Group, 12 mai 2026
L'effet se fera sentir, en premier lieu, dans le financement des data centers. CoreWeave a déjà accumulé environ 50 milliards de dollars d'engagements forward auprès de ses clients — des contrats bilatéraux pour livrer de la capacité GPU à prix négocié sur trois à cinq ans. Les banques qui prêtent à CoreWeave et à ses pairs doivent valoriser ces engagements, et donc estimer la valeur résiduelle de l'infrastructure dans trois ans. En l'absence de courbe forward de marché, cette valorisation est purement modèle — c'est l'emprunteur qui fournit les hypothèses, juge et partie. Une courbe forward observable, même imparfaite, change cette équation. Elle ne supprime pas le risque, mais elle en transfère une partie du modèle privé vers le prix de marché.
En second lieu, l'effet se fera sentir dans la politique du compute. Larry Fink, encore, et Don Wilson après lui, parlent d'une pénurie stratégique — les États-Unis manquent de compute, de puces, de mémoire, de puissance électrique. Un marché à terme actif rend cette pénurie chiffrée, comparée, publique. Il fournit l'argument quantifié dont les politiques industrielles ont besoin pour justifier des subventions, des aides à l'investissement, des restrictions à l'export. Le prix du compute, par voie de futures, devient un input du discours souverain au même titre que le prix de l'énergie.
En troisième lieu, et c'est sans doute le point le plus délicat, l'opération réorganise les rapports de force. Les acteurs déjà installés en haut de la pile — NVIDIA, TSMC, les quatre hyperscalers, les neoclouds majeurs adossés à des fonds d'infrastructure, et désormais les firmes de trading propriétaires qui font le marché — sont structurellement les premiers bénéficiaires de la financiarisation. Ils disposent du bilan, des contrats long, de la capacité opérationnelle pour participer dès le premier jour. Les petits acteurs — startups IA, laboratoires académiques, applications de niche — verront passer la courbe forward sans pouvoir en tirer parti.
Le mouvement engagé par CME n'est donc ni un simple produit financier ni une révolution. C'est un acte d'institutionnalisation qui rend visibles, négociables et donc gouvernables, des phénomènes économiques jusque-là invisibles, illiquides, et privatisés. Comme tous les actes d'institutionnalisation, il aura des effets bien au-delà de son objet apparent. Le contrat lui-même pourra végéter ; l'indice qui le sous-tend, lui, est désormais installé pour durer.