Le vrai coût de l'IA : qui paie vraiment la différence ?

OpenAI perd des milliards, Microsoft subventionne vos tokens, et la note finira par arriver

Par l'équipe Sinra

Vous payez 20 € par mois pour ChatGPT Plus. 20 € pour Claude Pro. 10 € pour GitHub Copilot. Ces tarifs semblent raisonnables, voire attractifs. Mais une question s’impose : est-ce vraiment ce que cela coûte de vous fournir ces services ?

La réponse est non. Et les chiffres disponibles révèlent une réalité économique que les entreprises d’IA préfèrent ne pas mettre en avant.

GitHub Copilot : l’exemple le plus documenté

En octobre 2023, le Wall Street Journal a révélé que Microsoft perdait en moyenne 20 dollars par mois sur chaque abonnement GitHub Copilot vendu à 10 dollars. Pour les utilisateurs les plus intensifs, ce coût atteignait 80 dollars par mois (source : Tom’s Hardware, 10 oct. 2023, citant le Wall Street Journal).

Microsoft dépensait donc parfois deux fois, voire huit fois ce qu’il facturait. Cette information n’est pas une fuite : elle est documentée et confirmée par plusieurs publications. C’est simplement un fait que peu d’utilisateurs connaissent.

Sam Altman l’avoue : même à 200 $ par mois, on perd de l’argent

Le 7 janvier 2025, Sam Altman, PDG d’OpenAI, a publié sur X : « insane thing: we are currently losing money on openai pro subscriptions! people use it much more than we expected. »

Il avait lui-même fixé le prix de ChatGPT Pro à 200 dollars par mois en estimant que ce niveau serait rentable. Ce ne fut pas le cas. Les utilisateurs du plan Pro utilisent le service à une fréquence et une intensité que même l’équipe interne d’OpenAI n’avait pas anticipées (source : Fortune, 7 jan. 2025).

Cela soulève une question simple : si même un abonnement à 200 dollars par mois est déficitaire, que dire des abonnements à 20 dollars ?

OpenAI : une entreprise qui perd plus qu’elle ne gagne

Les chiffres publiés par le New York Times et confirmés par CNBC en septembre 2024 sont sans ambiguïté : OpenAI a réalisé 3,7 milliards de dollars de revenus en 2024, pour une perte nette d’environ 5 milliards de dollars (source : CNBC, 27 sept. 2024). L’entreprise dépensait donc 2,25 dollars pour chaque dollar gagné.

La répartition des coûts est éclairante. Selon une analyse des documents fiscaux de Microsoft publiée par Ed Zitron sur wheresyoured.at, les seules dépenses d’inférence d’OpenAI via Azure ont atteint 3,767 milliards de dollars en 2024, répartis ainsi :

  • T1 2024 : 546,8 millions $
  • T2 2024 : 748,3 millions $
  • T3 2024 : 1,005 milliard $
  • T4 2024 : 1,467 milliard $

Sur les trois premiers trimestres 2025, ces dépenses d’inférence atteignaient déjà 8,67 milliards de dollars, soit plus que l’ensemble des revenus de l’année précédente (source : wheresyoured.at, « Here’s How Much OpenAI Spends On Inference »).

L’infrastructure : pourquoi chaque requête coûte cher

Ces pertes ne sont pas accidentelles. Elles reflètent le coût réel d’un service qui mobilise des ressources matérielles considérables.

Un GPU NVIDIA H100, la puce standard pour l’inférence de grands modèles de langage, coûte entre 25 000 et 40 000 dollars à l’achat. Un serveur à huit GPU représente un investissement de 200 000 à 320 000 dollars. Et ces machines consomment entre 1 000 et 1 400 watts chacune en fonctionnement permanent (source : SemiAnalysis, « H100 vs GB200 NVL72 Training Benchmarks »).

Du côté de l’énergie, chaque requête à GPT-4o consomme environ 0,3 watt-heure, selon une estimation publiée par Epoch AI en février 2025. Ce chiffre peut sembler modeste, mais multiplié par des centaines de millions de requêtes quotidiennes, l’addition devient astronomique.

Goldman Sachs projette que la demande énergétique des centres de données augmentera de 165 % d’ici 2030 par rapport à 2023, avec un besoin en investissements d’infrastructure de 720 milliards de dollars sur la même période (source : Goldman Sachs Research, « AI to drive 165% increase in data center power demand by 2030 »).

Anthropic : la même réalité, à une autre échelle

OpenAI n’est pas un cas isolé. Anthropic, l’entreprise derrière Claude, a enregistré une perte nette de 5,3 à 5,6 milliards de dollars en 2024, malgré une croissance de ses revenus passant de 1 milliard d’ARR en décembre 2024 à 4 milliards en juillet 2025 (source : TechCrunch, 4 nov. 2025, citant The Information).

The Information a également rapporté qu’Anthropic a dû revoir à la baisse ses projections de marge brute, les coûts d’inférence sur les clouds de Google et Amazon s’avérant 23 % plus élevés qu’anticipé (source : The Information, « Anthropic Lowers Gross Margin Projection as Revenue Skyrockets »).

Qui finance tout ça aujourd’hui ?

Ces pertes massives sont couvertes par des investisseurs qui parient sur une rentabilité future. Microsoft a investi plus de 13 milliards de dollars dans OpenAI. Amazon et Google ont apporté chacun plusieurs milliards à Anthropic. Des fonds de capital-risque complètent ces financements.

La banque Deutsche Bank a analysé la trajectoire financière d’OpenAI et conclu : « No startup in history has operated with losses on anything approaching this scale. We are firmly in uncharted territory. » Ses estimations projettent 143 milliards de dollars de pertes cumulées entre 2024 et 2029 avant d’atteindre la rentabilité (source : eMarketer citant Deutsche Bank). Un chiffre depuis révisé à la hausse : The Decoder rapporte qu’OpenAI a ajouté 111 milliards à ses projections de dépenses, portant le total à 665 milliards de dollars jusqu’en 2030 (source : The Decoder, « OpenAI adds $111 billion to its cash burn forecast »).

Pour comparaison, Uber a perdu 18 milliards sur six ans avant d’atteindre la profitabilité. Amazon n’a eu besoin que d’un milliard sur cinq ans.

Ce qui va changer : la facture arrive

Les documents internes d’OpenAI cités par le New York Times en septembre 2024 indiquent clairement la trajectoire tarifaire envisagée par l’entreprise :

  • ChatGPT Plus : de 20 $/mois à 22 $/mois d’ici fin 2025
  • ChatGPT Plus : 44 $/mois en 2029

(source : TechCrunch, 27 sept. 2024, citant le New York Times)

La responsable du produit ChatGPT chez OpenAI a déclaré sans ambiguïté : « There’s no world in which pricing doesn’t significantly evolve when the technology is changing this quickly. » Elle a également évoqué la possible disparition des abonnements à usage « illimité », au profit d’une facturation progressive selon l’intensité d’utilisation.

Cette évolution n’est pas une hypothèse de travail. Elle est inscrite dans les documents financiers internes et découle d’une nécessité arithmétique.

Une subvention temporaire, pas un prix durable

Il est utile de comprendre pourquoi ces services sont proposés à perte aujourd’hui. La logique est classique dans l’industrie technologique : acquérir rapidement des utilisateurs, créer des habitudes, construire des dépendances, puis ajuster les prix une fois l’emprise établie.

Ce modèle a fonctionné pour Uber avec les courses subventionnées, pour Netflix avec les abonnements bradés en phase d’expansion, pour Amazon avec AWS proposé au coût marginal. Dans tous ces cas, la période de subvention a pris fin lorsque la position dominante était suffisamment assurée.

Avec l’IA, l’échelle est différente. Les coûts d’infrastructure sont incompressibles à court terme. La demande explose. Et les investisseurs exigeront tôt ou tard un retour sur leurs mises colossales.

Ce que cela signifie concrètement

Pour les utilisateurs individuels, la hausse de prix est prévisible et documentée. Un abonnement ChatGPT à 44 dollars en 2029 représente plus du double du tarif actuel. Pour les entreprises qui ont intégré l’IA dans leurs flux de travail à des tarifs artificiellement bas, la revalorification des API et des licences d’entreprise pourrait modifier substantiellement leurs bilans.

Pour les équipes produit qui construisent des fonctionnalités sur ces API, les coûts d’inférence qui représentent aujourd’hui une ligne raisonnable dans un budget pourraient devenir un poste significatif dans deux ou trois ans.

Le prix actuel de l’IA n’est pas son prix réel. C’est un tarif d’introduction financé par des capitaux qui attendent leur retour. La vraie question n’est pas de savoir si les prix vont augmenter, mais quand et de combien.

Ce qui pourrait se passer ensuite

La normalisation des prix de l’IA ne sera pas un simple ajustement tarifaire. Elle risque de déclencher une série de rééquilibrages profonds dans les façons de travailler, de recruter et de construire des produits.

Un retrait progressif des entreprises

Depuis 2023, beaucoup d’entreprises ont intégré des outils IA dans leurs processus sans en mesurer le coût réel, précisément parce que ce coût était artificiellement bas. Quand les API OpenAI, Anthropic ou Google coûteront deux à trois fois plus cher, les équipes finance commenceront à poser les bonnes questions : quel est le retour sur investissement réel de cette intégration ? Ce résumé automatique ou ce générateur de rapport vaut-il vraiment 0,15 € par requête à la place de 0,04 € aujourd’hui ?

Une partie des cas d’usage actuels ne survivra pas à cette arithmétique. Les fonctionnalités IA intégrées à la va-vite dans des produits pour « cocher la case » disparaîtront les premières. Les entreprises ne conserveront que les usages qui justifient économiquement leur coût réel, ce que beaucoup n’ont jamais vraiment évalué.

L’open source comme soupape de décompression

Face à la hausse des prix des modèles propriétaires, les modèles open source représentent une alternative crédible et croissante. Meta avec LLaMA, Mistral AI depuis Paris, ou DeepSeek depuis la Chine ont démontré qu’il est possible de produire des modèles de très bon niveau à une fraction du coût des géants américains.

Une entreprise capable d’héberger elle-même un modèle open source performant sur son infrastructure s’affranchit des hausses tarifaires des grandes plateformes. Ce scénario était marginal en 2023, quand les modèles open source étaient nettement inférieurs. Il devient de plus en plus réaliste à mesure que l’écart de performance se réduit.

La conséquence directe : les entreprises qui auront développé une vraie compétence en inférence locale seront en bien meilleure position que celles qui ont tout externalisé vers des API sans comprendre ce qu’elles consomment.

Un recul de l’adoption individuelle

Pour les développeurs et créatifs indépendants, la hausse de prix va créer une segmentation nette. Ceux qui utilisent l’IA de façon intensive et productive trouveront le rapport coût-bénéfice acceptable même à 44 ou 50 dollars par mois. Les usages légers ou expérimentaux, en revanche, pourraient ne pas survivre à la multiplication par deux ou trois du tarif.

Le Gartner Hype Cycle décrit un phénomène bien connu dans la technologie : après le pic des attentes exagérées vient le creux de désillusion, avant que les usages vraiment utiles ne s’installent durablement. L’IA grand public est peut-être en train d’amorcer ce virage. La période de gratuité relative a gonflé les chiffres d’adoption sans nécessairement révéler les usages réellement ancrés.

Le retour du développeur ?

C’est le scénario le plus contre-intuitif, mais pas le moins plausible. Depuis 2023, le marché de l’emploi tech a connu une vague de licenciements massifs, en partie justifiée par la promesse que l’IA remplacerait une fraction significative du travail de développement. Certaines entreprises ont gelé des embauches en pariant sur des gains de productivité IA qui n’ont pas toujours été au rendez-vous.

Si les outils IA voient leurs tarifs doubler ou tripler, l’équation change. Un développeur junior à 40 000 ou 50 000 euros annuels peut produire du code contextualisé, maintenir des bases de code complexes, dialoguer avec les métiers et prendre des décisions que l’IA ne prend pas. Si GitHub Copilot passe à 50 ou 80 dollars par mois et que Claude Code dépasse les 200 dollars, certaines équipes pourraient recalculer si un poste humain n’est pas plus rentable pour certaines tâches.

Ce raisonnement a ses limites : un outil IA à 100 dollars par mois reste infiniment moins cher qu’un salaire, même augmenté par deux. Mais il illustre que le rapport de forces actuel entre coût humain et coût machine repose sur des prix qui ne reflètent pas la réalité économique. Quand les prix s’ajusteront, certaines décisions de recrutement gelées depuis deux ans pourraient être reconsidérées.

Les profils les plus exposés à ce retour potentiel seront ceux dont l’IA ne peut pas encore reproduire la valeur de façon fiable : les développeurs capables de comprendre un système dans sa globalité, de diagnostiquer des problèmes intermittents, de négocier les compromis techniques avec les équipes produit. Précisément les profils que beaucoup d’entreprises ont commencé à négliger.

La fin des abonnements illimités

Une autre transformation probable est la disparition du modèle d’abonnement à usage illimité, déjà évoquée par OpenAI. Les plateformes migrent vers une facturation à l’usage ou par paliers, ce qui rend le coût réel visible pour chaque utilisateur.

Ce changement de structure tarifaire modifiera les comportements. Quand chaque requête a un prix affiché, les utilisateurs deviennent naturellement plus sélectifs. L’usage réflexif et non réfléchi de l’IA, celui où l’on pose des questions à l’IA parce que c’est gratuit et rapide, cédera la place à un usage plus délibéré. Ce n’est pas nécessairement une mauvaise chose.

Un marché à deux vitesses

Le scénario le plus probable à horizon 2028-2030 n’est ni l’effondrement de l’IA ni une adoption universelle homogène. C’est un marché à deux vitesses : les grandes entreprises capables de négocier des accords de volume et d’investir dans des infrastructures internes, et les acteurs plus modestes confrontés à des coûts croissants sans levier de négociation.

Cette fracture pourrait recréer les inégalités compétitives que l’IA promettait initialement d’effacer. La démocratisation de l’accès à des capacités autrefois réservées aux grandes entreprises technologiques aura été réelle, mais temporaire. Le temps que les investisseurs récupèrent leur mise.


Sources principales : Wall Street Journal (oct. 2023) via Tom’s Hardware, Sam Altman sur X (7 jan. 2025), CNBC (27 sept. 2024), New York Times (sept. 2024) via TechCrunch, Fortune (28 sept. 2024), wheresyoured.at (analyses des documents Microsoft), Deutsche Bank via eMarketer, The Decoder, The Information, Epoch AI (fév. 2025), Goldman Sachs Research, SemiAnalysis.

Prêt à Transformer Votre Gestion de Projet ?

Appliquez ces insights avec Sinra - la plateforme unifiée pour les équipes modernes.

Commencer l'Essai Gratuit