
El verdadero coste de la IA: ¿quién paga realmente la diferencia?
OpenAI pierde miles de millones, Microsoft subvenciona tus tokens, y la factura llegará
Pagas 20 € al mes por ChatGPT Plus. 20 € por Claude Pro. 10 € por GitHub Copilot. Estos precios parecen razonables, incluso atractivos. Pero una pregunta se impone: ¿es realmente lo que cuesta proporcionar esos servicios?
La respuesta es no. Y las cifras disponibles revelan una realidad económica que las empresas de IA prefieren no publicitar.
GitHub Copilot: el caso más documentado
En octubre de 2023, el Wall Street Journal reveló que Microsoft perdía una media de 20 dólares al mes por cada suscripción a GitHub Copilot vendida a 10 dólares. Para los usuarios más intensivos, ese coste alcanzaba los 80 dólares al mes (fuente: Tom’s Hardware, 10 oct. 2023, citando el Wall Street Journal).
Microsoft gastaba a veces el doble, incluso el óctuple de lo que facturaba. Esta información no es una filtración: está documentada y confirmada por múltiples publicaciones. Es simplemente un hecho que la mayoría de los usuarios desconoce.
Sam Altman lo admite: incluso a 200 $ al mes, perdemos dinero
El 7 de enero de 2025, Sam Altman, CEO de OpenAI, publicó en X: “insane thing: we are currently losing money on openai pro subscriptions! people use it much more than we expected.”
Él mismo había fijado el precio de ChatGPT Pro en 200 dólares al mes esperando que fuera rentable. No lo fue. Los usuarios del plan Pro utilizan el servicio con una frecuencia e intensidad que ni siquiera el equipo interno de OpenAI había anticipado (fuente: Fortune, 7 ene. 2025).
Esto plantea una pregunta sencilla: si incluso una suscripción de 200 dólares al mes genera pérdidas, ¿qué cabe decir de las suscripciones a 20 dólares?
OpenAI: una empresa que gasta más de lo que ingresa
Las cifras publicadas por el New York Times y confirmadas por CNBC en septiembre de 2024 son inequívocas: OpenAI generó 3.700 millones de dólares de ingresos en 2024, con una pérdida neta de aproximadamente 5.000 millones de dólares (fuente: CNBC, 27 sept. 2024). La empresa gastaba 2,25 dólares por cada dólar que ganaba.
El desglose de costes es revelador. Según un análisis de los documentos fiscales de Microsoft publicado por Ed Zitron en wheresyoured.at, los únicos gastos de inferencia de OpenAI a través de Azure alcanzaron 3.767 millones de dólares en 2024, distribuidos así:
- T1 2024: 546,8 millones $
- T2 2024: 748,3 millones $
- T3 2024: 1.005 millones $
- T4 2024: 1.467 millones $
En los tres primeros trimestres de 2025, esos gastos de inferencia ya habían alcanzado 8.670 millones de dólares, más que la totalidad de los ingresos del año anterior (fuente: wheresyoured.at, «Here’s How Much OpenAI Spends On Inference»).
La infraestructura: por qué cada consulta es cara
Estas pérdidas no son accidentales. Reflejan el coste real de un servicio que requiere enormes recursos materiales.
Una sola GPU NVIDIA H100, el chip estándar para la inferencia de grandes modelos de lenguaje, cuesta entre 25.000 y 40.000 dólares. Un servidor de ocho GPUs representa una inversión de 200.000 a 320.000 dólares. Estas máquinas consumen entre 1.000 y 1.400 vatios cada una en funcionamiento continuo (fuente: SemiAnalysis, «H100 vs GB200 NVL72 Training Benchmarks»).
En cuanto a la energía, cada consulta a GPT-4o consume aproximadamente 0,3 vatios-hora, según una estimación publicada por Epoch AI en febrero de 2025. Puede parecer modesto, pero multiplicado por cientos de millones de consultas diarias, la suma se vuelve astronómica.
Goldman Sachs proyecta que la demanda energética de los centros de datos aumentará un 165 % para 2030 respecto a 2023, requiriendo 720.000 millones de dólares en inversión en infraestructuras durante el mismo periodo (fuente: Goldman Sachs Research, «AI to drive 165% increase in data center power demand by 2030»).
Anthropic: la misma realidad, a otra escala
OpenAI no es un caso aislado. Anthropic, la empresa detrás de Claude, registró una pérdida neta de 5.300 a 5.600 millones de dólares en 2024, a pesar de que sus ingresos crecieron de 1.000 millones de ARR en diciembre de 2024 a 4.000 millones en julio de 2025 (fuente: TechCrunch, 4 nov. 2025, citando The Information).
The Information también informó de que Anthropic tuvo que reducir sus proyecciones de margen bruto, al resultar los costes de inferencia en los clouds de Google y Amazon un 23 % más elevados de lo previsto (fuente: The Information, «Anthropic Lowers Gross Margin Projection as Revenue Skyrockets»).
¿Quién financia todo esto?
Estas pérdidas masivas las cubren inversores que apuestan por la rentabilidad futura. Microsoft ha invertido más de 13.000 millones de dólares en OpenAI. Amazon y Google han aportado cada uno varios miles de millones a Anthropic. Los fondos de capital riesgo completan el cuadro.
Deutsche Bank analizó la trayectoria financiera de OpenAI y concluyó: «No startup in history has operated with losses on anything approaching this scale. We are firmly in uncharted territory.» Sus estimaciones proyectan 143.000 millones de dólares en pérdidas acumuladas entre 2024 y 2029 antes de alcanzar la rentabilidad (fuente: eMarketer citando Deutsche Bank). Una cifra revisada al alza desde entonces: The Decoder informa de que OpenAI añadió 111.000 millones a sus proyecciones de gasto, elevando el total a 665.000 millones de dólares hasta 2030 (fuente: The Decoder, «OpenAI adds $111 billion to its cash burn forecast»).
Como referencia: Uber perdió 18.000 millones en seis años antes de alcanzar la rentabilidad. Amazon necesitó apenas 1.000 millones en cinco años.
Lo que va a cambiar: la factura llega
Los documentos internos de OpenAI citados por el New York Times en septiembre de 2024 señalan claramente la trayectoria de precios que la empresa tiene prevista:
- ChatGPT Plus: de 20 $/mes a 22 $/mes a finales de 2025
- ChatGPT Plus: 44 $/mes en 2029
(fuente: TechCrunch, 27 sept. 2024, citando el New York Times)
La responsable del producto ChatGPT en OpenAI declaró sin rodeos: «There’s no world in which pricing doesn’t significantly evolve when the technology is changing this quickly.» También mencionó la posible desaparición de los planes de suscripción «ilimitada», sustituidos por facturación por uso o por niveles.
Esto no es especulación. Está escrito en documentos financieros internos y responde a una necesidad aritmética.
Una subvención temporal, no un precio sostenible
Conviene entender por qué estos servicios se ofrecen hoy con pérdidas. La lógica es clásica en la industria tecnológica: captar usuarios rápidamente, crear hábitos, construir dependencias y ajustar los precios una vez consolidada la posición dominante.
Este modelo funcionó con Uber y los viajes subvencionados, con Netflix y las suscripciones rebajadas en su fase de expansión, con Amazon y AWS ofrecido al coste marginal. En todos estos casos, el periodo de subvención terminó cuando la posición dominante estaba suficientemente asentada.
Con la IA, la escala es diferente. Los costes de infraestructura no son comprimibles a corto plazo. La demanda explota. Y los inversores exigirán tarde o temprano un retorno sobre sus enormes apuestas.
Lo que esto significa en la práctica
Para los usuarios individuales, las subidas de precio son previsibles y están documentadas. Una suscripción a ChatGPT a 44 dólares en 2029 representa más del doble de la tarifa actual. Para las empresas que han integrado la IA en sus flujos de trabajo a precios artificialmente bajos, la revalorización de las APIs y las licencias empresariales podría alterar sustancialmente sus balances.
Para los equipos de producto que construyen funcionalidades sobre estas APIs, los costes de inferencia que hoy representan una línea presupuestaria manejable podrían convertirse en un gasto significativo en dos o tres años.
El precio actual de la IA no es su precio real. Es una tarifa introductoria financiada por capital que espera su retorno. La verdadera pregunta no es si los precios van a subir, sino cuándo y cuánto.
Lo que podría pasar después
La normalización de los precios de la IA no será un simple ajuste tarifario. Es probable que desencadene una serie de reequilibrios profundos en las formas de trabajar, contratar y construir productos.
Una retirada progresiva de las empresas
Desde 2023, muchas empresas han integrado herramientas de IA en sus procesos sin medir su coste real, precisamente porque ese coste era artificialmente bajo. Cuando las APIs de OpenAI, Anthropic o Google cuesten dos o tres veces más, los equipos financieros empezarán a hacer las preguntas correctas: ¿cuál es el retorno de inversión real de esta integración? ¿Vale realmente este resumen automático o generador de informes 0,15 € por consulta en lugar de los 0,04 € actuales?
Parte de los casos de uso actuales no sobrevivirá a esta aritmética. Las funcionalidades de IA incorporadas a los productos a toda prisa para «marcar la casilla» desaparecerán primero. Las empresas solo conservarán los usos que se justifiquen económicamente a su coste real, algo que muchas nunca han evaluado verdaderamente.
El código abierto como válvula de escape
Ante el alza de precios de los modelos propietarios, los modelos de código abierto representan una alternativa creíble y creciente. Meta con LLaMA, Mistral AI desde París o DeepSeek desde China han demostrado que es posible producir modelos de alto nivel a una fracción del coste de los gigantes estadounidenses.
Una empresa capaz de alojar por sí misma un modelo de código abierto eficaz en su propia infraestructura se libera de las subidas de precios de las grandes plataformas. Este escenario era marginal en 2023, cuando los modelos de código abierto eran claramente inferiores. Se vuelve cada vez más realista a medida que la brecha de rendimiento se reduce.
La consecuencia directa: las empresas que desarrollen una verdadera competencia en inferencia local estarán en una posición mucho más sólida que las que lo externalizaron todo a APIs sin entender lo que consumían.
Un retroceso en la adopción individual
Para los desarrolladores y creativos independientes, la subida de precios creará una segmentación clara. Quienes usan la IA de forma intensiva y productiva encontrarán el coste-beneficio aceptable incluso a 44 o 50 dólares al mes. Los usos ligeros o experimentales, en cambio, podrían no sobrevivir a una multiplicación por dos o por tres de la tarifa.
El Gartner Hype Cycle describe un fenómeno bien conocido en la tecnología: tras el pico de expectativas exageradas llega el valle de la desilusión, antes de que los usos verdaderamente útiles se asienten de forma duradera. La IA de consumo quizá esté iniciando ese giro. El periodo de relativa gratuidad ha inflado las cifras de adopción sin revelar necesariamente qué usos están realmente arraigados.
¿El retorno del desarrollador?
Es el escenario más contraintuitivo, pero no el menos plausible. Desde 2023, el mercado laboral tecnológico ha vivido una oleada de despidos masivos, en parte justificada por la promesa de que la IA reemplazaría una fracción significativa del trabajo de desarrollo. Algunas empresas congelaron contrataciones apostando por ganancias de productividad de la IA que no siempre se materializaron.
Si las herramientas de IA ven sus precios doblarse o triplicarse, la ecuación cambia. Un desarrollador junior con un salario de 40.000 a 60.000 euros anuales puede producir código contextualizado, mantener bases de código complejas, negociar con los equipos de negocio y tomar decisiones que la IA no toma. Si GitHub Copilot sube a 50 u 80 dólares al mes y Claude Code supera los 200 dólares, algunos equipos podrían recalcular si un puesto humano no es más rentable para ciertas tareas.
Este razonamiento tiene sus límites: una herramienta de IA a 100 dólares al mes sigue siendo infinitamente más barata que un salario, aunque se duplique. Pero ilustra que el equilibrio actual entre coste humano y coste máquina se basa en precios que no reflejan la realidad económica. Cuando los precios se ajusten, algunas decisiones de contratación congeladas desde hace dos años podrían reconsiderarse.
Los perfiles más susceptibles de beneficiarse de este potencial retorno serán aquellos cuyo valor la IA aún no puede replicar de forma fiable: desarrolladores capaces de comprender un sistema en su globalidad, diagnosticar problemas intermitentes y negociar compromisos técnicos con los equipos de producto. Precisamente los perfiles que muchas empresas han empezado a infravalorar.
El fin de las suscripciones ilimitadas
Otra transformación probable es la desaparición del modelo de suscripción de uso ilimitado, ya mencionada por OpenAI. Las plataformas migran hacia la facturación por uso o por niveles, lo que hace visible el coste real para cada usuario por primera vez.
Este cambio de estructura tarifaria modificará los comportamientos. Cuando cada consulta tiene un precio declarado, los usuarios se vuelven naturalmente más selectivos. El uso reflexivo e irreflexivo de la IA, aquel en el que se hacen preguntas porque es rápido y gratuito, dejará paso a un uso más deliberado. Eso no es necesariamente algo malo.
Un mercado a dos velocidades
El escenario más probable para el horizonte 2028-2030 no es ni el colapso de la IA ni una adopción universal homogénea. Es un mercado a dos velocidades: las grandes empresas capaces de negociar acuerdos de volumen e invertir en infraestructuras internas, y los actores más modestos que se enfrentan a costes crecientes sin poder de negociación.
Esta fractura podría recrear las desigualdades competitivas que la IA prometía inicialmente eliminar. La democratización del acceso a capacidades antes reservadas a las grandes empresas tecnológicas habrá sido real, pero temporal. El tiempo justo para que los inversores recuperen su inversión.
Fuentes principales: Wall Street Journal (oct. 2023) vía Tom’s Hardware, Sam Altman en X (7 ene. 2025), CNBC (27 sept. 2024), New York Times (sept. 2024) vía TechCrunch, Fortune (28 sept. 2024), wheresyoured.at (análisis de documentos fiscales de Microsoft), Deutsche Bank vía eMarketer, The Decoder, The Information, Epoch AI (feb. 2025), Goldman Sachs Research, SemiAnalysis.
¿Listo para Transformar su Gestión de Proyectos?
Aplique estos insights con Sinra, la plataforma unificada para equipos modernos.
Iniciar Prueba Gratuita