La paradoja de Jevons y el colapso del modelo de negocio de la IA
Aunque el precio de los tokens cae, el coste de desarrollar aplicaciones con IA se dispara. ¿Qué explica esta contradicción y qué futuro anticipa?
En el mundo de la inteligencia artificial se está dando una curiosa paradoja. El coste de los tokens, la materia prima que pagamos por usar los modelos, es cada vez más bajo y, sin embargo, el coste de las aplicaciones IA es cada vez más alto, hasta el punto de que incluso Cursor o Anthropic han tenido que imponer límites de uso a sus planes supuestamente ilimitados.
¿Por qué los costes suben si el precio de los tokens baja?
En el meollo del asunto encontramos dos tendencias contrapuestas. Por un lado, el precio de los tokens sigue una tendencia claramente deflacionaria, gracias a la competencia entre los laboratorios detrás de los grandes modelos. En el otro, una espiral inflacionaria ha aumentado exponencialmente el consumo de tokens de las aplicaciones IA.
Este fenómeno, en el que la mejora en la eficiencia de un recurso incrementa su uso en lugar de reducirlo, lo observó el economista inglés William Stanley Jevons, dando origen a lo que se conoce como la paradoja de Jevons. Citando a la Wikipedia:
En su obra de 1865 titulada The Coal Question («La cuestión del carbón»), Jevons observó que el consumo del carbón se elevó en Inglaterra después de que James Watt introdujera su máquina de vapor, que mejoraba en gran manera la eficiencia del primer diseño de Thomas Newcomen. Las innovaciones de Watt convirtieron a este mineral en un recurso usado con mayor eficiencia en relación con su coste, haciendo que se incrementara el uso de la máquina de vapor en una amplia gama de industrias. Esto, a su vez, hizo que aumentara su consumo total, aunque la cantidad necesaria para cada aplicación concreta disminuyera considerablemente. Por ello, Jevons dedujo que el aumento en la eficiencia tendía a incrementar y no a disminuir el uso del combustible; formalmente, que «es una confusión de ideas el suponer que el uso económico del combustible es equivalente a un consumo disminuido, mientras que lo contrario es lo correcto».
A veces, una imagen vale más que mil palabras, así que usaré esta gráfica que Peter Corcoran incluyó en su paper Cloud Computing and Consumer Electronics: A Perfect Match or a Hidden Storm? Fijaros en cómo un descenso del precio del 50% hace que el consumo, y por lo tanto el coste total, se incremente en mayor proporción.
¿Dónde se están yendo los tokens?
La razón fundamental por la que se están consumiendo más tokens es doble:
Por una parte, cada vez le damos problemas más complejos a resolver a la IA. Si en sus inicios la usábamos para responder preguntas sencillas o que nos autocompletara una función, hoy en día le estamos pidiendo que resuelva problemas complejos y que cree programas completos.
Por otra, conforme pasa el tiempo, toleramos menos lo que son las carencias fundamentales de los modelos: las alucinaciones (inventarse respuestas) y el no determinismo (dar distintas respuestas para la misma pregunta).
La solución a estos dos problemas es cara, y se ha dado principalmente en dos ámbitos:
Implementación de modelos razonadores tipo Chain-of-Thought: bajo este paradigma, descomponemos un problema en pequeños pasos y le pedimos a la IA que “razone” uno a uno. Este monólogo interno que la IA produce puede ser altamente ineficiente y hace que pueda consumir hasta 150 veces más tokens en algunas tareas. Como ejemplo, en el artículo, ¿Cómo piensa una IA?, pudimos observar el monólogo que seguía DeepSeek para algo tan sencillo como escoger un número al azar del uno al diez.
Implementación de modelos basados en agentes IA: un agente IA vendría a ser un modelo razonador en bucle. Los agentes pueden crear un plan, ejecutar el primer paso, observar los resultados, revisar el plan, modificarlo y continuar. En cada paso, el consumo de tokens se multiplica, porque el agente guarda e incorpora el contexto en cada llamada subsecuente.
La quiebra del modelo de negocio ilimitado
La paradoja de Jevons ha llevado a la quiebra al modelo de negocio de la barra libre de tokens. El primero que lo hizo fue Cursor, el asistente de programación. Eliminó su plan ilimitado e introdujo una oscura forma de cómputo de tokens que fue duramente criticada por su comunidad. Muchos de sus usuarios se migraron a Claude Code, que ofrecía otro plan ilimitado.
Poco duró la alegría en casa del pobre, porque Anthropic, la empresa detrás de Claude, tuvo que limitar su plan de 200$ poco después. Para defender el movimiento, llegaron a asegurar que un pequeño número de sus usuarios corrían procesos agénticos 24/7, llegando a consumir más de 10 billones de tokens al mes, el equivalente a 25.000$ de computación.
Cuando Cursor puso coto a su plan ilimitado, recuerdo pensar que era relativamente pronto para que empezáramos a ver empresas IA optimizar margen en lugar de ganar cuota de mercado. El playbook del capital riesgo suele basarse en levantar capital y subvencionar a tus clientes para hacerte con una posición de monopolio en el mercado, y sólo entonces pasar a optimizar márgenes. El ejemplo de manual es UBER.
Por lo que sea, con la IA, el playbook no está funcionando. Probablemente por la misma paradoja de Jevons: la demanda es tan alta que no hay dinero suficiente para subvencionarla. Además de que las barreras de salida son prácticamente nulas.
El futuro de la industria IA
Todas las empresas IA pierden dinero. Pese a generar 13000 millones de dólares en ingresos, se calcula que OpenAI va a perder más de 8500 millones en 2025.
Al mismo tiempo, todas se encuentran viviendo una especie de dilema del prisionero. Cada proveedor está incentivado a bajar precios para ganar cuota de mercado, pero esto les está llevando a quemar caja como si no hubiera mañana. Ahora bien, si eres el primero en “confesar” e intentas cobrar según tus costes reales, desaparecerás. Pero si no lo haces, ¿hasta cuánto puedes aguantar?
Un consultor te diría que la solución a este problema es fácil: pasa por reducir los costes y aumentar los ingresos. Con el desastroso lanzamiento de GPT-5 vimos una pincelada de lo primero. OpenAI creó un enrutador que analiza la consulta del usuario y la dirige al mejor modelo (el más barato) para resolverla. La idea es preservar el uso de tokens para cuando sea realmente necesario. Pero, oh sorpresa, los usuarios no recibieron con buenos ojos el “atontamiento” de su modelo favorito, y OpenAI tuvo que dar marcha atrás en varias de sus decisiones, especialmente porque había alternativas como Gemini que no habían empeorado.
La alternativa, aumentar ingresos, pasa por introducir publicidad y soportar más casos de uso, por ejemplo, el contenido adulto. No es casualidad que Sam Altman anunciara esta semana que vas a poder tener conversaciones eróticas con ChatGPT. Esto último, por cierto, huele un poco a desesperación. Y con la publicidad nos encontramos de nuevo ante el dilema del prisionero. La primera empresa que añada publicidad perderá usuarios en favor de aquellas que puedan retrasar más su irrupción.
En cierto modo, es increíble pensar todo el dinero que se va a perder con la inteligencia artificial. Habrá un ganador, probablemente el mejor financiado, pero el coste en capital evaporado va a ser realmente extraordinario. Las equivalencias con la burbuja del ferrocarril que ya exploramos en otro artículo me parecen cada día más evidentes.
Como consumidores, estamos en el momento de aprovecharnos de estas subvenciones, pero también tenemos que tener un ojo puesto en el futuro, pues llegará el momento de la consolidación en el que los ganadores podrán subir precios a voluntad para recuperar su inversión. Ha pasado en la nube, del que muchos se están bajando tras observar las astronómicas facturas que acarrea. Y pasará con la IA, de la que quizás, no sea fácil bajarse si has construido todo tu modelo de negocio en base a utilizar APIs de terceros.
Del uso del carbón en la revolución industrial al del token enla era de la inteligencia artificial, la historia se repite. Cada avance que abarata el coste por token multiplica el consumo total y tensiona los márgenes. La industria aún no ha encontrado un equilibrio entre eficiencia y sostenibilidad, pero esa búsqueda definirá la próxima década de la IA.