El miedo es la estrategia de marketing de la IA
Las predicciones apocalípicas sobre el futuro del trabajo de los CEOs de la industria de la inteligencia artificial no son advertencias bienintencionadas. Son su principal argumento de venta.
En febrero de 2026, tres de las personas con más poder en la industria de la inteligencia artificial lanzaron mensajes apocalípticos:
Mustafa Suleyman, CEO de Microsoft AI: “La mayoría de las tareas que implican sentarse frente a un ordenador estarán completamente automatizadas en los próximos 12-18 meses”.
Dario Amodei, CEO de Anthropic, en Davos: “El 50% de empleos de oficina desaparecerán. El desempleo podría dispararse al 10-20%. La disrupción será inusualmente dolorosa“.
Sam Altman, CEO de OpenAI: “Habrá categorías enteras de trabajos que desaparecerán... Va a haber dolor real aquí”.
Tres empresas que compiten ferozmente entre sí. Tres CEOs con el mismo mensaje apocalíptico. ¿Por qué?
Porque el miedo es su estrategia de ventas.
El miedo como estrategia de marketing
La narrativa apocalíptica de que la inteligencia artificial destruirá millones de empleos no es un efecto secundario de la tecnología. Es el principal argumento de ventas de la industria.
Cuando Altman afirma que “categorías enteras de trabajos desaparecerán”, no les está hablando a los empleados que podrían perder sus puestos. Le está hablando a los ejecutivos que tienen en su mano contratar los productos de OpenAI. Les está diciendo: “Compra ahora o tu competencia te dejará en la cuneta”.
Y hazlo deprisa, porque de aquí a 12 o 18 meses todo el trabajo de oficina habrá sido automatizado. Los ejecutivos, como cualquier humano, también son proclives a caer en la trampa de la escasez artificial. La misma que nos hace reservar esa habitación de hotel porque “sólo queda 1 disponible”.
Así, muchas empresas contratan estas herramientas antes de saber siquiera qué uso les van a dar. Las adoptan porque tienen miedo. Miedo de parecer anticuados. Miedo de que el board pregunte por qué no tienen una “estrategia de IA”. Miedo de ser los últimos en llegar a una fiesta que quizá nunca empiece.
Ese miedo vale miles de millones en contratos.
Más allá de las ventas
El discurso apocalíptico no solo vende productos. También cumple otras funciones estratégicas:
Justifica valoraciones: OpenAI busca financiación a una valoración de 850.000 millones de dólares. Anthropic acaba de cerrar una ronda a 380.000. Estas cifras solo tienen sentido si los inversores creen que la IA transformará toda la economía en los próximos años. El discurso apocalíptico sostiene las valoraciones.
Facilita la captura regulatoria: si convences a los legisladores de que la IA es peligrosa, promueves regulaciones con umbrales que solo las grandes empresas puedan cumplir. Cada nueva regulación es una barrera de entrada para competidores más pequeños.
Debilita a los trabajadores: cuando tus empleados creen que son reemplazables en 18 meses, negocian de manera diferente. La “inevitabilidad” reduce las demandas salariales y hace que la gente acepte condiciones que de otro modo rechazaría.
Da cobertura a los recortes: Las empresas usan la IA como excusa para despidos que harían de todos modos. Recortan, lo llaman “transformación digital” y Altman, Amodei y compañía capitalizan la narrativa de que sus productos son tan poderosos que eliminan trabajos. Todos ganan. Excepto los trabajadores.
Distrae de problemas actuales: Mientras debatimos el apocalipsis de 2027, no hablamos del uso de material protegido por copyright, del impacto ambiental de los centros de datos ni de las alucinaciones y los errores de los modelos.
La diferencia que importa
Sí, la IA va a cambiar cómo trabajamos. Algunas tareas se automatizarán. Algunas habilidades serán más valiosas que otras.
Pero hay una diferencia entre “la IA cambiará algunas cosas” y “el 50% de los trabajos desaparecerán en 18 meses”. No es optimismo versus pesimismo. Es la diferencia entre hacer un análisis realista y una estrategia comercial disfrazada de apocalipsis.
El problema no es la IA. El problema es que demasiadas decisiones se toman en base a un pánico manufacturado por quienes se benefician de él.
El escritor Cory Doctorow lo resumió mejor que nadie: “La IA no te quitará el trabajo, pero un vendedor de IA puede convencer a tu jefe de despedirte y reemplazarte por una IA que no puede hacer tu trabajo”.


Muy de acuerdo con toda la reflexión de este artículo que, en mi opinión, lo clava. Pero me ha gustado especialmente esta última frase: “La IA no te quitará el trabajo, pero un vendedor de IA puede convencer a tu jefe de despedirte y reemplazarte por una IA que no puede hacer tu trabajo”.
Lo empiezo a percibir a mi alrededor. Pero le añado algún detalle. La IA no va a hacer el trabajo con la misma finura y detalle que tú. Lo va a hacer mucho más mediocre, pero mucho más rápido y barato. Y a tu jefe, en la mayoría de los casos, le va a servir. Ya que maximiza los beneficios aunque devalue la calidad del producto.
Si todas estas piezas acaban encajando de este modo, vamos hacia una sociedad de salarios más bajos, de mayor precarización, de mucho más desempleo, de productos de muy baja calidad para gente (nosotros), que no podremos pagar los carísimos productos de calidad que siempre va a haber para las élites. Una distopía de un mundo más desigual, injusto y cutre. Pero no va a haber revoluciones ni "toma de la Bastilla", porque a la rana la están cociendo a fuego lento.