Trendslop: por qué no deberías confiar tu estrategia a la IA
Si usas una IA para tomar decisiones estratégicas, estás tomando las mismas decisiones que todos los demás. Esto es el trendslop.
¿Cuántas decisiones de producto has tomado este mes apoyándote, aunque sea parcialmente, en lo que te ha dicho ChatGPT o Claude?
Personalmente, reconozco que varias. Para priorizar. Para contrastar hipótesis. Para desatascar discusiones internas que llevan demasiado rato dando vueltas. Es la herramienta definitiva: siempre disponible, siempre educada, siempre con una respuesta bien articulada.
Pero también, siempre mediocre.
En un artículo de Harvard Business Review, tres investigadores han acuñado el término trendslop, poniendo datos a algo que muchos intuíamos: los LLMs, cuando les pides consejo estratégico, no razonan sobre tu caso. Escupen, con prosa impecable, la media ponderada del discurso de gestión contemporáneo: diferenciación, largo plazo, colaboración, aumentar humanos en lugar de automatizar...
Siempre las mismas opciones. Da igual si eres un SaaS o un hospital público. Da igual si prompteas bien o mal. Da igual el modelo. Y lo peor: no se corrige con mejor prompting. Ni con más contexto. Ni cambiando de herramienta.
Para cualquiera que tome decisiones estratégicas apoyándose en un LLM, conviene entender exactamente qué está pasando.
¿Qué es el Trendslop?
Los autores del estudio plantearon miles de situaciones a distintos LLMs, en los que debían decidir un camino estratégico basado en dilemas clásicos de estrategia:
Explorar mercados nuevos vs. explotar el core
Centralizar vs. descentralizar
Corto plazo vs. largo plazo
Competir vs. colaborar
Innovación radical vs. incremental
Diferenciación vs. commoditización
Automatizar vs. aumentar al humano
El resultado fue lo que llamaron “strategy trendslop”: los modelos eligen casi siempre la opción que mejor sonaría en LinkedIn.
Diferenciación por encima de commoditización. Aumentar humanos por encima de automatizar. Largo plazo por encima de corto plazo.
El problema es que no lo hacen porque sea la respuesta correcta. Lo hacen porque son las más repetidas en los artículos de gestión sobre los que están entrenados.
El modelo no razona. Predice. Y predice basándose en lo que más ha leído, no en lo que es correcto para tu caso.
El consultor júnior
El artículo de HBR plantea una analogía interesante: un LLM, cuando habla de estrategia, es como el consultor júnior recién salido de un MBA. Ha leído todo. Cita a Porter de memoria. Pero nunca ha tenido que decirle que no a un cliente grande ni ha visto cómo una decisión aparentemente obvia explota en producción seis meses después.
El modelo no razona sobre tu caso. Está prediciendo qué respuesta suena más correcta dado todo lo que ha leído. Y lo que más ha leído son posts sobre diferenciación y propuestas de valor únicas.
¿Le habrías dicho a Juan Roig, dueño de Mercadona, que apostara por diferenciación premium? ¿A Ryanair que mejorara la experiencia de cliente? ¿A Primark que construyera una marca aspiracional? ChatGPT lo haría.
Y se quedaría tan ancho.
Como el júnior recién salido del MBA.
Cómo usar un LLM estratégicamente
Los LLMs son útiles. Solo que no para lo que mucha gente los está usando. Pedirle a ChatGPT que te diga qué estrategia seguir es como pedirle a Google Maps que decida a dónde ir.
En el artículo citan algunos consejos que me parecen útiles a la hora de utilizarlos para diseñar nuestra estrategia:
Úsalos para expandir opciones, no para tomar decisiones. Los LLMs destacan generando alternativas y anticipando riesgos de implementación. Pero en el momento en que les pides recomendar A o B, se convierten en el consultor júnior. Pídeles: “dame los cinco argumentos más fuertes para hacer X” y luego, en una conversación nueva, “dame los cinco argumentos más fuertes para hacer Y”. Y decide tú.
Contrasta los sesgos conocidos. Si el modelo recomienda diferenciación, pregúntale: “construye el mejor caso posible para commoditización en este contexto, asumiendo que es la respuesta correcta”. Esto le obliga a explorar el otro lado en lugar de caer en su sesgo de entrenamiento.
Pídele ejemplos antes de pedirle consejo. Antes de pedirle que recomiende una opción estratégica, pídele que liste empresas que han tenido éxito y fracasado con cada una de las alternativas. Luego piensa tú cómo aplica eso a tu situación concreta. Es mucho más difícil sesgarte cuando primero ves los casos reales.
No confíes solo en el contexto. Añadir contexto ayuda pero no elimina el sesgo. El modelo puede sonar muy personalizado a tu situación y seguir empujándote hacia la misma decisión sesgada. Trata sus respuestas como un input más, no como un análisis adaptado a tu caso.
Hacia la mediocridad colectiva
Hay algo más profundo en este estudio que va más allá de nuestro trabajo como Product Managers. Los LLMs están empezando a funcionar como el sentido común corporativo. No porque alguien haya decidido que deberían serlo, sino porque son la herramienta de apoyo de hecho para millones de pequeñas decisiones que luego, en agregado, son grandes.
Si todos los equipos de producto del mundo consultan al mismo modelo con los mismos sesgos, y esos sesgos empujan hacia diferenciación y largo plazo y colaboración, en pocos años vamos a tener un mercado entero convergiendo hacia las mismas estrategias. No porque sean las correctas. Porque son las que salen en el output de Claude.
La ventaja competitiva, decía Porter, viene de elegir una posición distinta, no de seguir las mismas recetas que todos los demás. Si la herramienta que usamos para pensar nos empuja a todos hacia el mismo conjunto de “buenas prácticas”, la ventaja desaparece.
La habilidad más valiosa para cualquier líder en 2026 no será crear mejores propmts. Será saber cuando ignorar al modelo.


El concepto de trendslop me parece uno de los más importantes que he leído este año, y tiene implicaciones que van mucho más allá del producto.
Lo que describes es básicamente una homogeneización del pensamiento estratégico a escala global. Si el 80% de los equipos de producto del mundo están usando los mismos modelos con los mismos sesgos de entrenamiento, no solo convergen hacia las mismas estrategias: convergen hacia las mismas métricas de éxito, las mismas formas de priorizar, los mismos marcos de evaluación.
En mi experiencia liderando comunidades y proyectos digitales, el valor diferencial casi siempre ha venido de decisiones que "no sonaban bien en LinkedIn": apostar por nichos pequeños cuando todo el mundo hablaba de escala, construir comunidad antes de producto cuando la tendencia era lanzar rápido y pivotear. Ninguna de esas decisiones hubiera sobrevivido un filtro de ChatGPT.
La analogía del consultor júnior del MBA es perfecta. Sabe todo lo que está escrito. Pero no ha visto nada romperse.
¿Crees que el problema empeorará a medida que más decisiones cotidianas se deleguen en modelos? ¿O hay algún mecanismo de mercado que naturalmente seleccione a los equipos que saben cuándo ignorarlos?
Leyendo este artículo, acabo de llegar a la conclusión de que todos los economistas son LLMs. Todos, (o casi todos), han sido moldeados con el mismo patrón de la Escuela Austriaca. Y solo unos pocos se atreven a salir de ese "sentido común" y explorar otras alternativas y otras corrientes denostadas como la del Keynesianismo, por poner solo un ejemplo. Todos sueltan el mismo discurso, las mismas recetas. Son los que en las grandes corporaciones, apoyados en sus Excel, recomiendan despedir al 20% de la plantilla, porque eso reduce el gasto y van a salir unos números fantásticos, sin importar si eso arruina el producto y la satisfacción del cliente. Los mismos que recomiendan a los estados más y más recortes en el gasto público (curiosamente nunca hablan del gasto en defensa), reducir impuestos y confiar ciegamente en que el mercado lo arreglará todo por arte de magia.
Creo que si esas empresas y esos estados le preguntaran a la IA, en lugar de a esos Chicago Boys, les daría las mismas respuestas y de paso se ahorrarían una pasta en salarios y bonuses.