Denegar, Defender, Deponer
El papel de una Inteligencia Artificial en el asesinato del CEO de una aseguradora médica.
Esta semana, un desconocido asesinaba de tres disparos al CEO de la aseguradora médica UnitedHealthcare, la novena empresa por facturación a nivel mundial, tan solo un puesto por detrás de Apple.
En los casquillos encontrados en el escenario del crimen, el asesino habría grabado las palabras “Deny”, “Defend”, “Depose”, las cuales hacen referencia a una estrategia que las aseguradoras médicas utilizan en EEUU para ahorrar costes:
Primero, deniegan los pagos
Después, se defienden en los juzgados
Para alargar el proceso, obligan a los pacientes a hacer una declaración jurada (deposición) en la que estos tienen que presentar sus síntomas ante los abogados de las aseguradoras
Los casquillos han dado lugar a todo tipo de especulaciones sobre los motivos del asesino, lo cual, unido al desprecio del público ante los abusos de las aseguradoras, le está elevando a la figura de héroe del pueblo.
Se han organizado concursos de parecidos, los memes son inacabables, y literalmente, los moderadores de redes sociales no dan abasto para contener las celebraciones por el asesinato. Se están haciendo camisetas y hasta stickers de WhatsApp.
En estas páginas no apoyamos el asesinato de CEOs. También es cierto que es difícil no estar de acuerdo con éste usuario de Bluesky:
Es importante llevar tu vida de forma que, si te asesinan a sangre fría, la gran mayoría del país no lo celebre como los Ewoks viendo estallar la segunda Estrella de la Muerte.
La IA que denegaba cuidados médicos
UnitedHealthcare no se había quedado atrás en la implantación de la Inteligencia Artificial. Sobre todo, porque eso le permitía ahorrar costes. Sólo había un problema: aparentemente, tenía una tasa de error del 90%.
En noviembre de 2023, un grupo de afectados demandó a la compañía por el uso de nH Predict AI, un modelo de inteligencia artificial que la compañía utilizaba para autorizar cuidados médicos.
Según la demanda, pese a conocer la elevada tasa de error, la empresa siguió utilizándolo porque solamente un pequeño porcentaje de pacientes reclamaba cuando se denegaban estos cuidados.
Por ejemplo, Ars Technica cita un caso en el cual un anciano de 91 años sufrió una caída, fracturándose pierna y tobillo. Tras seis días en el hospital y un mes de recuperación, los doctores decidieron que podía comenzar rehabilitación. Ante el asombro de los mismos, el algoritmo de UnitedHealthcare autorizó únicamente 19 días de tratamiento.
En otro caso, un paciente de 74 años sufrió un infarto y los doctores recomendaron al menos 100 días de cuidados. UnitedHealthcare decidió que tan sólo merecía 20. La familia los llevó a juicio, y consiguieron revertir la decisión, pero la aseguradora repitió la jugada y decidió que 40 eran suficientes.
Los incentivos para eliminar el juicio humano
En estas líneas hemos hablado en ocasiones de los incentivos perversos que tienen las empresas para introducir algoritmos que les aíslen de las decisiones que, por simple humanidad o ética, no tomaría un humano.
En el artículo, El primer despido de una IA, comentábamos cómo las redes sociales los utilizan como excusa para no ensuciarse las manos.
Las redes sociales han abusado al extremo de este fenómeno. Sus algoritmos, basados en machine learning, son cajas negras que eligen qué contenido mostrar a cada usuario para maximizar su función de recompensa. Generalmente, que pasemos el mayor tiempo posible enganchados a la pantalla.
Para hacerlo, nos empujan constantemente a los extremos. A lo que genera polémica. A lo que nos enfada y nos mantiene dentro de su aplicación. Pero lo hace el algoritmo. No hay ningún ingeniero que haya programado explícitamente una función que empareje a usuarios con desórdenes alimenticios con contenido que lo fomente. No hay nadie con nombre y apellidos con las manos manchadas. Pero sucede.
El caso de UnitedHealthcare es similar. Probablemente, ningún profesional de la salud sería capaz de denegar demandas de cuidados con tanta frialdad como lo haría un algoritmo. Pero una IA, bien entrenada para nuestros cortoplacistas intereses corporativos, puede hacerlo.
Y si ocurre un error y destrozas a una familia, decidió el algoritmo. Un plan perfecto.
Hasta que te pegan tres tiros.
Jugarse la piel
Mientras rumiaba escribir esta entrada, me vino a la mente visitar la cuenta de Twitter de Nassim Taleb, quien dedica un libro entero a hablar del concepto Skin in the Game. No me sorprendió encontrarme el siguiente tweet.
El concepto de Skin in the Game, jugarse la piel, habla de cómo la asimetría entre el riesgo y las consecuencias crea incentivos perversos. En este caso, la desconexión entre las decisiones de los directivos de las aseguradoras médicas y su impacto directo en las vidas de los pacientes, hace que los primeros primen los beneficios económicos frente al bienestar de los pacientes.
Hasta que te pegan tres tiros.
Curiosamente, en el día posterior al asesinato, otra aseguradora daba marcha atrás a un plan por el cual pretendía recortar los gastos en anestesia de los pacientes durante las operaciones. Si la operación se alargaba, y te tenían que poner anestesia extra, te enviaban la factura.
Otra consecuencia ha sido el borrado de los perfiles públicos de los directivos de las aseguradoras médicas de Internet. Por lo que sea, ya no es sexy que te identifiquen como directivo de una de estas empresas.
Resulta curioso cómo ambas reacciones se dan cuando los ejecutivos sienten que, literalmente, se están jugando la piel.
Sin llegar al asesinato, esto es un valioso aprendizaje para nuestras empresas y productos. Desconfía de aquellos que no se juegan la piel en cada decisión. Es muy fácil jugar cuando no arriesgas nada. Y es que, si las acciones no tienen consecuencias para quienes las toman, no esperes buenas decisiones.
Esto del skin in the game me recuerda a las decisiones de los políticos donde se fomentan decisiones corto placistas que den votos en las que si hay skin in the game (los votos de las próximas elecciones) (ej: regulaciones para no poder subir el alquiler, lo cual disminuye la oferta de vivienda en el mercado) frente a decisiones a largo plazo cuyas consecuencias y beneficios no las van a ver donde no hay skin in the game (ej: habilitar suelo ahora para que dentro de 10 años haya mucha más vivienda aumentando así la oferta y conteniendo los precios de esta forma o aumentar la deuda pública y que el marrón de pagarla se lo coma otro)
Como siempre muy buen artículo Simón. Gracias 👏🏻
Muy informativo Simón. No tenía conocimiento de esos detalles.