top of page

Entender un Elefante
- Guadalupe Nogués

Capítulo 3
El problema del problema
Solucionadores

Trabajemos sobre el problema, gente. No empeoremos las cosas tratando de adivinar. 

Gene Kranz (Ed Harris), director de vuelo en la película Apolo 13

 

La lluvia eterna 

 

No llueve hasta que empieza a llover, y entonces es como si siempre hubiera llovido, como si fuera a llover siempre. Algunos eventos también son así, inmersivos. Mientras suceden, da la sensación de que no pasa otra cosa y que durarán para siempre, como si no hubiera existido un tiempo anterior a ellos. Hace falta la mente de un historiador para poder imaginar cómo era el mundo antes de la bomba atómica en Hiroshima o de la invención de los antibióticos. Con la pandemia ocurrió algo parecido: casi de manera instantánea pasó de no existir a ser algo absoluto, a poner todo en cuestión. 

 

En esos primeros meses, mirábamos hacia adelante sin entender cuándo terminaría la pesadilla. Para muchos, fue un empujón a la depresión o la miseria. Para otros, una oportunidad de reordenar y repensar su vida. Y para la mayoría, un vaivén entre estos dos polos. Pero tal vez lo más interesante fue la sensación de que, aun en medio del aislamiento, no estábamos solos: con un poco de imaginación podíamos advertir que, por primera vez en varias generaciones, todo el mundo estaba pasando por lo mismo. Fuimos una única humanidad. En muchos países, la fragmentación interna de las sociedades pareció ponerse en pausa, al menos por un tiempo. No pasaba algo así desde la Segunda Guerra Mundial, o tal vez desde la epidemia de gripe de 1918. Como en las historias de ciencia ficción de la década de 1950, en las que los marcianos venían a conquistarnos —por algo son historias creadas durante la Guerra Fría y a la sombra de la amenaza nuclear—, a veces hace falta un enemigo común para darnos cuenta de lo cerca que estamos. 

Decidir sin saber 

 

Al comienzo de la pandemia no sabíamos mucho, y a veces ni siquiera sabíamos que no sabíamos. Pero a la vez había que decidir, sin entender lo suficiente e ignorando en quién o en qué confiar. Es difícil escuchar en medio del ruido de la lluvia. Es fácil achacar esa dificultad a la falta de confianza y a la multitud de voces, pero eso es un error. El consenso no proviene de la autoridad (después de todo, ¿quién establece la autoridad?), sino de la existencia de mecanismos transparentes de información, y de toma de decisiones —y también de su comunicación y la incertidumbre asociada— que permitan que esa autoridad se transforme en algo más poderoso: confianza racional, basada en la crítica y en la comprensión de la realidad y no en obediencia o fantasía. Si crecimos esperando que nos salvase Superman, vamos a decepcionarnos cuando el que llegue a sacarnos del incendio sea un simple bombero, y quizás hasta se nos escape el hecho de que el segundo es mucho más heroico que el primero. 

 

El psicólogo Daniel Kahneman popularizó la distinción de dos maneras de pensar: rápido o despacio. El pensamiento instintivo y emocional es rápido (lo llamó “sistema 1”) y el más deliberado y racional es lento (“sistema 2”). 

La verdad científica, que es provisoria y no dogmática, inevitablemente requiere tiempo y esfuerzo para producir evidencias, interpretarlas y darles sentido. Pero la pandemia fue un león a punto de comernos, y en esos casos quizá pensar lento vaya en contra de la supervivencia. 

En este contexto cobra relevancia una habilidad nueva, la de entender los costos y los beneficios de cada posibilidad, en cada contexto, y encontrar soluciones de compromiso: ¿cuándo nos conviene pensar lento, y cuándo —y cómo—, tomar atajos? ¿Cuáles son los costos de hacer algo, aun con el riesgo de equivocarnos, y los de no hacerlo? 

En la pandemia nos dimos cuenta de que muchas veces no existe ese mundo ideal en el que primero llegamos de modo gradual a un consenso científico, entendemos bien cómo es el problema que tenemos delante y desarrollamos una solución clara y factible, que implementamos después. 

La dificultad de estas situaciones no radica solo en que tenemos que resolver problemas con urgencia, aunque sepamos poco y la incertidumbre sea enorme. Hay algo más. Cuando necesitamos actuar sin contar con evidencia completa y de calidad, solemos preferir el daño o el riesgo causados por nuestra inacción a los provocados por lo que hacemos. Si actuamos y el resultado es nocivo, pensamos que eso es consecuencia de nuestras acciones. En cambio, si no actuamos y ocurre algo malo, no vemos que eso también puede ser consecuencia de nuestra decisión. Esto se conoce como “sesgo de omisión”. Les pasa, por ejemplo, a algunas personas que rechazan una vacuna porque temen sus efectos adversos. Si resolvemos no vacunarnos, por miedo al (bajísimo) riesgo de la inoculación, no advertimos que estamos decidiendo, de manera activa, aceptar el peligro (casi siempre mayor) de enfermarnos por no estar inmunizados. 

Cuando tomamos una decisión, a menudo nos cuesta elegir algo que nos parece subóptimo porque lo comparamos con lo ideal, con lo que a nuestro juicio “debería ocurrir”, y no con la alternativa real. Claro, nos habría gustado que este virus no existiera, así no habríamos tenido que enfrentarnos a estas decisiones. No existe la opción de no exponernos, porque el virus está. Mundo real en contraposición a mundo ideal. El sesgo de omisión también puede poner a nuestros gobiernos democráticos en una encrucijada, más política que cognitiva: si no actúan, se ven débiles, pero si proceden sin certeza, podrían ser acusados luego por el daño que causen. Eso muchas veces conduce a grandes gestos con poco contenido, que pueden ser luego leídos del modo que uno quiera y dan la impresión de que se actuó entendiendo bien el problema. En el fondo, están exagerando la bondad de las medidas que proponen, ocultando la incertidumbre y generando la idea de un rumbo claro e invariable. 

Existen estrategias para sobreponernos al sesgo de omisión. Por un lado, tengamos presente que no decidir también es decidir, que no actuar también es actuar. Como dijo el pediatra norteamericano Paul A. Offit, “puede ser tentador tratar de evitar el riesgo, pero lo cierto es que no hay decisiones sin riesgo, sino solo decisiones con diferentes riesgos”. 

En algunas versiones del juramento hipocrático se dice primum non nocere (“lo primero es no hacer daño”). Si se interpreta esto de manera literal, un médico no podría tratar a su paciente, porque todo lo que realiza implica un riesgo y podría causar daño. Entonces, los médicos nunca actuarían, incluso si con su accionar estuvieran evitando un riesgo mayor. Interpretado de manera correcta, un médico debe actuar si considera que el daño que provocaría haciendo algo sería menor que el que existiría si no hiciese nada. Nunca puede estar ciento por ciento seguro, pero eso no lo exime de actuar. 

 

Fallar barato 

 

Por otro lado, podemos combatir la incertidumbre, la falta de conocimiento y el sesgo de omisión con una estrategia metodológica: iteraciones rápidas. Iterar no es exactamente repetir: no repetimos las acciones, sino la metodología, el proceso, en base a los aprendizajes del procedimiento anterior. Si decidimos algo antes de saber demasiado y nos equivocamos, podemos aprender rápido y corregir el rumbo. El problema no es fallar. El problema son las fallas caras. Necesitamos maneras baratas de fallar si no estamos seguros de cómo actuar. Como dijo el escritor Samuel Beckett: “Intentaste. Fallaste. No importa. Intentar otra vez. Fallar otra vez. Fallar mejor”. 

La clave es aprender de esa falla para la próxima iteración. La idea de este tipo de soluciones, además, cambia un poco la forma en que evaluamos cada etapa de la iteración. Por ejemplo, parece obvio que, si la opción A cuenta con más posibilidades de resolver el problema que la opción B, entonces A es preferible a B. Pero no siempre. Supongamos que, si A falla, nos quedamos sin opciones, pero si B falla, todavía podemos intentar algunas cosas más. En ese caso, y dependiendo de muchos detalles, B podría ser preferible a A, ya que su valor no es solo el de resolver el problema, sino el de abrirnos la posibilidad de otras soluciones si llegara a fallar. El valor de una etapa en el proceso iterativo tiene en cuenta su posición entre todas las demás etapas, y la incertidumbre. Pero eso requiere de algo más. Por ejemplo, que nuestros gobiernos, nuestras instituciones y nosotros mismos seamos capaces de no “casarnos con la posición” y podamos modificar nuestras posturas y decisiones si la situación cambia o se descubre algo mejor. Si juramos que este coronavirus no se transmite por aerosoles —como ocurrió en muchos lugares del mundo durante los primeros meses de pandemia—, si ponemos nuestra identidad en juego en esa opinión, entonces cuando nueva evidencia demuestre que estábamos equivocados nos va a costar mucho aceptar el error y corregir nuestras ideas y acciones. 

Debemos ser capaces de tener claro que estamos construyendo la verdad científica en tiempo real, y que vamos decidiendo y actuando, en el mejor de los casos, según la evidencia disponible. En tiempos de incertidumbre, la rigidez en nuestra convicción, por una u otra postura, casi siempre es equivocada y siempre es dañina. 

 

Alternativas reales 

 

En estos contextos tan difíciles, con tanto en juego, se vuelve indispensable que nuestras decisiones estén informadas por la evidencia disponible. No es capricho, no es metafísica, es práctica: es más probable tener éxito así que de otro modo. Pero, cuando el conocimiento se va produciendo en tiempo real, como nos pasó con la pandemia (y como volverá a pasarnos), aparece una disyuntiva: la mejor evidencia disponible mañana es preferible a la mejor evidencia disponible hoy. ¿Entonces esperamos a mañana para tomar nuestra decisión? ¿O usamos las evidencias de hoy para tomar una decisión antes? Esa sensación de inestabilidad puede paralizarnos, pero de nada sirve comparar con un conocimiento ideal en un mundo ideal. Es una fantasía que nos dificulta entender que debemos comparar con la alternativa real. Y la alternativa real es que, si no nos basamos en la mejor evidencia de hoy, solo nos queda basarnos en… ¿intuiciones?, ¿buena voluntad?, ¿deseos? Porque igual tendremos que decidir hoy. Aun si nos paralizamos, estamos decidiendo. No se puede detener el juego hasta que estemos convencidos, porque sigue jugándose igual. 

Existe, sin duda, el riesgo de que las evidencias que usemos sean incompletas o incorrectas, pero del otro lado hay peligros peores: las verdades dogmáticas, lo que nos parece que ocurre, la tradición o lo que nos dice nuestro líder. 

Una vez metidos en el aguacero, el desconcierto de los primeros tiempos de covid-19 se transformó con rapidez en actitud: era necesario arremangarse y ponerse a trabajar. Existían problemas y debíamos solucionarlos. Para no ahogarnos en la inundación, había que nadar lo más rápido y lo mejor posible. De a poco pasamos de sentirnos víctimas de una calamidad impensable a ser agentes de nuestro propio destino. Vivimos una época horrible, pero no perdimos de vista que estábamos atravesando un momento histórico, uno de esos grandes eventos que quedarán registrados. Dentro de un siglo se seguirá hablando de esta pandemia como nosotros seguimos hablando de la gripe de 1918. De algún modo, junto a la desolación, las muertes y la sensación de estar perdiendo la batalla, en esos primeros meses también nos sentimos un poco aventureros y, a veces, algo curiosos por saber qué pasaría después, cuando dejara de haber tanto ruido. Cuando parara de llover. 

 

Que funcione 

 

Todos los seres vivos resuelven problemas, de un modo u otro: encontrar recursos, escapar de los depredadores, reproducirse. La cualidad exclusiva de los humanos es que convertimos la resolución de problemas en un arte, un método, algo que es parte de nuestra cultura. No lo hacemos únicamente para sobrevivir, ni solo en el presente. Inventamos el ajedrez y la ciencia ficción, y también aprendimos cómo prolongar nuestras vidas y vivir en comunidades cada vez más grandes. Somos solucionadores de problemas, imaginadores de futuros. A veces nos va mejor, a veces peor, pero no hay otra especie con tantas herramientas cognitivas y materiales a disposición, herramientas que fuimos fabricando y puliendo entre todos durante milenios. 

 

En principio, resolver problemas requiere reconocer que tanto el problema como su solución ocurren en el mundo real y no en el de las ideas. No importa cuán buenas, obvias o ideológicamente adecuadas nos parezcan las soluciones que imaginamos: lo que queremos son soluciones que funcionen, que resuelvan problemas que existen, y no meras declaraciones de principios que luzcan lindas en un papel. El mundo no es una proyección de nuestra voluntad ni de la de nadie. La realidad es eso que, cuando dejamos de creer en ella, no desaparece, como decía el escritor Philip K. Dick. 

No hay soluciones puramente ideológicas. Parece obvio, pero no lo es. Que algo esté pensado para lograr determinada cosa no hace que esa cosa necesariamente ocurra. Todo el tiempo tomamos decisiones, sancionamos leyes o establecemos normativas que parecen más bien declamaciones para señalar el bien y el mal pero que, cuando pasan del papel a la implementación, no solo no remedian nada, sino que a veces incluso empeoran la situación. Después nos sorprende que las cosas no se hayan resuelto. 

Cuando tratamos de solucionar problemas aparecen obstáculos que, en el mejor de los casos, nos hacen ir más lento, y en el peor, son contraproducentes y nos hacen retroceder, como el voluntarismo y la sobresimplificación. El voluntarismo por sí solo no es suficiente para provocar cambios reales en el mundo. Querer no es poder. Incluso puede ser perjudicial: hace que nos sintamos buenos y entonces pasamos a otro tema, como si ya nos hubiéramos ocupado del asunto. En cuanto a la sobresimplificación, aun las opiniones de los expertos, por más técnicas y correctas que sean, si resuelven un solo aspecto del problema pero ignoran los demás, son algo así como intuiciones con esteroides: solucionan un poco acá para provocar problemas tal vez mayores allá, que tomarán a esos expertos por sorpresa porque, al no ser de su área, jamás pensaron en ellos. No todo el elefante es trompa. 

 

Las buenas intenciones no son suficientes para resolver los problemas. No alcanza con haber intentado lo mejor. Hay pocas cosas más tristes que un grupo bienintencionado que trata de solucionar un problema real con las herramientas incorrectas. Su fracaso consume las buenas intenciones y deja una enseñanza letal: no vale la pena intentarlo. Para evitar eso, necesitamos sumar una mirada informada por las evidencias y tomar decisiones que consideren esas evidencias de la mejor manera posible. Como decía el médico sueco Hans Rosling: “No podemos entender el mundo sin números. Pero tampoco podemos entenderlo solo con números”. 

Medir y encontrar soluciones que funcionan tampoco es un procedimiento a prueba de errores. Va a fallar, pero la idea es tratar de que lo haga del modo menos costoso posible, con enseñanzas que conviertan los errores de hoy en mejoras, mediante iteraciones rápidas y sistemáticas. 

La pandemia nos enfrentó a problemas propios de ella. Propongo que tomemos algunos como ejemplo, no tanto para ver qué hicimos —o no— en este período, sino para tratar de abstraer y ver qué puede ser útil de analizar, así como para desarrollar estrategias que nos ayuden en la próxima pandemia, entendida de manera no literal.

Ciclo de cuatro etapas 

Para empezar a sistematizar nuestra mirada sobre el modo de afrontar los problemas, podemos imaginar un ciclo de cuatro etapas: 

  1. Definir el problema 

  2. Definir la solución 

  3. Implementar la solución definida 

  4. Evaluar para averiguar si el problema se solucionó o no 

 

 

Se trata de una representación muy sencilla y esquemática, una entre muchas posibles, pero ayuda a ordenar las ideas. Volveremos a esto a lo largo del libro. 

Con mayor detalle, las etapas son: 

 

1. Definir el problema 

 

Determinar de qué hablamos es una de las primeras acciones si queremos ponernos de acuerdo. Incluso debemos precisar qué significado le damos a la palabra “definir”. Existen las definiciones tipo diccionario: un vocablo seguido por su acepción. Pero aquí uso el término en otro sentido, más parecido al relacionado con la fotografía: lo contrario de ambiguo o borroso. Definir algo es volverlo específico, claro y acotado. 

Supongamos que decimos que nuestro propósito es “proteger a las personas del covid-19”. Se entiende de qué hablamos, pero establecerlo de esa manera es un problema demasiado amplio y vago. ¿Proteger cómo? ¿Cuánto sería suficiente? ¿Con qué herramientas? En cambio, si decimos “encontrar procedimientos que las personas podamos implementar por nuestra cuenta para disminuir la probabilidad de contagiarnos”, tenemos algo más fácil de abordar. No tan grande, claro, y en parte por eso más resoluble. Podríamos definirlo de muchas otras maneras, por ejemplo, con énfasis en sus aspectos económicos, no en los sanitarios, algo así como “permitir que el comercio internacional marítimo se mantenga en niveles suficientes y estables” para que no escaseen productos necesarios para combatir la enfermedad. 

Del objetivo inicial de proteger a las personas del covid-19 pueden desprenderse muchas ideas diferentes. Solo cuando definimos el problema lo volvemos tratable y podemos establecer métricas de éxito concretas: si no definimos el éxito de antemano, cualquier cosa puede serlo y nunca sabremos qué hicimos bien o mal ni cómo repetirlo o cambiarlo. 

Hay muchas maneras de abordar esto, y en general incluyen pensar primero en forma divergente, explorando el contexto, tratando de encontrar lo más relevante, urgente o factible, y luego cerrar eso de manera convergente, como si lo hiciéramos pasar por un embudo, para poder definir el problema del modo más preciso posible. Si nos propusimos tomar decisiones informadas por la mejor evidencia disponible, la etapa de definición del problema es el momento de incorporar esas evidencias: estudiar, aprender, acudir a expertos, reflexionar, entender los matices, las sutilezas, los costos y los beneficios de cada posible camino a recorrer. 

Acotar el problema de esta manera nos permite, además, medir lo que sucede para averiguar si la solución a la que llegamos es adecuada, es decir, si apunta a resolver el problema tal cual está definido. Antes de hacer algo más, necesitamos especificar qué se va a medir y qué se consideraría haber resuelto el problema. Estas no son verdades reveladas, sino cuestiones que debemos decidir adrede. Es buscar la intersección entre lo que puede ser medido y lo que es relevante para nuestro problema. No implica medir todo por las dudas, y tampoco abstenerse de hacerlo con el deseo de que las cosas, de algún modo, mejoren. Se trata de seleccionar, como mencioné en el primer capítulo. 

Para el problema definido como “encontrar procedimientos que las personas podamos implementar por nuestra cuenta para disminuir la probabilidad de contagiarnos” necesitaremos medir, por ejemplo, los casos de covid-19. Para el de “permitir que el comercio internacional marítimo se mantenga en niveles suficientes y estables” deberíamos medir, por dar un ejemplo, cuánto influyeron las regulaciones sanitarias en la entrada de camiones y barcos al puerto y en las operaciones de carga y descarga. 

Dedicar atención a definir bien el problema, incluyendo qué y cómo se va a medir, puede parecer tiempo perdido, pero es esencial para solucionar algo en el mundo real. 

 

2. Definir la solución 

También para idear una solución podemos aproximarnos primero de manera divergente, con el fin de buscar la mayor cantidad posible de opciones diferentes. Como suele decirse, “si solamente ves una solución, no entendiste el problema”. Pero luego tendremos que decidir cuál de todas las alternativas llevaremos adelante, y por eso debemos definirla. ¿Cuál creemos que puede funcionar con mayor probabilidad en este contexto? Es posible saberlo por evidencias científicas o experiencias previas, por ejemplo. Si nos decidimos por definir el problema como “encontrar procedimientos que las personas podamos implementar por nuestra cuenta para disminuir la probabilidad de contagiarnos”, tal vez pensemos en usar barbijos. Para eso, las soluciones deberían orientarse a garantizar que haya barbijos disponibles para todos, y que nos expliquen cómo y cuándo usarlos. Pero si pensamos en ventilar ambientes o lavarnos las manos, las soluciones ideadas deberían ser otras. Si vamos a enfocarnos en el comercio marítimo, tal vez decidamos compensar las dificultades operativas simplificando trámites, pagando extra a quienes se ocupen de esas tareas durante la pandemia o priorizando el comercio de las cosas esenciales. Todo debe ir encajando para lograr coherencia interna y claridad. 

Seguimos todavía en el mundo de las ideas, del pensar, y hay que dar un paso más: un puente hacia la realidad, al mundo del hacer, a poner en práctica esa solución que definimos y diseñamos. Ese puente requiere considerar la factibilidad, los beneficios, los costos, la disponibilidad de recursos. Además, necesitamos tener claro que hacer algo implica no hacer otra cosa, porque los recursos son siempre limitados. Y el sesgo de omisión vuelve a asomar. 

 

3. Implementar 

Pasamos del plano de las ideas al mundo real. Ahora tenemos que llevar adelante eso que pensamos antes. Necesitaremos monitorear el proceso, porque la mejor solución puede fracasar si se ejecuta incorrectamente, si la gestión es mala. Este fracaso puede ocurrir si no existe buena voluntad de alguna de las partes, pero también por muchas otras razones: simple inoperancia de quienes la llevan adelante, falta o asignación ineficiente de recursos, disposiciones rígidas que impiden o dificultan ir ajustando la solución a medida que la dinámica lo requiere, planificación insuficiente, fallida interpretación del problema o de sus variables o incomprensión del propósito que se persigue, lo que nos lleva muchas veces a seguir un proceso de manera automática porque no lo entendemos. 

 

4. Evaluar 

No perdamos de vista el problema. El ciclo no termina cuando implementamos una solución, como si lanzáramos al mar un mensaje en una botella con la esperanza de que alguien lo lea, sino cuando averiguamos si esa solución resolvió el problema o no. Para saber qué ocurre, necesitaremos medir eso que en el momento de la definición del problema dijimos que mediríamos. ¿Las personas efectivamente usamos barbijos y los usamos bien? Cuando lo hacemos, ¿nos contagiamos menos? ¿Se pudo evitar la disminución del tráfico marítimo? 

 

Los datos son una manera de salir del “a mí me parece”. Podemos hacer evaluaciones de impacto de lo que hicimos. Si estamos en el mundo de las políticas públicas, en vez de una política informada por deseos, buena voluntad o expectativas, podemos pasar a una informada por evidencias. 

Es muy improbable que hayamos dado con la solución en el primer intento: sería un problema muy sencillo, y ese no suele ser el caso. En nuestro mundo complejo, lo más frecuente es que estas cuatro etapas sean solo una de las vueltas de un ciclo que siempre recomienza: tenemos que aprender de lo que hicimos e iterar el proceso anterior, empezando por ajustar la definición del problema e incorporar información nueva que puede haber aparecido mientras tanto. Si no medimos/evaluamos, no podemos aprender. Y si no aprendemos, iterar será reproducir los mismos errores una y otra vez. 

Llegó el momento de abordar con mayor claridad algo que sobrevolé en los párrafos anteriores y es una de las cuestiones metodológicamente más complejas a las que nos enfrentamos cuando tratamos de solucionar problemas: ¿cómo saber si la decisión que tomamos y llevamos adelante fue la causa de un determinado cambio? ¿Qué habría pasado si hubiéramos decidido otra cosa o, incluso, si no hubiésemos hecho nada? 

 

El camino no tomado 

 

¿Pusimos en práctica este ciclo de problemas y soluciones durante la pandemia? No mucho. Generalizando y, por lo tanto, con el riesgo de perder matices en el camino, casi no hubo espacio para una definición clara de los problemas concretos que teníamos delante, para incorporar a la toma de decisiones el conocimiento disponible, para comparar soluciones alternativas, para implementar con cuidado y con un buen monitoreo, y mucho menos para evaluar lo ocurrido. Y al cerrar el ciclo y comenzar a recorrerlo otra vez, iluminamos poco las siguientes iteraciones con lo aprendido. En parte fue así por la urgencia, la incertidumbre y la falta de conocimiento sobre este nuevo virus. Pero tampoco estábamos tan bien preparados como creíamos, no solo para la pandemia, sino también para enfrentar este tipo de problemas (en el próximo capítulo veremos qué quiero decir con “tipo de problemas”). 

Además, no sabemos (y a veces ni siquiera podemos saber) si lo que hicimos funcionó, o si lo que pasó habría pasado igual aunque no lo hubiésemos hecho. ¿Cómo resolver esto? Esto es clave. Por ejemplo, ¿cómo saber en qué medida las cuarentenas y el distanciamiento social incidieron en la evolución del brote, o de qué manera influía lo que estábamos haciendo en el recorrido pandémico posterior? Más allá de cada caso en particular, tenemos una dificultad metodológica enorme: ¿de qué modo podemos establecer qué habría pasado si no se hubieran tomado esas medidas? Si hubiéramos tomado otro camino, ¿cómo habría sido? 

Muchos pueblos europeos, dice el antropólogo James Frazer, tenían la costumbre de encender fuegos toda la noche del día más corto del año, para ayudar al Sol moribundo a resistir. En el hemisferio norte seguimos haciendo algo parecido en fiestas como Navidad o Janucá, y el Sol continúa cumpliendo: durante los seis meses que siguen los días se alargan hasta el siguiente solsticio. Pero ¿podemos decir que el Sol vuelve porque encendemos un fuego? No: esa es la falacia conocida como post hoc ergo propter hoc (“después de esto, entonces a causa de esto”). Dicho de otro modo: que B ocurra después de A no significa que B sea consecuencia de ella. Correlación no implica causalidad [20]. Quizá la correlación esté reflejando una relación causal, o tal vez no. Después del día más corto vienen días más largos porque así es la geometría de nuestro sistema planetario, con o sin fuego, con o sin nosotros. Si es una ceremonia valiosa, lo es por lo que dice de nosotros, pero al Sol no podría afectarlo menos. 

Lo que necesitamos es entender cuál fue el impacto de lo que hicimos. El impacto es la diferencia entre lo que ocurrió y lo que habría ocurrido si no hubiéramos actuado de ese modo. Intuitivamente, podríamos afirmar que, si tenemos menos casos de covid-19 después de empezar a usar barbijos de manera masiva, debe de ser porque esa medida funcionó. Estamos suponiendo que la causa de ese descenso fue usar los barbijos, pero no es necesariamente así. ¿Y si esa disminución habría ocurrido aunque no los hubiésemos usado, porque se estaban realizando además otras cosas o por la dinámica propia de la epidemia? ¿Y si, a la inversa, el descenso habría sido más pronunciado todavía de no haber hecho lo que hicimos? ¿Cómo saberlo, si son eventos que ocurren en una línea temporal sin ramificaciones ni universos alternativos? ¿Podemos saber qué habría pasado de no hacer algo? 

Por fortuna, contamos con muchas herramientas para averiguar cómo habría sido ese camino que no tomamos, desarrolladas por nosotros, tan efectivas como las que inventamos para encender el fuego del solsticio. 

Quizá no alcancemos a saberlo con certeza, pero sí podemos estimar cómo habría sido la situación si no hubiéramos realizado cierta intervención. Este evento se denomina “contrafactual” o “contrafáctico”. 

No es observable porque no existe (el recorrido histórico es el que es, y no podemos retroceder ni pedirle al Dr. Strange que calcule qué pasaría en los otros 14.000.604 futuros posibles). Pero, si lo estimamos de modo adecuado, podemos comparar, con cierta confianza, lo que efectivamente pasó con ese contrafáctico y así conocer mejor el impacto de la medida adoptada. Recién entonces podemos decir si lo que hicimos fue positivo, negativo o neutro. Aunque siempre existirá una dosis de incertidumbre asociada. 

Imaginemos que los casos descendieron después de adoptar cierta medida. Nuestra intuición nos dice que esa intervención fue un éxito. Pero, cuando miramos el contrafáctico, vemos que los casos habrían descendido aún más. Si eso sucede, tenemos que sepultar nuestra intuición y nuestra alegría, porque significa que el impacto de esa medida fue negativo: nos fue peor que si no la hubiésemos tomado. 

Siempre hay un contrafáctico inaccesible, porque no existe en el mundo real (mala noticia) pero es estimable (¡buena noticia!). Por ejemplo, si queremos averiguar si en un país una medida provocó que disminuyeran los casos de la enfermedad, podemos ver cómo evolucionó la epidemia en otro país que no haya tomado la misma decisión. Para eso necesitamos que ambos países sean lo más parecidos posible, tanto en sus características (economía, sociedad, política, geografía, demografía) como en la situación de la epidemia, y que además no se influyan entre sí. De lo contrario, podría ocurrir que las diferencias observadas no se deban a la decisión, sino a las demás características. Con dos países muy parecidos tendríamos uno que sirve de grupo de comparación, para “imitar” el contrafáctico. No nos sirve comparar peras con manzanas, pero podemos comparar manzanas rojas con manzanas verdes, teniendo muy claro que, aunque siguen siendo diferentes, se parecen mucho. 

Cuanto mejor sea nuestro grupo de comparación, mejor contrafáctico tendremos. En la práctica, fue muy difícil llevar adelante esto en la pandemia, porque nuestros países son, para empezar, muy diferentes entre sí. Además, ¿qué escala de tiempo había que considerar? Eso también es una decisión y, como tal, conlleva su dosis de arbitrariedad. Al comienzo, en algunos países la cantidad de muertos por covid-19 en relación con el número de habitantes fue muy alta, pero luego se recuperaron. Hubo demasiadas diferencias iniciales, la pandemia fue larga y estamos muy lejos todavía de entender con claridad cuáles decisiones fueron buenas y cuáles no. Tal vez debamos esperar una o dos décadas para comprender esto en profundidad. Pero no es una excusa: aunque todavía no podamos contar con respuestas definitivas, al menos planteemos las preguntas correctas. Después de todo, no estamos debatiendo con nuestros amigos las bondades de los distintos tipos de café para pasar el tiempo. Estamos intentando prepararnos lo mejor posible para la próxima crisis. 

Entender los contrafácticos es una parte esencial de evaluar las decisiones que tomamos y comprender si funcionaron o no. Pero además queremos saber cuáles son las consecuencias de lo que hacemos, o sea, en qué medida eso influye en lo que ocurre. No es fácil, pero en los últimos tiempos desarrollamos herramientas metodológicas que pueden darnos información al respecto. ¿Cómo saber si algo causa otra cosa? 

 

Causas y consecuencias 

 

El ciclo televisivo de noticias de veinticuatro horas y el bombardeo breve y constante de las redes sociales nos llenan de datos casi instantáneos: ¿cuántos fallecidos por covid-19 se informaron durante un mes particular?, ¿cuántas vacunas se aplicaron hoy?, ¿qué proporción de los niños mantuvo contacto virtual con sus escuelas durante la suspensión de las clases presenciales?, ¿qué nivel de reactivación económica hubo el mes pasado? Todos estos son ejemplos de observaciones, fotos de una situación particular. Sí, son datos, pero datos no es información, y además este tipo de información es limitado: aun cuando estén bien realizadas, no nos permiten ir mucho más allá. 

Para empezar a extrapolar conclusiones relevantes, necesitamos aplicar métodos más sofisticados [21]. Podemos, por ejemplo, medir la situación “antes” de hacer algo y compararla con lo que resultó “después”, o sea, cotejar entre sí dos observaciones. Por ejemplo, cuántos individuos fallecieron por covid-19 antes de implementar tal medida y cuántos murieron después. Este análisis se conoce como “pre-post” y es el más común en la categoría de los que llamamos “cuasiexperimentales”. Implica una metodología relativamente sencilla, en general lleva poco tiempo y es barato. Pero tiene sus limitaciones: puede sobreestimar o subestimar el impacto porque, en vez de entender bien el contrafáctico, considera que es el valor pre y que lo único que afecta los resultados es nuestra intervención. Durante la pandemia, cambiaban muchas cosas a la vez, así que, aunque los pre-post fueron muy útiles, no podíamos saber si los cambios que observábamos se debían a lo que habíamos hecho o a cualquier otra cosa (o combinación de cosas). 

Para saber si la intervención es la causa de lo que ocurre después, necesitamos realizar experimentos. Es posible que la palabra nos recuerde las clases de ciencia de la escuela. Tengo una mala noticia: es poco probable que en esa instancia hayamos hecho verdaderos experimentos, que son algo bastante sutil y riguroso. 

A diferencia de las observaciones, en las cuales miramos qué pasa en el mundo tal como es, en un experimento “construimos” dos mundos: el grupo de tratamiento, en el que hacemos algo, y el de control, en el que todo es idéntico, salvo que no aplicamos el tratamiento. La idea es comparar qué pasa en esos dos mundos. 

Como solo difieren entre sí por la intervención que llevamos adelante si vemos una diferencia, podemos inferir que es consecuencia de esa intervención. 

Los experimentos nos permiten concluir que algo es la causa de otra cosa. En la industria médica, es común hacerlos. Durante la pandemia, fueron la herramienta principal, en la etapa de investigación, para saber si las vacunas contra el covid-19 funcionaban o no: a un grupo de voluntarios se le daba la vacuna experimental y al otro un placebo, y tiempo después se medía, por ejemplo, cuántos voluntarios se habían contagiado de covid-19. Con un análisis estadístico adecuado se puede averiguar así en qué medida una vacuna protege a las personas de enfermarse o de morir. 

En el contexto de la medicina, estos experimentos se conocen como “ensayos clínicos”. De una manera más general son RCT, sigla de Randomized Control Trial, que significa ensayo controlado aleatorizado: “controlado”, porque se usa un grupo control como grupo de comparación, y “aleatorizado”, porque los integrantes son asignados al azar para crear grupos estadísticamente iguales [22]. En otros ámbitos, como el marketing, se aplican para esto técnicas similares llamadas A/B testing: si se busca, por ejemplo, que las personas completen un formulario en internet, se pueden armar dos formularios distintos (A y B), asignarlos al azar a las personas y medir cuál logra más respuestas. Esto también es un experimento y, si está bien hecho, nos permite inferir causalidad. 

Como nuestro propósito es prepararnos de la mejor manera posible para la próxima pandemia, es importante que analicemos de qué modo obtuvimos información durante esta. Cuanto más compleja es la situación, más difícil es abordarla y, si queremos que la próxima nos vaya mejor, tendremos que empezar a ocuparnos de esa complejidad. 

 

Problemas pandémicos 

 

Si hubiera un Disneyworld de la ciencia, un mundo mágico donde todo estuviera a disposición para conseguir evidencias, una gran sección del predio estaría dedicada a realizar experimentos en lugar de usar otras técnicas que no alcanzan a informarnos si algo es una causa y otra cosa, su consecuencia. Pero, en la vida real, esto a veces resulta muy difícil o incluso imposible, o inaceptable desde un punto de vista ético. 

En la pandemia, no podíamos hacer experimentos con los países, ni provocar contagios de manera deliberada, desarrollar variantes nuevas de los virus ni establecer, por ejemplo, que un grupo de nosotros debía lavarse las manos y otros no. Entre la urgencia, la diversidad inicial de regiones y las variadas decisiones que fuimos tomando, resultaba complicado encontrar buenos grupos de comparación. Ante la llegada del coronavirus, en cada país definimos el rumbo de forma medianamente autónoma. Hubo así, a nivel global, muchas respuestas distintas. Esto nos dificulta entender qué funcionó y qué no para mitigar los efectos dañinos de la pandemia (aunque más adelante deberíamos poder analizarlo en retrospectiva de manera más seria y rigurosa). 

Aun así, desde el punto de vista general de la humanidad y no desde el de cada país o individuo, existe una ventaja en responder con alta variabilidad cuando nos encontramos en un contexto de incertidumbre: como no es del todo claro qué funciona y qué no, haber optado por cosas distintas en cada lugar puede ser positivo porque esa diversidad de acciones proporciona una probabilidad mayor de que alguien encuentre el mejor camino, aunque sea por pura suerte, y que los demás lo copiemos. 

 

Si todos hubiéramos hecho lo mismo, y encima sin conocimientos adecuados, la chance de equivocarnos habría sido mayor. Si vamos a cometer errores, equivoquémonos en cosas distintas, así al menos podremos aprender algo. 

Los experimentos estuvieron, en general, reservados a situaciones controladas de laboratorio que, aunque permitían establecer causalidad, no eran demasiado extrapolables a las circunstancias que vivíamos con numerosas variables y casi todas fuera de nuestro control.

Mucho de lo que hicimos durante la pandemia (si es que logramos hacer algo sistemático y no solo manotones de ahogado decididos sobre criterios muy alejados de la información) fueron análisis pre-post y otros métodos cuasiexperimentales. 

Si bien estas metodologías son útiles para formar conocimiento, necesitamos entender qué podemos, y qué no, concluir con cada una. A veces, para afirmar que una decisión de política pública tuvo éxito, los gobiernos muestran los resultados de un pre-post, e incluso algunos políticos opositores utilizan los resultados de un pre-post para sostener que una disposición del gobierno no fue buena. Sin embargo, ya hemos visto que el hecho de que el post sea mejor que el pre no demuestra que lo realizado fue la causa de ese resultado. Es información, y podrían ser ciertas las bondades de esa decisión. Pero no podemos asegurarlo solo a partir de esa evidencia. 

Si no hay un buen grupo de comparación que nos permita estimar de manera adecuada un contrafáctico, no podemos concluir demasiado solo con un pre-post. No se trata de inventar escenarios hipotéticos con los cuales cotejar la realidad partiendo de una necesidad de mostrar que las cosas se hicieron bien o se hicieron mal. El contrafáctico es estimable con metodología rigurosa, y construir esos marcos de referencia requiere un gran conocimiento metodológico. Es algo que se realiza de modo habitual en algunas áreas, como las ciencias sociales, la economía, la medicina o la biología, que lidian con intervenciones en poblaciones numerosas, con información imperfecta y con variaciones entre individuos. 

Más allá de esto, es importante estar atentos a cómo puede terminar siendo usado el conocimiento que se desarrolló. Tal vez se lo utilice de manera adecuada para informar la toma de decisiones, por ejemplo, en la política pública. En estos casos, lo correcto es considerar toda la evidencia de calidad disponible hasta el momento. Pero ese conocimiento también puede ser empleado en forma más tramposa y difícil de detectar: decidimos algo primero, siguiendo nuestra intuición, nuestro gusto personal o la popularidad que esperamos ganar, y luego seleccionamos, entre la evidencia disponible, aquella que nos permite justificar esa decisión. En este caso, estamos poniendo el carro delante del caballo. Eso no es toma de decisiones informada por la evidencia, sino una especie de “toma de evidencia informada por la decisión”.

 

Es posible que lo hagamos de manera intencional, para tratar de convencer a otros de que procedimos bien, pero también podemos hacerlo sin darnos cuenta. 

Si en situaciones de crisis no disponemos de datos y métodos públicos y razonablemente objetivos para medir los resultados, la tentación de que los éxitos sean propios y los fracasos, ajenos o inevitables es enorme. 

Todos queremos ser héroes aunque sea por un día, atribuir las victorias a nuestras virtudes, culpar por las derrotas a la inevitabilidad del destino, monopolizar los aplausos y socializar las críticas. Pero eso es contraproducente, no solo por motivos éticos, sino también prácticos: la improvisación y la suerte no suelen conducir a los mejores resultados posibles. Peor aún, si, como Alfredo Lingüini, lavacopas devenido en chef, pensamos que la sopa exitosa se debe a la improvisación o a cosas que no conocemos, cuando vuelvan a pedir que la hagamos no lo lograremos. No todos tenemos la misma capacidad de acción en el mundo ni, por lo tanto, la misma responsabilidad, pero todos podemos prestar atención a estos temas. Así como no hace falta saber estadística para jugar a la ruleta, no es necesario que todos entendamos cómo hacer un ensayo controlado aleatorizado o cuáles son las variables relevantes. Pero sí tiene valor que todos entendamos cómo se juega el juego y cuáles son las reglas y los límites. Para que nos mientan menos, necesitamos que mentir resulte más caro y sea más difícil. En nuestros países democráticos, aun los que no decidimos elegimos a los que deciden, y es relevante saber si lo hacen bien o mal.

 

Resulta trabajoso recorrer el camino de decidir basándonos en la mejor evidencia, de estimar los riesgos, comunicarlos para que podamos discutirlos y así seguir adelante con los ojos abiertos. Es un trayecto duro, a veces ingrato, pero las alternativas son mucho peores. 

Si no sabemos por qué nos va bien, tampoco sabemos por qué nos va mal. Si nos hacemos dueños de victorias que no nos pertenecen, otros van a hacernos cargo también de las cosas que no podían evitarse. 

La pandemia nos puso delante problemas que sí o sí debíamos intentar resolver. No podíamos barrerlos debajo de la alfombra. ¿Cuáles fueron esos tipos de problemas?

NOTAS 

[20] De hecho, y para complicar más el asunto, causalidad tampoco implica correlación. Dejémoslo así.

[21] Me enfoco aquí en un subgrupo, el de los métodos cuantitativos. También existen métodos cualitativos que proporcionan evidencia muy relevante, sobre todo en algunas circunstancias específicas, pero no me referiré a ellos en este libro.

[22] Asignar a la gente al azar en los grupos nos permite estar bastante seguros de que ninguna circunstancia, como un sesgo inconsciente de quien hace el experimento o un problema de procedimiento, lleve a un criterio de selección que provoque diferencias involuntarias entre los grupos.

Etapas en la estrucura de un Problema: definir el problema, definir la solución, implementar esa solución y evaluar si ocurrió o no lo que nos habíamos propuesto
bottom of page