Diseños contrafactuales: pensar en lo que no ocurrió para entender lo que sí ocurrió

Exploramos cómo el razonamiento contrafactual nos permite evaluar intervenciones científicas a partir de escenarios hipotéticos. Una herramienta clave —y poco usada— en ciencias sociales.
investigación
evaluación
metodología
Autor/a

Antonio Matas-Terron

Fecha de publicación

16 de mayo de 2025

¿Qué habría pasado si…?
Esta simple pregunta tiene un poder enorme en la investigación científica. No se trata de ciencia ficción ni de ucronías, sino de una manera rigurosa de pensar en realidades alternativas para evaluar los efectos de nuestras decisiones, políticas o intervenciones. A esta forma de razonar la llamamos diseño contrafactual.

En este post, te cuento en qué consiste, por qué es clave para la investigación en ciencias sociales, y cómo se aplica —sí, también en educación, salud, medio ambiente o gestión de desastres.

¿Qué es el razonamiento contrafactual?

Imagina que quieres saber si una beca universitaria mejora el rendimiento académico. Para saberlo con certeza, necesitarías comparar el resultado del mismo estudiante con y sin la beca. Pero claro, eso es imposible: no se puede dividir al estudiante en dos.

Ahí entra en juego el diseño contrafactual: buscamos comparar lo que ocurrió con lo que habría ocurrido si no hubiera existido la intervención. Como ese mundo alternativo no existe, necesitamos construirlo mediante técnicas experimentales o cuasi-experimentales.

¿Cómo lo hacemos?

La herramienta más conocida es el ensayo aleatorizado controlado (RCT): se asigna aleatoriamente a unos participantes una intervención (por ejemplo, una nueva metodología docente), mientras otros siguen como siempre. La diferencia en los resultados entre grupos nos da una estimación del efecto “puro” de la intervención.

Pero cuando no podemos hacer esto —por razones éticas, logísticas o políticas— usamos diseños cuasi-experimentales, como:

  • Diferencias en diferencias
  • Diseños de discontinuidad
  • Diseños de putuación de propensión
  • Análisis comparativo cualitativo (QCA)

Todas estas estrategias comparten un mismo espíritu: reconstruir el escenario contrafactual de la forma más rigurosa posible.

¿Por qué importa?

Porque nos ayuda a evitar falsas conclusiones. No basta con observar que algo mejora tras una intervención: eso también podría deberse al paso del tiempo, a la motivación del alumnado o a mil factores más. El diseño contrafactual nos permite afirmar con más seguridad: “esto mejoró gracias a la intervención, y no por otra cosa”.

Y lo que es más, se aplica a campos tan diversos como:

  • Salud pública (¿sirvió realmente cerrar colegios durante una pandemia?)
  • Gestión de desastres (¿habríamos estado mejor preparados ante un terremoto con otras medidas?)
  • Cambio climático (¿qué habría pasado si se hubieran reducido antes las emisiones?)

Pero ojo: no todo es tan fácil

El enfoque contrafactual tiene límites importantes. Por ejemplo:

  • Requiere datos de calidad y muchas veces no los tenemos.
  • Se basa en supuestos causales que hay que justificar muy bien.
  • Y plantea dilemas éticos: no siempre es aceptable dejar a personas fuera de una intervención solo para comparar.

Además, modelar escenarios hipotéticos puede ser tan complicado como seductor.

¿Y en educación?

En nuestra área, el enfoque contrafactual sigue siendo poco habitual, pero tiene un enorme potencial. Evaluar políticas educativas, nuevas metodologías, programas de inclusión… Todo ello se beneficiaría de marcos más rigurosos que nos ayuden a responder la pregunta clave: ¿esto funciona porque lo hemos hecho así… o habría ocurrido igualmente?

Un ejemplo: reducción del abandono en primer curso

Imagina que un centro universitario pone en marcha un programa de mentorías entre iguales para reducir el abandono en primer curso. El programa se aplica en la Facultad de Educación, pero no en otras facultades.

El análisis contrafactual consistiría en construir un escenario comparable al que habrían vivido esos estudiantes si no hubieran participado en el programa. Por ejemplo, podríamos comparar los datos de abandono con los de la Facultad de Psicología, que no implementó la mentoría, y aplicar un diseño de diferencias en diferencias para estimar el efecto neto del programa.

¿El abandono bajó en Educación más de lo que bajó en Psicología ese mismo año? ¿Esa diferencia es estadísticamente significativa? ¿Podemos atribuirla al programa?

Este tipo de enfoque no solo da más solidez a las conclusiones, sino que también puede convencer a gestores y responsables de que vale la pena escalar la intervención.