Episodio 22: Misión STS-107 de Columbia (2003)
Este episodio nace por una fecha: el aniversario del accidente del Columbia (STS-107). Pero también nace por una sensación incómoda que aparece en casi todos los sistemas complejos: la idea de que una señal puede estar delante de nosotros y aun así no “sonar” como alarma.
El 1 de febrero de 2003, miles de personas vieron en el cielo una estela que no encajaba. No era un avión. Era el Columbia entrando en la atmósfera a una velocidad brutal, y era el final de una misión que, durante 16 días, había sido ciencia, rutina, turnos y trabajo disciplinado en órbita.
En este capítulo no te cuento Columbia como “una pieza que falló”. Te lo cuento como una historia de ingeniería y cultura de seguridad, donde lo técnico importa, sí, pero también importa cómo una organización interpreta lo técnico cuando hay incertidumbre, precedentes y presión por mantener el flujo.
La misión STS-107 fue, sobre todo, un laboratorio en órbita: experimentos, procedimientos, cronogramas ajustados y una tripulación que llevaba años entrenando para hacer lo que mejor sabe hacer un sistema serio: ejecutar con método. Ese contraste —la normalidad operativa dentro de un entorno extremo— es clave para entender por qué esta historia es tan potente.
El punto de giro llega muy pronto: a los 81,7 segundos de tiempo de misión durante el lanzamiento del 16 de enero de 2003, se desprende espuma aislante del tanque externo y golpea el borde de ataque del ala izquierda. En vídeo puede parecer “poca cosa”. Pero el borde de ataque no es un sitio cualquiera: es parte de la zona que debe sobrevivir a lo peor de la reentrada.
El accidente no ocurre ese día. El daño sí. Y esa diferencia —daño ahora, consecuencias después— es justo lo que convierte a Columbia en un caso tan difícil: porque la misión continúa, aparentemente normal, y el riesgo viaja en silencio dentro de un sistema que sigue funcionando.
A partir de ahí, el episodio se mete donde suele doler: en las conversaciones en tierra. En cómo se pide (o no se pide) información. En cómo una duda se vuelve “no accionable” cuando no viene acompañada de una prueba perfecta. Y en cómo el éxito repetido puede bajar el umbral de alarma sin que nadie lo note.
Para ponerle una lente a todo esto, introduzco a Nancy Leveson y el enfoque de safety de sistemas: no basta con reconstruir el último minuto; hay que entender por qué el sistema llegó a un punto donde era tan fácil seguir adelante… y tan difícil frenar.
También verás un esfuerzo deliberado por contar esto sin villanos de película. En historias así, la mayoría de decisiones suenan razonables en el momento. Y precisamente por eso son útiles: porque lo peligroso no es “la mala intención”, sino la normalidad que se come a la duda.
Gracias por estar al otro lado. Ojalá este capítulo sirva para recordar con rigor a la tripulación del Columbia, y para llevarnos una idea incómoda pero valiosa: en seguridad, lo importante no es solo lo que se rompe, sino cómo una organización aprende —o deja de aprender— a escuchar sus propias señales.

