Pensamiento caja negra
Resumen del libro

Pensamiento caja negra

por Matthew Syed

Por qué algunos nunca aprenden de sus errores y otros sí

Introducción

El progreso ha sido uno de los aspectos más sorprendentes de la historia humana durante los dos últimos milenios y, en particular, en los dos últimos siglos y medio. No se trata solo de grandes empresas y equipos deportivos, sino también de ciencia, tecnología y desarrollo económico. Ha habido avances generales y cambios específicos que han modificado casi todos los aspectos de la vida humana.
Vamos a intentar comprender el porqué. Indagaremos bajo la superficie y examinaremos los procesos subyacentes por los cuales los humanos aprendemos, innovamos y somos más creativos, ya sea en los negocios, en política o en nuestras propias vidas. Y descubriremos que en todos estos ámbitos la explicación del éxito reside, en gran parte y a menudo contra toda lógica, en cómo reaccionamos al fracaso.
Una manera ilustrativa de abordar esta investigación y descubrir la relación inextricable entre el fracaso y el éxito es comparar dos de los sectores en que la seguridad es primordial: la sanidad y la aviación. Los aspectos psicológicos, culturales y de cambio institucional son diferentes en las organizaciones de estos sectores, como veremos. Pero la diferencia más profunda es cómo se enfrentan al fracaso.
La aviación ha logrado un nivel de seguridad impresionante. En 2013 hubo 36 millones de vuelos comerciales en todo el mundo que transportaron a más de 3000 millones de pasajeros, según la Asociación Internacional del Transporte Aéreo. Solo murieron 210 personas.
En la sanidad, no obstante, las cosas son muy diferentes. En 2013, en un estudio publicado en el Journal of Patient Safety se calculaba que, en Estados Unidos, el número de muertes prematuras relacionadas con errores evitables era de más de 400.000 al año. Al testificar ante un comité del Senado en verano de 2014, Peter J. Pronovost, doctor en Medicina, profesor de la Facultad de Medicina de la Universidad Johns Hopkins y uno de los médicos generalistas más importantes del mundo, señaló: “Lo que muestran los datos es que cada día se estrellan dos 747. Cada dos meses tiene lugar un nuevo 11S”.
El problema no consiste en un reducido grupo de médicos homicidas, locos e incompetentes que hacen estragos en los centros sanitarios. La mayoría de las veces no están causados por el aburrimiento, la holgazanería o la mala fe, cuando los médicos hacen su trabajo con el cuidado y la diligencia que se espera de ellos.
Entonces, ¿por qué hay tantos errores?


Te puede interesar:

Cómo no aprender de los errores

A Elaine, una madre vivaz de treinta y siete años que había trabajado en el sector turístico antes de dedicarse a su familia a tiempo completo, le esperaba un día importante: tenía que ir al hospital. Desde hacía un par de años padecía sinusitis y le recomendaron someterse a una operación para acabar con este problema de una vez por todas. “No te preocupes —la tranquilizó el doctor—. Es una operación rutinaria y el riesgo es bajo”.
El cirujano otorrinolaringólogo, el doctor Edwards, contaba con más de treinta años de experiencia y muy buena fama. El anestesista, el doctor Anderton, llevaba ejerciendo más de dieciséis años. Las instalaciones del hospital eran excelentes y todo estaba listo para que la operación fuera un éxito.
Pero la operación no salió como se esperaba. El doctor Anderton no pudo colocar la máscara de respiración asistida en la boca de Elaine tras administrarle la anestesia: se le habían tensado los músculos de la mandíbula. Le inyectó una dosis adicional de fármacos para relajarlos e intentó colocarle dos máscaras laríngeas más, pero de nuevo fue incapaz.
A las 8.37, dos minutos después de inyectar la anestesia, Elaine empezó a ponerse morada. La saturación de oxígeno había caído hasta el 75 por ciento (cualquier marca por debajo del 90 por ciento se considera “significativamente baja”).
A las 8.41 probó con otra reconocida técnica llamada intubación endotraqueal. Es un protocolo estándar cuando la ventilación es imposible. Empezó inyectando un agente paralítico en la sangre para destensar por completo los músculos de la mandíbula y lograr abrir totalmente la boca de Elaine. Luego utilizó un laringoscopio para iluminar la parte posterior de la boca y poder colocar el tubo directamente en la vía respiratoria.
Pero había otro problema: no podía ver la vía respiratoria al final de la garganta. El doctor Anderton empujó el tubo una y otra vez esperando hallar el orificio, pero no hubo manera.
La situación era crítica. Un anestesista en el quirófano adyacente, el doctor Bannister, acudió a ayudar. Pronto, el doctor Edwards, el cirujano, se unió a ellos. Tres enfermeras esperaban instrucciones a su lado. La situación aún no era catastrófica, pero el margen de error era exiguo. En aquel momento, cualquier decisión era potencialmente de vida o muerte.
Por suerte, existe un procedimiento adecuado precisamente para estas situaciones. Se llama traqueotomía, que tiene una ventaja esencial: no necesita la boca para nada. En lugar de esto, se hace directamente un agujero en la garganta y se inserta el tubo en la tráquea.
Es arriesgado y solo se utiliza como último recurso. Pero la situación precisaba de un último recurso. Posiblemente, era lo único que separaba a Elaine de un daño cerebral que amenazaba su vida.
A las 8.47 las enfermeras previeron correctamente la siguiente acción. Jane, la más experimentada de las tres, salió como una flecha para conseguir un kit de traqueotomía. Al volver, informó a los tres médicos que estaban rodeando a Elaine que el kit estaba listo.
La miraron por encima del hombro, pero por alguna razón no respondieron. Seguían tratando de insertar el tubo en el orificio oculto de la vía respiratoria de Elaine. Estaban absortos en sus acciones y hablaban rápidamente entre ellos.
Jane vaciló. A medida que pasaban los segundos, la situación era cada vez más crítica. Pero pensó que tres médicos experimentados ya se estaban ocupando de ello. Sin duda alguna debían de haber considerado la opción de una traqueotomía.
Si volvía a llamarles la atención, tal vez los distraería. Quizá tendría la culpa de que algo fuera mal. Quizá ya habían descartado la traqueotomía por razones que ella desconocía. Era una de las personas más jóvenes de la sala y los demás eran las figuras de autoridad.
En aquel momento, el pulso de los médicos debía de ir a toda velocidad. Su capacidad de comprensión había mermado. Es una reacción psicológica habitual cuando hay mucho estrés. Continuaron tratando de insertar el tubo en la garganta. La situación se estaba volviendo desesperada.
A las 8.55 ya fue demasiado tarde. Cuando los doctores lograron al fin que la saturación de oxígeno alcanzara el 90 por ciento, ya habían pasado ocho minutos desde el primer y vano intento de intubarla. En total, a Elaine le había faltado oxígeno durante veinte minutos. Los médicos se quedaron de piedra al mirar el reloj. No tenía sentido. ¿Cómo se había esfumado todo ese tiempo? ¿Cómo podía haber pasado tan rápido?
Martin no podía entenderlo. Aquella mañana su mujer estaba en perfectas condiciones. ¿Qué demonios había pasado? El doctor Edwards lo llevó aparte. “Mira, Martin, han surgido algunos problemas durante la anestesia —le comentó—. Son cosas que pasan. No sabemos por qué. Los anestesistas hicieron todo lo que pudieron, pero nada funcionó. Son casos excepcionales. Lo siento mucho”.
No mencionó los intentos inútiles de intubarla, ni que obviaron realizarle una traqueotomía de emergencia. Tampoco dijo nada sobre los intentos de la enfermera de alertarlos del desastre que se les venía encima.
Martin asintió y respondió: “Lo comprendo. Gracias”.
A medida que pasaron los días, Martin empezó a preguntarse qué había ido mal. Su mujer tenía treinta y siete años, estaba sana, era vital. Tenía toda la vida por delante. Los médicos les dijeron que era una operación rutinaria. ¿Por qué había muerto?
Martin no estaba enfadado. Sabía que los médicos tenían experiencia y que lo habían hecho lo mejor posible. Pero no podía dejar de preguntarse si se podía aprender algo de todo aquello.
No obstante, cuando se dirigió al jefe de la Unidad de Cuidados Intensivos para pedir que se investigara la muerte de Elaine, lo rechazaron inmediatamente. “Así no es como funcionan las cosas en la sanidad —respondieron—. No hacemos investigaciones. Solo estamos obligados a hacerlas cuando nos demandan”.
En el imprescindible libro After Harm («Después del daño»), la investigadora en temas de salud pública Nancy Berlinger expone un estudio sobre cómo los médicos hablan sobre sus errores. Resultó ser revelador. “Al observar a médicos veteranos, los estudiantes aprenden que sus mentores y supervisores creen, practican y recompensan la ocultación de los errores —escribe Berlinger—. Aprenden a hablar de resultados imprevisibles, hasta el punto de que un ‘error’ se convierte en una ‘complicación’. Y, sobre todo, aprenden a no contar nada a los pacientes”.
También describe la “profunda resistencia de los médicos a revelar los hechos y hasta dónde pueden llegar para justificar este hábito: se trató de un error técnico, son cosas que pasan, el paciente no lo entendería o no es necesario que lo sepa”.
Reflexiona sobre esto un momento. En general, los médicos y las enfermeras no son personas deshonestas. No trabajan en la sanidad para decepcionar o engañar a la gente, sino para curarla. Y, aun así, en la profesión hay una marcada tendencia hacia las evasivas. No se trata del engaño general que practican los estafadores. Los médicos no se inventan las razones de un accidente para poner una venda en los ojos del paciente. Más bien despliegan una serie de eufemismos —“error técnico”, “complicación”, “resultado imprevisible”— que, por separado, tienen parte de verdad, pero que no explican toda la verdad. En la sanidad, la competencia a menudo se equipara a la perfección médica. Cometer errores se considera una demostración de ineptitud. La propia idea de fracaso es una amenaza.
Para un médico, la amenaza para su ego, sin contar su reputación, es considerable. Piensa en lo a menudo que se oyen estos eufemismos en ámbitos que no sean la sanidad: cuando los políticos emprenden una iniciativa equivocada, cuando falla la estrategia de un empresario, cuando por cualquier razón lo dicen amigos o compañeros de trabajo. Tal vez incluso los hayas oído salir de tus propios labios de vez en cuando. Yo, sin duda, los he oído saliendo de los míos.
Para muchos pacientes, traumatizados por la pérdida de un ser querido, aquí acabaría la historia, pero Martin Bromiley no tiró la toalla. ¿Por qué? Porque había dedicado toda su vida profesional a una industria con una actitud diferente —e inusual— respecto al fracaso. Es piloto de aviones. Ha trabajado para aerolíneas comerciales durante más de veinte años. Incluso ha dado conferencias sobre seguridad de sistemas. No quería que las lecciones de una operación chapucera desaparecieran igual que su mujer.
Así que hizo preguntas. Escribió cartas. Y, a medida que supo más sobre las circunstancias de la muerte de su mujer, empezó a sospechar que no era un caso aislado. Se dio cuenta de que el error tal vez tenía una “señal”, un patrón sutil que, si se estudiaba, podía salvar vidas futuras.
Los médicos responsables de la operación no podían haberlo sabido por una razón simple, pero demoledora: históricamente, las instituciones sanitarias no han recogido de manera sistemática los datos sobre los accidentes y, por lo tanto, no pueden detectar patrones significativos y mucho menos aprender de ellos.
En la aviación, por otro lado, los pilotos suelen ser sinceros sobre sus errores (aterrizajes de emergencia, errores casi fatales). La industria posee órganos efectivos e independientes que investigan los accidentes. No se considera que el fracaso sea la condena de un piloto específico que ha metido la pata, sino una oportunidad de aprender inestimable para todos los pilotos, todas las aerolíneas y todos los reguladores.
Está claro que el éxito de la aviación se debe a muchos factores. La velocidad del cambio tecnológico ha ayudado, así como el hecho de que las aerolíneas, preocupadas por el daño a su reputación, la competencia y los costes de las aseguradoras, tienen un incentivo comercial potente para mejorar la seguridad. La aviación también se ha beneficiado de los simuladores de alta resolución y de una formación efectiva.
Sin embargo, el motor de progreso más poderoso se encuentra arraigado en la cultura de la industria. Es una actitud fácil de exponer, pero cuya amplia aplicación podría revolucionar nuestra actitud respecto al progreso: en lugar de negar el fracaso, o soslayarlo, la aviación aprende de él.
Y, aun así, ¿cómo se lleva esto a la práctica? ¿Cómo se fomenta el aprendizaje en el sistema de aviación (puesto que los pilotos, los reguladores, los ingenieros y el personal de tierra están desperdigados por todo el mundo), cómo se crea una cultura abierta y, lo que es más importante, cómo podemos sacar provecho de estas lecciones en otros ámbitos?
Para descubrirlo, analizaremos uno de los accidentes más influyentes de los últimos años, y quizá de toda la historia de los vuelos autopropulsados. Veremos cómo hacen su trabajo los investigadores, cómo extraen lecciones y cómo convierten las tragedias en una oportunidad para aprender.
Es el vuelo 173 de United Airlines.

Te puede interesar:

Pensamiento caja negra

El vuelo 173 de United Airlines despegó del aeropuerto internacional JFK de Nueva York la tarde del 28 de diciembre de 1978 con destino a Portland (Oregón). El cielo estaba despejado y las condiciones de vuelo eran prácticamente perfectas. Malburn McBroom, un hombre de cincuenta y dos años, con el cabello plateado, era el comandante. Veterano de la Segunda Guerra Mundial, tenía más de veinticinco años de experiencia.
Rodrick Beebe, un hombre de cuarenta y cinco años, que llevaba trabajando con United Airlines desde hacía trece años y tenía más de cinco mil horas de vuelo, era el copiloto de McBroom. La tercera persona en la cabina era el ingeniero de vuelo Forrest Mendenhall, de cuarenta y un años, once de los cuales había estado trabajando con la aerolínea. Tenía tres mil novecientas horas de experiencia de vuelo. Los pasajeros estaban en buenas manos.
Después de una breve escala en Denver, el United Airlines 173 despegó hacia Portland a las 14.47. Habían pasado tres días desde las Navidades y la mayoría de los 181 pasajeros volvían a casa después de las vacaciones. En la cabina de mando la tripulación charlaba animadamente mientras el avión alcanzaba la altura de crucero.
Hacia las 17.10, cuando el avión obtuvo el permiso del Control de Tráfico Aéreo (CTA) de Portland para descender, McBroom accionó la palanca para abrir el tren de aterrizaje. Normalmente, después de esto, las ruedas debían desplegarse suavemente y debía oírse un clic cuando se encajaran en su posición final. No obstante, aquella vez se oyó un batacazo que resonó en todo el avión y al que siguió un temblor.
En la cabina de pasajeros la gente empezó a mirarse con ansiedad y a especular sobre el origen del ruido. En la cabina de mando, la tripulación también estaba intranquila. ¿El tren de aterrizaje se había desplegado bien? Si era así, ¿qué había ocasionado aquel golpetazo? Una de las luces que debía haberse encendido si el tren de aterrizaje hubiera estado bien colocado permanecía apagada. ¿Qué significaba aquello?
El capitán no tenía otra opción. Contactó por radio con el Control de Tráfico Aéreo y pidió un tiempo adicional para resolver el problema. El centro de control de Portland respondió de inmediato y aconsejó al United Airlines 173 que “virara a la izquierda hacia uno cero cero”. Habían colocado el avión en un patrón de espera hacia el sur del aeropuerto, sobre los suburbios de Portland.
El personal hizo varias comprobaciones. No podían ver la parte inferior del avión para determinar si el tren de aterrizaje estaba en su lugar, así que mandaron al ingeniero de vuelo que fuera a la cabina de pasajeros para cerciorarse de si el par de pernos que sobresalían de las puntas de las alas cuando se desplegaba el tren de aterrizaje eran visibles. Ahí estaban.
No obstante, el capitán seguía preocupado. No tenía la certeza de que todo estuviera en orden. Sabía que tomar tierra sin el tren de aterrizaje desplegado comportaba un riesgo alto. Las estadísticas afirmaban que intentar aterrizar sin las ruedas desplegadas no solía acarrear muertes, pero seguía siendo peligroso. McBroom, un piloto responsable, quería estar seguro.
Al problema con el tren de aterrizaje se le sumó otro. Al despegar de Denver, el avión tenía 5.500 litros de combustible, más que suficiente para llegar a su destino. Pero un DC8 consume unos 25 litros por minuto, así que no podían seguir trazando círculos indefinidamente. En algún momento, McBroom tendría que aterrizar.
A las 17.46, hora local, el nivel de combustible cayó a 5 en el indicador. La situación seguía bajo control, pero el margen de error cada vez era menor, porque el tiempo no dejaba de correr. El ingeniero de vuelo empezó a ponerse nervioso. Informó al piloto de que las reservas se estaban acabando, como marcaba la luz intermitente de la bomba de combustible. Pero McBroom no reaccionó como esperaba el ingeniero. Siguió concentrado en el tren de aterrizaje. ¿Se había desplegado? ¿Había otra forma de comprobarlo? ¿Qué más podían hacer?
A las 17.50, el ingeniero Mendenhall intentó advertir de nuevo al comandante de que las reservas de combustible se estaban terminando. Este respondió que todavía tenían “quince minutos” de combustible en el tanque, pero estaba equivocado. Parecía haber perdido la noción del tiempo. “¿Quince minutos? —contestó el ingeniero con un tono de incredulidad—. No es suficiente… En quince minutos no nos quedará ni una gota de combustible”.
El copiloto y el ingeniero no podían comprender por qué el piloto no se dirigía directamente hacia el aeropuerto. El mayor peligro en aquel momento era quedarse sin combustible. El tren de aterrizaje ya no importaba. Pero McBroom era la persona con más autoridad. Era el jefe, el más veterano, quien tenía mayor experiencia.
A las 18.06 había tan poco combustible que el motor número cuatro se apagó. Incluso en ese momento el piloto parecía no darse cuenta de la situación catastrófica en la que se encontraban. Su noción del tiempo había desaparecido. “¿Por qué?”, preguntó, sin creerse aún que hubieran podido perder un motor. “Combustible”, respondió con énfasis el ingeniero.
El United Airlines 173 podía aterrizar perfectamente. El tren de aterrizaje, como se supo más tarde, se había desplegado y era seguro. Pero era demasiado tarde. Cuando el resto de los motores se apagó, desapareció toda esperanza. El avión perdía altura a una velocidad de 1000 metros por minuto y no iban a lograr llegar al aeropuerto.
Hemos escogido el vuelo United Airlines 173 como paradigma para estudiar los sistemas de aviación por dos razones. En primer lugar, fue un punto de inflexión en la seguridad aeronáutica. Es algo aceptado de manera mayoritaria. Pero, para nuestro propósito, tiene un significado adicional: refleja, de manera intrigante, la tragedia de Elaine Bromiley. Aunque un accidente tuvo lugar en el cielo y el otro en un quirófano, comparten una misma señal.
Incluso con un análisis somero las similitudes son sorprendentes. Igual que el comandante McBroom, que se obsesionó con el problema del tren de aterrizaje, el doctor Anderton se obsesionó tratando de acceder a la vía respiratoria por la boca. Su percepción se había estrechado. McBroom no fue capaz de darse cuenta de que se acababa el combustible; los médicos de Elaine Bromiley no se percataron de que le faltaba oxígeno. Mientras McBroom intentaba resolver el problema del tren de aterrizaje y los médicos trataban de colocar el tubo endotraqueal en la vía respiratoria, ninguno advirtió cuál era la verdadera catástrofe.
Igual que el ingeniero de vuelo Mendenhall, que avisó al comandante, pero no obtuvo respuesta, Jane, la enfermera, alertó al doctor Anderton. Ambos se expresaron de manera clara, pero se mordieron la lengua para no exponer sus preocupaciones más explícitamente y les intimidó la estructura jerárquica. La presión social y la inhibición que provoca la autoridad desarticularon por completo un trabajo en equipo efectivo.
Sin embargo, lo que nos importa a nosotros no son las similitudes entre los dos accidentes, sino lo que los diferencia: la reacción. Hemos comprobado que en la sanidad lo que prima son las evasivas. Se describen los accidentes como “casos únicos” o como “cosas que pasan”. Los médicos afirman: “Hicimos todo lo que pudimos”. Esta es la respuesta más común al fracaso que se da hoy en día.
En la aviación, en cambio, es totalmente diferente: aprender del fracaso es la médula del sistema.
Todos los aviones llevan dos cajas negras, una de las cuales registra todas las instrucciones que se mandan a los sistemas electrónicos de a bordo. La otra es una grabadora de voz de la cabina de mando y permite a los investigadores comprender el razonamiento de los pilotos en los momentos previos al accidente. En lugar de ocultar el fracaso o soslayarlo, la aviación tiene un sistema en el que el fracaso es una fuente de datos.
En caso de accidente, los investigadores, que son independientes de las aerolíneas, el sindicato de pilotos y los reguladores tienen vía libre para analizar los restos y examinar todas las pruebas. No se estigmatizan los errores, sino que se consideran una oportunidad para aprender. Las partes interesadas no tienen razón para no cooperar, puesto que las pruebas que recoja la investigación no se admiten en los procedimientos judiciales. Esto aumenta las probabilidades de que se aclaren todos los hechos.
Al acabar la investigación el informe está disponible para todos. Las aerolíneas tienen la responsabilidad legal de aplicar las recomendaciones. Cualquier piloto del mundo tiene acceso a los datos. De este modo, todos pueden aprender de los errores, no solo un equipo, aerolínea o país. Esto multiplica el potencial de aprendizaje. Eleanor Roosevelt lo expresó de la siguiente manera: “Aprende de los errores de los demás. No hay vida suficiente para que puedas cometerlos todos tú mismo”.
Y no solo los accidentes pueden enseñar. También de los errores “leves” se puede aprender. Cuando un piloto está a punto de colisionar con otro avión, o cuando ha volado a una altitud equivocada, elabora un informe. Mientras lo hagan diez días después del incidente, los pilotos tienen inmunidad. Muchos aviones también van equipados con sistemas de datos que envían informes de manera automática cuando se exceden algunos parámetros. De nuevo, estos informes se agregan a los ficheros y se hace de manera anónima.
Hoy en día las aerolíneas más importantes han ido todavía más lejos al crear un supervisor en tiempo real de decenas de miles de parámetros, como errores de altitud y exceso de peso, de modo que se puede comparar continuamente el comportamiento de los aviones para diagnosticar patrones problemáticos. El objetivo actual es aumentar la cantidad de datos en tiempo real para acabar sustituyendo las cajas negras, puesto que toda la información ya se habrá transmitido a la base de datos central.
¿Qué significó todo esto para el vuelo 173 de United Airlines? Pocos minutos después del accidente la Junta Nacional de Seguridad en el Transporte asignó un equipo de investigación, en el que se encontraban Alan Diehl, un psicólogo, y Dennis Grossi, un investigador experimentado. Llegaron a la mañana siguiente a los suburbios de Portland para examinar las pruebas a fondo.
Una muestra de la extraordinaria habilidad de McBroom es que mantuvo el avión bajo control durante todo el tiempo posible. Mientras caía, avistó una zona entre las casas y los bloques de apartamentos que parecía un espacio abierto, posiblemente un campo, y se dirigió hacia él. Cuando los investigadores estudiaron las pruebas del vuelo 173 de United Airlines, pudieron observar un patrón. No se trataba solo de lo que habían descubierto entre los restos del accidente, sino la comparación con otros accidentes previos. Así, por ejemplo, un año antes, un DC8 había tenido un accidente en circunstancias casi idénticas. El avión, con destino a San Francisco desde Chicago, inició un patrón de espera por la noche debido a un problema con el tren de aterrizaje, siguió volando con la esperanza de arreglarlo y acabó estrellándose contra una montaña sin dejar ningún superviviente.
En todos estos casos, los investigadores observaron que la tripulación había perdido la noción del tiempo. Parece ser que la atención es un recurso escaso: si te concentras en una cosa, pierdes de vista las demás.
En Portland, Diehl se dio cuenta de que otro de los problemas fundamentales tenía que ver con la comunicación. El ingeniero de vuelo Mendenhall vio con claridad que las reservas de combustible se estaban acabando. Se lo insinuó varias veces al comandante y, cuando la situación fue grave, se lo repitió de manera más directa. Diehl, al escuchar de nuevo la grabación, notó el tono alterado del ingeniero. Cuando el peligro era inminente alertó desesperadamente a McBroom, pero no llegó a desafiar su autoridad.
Hoy en día, este es un aspecto bien estudiado en psicología. La jerarquía social inhibe la asertividad. Nos dirigimos a aquellos que representan la autoridad en lo que se llama “lenguaje atenuado”. Si hablas con tu jefe, no le dirás: “Tendremos una reunión el lunes por la mañana”, sino: “Si está ocupado no se preocupe, pero sería una buena idea que pudiéramos hablar media hora el lunes”. Esta deferencia tiene sentido en la mayoría de situaciones, pero puede ser nefasta cuando un avión de 90 toneladas se está quedando sin combustible al sobrevolar una gran ciudad.
Existe el mismo factor jerárquico en los quirófanos. Jane, la enfermera, se percató de la solución. Fue a buscar el kit de traqueotomía. ¿Tenía que haber alzado más la voz? ¿No le dio la suficiente importancia? En situaciones de seguridad críticas, esta es precisamente la forma equivocada de pensar. Recuerda que el ingeniero de vuelo Mendenhall pagó con su vida el no imponer su punto de vista. El problema no fue una falta de diligencia o de motivación, sino un sistema insensible a las limitaciones de la psicología humana.
Ahora comparemos las perspectivas de primera y tercera persona. A los médicos del hospital cerca de North Marston el accidente les pareció un “caso único”. Después de todo, no fueron conscientes de que se habían pasado ocho minutos intentando vanamente intubar a Elaine. Según su percepción, habían dedicado solo una porción de ese tiempo. Su noción subjetiva del tiempo se había deformado con el pánico. El problema, según su opinión, era del paciente: murió mucho más rápido de lo que podían prever. Si no había investigación alguna, ¿cómo podían saber en qué se habían equivocado?
La historia del vuelo 173 de United Airlines es casi idéntica. Cuando el investigador Diehl, pocos días después del accidente, fue a visitar a McBroom al hospital, el comandante le dijo que las reservas de combustible se habían agotado “increíblemente rápido”. Sugirió la posibilidad de que hubiera una pérdida en el tanque. Desde su perspectiva, siendo consciente de cómo se había esfumado el tiempo durante la crisis, se trataba de una observación racional. Para él, que se hubiera acabado el combustible sencillamente no tenía sentido.
Pero Diehl y su equipo se tomaron la molestia de revisar dos veces los datos de la caja negra. Comprobaron las reservas cuando el avión adoptó el patrón de espera, verificaron a qué velocidad consumía combustible el DC8 y luego observaron en qué momento exactamente se había quedado vacío. Todo encajaba. El avión no había perdido combustible con mayor rapidez de la habitual. La pérdida no estaba en el tanque, sino en la noción del tiempo de McBroom.
Solo gracias a una investigación independiente la verdad salió a la luz. En sanidad nadie percibió el problema subyacente porque, desde la perspectiva de la primera persona, no existía. Esta es una de las maneras en que se perpetúan los ciclos cerrados: cuando no nos preguntamos por los errores, a veces ni siquiera sabemos que hemos cometido uno (aunque sospechemos que podamos haberlo hecho).
Cuando Diehl y el resto de investigadores publicaron el informe del vuelo 173 de United Airlines en junio de 1979, fue un hito en la aviación. Pocas semanas después la NASA organizó una junta para investigar los beneficios de un nuevo tipo de formación: la Gestión de Recursos de la Tripulación. El punto principal fue la comunicación. A los copilotos les enseñaron procedimientos de asertividad. El acrónimo que se utiliza para mejorar la asertividad de los miembros de la tripulación es PACE, por sus siglas en inglés: Probe (Sondea), Alert (Alerta), Challenge (Desafía), Emergency (Emergencia). Los comandantes, que durante años se habían considerado las personas al mando, tuvieron que aprender a escuchar, aceptar las instrucciones y aclarar las ambigüedades. El problema de la percepción del tiempo se abordó con una división de responsabilidades más estructurada.
Las listas de verificación, que ya se utilizaban, se ampliaron y se mejoraron. Se habían implementado para evitar descuidos en situaciones complejas. Pero también suavizan la jerarquía. Cuando el comandante y el copiloto hablan entre ellos, se presentan y repasan la lista de verificación, se abren canales de comunicación. Hay más posibilidades de que el oficial de menor rango dé su opinión en caso de emergencia.
Varias versiones de los nuevos métodos de formación se pusieron a prueba inmediatamente con los simuladores. En cada fase se comprobaba si funcionaban las nuevas ideas, se examinaban con rigor y se perfilaban sus límites. Las propuestas más efectivas se integraron rápidamente en todas las aerolíneas del mundo. Después de una serie de accidentes terribles durante la década de 1970, el índice de siniestros empezó a caer.
“El accidente del vuelo 173 de United Airlines fue traumático, pero también supuso un gran paso adelante —afirma el experto en seguridad aeronáutica Shawn Pruchnicki—. Se sigue considerando un punto de inflexión el momento en que comprendimos que los ‘errores humanos’ a menudo están causados por sistemas mal diseñados. Cambió la forma de pensar de la industria”.
Murieron diez personas en el vuelo 173 de United Airlines, pero todo lo que se aprendió salvó miles de vidas más.
Esto, por lo tanto, es lo que llamaremos Pensamiento Caja Negra. Para aquellas organizaciones que no pertenecen al sector de la aviación no se trata de crear literalmente una caja negra, sino de tener la voluntad y la tenacidad de investigar las razones que a menudo provocan un fracaso, pero a las que rara vez prestamos atención. Se trata de crear un sistema y una cultura que permitan a las organizaciones aprender de los errores en lugar de sentirse amenazadas por ellos.
El fracaso nos da la oportunidad de aprender por muchas razones: en muchos aspectos es la frustración de una expectativa. De alguna forma nos enseña que el mundo no es como lo imaginábamos. La muerte de Elaine Bromiley, por ejemplo, reveló que los procedimientos en las operaciones no tienen en cuenta las limitaciones de la psicología humana. El desastre del vuelo 173 de United Airlines puso sobre la mesa problemas similares en la cabina de vuelo.
Estos fracasos son inevitables, porque el mundo es complejo y nunca comprendemos todas sus sutilezas. El modelo, como nos recuerdan los científicos sociales, no es el sistema. El fracaso, por lo tanto, es una señal. Arroja luz sobre un aspecto del mundo que se escapa a nuestro entendimiento y nos proporciona pistas esenciales para actualizar los modelos, las estrategias y las conductas. Desde esta perspectiva, la pregunta que suele hacerse después de un acontecimiento adverso (es decir, “¿Podemos permitirnos el tiempo para investigar este fracaso?”) debería ser al revés. La pregunta pertinente es “¿Podemos permitirnos no hacerlo?”.
Lo cual nos lleva a otra conclusión importante. A veces se afirma que la diferencia esencial entre la aviación y la sanidad son los recursos disponibles: dado que la aeronáutica tiene más dinero puede llevar a cabo investigaciones y aprender de los errores. Si la sanidad tuviera más recursos, ¿no haría lo mismo? No obstante, ahora sabemos que no es así. Puede que la sanidad no tenga suficientes recursos, pero se ahorraría dinero si aprendiera de los errores. El coste de los errores médicos se ha estimado, de forma conservadora, en más de 17 000 millones de dólares solo en Estados Unidos.
Con esto presente, pongamos un último ejemplo del “estilo de investigación caja negra”. Se trata de la pérdida de bombarderos durante la Segunda Guerra Mundial de la que se ocupó uno de los matemáticos más brillantes del siglo XX: Abraham Wald, de origen austríaco, emigrado a los Estados Unidos.
Su análisis fue un momento determinante en el contexto del conflicto. Aprender de acontecimientos adversos puede parecer fácil en retrospectiva. ¿Las lecciones del vuelo 173 United Airlines no son, por ejemplo, obvias? ¿Los datos no las hacían evidentes?
Sin embargo, en el momento de la investigación los datos pueden parecer mucho más ambiguos. Los investigadores con más éxito no solo tienen la voluntad de comprender el accidente, sino la capacidad analítica y la creatividad para extraer lecciones clave.
Cuando en 1938 emigró a Estados Unidos, Wald logró un puesto de trabajo en el ejército y se integró en un equipo con un nombre aparentemente banal: Comité de Matemáticas Aplicadas. Empezó a trabajar en un bloque de apartamentos de cuatro pisos pocas calles más allá del centro de Harlem. Resultó ser un punto de inflexión en la guerra.
El Comité estaba formado por un grupo de matemáticos brillantes. Trabajaban para las fuerzas armadas y debían analizar un amplio abanico de materias, como el patrón más efectivo para el lanzamiento de torpedos o la eficiencia aerodinámica de los misiles.
Gran parte de aquella labor era altamente confidencial y los informes que generaron han estado clasificados durante décadas. Pero en los últimos años los investigadores han empezado a reconstruir la contribución de estos “soldados matemáticos” y han descubierto que fue determinante en el resultado de la guerra. El papel de Wald, que solo ha salido a la luz años después, fue tal vez el más extraordinario de todos.
Los militares le pidieron que los ayudara en una cuestión crucial. Los bombarderos en Europa debían asumir riesgos muy altos. Durante ciertos períodos del conflicto, la probabilidad de que un piloto sobreviviera a una misión era poco más del 50 por ciento. Kevin Wilson, historiador militar, describió a estos hombres valientes y excepcionales como si ya fueran “espectros”.
Los jefes militares se dieron cuenta de que necesitaban blindar los aviones para protegerlos de los disparos desde tierra y aire. El problema era que no podían blindar toda la superficie, porque entonces serían demasiado pesados para volar y perderían maniobrabilidad. La labor de Wald fue priorizar qué zonas necesitaban más protección.
Disponía de muchos datos con los que trabajar. Las fuerzas aéreas se habían tomado la molestia de examinar los aviones que habían vuelto para determinar los daños y cómo evitarlos. Era un estilo de “conducta caja negra”. Analizaban los datos de acontecimientos adversos para mejorar la seguridad de los aviones.
Para alivio de la comandancia de las fuerzas aéreas, el patrón parecía claro. La mayoría de los aviones había sufrido daños en las alas y el fuselaje, pero no recibían impactos en la cabina de mando ni en la cola. Cuantos más informes tenían, más evidente parecía el patrón.
La comandancia militar pergeñó lo que parecía el plan perfecto: blindarían todas las zonas donde había impactos de bala, puesto que era allí donde los aviones necesitaban una protección adicional. Es de puro sentido común. Para quienes dirigían el ejército, era la mejor forma de salvaguardar a sus pilotos del fuego enemigo.
Pero Wald no estaba de acuerdo. Se percató de que los jefes habían pasado por alto datos clave. Solo estaban teniendo en cuenta los aviones que lograban volver, y no aquellos que no habían vuelto (es decir, los que habían caído). Los agujeros de bala sugerían que las zonas cerca de la cabina de mando no necesitaban refuerzo porque nunca recibían impactos. De hecho, los aviones que eran alcanzados en estas zonas se estrellaban porque era su punto más vulnerable.
En efecto, los agujeros de los aviones que volvían representaban las áreas donde el bombardero podía sufrir daños y, aun así, volver sano y salvo. Habían sobrevivido precisamente por no recibir impactos en la cabina o en la cola. El patrón de los agujeros, en lugar de indicar dónde se debía blindar al avión, revelaba las áreas donde no se debía hacer.
Este descubrimiento resultó ser de una importancia capital, no solo para los bombarderos, sino para todos los aspectos de la guerra.
Es un ejemplo fundamental que evidencia dos cuestiones clave. La primera es que si queremos aprender de los accidentes debemos tener en cuenta todos los datos, incluso aquellos que no podemos ver de manera inmediata. Pero también pone de manifiesto que aprender de los errores no siempre es fácil, incluso en términos conceptuales, por no hablar de los emocionales. Son precisos un razonamiento minucioso y una voluntad de ir más allá de las suposiciones superficiales. A menudo, significa sobrepasar los datos obvios para sonsacar las lecciones subyacentes. Y esto es cierto tanto para la aviación como para las empresas, la política y muchas cosas más.
En palabras de Amy Edmondson, de la Facultad de Empresariales de Harvard: “Aprender de los fracasos no es nada fácil. La actitud y las actividades que se requieren para detectar y analizar efectivamente los errores no son habituales en la mayoría de las empresas, y la necesidad de estrategias de aprendizaje específicas para cada contexto se subestima. Las empresas necesitan procesos nuevos y mejores para aprender lecciones que no sean superficiales”.

Te puede interesar:

Conclusión

Aprender de los fracasos es casi un cliché. Pero resulta que, por razones tanto prosaicas como profundas, uno de los grandes obstáculos para el progreso humano ha sido precisamente la incapacidad de aprender de los errores. La sanidad es solo un aspecto de una larga y rica historia de evasivas. Aceptar esto no solo podría transformar la sanidad, sino también el mundo empresarial, la política y muchos otros ámbitos. Una actitud progresista hacia el fracaso es el pilar para lograr el éxito en cualquier institución.
Tal vez merezca la pena dejar claro que nadie quiere fracasar. Todos deseamos tener éxito: los empresarios, los deportistas, los políticos, los científicos o los padres. Pero en un nivel colectivo, en un nivel de complejidad sistémica, solo lo lograremos cuando admitamos nuestros errores, aprendamos de ellos y creemos un espacio en el que, en cierto modo, fracasar sea algo “seguro”.

Te puede interesar:

Fin del resumen ejecutivo
Biografía del autor
Matthew Syed es un columnista y escritor del diario The Times de Londres y también es comentarista de radio y televisión para la BBC. Su anterior libro, Bounce, ha sido un éxito internacional que le ha hecho merecedor de numerosos premios de periodismo.
Ficha técnica
Compra del libro
Si has leído el resumen y quieres profundizar más te recomendamos comprar el libro completo, en papel o ebook, aquí