El cisne negro
Resumen del libro

El cisne negro

por Nassim Nicholas Taleb

El impacto de lo altamente improbable

Nueva edición ampliada y revisada

Introducción

 

Antes del descubrimiento de Australia, en el Viejo Mundo se creía que todos los cisnes eran blancos. Parecía una creencia irrefutable. Pero, entonces, se vio que en Australia los cisnes también podían ser negros.
Este hecho ilustra una grave limitación del aprendizaje que se hace desde la observación o la experiencia, así como la fragilidad de nuestro conocimiento. Una sola observación es capaz de invalidar una afirmación generalizada. Todo lo que se necesita es una sola ave negra.
El Cisne Negro es un suceso que se caracteriza por los siguientes atributos:
  1. Es una rareza, porque está fuera de las expectativas normales;
  2. produce un impacto tremendo;
  3. pese a su condición de rareza, la naturaleza humana hace que inventemos explicaciones de su existencia después del hecho, con lo que, erróneamente, se hace explicable y predecible.
Una pequeña cantidad de Cisnes Negros está en el origen de casi todo lo concerniente a nuestro mundo, desde el éxito de las ideas y las religiones, hasta la dinámica de los acontecimientos históricos y los elementos de nuestra propia vida personal.
Sucesos como el ascenso de Hitler y la posterior Guerra Mundial, la desaparición del bloque soviético, la aparición del fundamentalismo islámico, los efectos de la difusión de internet, las crisis económicas, las epidemias, la moda, las ideas... todos siguen la dinámica del Cisne Negro. La incapacidad de predecir las rarezas implica la incapacidad de predecir el curso de la historia, dada la incidencia de estos sucesos en la dinámica de los acontecimientos.
Y es que la historia es opaca. Se ve lo que aparece, no el guion que produce los sucesos, el generador de la historia. Nuestra forma de captar estos sucesos es en buena medida incompleta, ya que no vemos qué hay dentro de la caja, cómo funcionan los mecanismos.
Lo anterior se debe al error de la confirmación: pensamos que el mundo en que vivimos es más comprensible, más explicable y, por consiguiente, más predecible de lo que en realidad es. Nos centramos en segmentos preseleccionados de lo visto y, a partir de ahí, generalizamos en lo no visto.
Nuestra mente es una magnífica máquina de explicación, capaz de dar sentido a casi todo, hábil para ensartar explicaciones para todo tipo de fenómenos, y generalmente incapaz de aceptar la idea de la impredecibilidad. El análisis aplicado y minucioso del pasado no nos dice gran cosa sobre el espíritu de la historia; solo nos crea la ilusión de que la comprendemos. Se diría que las personas que vivieron los inicios de la Segunda Guerra Mundial tuvieron el presentimiento de que se estaba produciendo algo de capital importancia. En absoluto.
Los sucesos se nos presentan de forma distorsionada. Pensemos en la naturaleza de la información: de los millones de pequeños hechos que acaecen antes de que se produzca un suceso, resulta que solo algunos serán después relevantes para nuestra comprensión de lo sucedido. Dado que nuestra memoria es limitada y está filtrada, tenderemos a recordar aquellos datos que posteriormente coincidan con los hechos.
No obstante, actuamos como si fuéramos capaces de predecir los hechos o cambiar el curso de la historia. Hacemos proyecciones a treinta años vista del déficit de la seguridad social y de los precios del petróleo, sin darnos cuenta de que no podemos prever unos y otros ni siquiera de aquí al verano que viene. Sin embargo, lo sorprendente no es la magnitud de nuestros errores de predicción, sino la falta de conciencia que tenemos de ellos.
Nuestra incapacidad para predecir en entornos sometidos al Cisne Negro, unida a una falta general de conciencia de este estado de las cosas, significa que determinados profesionales, aunque creen que son expertos, de hecho no lo son. Resulta que no saben sobre la materia de su oficio más que la población en general, solo que saben contarlo mejor y aturdirnos con sus complejos modelos matemáticos.
Es fácil darse cuenta también de que la vida es el efecto acumulativo de un puñado de impactos importantes. Hagamos el siguiente ejercicio. Pensemos en nuestra propia existencia. Contemos los sucesos importantes, los cambios tecnológicos y los inventos que han tenido lugar en nuestro entorno desde que nacimos, y comparémoslos con lo que se esperaba antes de su aparición. ¿Cuántos se produjeron siguiendo un programa? Fijémonos en nuestra propia vida, en la elección de una profesión, por ejemplo, o en cuando conocimos a nuestra pareja, o en el enriquecimiento o el empobrecimiento súbitos. ¿Con qué frecuencia ocurrió todo esto según un plan preestablecido…?
La lógica del Cisne Negro hace que lo que no sabemos sea más importante que lo que sabemos. Tengamos en cuenta que muchos Cisnes Negros pueden estar causados y exacerbados por el hecho de ser inesperados.
Dado que los Cisnes Negros son impredecibles, tenemos que amoldarnos a su existencia. Hay muchas cosas que podemos hacer si nos centramos en lo que no sabemos. Podemos dedicarnos a buscar Cisnes Negros positivos con el método de la serendipia, llevando al máximo nuestra exposición a ellos. En algunos ámbitos (descubrimientos científicos, inversiones de capital), lo desconocido puede ofrecer una compensación desproporcionada, ya que se suele perder poco y ganar mucho de un suceso raro. Contrariamente a lo que se piensa en el ámbito de la ciencia social, casi ningún descubrimiento ni ninguna tecnología destacable surgieron del diseño y la planificación, sino que fueron Cisnes Negros. La estrategia de los descubridores y emprendedores es confiar menos en la planificación, centrarse al máximo en reconocer las oportunidades cuando se presentan y juguetear con ellas.

Te puede interesar:

De Mediocristán a Extremistán

Existen dos tipos de incertidumbre o dos variantes del azar. El primero lo podríamos llamar la provincia utópica de Mediocristán, donde los sucesos individuales no aportan mucho individualmente, sino solo de forma colectiva. La regla suprema de Mediocristán se puede formular en estos términos: “Cuando la muestra es grande, ningún elemento singular cambiará de forma significativa el total”. Para ilustrarlo, tomemos el ejemplo de nuestro consumo de calorías. Los humanos consumimos cerca de ochocientas mil calorías al año. Ningún día concreto supondrá una gran parte de esa cantidad.
Consideremos por comparación el valor neto de las mil personas que seleccionemos aleatoriamente a la salida de un estadio de fútbol. Añadámosles la persona más rica del planeta, por ejemplo Bill Gates. Supongamos que su patrimonio sea de unos 80 000 millones de dólares, siendo el capital de todos los demás unos cuantos millones. Dicho patrimonio representará el 99,9 % de la riqueza total. Esa es la segunda variante del azar: Extremistán, donde “las desigualdades son tales que una única observación puede influir de forma desproporcionada en el total”.
Fijémonos en las implicaciones que esto tiene. Extremistán puede producir Cisnes Negros, y de hecho lo hace, como en el caso de sucesos raros que han influido colosalmente en la historia. Pero con el azar al estilo de Mediocristán no es posible encontrarse con la sorpresa de un Cisne Negro, la sorpresa de que un único suceso pueda dominar un fenómeno.
Lo que en Mediocristán se puede saber a partir de los datos aumenta con mucha rapidez a medida que se acumula información. Sin embargo, en Extremistán el conocimiento crece muy despacio y de forma errática con la acumulación de datos —algunos de ellos extremos—, posiblemente a un ritmo desconocido. 

De Mediocristán a Extremistán

 

Te puede interesar:

Cómo aprender del pavo

¿Cómo sabemos que lo que hemos observado de un suceso cualquiera basta para permitirnos entender sus restantes propiedades? Todo conocimiento al que llegamos mediante la observación lleva incorporadas ciertas trampas.
Pensemos en el pavo al que se le da de comer todos los días. Cada vez que le demos de comer, el pavo confirmará su creencia de que lo alimentan todos los días unos miembros amables del género humano. Sin embargo, la tarde anterior al día de Acción de Gracias, al pavo le ocurrirá un suceso inesperado, un Cisne Negro, que le obligaría a revisar su creencia… si pudiera hacerlo.
El problema del pavo se puede generalizar a cualquier situación donde la misma mano que te da de comer puede ser la que te retuerza el cuello. El animal aprendió de la observación, como a todos se nos dice que hagamos. Su confianza aumentaba a medida que se repetían las acciones alimentarias y cada vez se sentía más seguro, pese a que el sacrificio era cada vez más inminente. Su sentimiento de seguridad alcanzó el punto máximo cuando el riesgo era mayor.
Nos preocupamos demasiado tarde, cuando las cosas ya han sucedido. Confundir una observación ingenua del pasado con algo definitivo o representativo del futuro es la sola y única causa de nuestra incapacidad para comprender el Cisne Negro.
 

Cómo aprender del pavo

 

Te puede interesar:

El error de la confirmación

Durante mil días, el pavo observa que su “cuidador” es una excelente persona. Cada una de las observaciones que hace “confirma” su historia de que vive como un rey.
Pero nosotros sabemos que el pavo confunde la “ausencia de pruebas” de instinto asesino por parte de su cuidador con tener realmente una “prueba de la ausencia” de ese instinto. No es consciente en ningún momento de la que se le viene encima. Se ha estado autoengañando pensando que lo que veía eran pruebas.
El error de la confirmación, que nos deja ciegos ante los Cisnes Negros, no es exclusivo de nuestros queridos pavos. Todos somos presa de este mismo sesgo. Y parece que desde nuestra más tierna infancia.
Mostremos a un niño dos fotografías de dos personas de tez oscura, digámosle que pertenecen a una tribu: lo más probable es que salte sin más a la conclusión de que todos los miembros de esa tribu tienen la piel oscura. Parece que estamos dotados de unos instintos inductivos específicos y refinados que nos llevan a dar por sentadas cosas que pueden ser o no ser ciertas.
Debido a este mecanismo mental, tenemos la tendencia natural a fijarnos en los casos que confirman nuestra historia y nuestra visión del mundo. Tomamos ejemplos pasados que corroboran nuestras teorías y los tratamos como pruebas.
A este empirismo ingenuo se le puede dar la vuelta a través de un contramecanismo de conjeturas y refutaciones que funciona como sigue: se formula una conjetura (osada) y se empieza a buscar la observación que demostraría que estamos en un error.
Podemos acercarnos más a la verdad mediante ejemplos negativos, no mediante la verificación. Así, por ejemplo, el especulador George Soros, cuando hace una apuesta financiera, no deja de buscar ejemplos que demuestren que su teoría inicial es falsa. Tal vez sea esto la auténtica confianza en uno mismo: la capacidad de observar el mundo sin necesidad de encontrar signos que halaguen el propio ego.
Si pensamos que la tarea es fácil, quedaremos decepcionados: pocos seres humanos tienen la habilidad natural de hacerlo.
Además, es evidente que no es fácil “falsar”, es decir, afirmar con plena certeza que algo es un error. Las imperfecciones de nuestro método de comprobación pueden llevarnos a un “no” equivocado. Es posible que el médico que descubre células cancerosas usara unos aparatos deficientes que provocaban ilusiones ópticas; o es posible que el testigo de un delito estuviera bebido. Pero sigue siendo válido que sabemos dónde está el error con mucha mayor confianza de la que tenemos sobre dónde está lo acertado. Sin embargo, tendemos a no ser conscientes de esta propiedad.

Te puede interesar:

La falacia narrativa

Cierto día de diciembre de 2003, cuando fue capturado Sadam Husein, Bloomberg News lanzó el siguiente titular (pesimista): “Suben los bonos del Tesoro de Estados Unidos; es posible que la captura de Husein no frene el terrorismo”. Media hora más tarde, tuvieron que emitir otro titular (optimista): “Caen los bonos del Tesoro de Estados Unidos; la captura de Husein aumenta el atractivo de los activos de riesgo”.
De modo que la misma captura (la causa) explicaba un suceso y su diametralmente opuesto. Es evidente que no puede ser; no se pueden vincular ambos hechos. Estamos ante un ejemplo del fenómeno conocido como falacia narrativa.
Para comprender el poder de la narración, fijémonos en la afirmación siguiente: “El rey murió y la reina murió”. Comparémosla con esta: “El rey murió y, luego, la reina murió de pena”. Este ejercicio, expuesto por el novelista E. M. Forster, demuestra la distinción entre la mera sucesión de información y una trama. Pero observemos el problema que aquí se plantea: aunque en la segunda afirmación añadimos información, redujimos efectivamente la dimensión del total. La segunda frase es mucho más ligera y fácil de recordar. Como la podemos recordar con menos esfuerzo, también la podemos vender a los demás, es decir, comerciar mejor con ella como una idea empaquetada (se ajuste o no a la verdad la causa de la muerte de la reina). Esta es, en pocas palabras, la definición y función de una narración.
Debido a la falacia narrativa, tendemos a engañarnos con autonarraciones porque nos gustan las historias, nos gusta simplificar, ver patrones y tejer explicaciones ante cualquier secuencia de hechos. Las explicaciones atan los hechos. Hacen que se puedan recordar mucho mejor; ayudan a que tengan más sentido. Pero nuestra predilección por las historias compactas en lugar de las verdades desnudas nos hace vulnerables, ya que puede distorsionar gravemente nuestra representación mental de la realidad; y esto es particularmente grave cuando se trata de un suceso raro.
Se necesita un esfuerzo considerable para ver los hechos (y recordarlos) al tiempo que se suspende el juicio y se huye de las explicaciones. Se podría decir que necesitamos reducir la dimensión de las cosas para que nos puedan caber en la cabeza. Y al hacerlo de forma automática, la mente es como un preso, está cautiva de su biología. Así que, si intentamos ser auténticos escépticos respecto a nuestras interpretaciones entraremos en un estado de alerta, lo que genera fatiga y hará que nos sintamos agotados enseguida. Pero es un auténtico ejercicio de prudencia. Hay formas de escapar de la falacia narrativa mediante conjeturas, experimentos o haciendo predicciones que se puedan comprobar.
La falacia de la narración puede hacer que no seamos conscientes de los Cisnes Negros si se da alguna de estas situaciones:
1.- Cuanto más se resume un hecho, más orden se pone y menor es lo aleatorio. De aquí que la misma condición que nos hace simplificar nos empuja a pensar que el mundo es menos aleatorio de lo que realmente es. Y el Cisne Negro (o la probabilidad de que ocurra) es lo que excluimos de la simplificación.
2.- La narratividad puede afectar muchísimo al recuerdo de los sucesos pasados, y lo hace del modo siguiente: tenderemos a recordar con mayor facilidad aquellos hechos de nuestro pasado que encajen en una narración, mientras que tendemos a olvidar otros que no parece que desempeñen un papel causal en esa narración (por ejemplo, un Cisne Negro).
3.- El saber popular sostiene que la memoria es como un dispositivo de grabación en serie, como el disco duro del ordenador. En realidad, la memoria se parece más a una máquina de revisión dinámica interesada: recordamos la última vez que recordamos el suceso y, sin darnos cuenta, en cada recuerdo posterior cambiamos la historia.
4.- La narrativa puede confundir nuestra proyección de las probabilidades. En un experimento se les pidió a varios profesionales de la previsión del tiempo que imaginaran los siguientes escenarios y que estimaran sus probabilidades: (a) unas inundaciones en algún lugar de América en las que mueren más de mil personas; (b) un terremoto en California, que provoca grandes inundaciones y en el que mueren más de mil personas. Los encuestados calculaban que el primer suceso era menos probable que el segundo. Un terremoto en California, sin embargo, es una causa perfectamente imaginable, que aumenta mucho la disponibilidad mental —y de ahí la probabilidad estimada— del escenario de la inundación. Pero es claramente una falacia narrativa porque, objetivamente, que haya una inundación en algún punto de un inmenso continente es mayor que el terremoto más una inundación en un punto concreto de la geografía.
5.- Existen dos tipos de sucesos raros: (a) los Cisnes Negros de los que es muy probable que oigamos hablar en televisión; y (b) aquellos de los que nadie habla porque escapan de los modelos, aquellos de los que nos daría vergüenza hablar en público porque no parecen verosímiles. Se sobreestiman las incidencias de los Cisnes Negros en el primer caso (pudiéndose incluir en muchas narraciones o historias), pero se infravaloran gravemente en el segundo. A causa de esta “ceguera”, en el sector de los seguros, por ejemplo, se observa que en las pólizas la gente se olvida de esos sucesos altamente improbables y muestran una preferencia por asegurarse contra pequeñas pérdidas probables, a expensas de las menos probables pero de mayor impacto.
6.- Los sucesos que son no-repetibles se ignoran antes de que se produzcan, y se sobreestiman después (durante un breve tiempo). Después de un Cisne Negro, como el del 11 de septiembre de 2001, la gente espera que vuelva a ocurrir (aparece en muchas narraciones), cuando, de hecho, las probabilidades de que sea así posiblemente han disminuido.
7.- La información estadística abstracta no nos influye tanto como la anécdota (narración). Por ejemplo: estamos en un avión y nos dirigimos a Nueva York. La persona que tenemos al lado nos cuenta que hace años mataron a un amigo de su primo en Central Park. Bien, lo más probable es que evitemos Central Park durante nuestra estancia en la ciudad. Da igual que sepamos que hay estadísticas que nos podrían indicar que la probabilidad de un Cisne Negro (nuestra muerte en el parque) es prácticamente nula. Somos abducidos por la narración de nuestro simpático compañero de viaje.
La forma de evitar los males de la falacia narrativa es favorecer la experimentación sobre la narración, la experiencia sobre la historia y el conocimiento clínico sobre las teorías.

Te puede interesar:

Las pruebas silenciosas

Otra falacia en nuestra forma de entender los acontecimientos es la de las pruebas silenciosas. La historia nos oculta tanto los Cisnes Negros como su capacidad para generarlos.
Las pruebas silenciosas están presentes en todo lo relacionado con el concepto de historia. Por historia no entiendo únicamente esos libros eruditos pero aburridos, sino cualquier sucesión de acontecimientos vistos con el efecto de la posteridad.
Muchos estudios sobre millonarios o gente de éxito destinados a entender las destrezas que se requieren para convertirse en una celebridad toman una población de personajes, gente de grandes títulos y fantásticas ocupaciones, y estudian sus cualidades. Se fijan en lo que tienen en común esos peces gordos: coraje, saber correr riesgos, optimismo, etc.; y de ahí deducen que tales rasgos, sobre todo el de correr riesgos, ayudan a alcanzar el éxito. Ahora echemos una mirada al cementerio; a los que no aparecen en los libros. La tumba de los fracasados estará llena de personas que compartieron los siguientes rasgos: coraje, saber correr riesgos, optimismo, etc.; justo los mismos rasgos que identifican a la población de millonarios. Puede haber algunas diferencias en las destrezas, pero lo que realmente separa a unos de otros es, en su mayor parte, un único factor: la suerte. Pura suerte. De forma parecida a como ocurre con la falacia narrativa, las pruebas silenciosas (aquello que se olvida en una narración en apariencia coherente) pueden ocultarnos los Cisnes Negros.
Una persona de éxito intentará convencernos de que sus logros no pueden ser algo accidental, al igual que el jugador que gana en la ruleta siete veces seguidas nos dirá que las probabilidades de que tal cosa ocurra son de una entre varios millones, de modo que tendremos que pensar que hay en juego alguna intervención trascendental, o aceptar la destreza y perspicacia del jugador. Pero si tenemos en cuenta la cantidad de jugadores que hay por ahí, y el número de partidas que se juegan (en total, varios millones de episodios), entonces se hace evidente que estos golpes de suerte son proclives a darse.
El olvido de las pruebas silenciosas es endémico en la forma en que estudiamos el talento comparativo, particularmente en las actividades que están plagadas de atributos del estilo “el ganador se lo lleva todo”.
Recordemos el efecto del “ganador se lo lleva todo”: existe una gran cantidad de personas que se denominan escritores pero que trabajan (solo “temporalmente”) en las relucientes cafeterías de Starbucks. La desigualdad en este campo es mayor que en, digamos, la medicina, pues raramente vemos a médicos sirviendo hamburguesas. De ahí que pueda inferir en gran medida el rendimiento de toda la población de esta última profesión a partir de cualquier muestra que se me presente. Lo mismo ocurre con quienes se dedican a profesiones exentas de efectos estelares.
El argumento del punto de referencia dice lo siguiente: no hay que computar las probabilidades desde la posición ventajosa del jugador que gana (o del afortunado Casanova), sino desde todos aquellos que empezaron en el grupo.
Somos animales que buscan explicaciones, que tienden a pensar que todo tiene una causa identificable y que se agarran a la más destacada como explicación. Además, creemos que es más inteligente buscar un porqué que aceptar el azar. Pero es posible que no exista un porqué; es más, muchas veces no hay nada, ni siquiera un espectro de explicaciones posibles. Sin embargo, las pruebas silenciosas ocultan tal hecho.
No estoy diciendo que las causas no existen; no empleemos este argumento para evitar aprender de la historia. Todo lo que digo es que no es tan sencillo; sospechemos del “porqué” y manejémoslo con cuidado, particularmente en las situaciones en que sospechemos que existen pruebas silenciosas. Una vez que damos con la idea de las pruebas silenciosas, muchas de las cosas que nos rodean y que previamente estaban ocultas empiezan a manifestarse.
Una ramificación de la idea de las pruebas silenciosas sitúa nuestra toma de decisiones bajo una nube de posibilidades. Vemos las consecuencias obvias y visibles, no las invisibles y menos obvias. Sin embargo, esas consecuencias que no se ven pueden ser —normalmente son— más significativas.
Los gobiernos saben muy bien cómo decirnos lo que hacen, pero no lo que no hacen. De hecho, se dedican a lo que podría denominarse una falsa “filantropía”, la actividad de ayudar a las personas de forma visible y sensacionalista, sin tener en cuenta el oculto cementerio de las consecuencias invisibles.
Apliquemos este razonamiento al 11 de septiembre de 2001. El grupo de Bin Laden acabó con la vida de unas dos mil quinientas personas en las Torres Gemelas del World Trade Center. Sus familias contaron con el apoyo de todo tipo de entidades, como debía ser. Pero, según dicen los investigadores, durante los tres meses que restaban de aquel año, unas mil personas fueron víctimas silenciosas de los terroristas. ¿Cómo? Quienes tenían miedo al avión y se pasaron al coche corrieron un riesgo mayor de muerte. Se ha demostrado que durante aquellos meses aumentaron los accidentes automovilísticos; la carretera es considerablemente más letal que el espacio aéreo. Estas familias no recibieron ayuda; ni siquiera sabían que sus seres queridos también fueron víctimas de Bin Laden.
Tengamos las agallas de reconocer las consecuencias silenciosas cuando nos encontremos frente al próximo vendedor humanitario de ungüentos milagrosos.
Todo esto nos lleva a la manifestación más grave de las pruebas silenciosas, la ilusión de la estabilidad. El sesgo disminuye nuestra percepción de los riesgos en que incurrimos en el pasado, particularmente en aquellos que tuvimos la suerte de haber sobrevivido a ellos. Nuestra vida estuvo bajo una grave amenaza, pero, al haberla superado, retrospectivamente infravaloramos lo arriesgada que era en realidad la situación.
Cuanto menos familiarizado está uno con la disparatada aleatoriedad generadora de Cisnes Negros, más cree en el funcionamiento óptimo de la evolución. En sus teorías no están presentes las pruebas silenciosas. La evolución es una serie de chiripas, algunas buenas, y muchas malas; pero solo vemos las buenas. Sin embargo, a corto plazo no está claro qué rasgos son realmente buenos para nosotros, sobre todo si estamos en el entorno generador de Cisnes Negros de Extremistán.

La falacia lúdica

Los Cisnes Negros aparecen de modo subrepticio y el intento de controlarlos o reducirlos siguiendo un modelo teórico a menudo conduce a mayores confusiones. Los atributos de la incertidumbre a los que nos enfrentamos en la vida real guardan poca relación con los rasgos “esterilizados” que vemos en los “modelos” teóricos de gestión del riesgo. En la vida real, el Cisne Negro se puede definir como lo “desconocido desconocido”. Pero en los modelos teóricos, el Cisne Negro se ve como lo “desconocido conocido”, lo cual es una falacia. Tomemos, por ejemplo, los casinos. Estos establecimientos suelen enfrentarse a una clase de riesgos conocidos. En un casino uno conoce las reglas, puede calcular las probabilidades, y el tipo de incertidumbre que tiene ante sí es de grado suave (pertenece a Mediocristán). El casino es el único entorno humano en el que las probabilidades son conocidas y casi computables. No se puede esperar que el casino pague apuestas a un millón por uno, ni que cambie las reglas durante la partida.
La gestión del riesgo de un casino está, por tanto, destinada principalmente a reducir las pérdidas que ocasionan los tramposos. Todo lo que tiene que hacer el establecimiento es controlarlos a ellos. Una gestión del riesgo fácil, ¿verdad? Pues no tan deprisa… o caeremos en la falacia lúdica. Fijémonos en un casino de Las Vegas tras sufrir pérdidas financieras enormes que quedaron completamente fuera de sus “sofisticados” métodos de reducción de riesgo.
Perdieron unos cien millones de dólares cuando un tigre mutiló a un insustituible actor de su espectáculo principal. El artista había criado al tigre y este incluso había llegado a dormir en su habitación. Al analizar los posibles escenarios, el casino llegó a pensar que el animal podría saltar sobre el público, pero a nadie se le ocurrió cómo podían asegurar lo que iba a suceder.
El casino gastó cientos de millones de dólares en la teoría del juego y la vigilancia de alta tecnología, pero los grandes riesgos surgieron fuera de sus modelos. Su error fue el de centrarse. Saber centrarse es una gran virtud para quien se dedique a reparar relojes, para el neurocirujano o para el jugador de ajedrez, pero es lo último que hay que hacer cuando nos enfrentamos a la incertidumbre. Esto nos causa problemas de predicción.
Los riesgos “computables” están ausentes en gran medida de la vida real. Son artilugios de laboratorio. Quienes pasan excesivo tiempo con la nariz pegada a los mapas tenderán a confundir el mapa con el territorio.

El escándalo de la predicción

Somos ostensiblemente arrogantes en lo que creemos que sabemos. Desde luego sabemos muchas cosas, pero tenemos una tendencia innata a pensar que sabemos un poco más de lo que realmente sabemos, lo bastante de ese poco más para que de vez en cuando nos encontremos con problemas. A continuación, veremos las implicaciones que esta arrogancia tiene para todas las actividades que tengan que ver con la predicción. La conclusión es que estamos ante un escándalo: el escándalo de la predicción.
Los investigadores Albert y Raiffa estaban buscando cómo calculan los seres humanos las probabilidades en su toma de decisiones cuando interviene la incertidumbre. Para ello idearon el siguiente experimento.
Imaginemos una habitación llena de gente. Pidamos a cada una de las personas de la habitación que calcule de forma independiente un rango de posibles valores para cualquier cosa: el número de países de África, las ventas de automóviles en un país determinado, el número de libros en la biblioteca de Umberto Eco... lo que sea.
Pues bien, el resultado de este tipo de experimentos, que se dan en numerosas ocasiones y contextos, es escalofriante: más del 45 % de las personas se equivocan en sus predicciones, a pesar de que se mostraban muy confiadas en la respuesta que daban.
La primera conclusión de este experimento es que sobreestimamos lo que sabemos e infravaloramos la incertidumbre, comprimiendo así la variedad de posibles estados inciertos (es decir, reduciendo el espacio de lo desconocido).
El género humano padece de una infravaloración crónica de la posibilidad de que el futuro se salga del camino inicialmente previsto. Para poner un ejemplo obvio, pensemos en cuántas personas se divorcian. Casi todas ellas saben que entre el 30 y el 50 % de los matrimonios fracasan, algo que las partes implicadas no preveían en el momento de sellar su vínculo matrimonial.
No existe una diferencia efectiva entre que yo adivine una variable que no es aleatoria, pero para la que mi información es parcial o deficiente y predecir una variable aleatoria, como el índice de paro de mañana o el mercado de valores del año que viene. En este sentido, adivinar (lo que yo no sé, pero que alguien puede saber) y predecir (lo que aún no ha tenido lugar) son lo mismo.
La mayoría de los profesionales que hacen predicciones también padecen este impedimento mental del que estamos hablando. Es más, a las personas que hacen previsiones profesionalmente a menudo les afectan más estos impedimentos que al resto de la gente. Y ello por varios motivos.
En primer lugar, la información (en abundancia) es mala para el conocimiento. Mostremos a dos grupos de personas una imagen desdibujada de una boca de incendios, lo bastante borrosa como para que no reconozcan de qué se trata. En el primer grupo, aumentaremos lentamente la resolución, en diez pasos. En el segundo, lo haremos más deprisa, en cinco pasos.
Detengámonos en el punto en que ambos grupos han visto la misma imagen, y pidámosles que identifiquen qué es. Lo más probable es que los miembros del grupo que vio menos pasos intermedios reconozcan la boca de riego mucho antes. ¿Moraleja? Cuanta más información se nos da, más hipótesis formulamos en el camino, y peores serán. Se percibe más ruido aleatorio y se confunde con información.
El problema es que nuestras ideas son pegajosas: una vez que formulamos una teoría, no somos proclives a cambiar de idea, de ahí que a aquellos que tardan en desarrollar sus teorías les vayan mejor las cosas.
Cuando nos formamos nuestras opiniones a partir de pruebas poco sólidas, tenemos dificultades para interpretar la posterior información que contradice tales opiniones, incluso si esta nueva información es claramente más exacta. Tratamos las ideas como si fueran propiedades, por lo que nos es difícil desprendernos de ellas. En ese sentido, escuchar las noticias en la radio cada hora sería mucho peor para uno que leer un semanario, porque el intervalo más largo permite que la información se filtre un poco.
El segundo problema de que muchas personas que se dedican a la predicción caigan en sesgos que hacen inútiles sus predicciones es que trabajan en profesiones en las que el título de “experto” es una pura invención.
Expertos que tienden a ser expertos son los tasadores de ganado, los astrónomos, los pilotos de prueba, los tasadores del suelo, los maestros de ajedrez, los físicos, los matemáticos (cuando se ocupan de problemas matemáticos, no de problemas empíricos), o los contables. Expertos que tienden a ser… no expertos son los agentes de Bolsa, los responsables de admisión en las universidades, los jueces, los concejales, los analistas financieros, los profesores de economía, los politólogos, o los “expertos en riesgo”.
Por ejemplo, todos los estudios formales y exhaustivos que analizan la capacidad de los economistas para producir proyecciones fiables aportan pruebas de que no poseen la habilidad de predecir; y si poseen alguna habilidad, sus predicciones, en el mejor de los casos, son solo un poco mejores que las hechas al azar, pero no lo bastante buenas para ayudar en decisiones difíciles.
Las profesiones que se ocupan del futuro y basan sus estudios en el pasado no repetible tienen un problema de expertos (con la excepción del tiempo climático y los negocios que impliquen procesos físicos a corto plazo, no procesos socioeconómicos). No estoy diciendo que quien se ocupa del futuro no ofrece nunca información valiosa (los periódicos pueden predecir el horario de los teatros bastante bien), sino que aquellos que no ofrecen un valor añadido tangible generalmente se ocupan del futuro.
Otra forma de enfocar esta cuestión es que las cosas que se mueven son a menudo proclives al Cisne Negro. Los expertos son personas cuyo centro de atención es muy limitado y que necesitan “tunelar”, es decir, ignorar las fuentes de incertidumbre que les son ajenas. En las situaciones en que el tunelaje es seguro, porque los Cisnes Negros no son relevantes, al experto le irá bien. Pero el problema de la predicción procede sobre todo del hecho de que vivimos en Extremistán, no en Mediocristán. Nuestros predictores pueden valer para predecir lo habitual, pero no lo irregular, y aquí es donde en última instancia fracasan.
No podemos ignorar el autoengaño. El problema con los expertos es que no saben qué es lo que no saben (lo “desconocido desconocido”). La falta de conocimiento y el engaño sobre la calidad de nuestros conocimientos van de la mano: el mismo proceso que hace que sepamos menos también hace que nos sintamos satisfechos con lo que sabemos.
El gran problema en muchas profesiones ha sido la invasión de la hoja de cálculo. Cuando la ponemos en manos de alguien que sabe de ordenadores tenemos una “proyección de las ventas” que, sin esfuerzo alguno, se proyecta hasta el infinito. Una vez que está en una página o en la pantalla del ordenador o, peor aún, en una presentación de PowerPoint, la proyección cobra vida propia, pierde su vaguedad y abstracción, y se convierte en lo que los filósofos llaman reificación, algo investido de la calidad de concreto; así adquiere una vida nueva como objeto tangible.
Tal vez la facilidad con que uno puede proyectar en el futuro arrastrando celdas en esas hojas de cálculo sea la responsable de que los ejércitos de previsores se sientan confiados al elaborar previsiones a más largo plazo (y siempre tunelando en sus supuestos).
En los aeropuertos hay quioscos gigantescos con paredes repletas de revistas. Me pregunto cuánto tiempo requeriría leer cada una de esas revistas. ¿Media vida? ¿Toda una vida? Lamentablemente, todos esos conocimientos no ayudarían al lector a predecir lo que va a ocurrir mañana. En realidad, podrían disminuir su capacidad de previsión.
Los sucesos históricos y socioeconómicos o las innovaciones tecnológicas son fundamentalmente impredecibles. De hecho, en estadística hay una ley llamada la ley de expectativas iteradas, que en su forma más fuerte dice “Si espero esperar algo en una fecha futura, entonces ya espero algo ahora”.
Pensemos en la rueda. Si somos un pensador histórico de la Edad de Piedra al que se le pide que prediga el futuro en un informe exhaustivo para el planificador jefe tribal, debemos proyectar el invento de la rueda, de lo contrario nos perderemos prácticamente toda la acción.
Ahora bien, si pudiéramos profetizar la invención de la rueda, ya sabríamos qué aspecto tiene y, por consiguiente, sabríamos cómo construirla... La conclusión es que no sabemos lo que sabremos.
Poincaré fue el primer matemático de renombre que comprendió y explicó que en nuestras ecuaciones hay unos límites naturales. Introdujo las no linealidades, pequeños efectos que pueden conducir a graves consecuencias, una idea que después se hizo popular como teoría del caos.
El razonamiento de Poincaré era simple: cuando se proyecta hacia el futuro se necesita un grado creciente de precisión sobre la dinámica del proceso que se está modelando, ya que el índice de error crece rápidamente.
Poincaré explicó todo esto con un ejemplo muy sencillo, conocido como el “problema de los tres cuerpos”. Si en un sistema solar solo tenemos dos planetas, sin nada más que afecte a su curso, entonces se puede predecir indefinidamente el comportamiento de ambos planetas sin ningún problema. Pero añadamos un tercer cuerpo, por ejemplo un cometa, muchísimo más pequeño. Inicialmente, el tercer cuerpo no tendrá efecto alguno; después, con el tiempo, sus efectos sobre los otros dos cuerpos pueden ser explosivos. Pequeñas diferencias en la situación de ese diminuto cuerpo al final determinarán el futuro de los grandes y poderosos planetas.
La explosiva dificultad de la predicción se debe a que los mecanismos se complican, aunque sea un poco. Nuestro mundo es mucho más complicado que el problema de los tres cuerpos. Estamos ante lo que se llama un sistema dinámico; y el mundo es un sistema demasiado dinámico.
Se dice a menudo que “de sabios es ver venir las cosas”. Tal vez el sabio sea quien sepa que no puede ver las cosas que están lejos.
¿Por qué escuchamos a los expertos y sus predicciones? Una posible explicación es que la sociedad descansa sobre la especialización, la efectiva división de los conocimientos. Uno no se matricula en la Facultad de Medicina en el momento en que se encuentra con un grave problema de salud; es más económico (y desde luego más seguro) consultar a alguien que ya lo haya hecho. Los médicos escuchan a los mecánicos (no por cuestiones de salud, sino cuando tienen problemas con el coche); los mecánicos escuchan a los médicos. Tenemos una tendencia natural a escuchar al experto, incluso en campos en los que es posible que estos no existan.

Qué hacer si no podemos predecir

Saber que no podemos predecir no significa que no nos podamos beneficiar de la impredecibilidad. Hay muchas cosas que hacer, siempre y cuando seamos conscientes de los límites de la predictibilidad completa. Veamos algunas de ellas.
1.- El accidente positivo. Sexto Empírico cuenta la historia de Apeles el pintor, quien cuando estaba pintando un caballo, quiso pintar también la espuma de su boca. Después de intentarlo con denuedo, se rindió y, presa de la irritación, tomó la esponja que empleaba para limpiar los pinceles y la tiró contra el cuadro. En el punto en que dio la esponja quedó una representación perfecta de la espuma.
Esto mismo se puede generalizar a la vida: debemos maximizar la serendipia (los accidentes positivos) que nos rodea.
2.- Combinar “aventura” y “seguridad”. Si somos conscientes de nuestra vulnerabilidad frente a los errores de predicción, y si aceptamos que la mayor parte de las “medidas de riesgo” son incompletas debido al Cisne Negro, nuestra estrategia debe mostrarnos tan hiperconservadores e hiperagresivos como podamos. Así, por ejemplo, en lugar de destinar el dinero a inversiones de un supuesto “riesgo medio” que nadie puede decir con seguridad lo que es, deberíamos colocar una parte, digamos que entre el 85-90 %, en instrumentos extremadamente seguros, por ejemplo las letras del Tesoro. El restante 10-15 % lo colocaríamos en apuestas extremadamente especulativas, en especial carteras de capital de riesgo. En vez de correr un riesgo medio, correríamos un riesgo elevado por un lado, y ninguno por el otro. El promedio sería un riesgo medio, pero este constituiría una exposición positiva al Cisne Negro.
3.- Aprovecharse del “nadie sabe nada”. Se dice que el legendario guionista William Goldman gritaba: “Nadie sabe nada” cuando se refería a la previsión de ventas de las películas.
Pero el lector se podrá preguntar cómo alguien de tanto éxito como Goldman puede calcular lo que conviene hacer sin formular predicciones. La respuesta es que Goldman sabía que no podía prever los sucesos individuales, pero era muy consciente de que lo impredecible, concretamente el hecho de que una película fuera un éxito, le reportaría unos grandísimos beneficios. Los negocios de mayor éxito son precisamente aquellos en que se sabe trabajar con la impredecibilidad inherente, e incluso explotarla.
Debemos aprender a distinguir entre aquellos empeños humanos en los que la carencia de predictibilidad puede ser (o ha sido) extremadamente beneficiosa, y aquellos en los que la incapacidad de entender el futuro fue perjudicial. Hay Cisnes Negros tanto positivos como negativos. William Goldman estaba en el negocio del cine, un negocio de Cisne Negro positivo. Ahí la incertidumbre compensaba de vez en cuando.
Un negocio de Cisne Negro negativo es aquel en que lo inesperado puede golpear con fuerza y herir de gravedad. Si trabajamos en el ejército, en los seguros contra catástrofes o en la seguridad nacional, solo nos enfrentamos a inconvenientes. Asimismo, si estamos en la banca y en las entidades de crédito, es previsible que los resultados sorpresa nos sean negativos. Prestamos dinero y, en el mejor de los casos, recuperamos el préstamo; pero podemos perder todo el dinero si el prestatario falla. En caso de que el prestatario alcance un gran éxito económico, no es previsible que nos ofrezca un dividendo adicional.
Además del cine, otros ejemplos de negocios de Cisne Negro positivo son algunos sectores de la edición, la investigación científica y el capital de riesgo. En estos negocios, uno pierde poco para ganar mucho. Tenemos poco que perder por libro y, por razones completamente inesperadas, cualquier libro dado puede despegar.
4.- No busquemos lo preciso ni lo local. El gran descubridor que fue Pasteur, quien dio con la idea de que la suerte favorece a los preparados, comprendió que uno no busca algo concreto cada mañana, sino que trabaja con ahínco para permitir que la contingencia entre en su vida profesional. Asimismo, no debemos intentar predecir Cisnes Negros precisos; eso suele hacernos más vulnerables a los que no hemos previsto; más vale invertir en estar preparados.
5.- Aprovechemos cualquier oportunidad, o cualquier cosa que parezca serlo. Las oportunidades son mucho más raras de lo que pensamos. Los Cisnes Negros positivos tienen un primer paso obligatorio: debemos estar expuestos a ellos. Muchas personas no se dan cuenta de que han tenido un golpe de suerte cuando lo experimentan. Si un gran editor, un ejecutivo de la industria cinematográfica o un célebre banquero nos sugiere una cita, deberíamos cancelar cualquier cosa que hayamos planeado porque es posible que nunca más tengamos una oportunidad como esa. Trabajemos con ahínco, no en algo pesado, repetitivo o mecánico, sino en perseguir esas oportunidades y maximizar la exposición a ellas.
Todas estas recomendaciones tienen un punto en común: la asimetría. Pensemos en las situaciones donde las consecuencias favorables sean mucho mayores que las desfavorables. Nunca llegaremos a conocer lo desconocido ya que, por definición, es desconocido. Sin embargo, siempre podemos imaginar cómo podría afectarme, y sobre este hecho debería basar mis decisiones. Desconozco las probabilidades de que se produzca un terremoto, pero puedo imaginar cómo afectaría a San Francisco si se produjera.
Esta idea según la cual para tomar una decisión tenemos que centrarnos en las consecuencias (que podemos conocer) más que en la probabilidad (que no podemos conocer) es la idea fundamental de la incertidumbre. Sobre esta idea se puede construir toda una teoría general de la toma de decisiones. Todo lo que hay que hacer es mitigar las consecuencias.


Fin del resumen ejecutivo
Biografía del autor
Nassim Nicholas Taleb

Nassim Nicholas Taleb (Amioun, Líbano, 1960) ha dedicado su vida a investigar las reglas y la lógica de la suerte, la incertidumbre, la probabilidad y el saber. Matemático empírico, a la vez que analista del comportamiento económico de los seres humanos, trabajó durante 21 años como gestor de hedge funds y trader de productos derivados. Taleb ha sido investigador y docente en diversas instituciones académicas, como la NYU's School of Engineering o la Universidad de Massachusetts en Amherst.

Es autor de los libros ¿Existe la suerte? (Ediciones Paidós, 2009), The Bed of Procrustes (Random House, 2010), El Cisne Negro (Ediciones Paidós, 2011) y Antifrágil (Ediciones Paidós, 2013).

Ficha técnica
Compra del libro
Si has leído el resumen y quieres profundizar más te recomendamos comprar el libro completo, en papel o ebook, aquí