Cada vez que hay un desastre nacional, un evento gigantesco, un tiroteo, un avance, realmente cualquier noticia, puedes confiar en las noticias de televisión para encontrar un experto. Algunos de ellos saben bastante sobre lo que sucedió, lo que sucederá y por qué. Pero cuando se trata de muchos expertos, realmente no tienen idea de lo que están hablando.
El blogger Eric Barker señala que las predicciones de los expertos políticos son solo ligeramente mejores que una suposición aleatoria, y mucho peores que un modelo estadístico. De hecho, los llamados expertos eran mejores para predecir eventos fuera de su propio campo. Barker señala un estudio de la década de 1980, cuando Philip Tetlock hizo que 284 "expertos" políticos hicieran alrededor de cien predicciones. El estudio se resume en el libro Todo es obvio * Una vez que sepa la respuesta:
Para cada una de estas predicciones, Tetlock insistió en que los expertos especifiquen cuál de los dos resultados esperaban y también asignen una probabilidad a su predicción. Lo hizo de una manera que las predicciones confiables anotaron más puntos cuando eran correctas, pero también perdieron más puntos cuando se equivocaron. Con esas predicciones en la mano, se recostó y esperó a que se desarrollaran los eventos. Veinte años después, publicó sus resultados, y lo que encontró fue sorprendente: aunque los expertos obtuvieron un rendimiento ligeramente mejor que las conjeturas aleatorias, no funcionaron tan bien como un modelo estadístico mínimamente sofisticado. Aún más sorprendente, a los expertos les fue un poco mejor cuando operaban fuera de su área de especialización que dentro de ella.
Otro estudio encontró que los "expertos" que intentan predecir el resultado de los casos de la Corte Suprema no eran mucho mejores que una computadora. El mundo vio evidencia de eso en su reciente decisión sobre el cuidado de la salud, sorprendiendo a casi todos los "expertos".
Pero eso es política. Otros campos deberían ser mejores, ¿verdad? No La tecnología es de la misma manera. Otro científico analizó la precisión de las predicciones de tendencias tecnológicas. Alrededor del ochenta por ciento de ellos estaban equivocados, independientemente de si esas predicciones fueron hechas por expertos o no.
En 2005, Tetlock escribió un libro sobre predicción experta llamado "Juicio político experto: ¿qué tan bueno es?" ¿Cómo podemos saberlo? ”En él, explica que no solo los expertos a menudo se equivocan, sino que casi nunca se les denuncia. The New Yorker explica:
Cuando se equivocan, rara vez son responsables, y rara vez lo admiten tampoco. Insisten en que simplemente no cumplieron con el tiempo, o quedaron ciegos por un evento improbable, o casi correcto o incorrecto por las razones correctas. Tienen el mismo repertorio de auto-justificaciones que todos tienen, y no están más inclinados que nadie a revisar sus creencias sobre la forma en que funciona o debería funcionar el mundo, simplemente porque cometieron un error.
Tetlock señala que si bien somos terribles en las predicciones, los expertos se dividen en dos "estilos cognitivos" cuando hacen esas predicciones: zorros y erizos. The Huffington Post resume:
Los zorros saben muchas cosas, mientras que los erizos saben una gran cosa. Estar profundamente informado sobre un tema reduce el enfoque y aumenta la confianza, pero también difumina las opiniones discrepantes hasta que ya no son visibles, transformando así la recopilación de datos en confirmación de sesgo y transformando el autoengaño en autoconfianza. El mundo es un lugar desordenado, complejo y contingente con innumerables variables intervinientes y factores de confusión, con los que los zorros se sienten cómodos pero los erizos no. Los puntajes bajos en el estudio de Tetlock fueron “pensadores que 'saben una gran cosa', extienden agresivamente el alcance explicativo de esa gran cosa a nuevos dominios, muestran impaciencia con aquellos que 'no lo entienden' y expresan una considerable confianza en que son los pronosticadores de alto puntaje eran "pensadores que saben muchas cosas pequeñas (trucos de su oficio), son escépticos de los grandes esquemas, ven la explicación y la predicción no como ejercicios deductivos sino como ejercicios flexibles" anuncios publicitarios 'que requieren unir diversas fuentes de información, y son bastante dudosos acerca de su propia capacidad de pronóstico ".
¿Pero qué hay de la técnica de las 10.000 horas? ¿Realmente pasaste 10, 000 horas para tener una probabilidad ligeramente mejor que aleatoria de predecir el resultado de tu campo elegido? Probablemente. Barker cita otro libro, El talento está sobrevalorado: lo que realmente separa a los artistas de talla mundial de todos los demás:
Una extensa investigación en una amplia gama de campos muestra que muchas personas no solo no logran ser extraordinariamente buenas en lo que hacen, sin importar cuántos años pasen haciéndolo, sino que con frecuencia ni siquiera mejoran de lo que eran cuando comenzaron.
En campo tras campo, cuando se trataba de habilidades centralmente importantes (corredores de bolsa que recomendaban acciones, oficiales de libertad condicional que pronosticaban reincidencia, funcionarios de admisión universitaria que juzgaban a los solicitantes), las personas con mucha experiencia no eran mejores en su trabajo que aquellas con muy poca experiencia.
¿La moraleja aquí? Realmente no tenemos idea de lo que va a pasar, nunca.
Más de Smithsonian.com
Cómo ganar dinero prediciendo los Juegos Olímpicos
Científicos italianos podrían ser juzgados por no predecir el terremoto de 2009