Logo Studenta

Tema 6 Ness

¡Este material tiene más páginas!

Vista previa del material en texto

Tema 6 – Razonamiento Probabilístico 2016 
 
1 Ness Uned 
 
Ü Introducción 
El pensamiento probabilístico constituye una modalidad de pensamiento que se enfrenta a problemas abiertos, 
en un mundo en donde la información es incompleta y se modifica temporalmente. Nos permite adaptarnos de 
manera eficaz a la incertidumbre y variabilidad ambiental generando formas de percibir, computar y representar las 
variables externas para emitir juicios de probabilidad, que permitan estimar dicha variabilidad y actuar sobre el 
entorno. Las leyes de probabilidad en tareas de razonamiento probabilístico constituyen un modelo normativo o 
prescriptivo sobre cómo deben realizarse las inferencias probabilísticas. 
Ü Teorema de Bayes 
Cuando asignamos un valor de probabilidad a un suceso podemos conocer o no el espacio de probabilidades. 
Cuando conocemos el espacio de probabilidades, si asumimos la equiprobabilidad de las posibilidades, la 
probabilidad de un suceso aleatorio sería: el nº de resultados favorables / el nº total de resultados posibles. 
En la vida diaria, habitualmente no conocemos el espacio completo de probabilidades en relación a un suceso 
determinado, lo que nos exige llevar a cabo estimaciones subjetivas en relación al espacio muestral, y es posible 
además que las diferentes alternativas no sean equiprobables. (2 candidatos para un trabajo pueden obtener la 
misma puntuación en una prueba psicométrica, sin embargo la eficacia en el rendimiento de trabajo depende de otras 
variables, no todas conocidas (experiencia, personalidad, motivación, etc.). 
Tanto si la fuente de la que se ha obtenido la probabilidad de un suceso es objetiva como si es subjetiva, la teoría de 
probabilidad asume un conjunto de axiomas. 
• La probabilidad de un suceso varía entre 0 (imposibilidad) y 1 (certeza). 
• La suma de las probabilidades de todos los posibles sucesos es 1. 
• La probabilidad de “no ocurrencia” de un suceso será igual a 1 menos la probabilidad de su “ocurrencia” P 
(no S) = 1-P (S). 
• Si 2 sucesos (S1 y S2) son mutuamente excluyentes entre sí, la probabilidad de uno u otro será igual a la 
suma de sus probabilidades. 
P (S1 o S2) = P (S1) + P (S2) 
• Si 2 sucesos (S1 y S2) son dependientes, la probabilidad de la conjunción de estos sucesos será igual al 
producto de la probabilidad de S1 por la probabilidad de S2 asumiendo S1: “Probabilidad Condicionada” 
P (S1 y S2) = P (S1) x P (S2 dado S1) = P (S1) x P (S2/S1) 
El segundo factor de este producto se denomina probabilidad condicional de S2 dado S1. 
• Si 2 sucesos (S1 y S2) son independientes, la probabilidad de la conjunción de estos sucesos será igual al 
producto de la probabilidad de S1 por la probabilidad de S2: 
P (S1 y S2) = P (S1) x P (S2) 
¿Cuál es la probabilidad de un paciente cogido al azar en una muestra sometido a tratamiento que está curado 
hubiera sido diagnosticado previamente de trastorno depresivo (y no de ansiedad o de fobia)? 
Thomas Bayes añadió a estos axiomas una fórmula conocida como el Teorema de Bayes, que permite calcular la 
probabilidad condicional inversa, también denominada probabilidad posterior o a posteriori. El cálculo de esta 
probabilidad no es directo, ya que tenemos el dato, está curado, pero son 3 las alternativas (depresión, ansiedad o 
fobia). El teorema constituye la ley fundamental en la que se basa este tipo de inferencia probabilística, tanto cuando 
la información procede de datos muestrales como cuando procede de estimaciones subjetivas de probabilidades. 
El teorema permite estimar la probabilidad de un suceso a la luz de un nuevo dato, partiendo de las probabilidades 
del suceso a priori, y de la capacidad predictiva que la ocurrencia del dato tiene para la ocurrencia del propio suceso, 
es decir, la diagnosticidad del dato. 
Probabilidades conjuntas “tipo de trastorno” y “curación” 
Hipótesis Probabilidad del Trastorno P(H) Probabilidad de curación/no curación P(D/H) P(H) P(D/H) – P Conjunta 
Depresión 0,30 0,50 (0,3) * (0,50) = 0,15 
 0.50 (0,3) * (0,50) = 0,15 
Fobias 0,20 0,70 (0,2) * (0,70) = 0,14 
 0,30 (0,2) * (0,30) = 0,06 
Ansiedad 0,50 0,40 (0,5) * (0,40) = 0,2 
 0,60 (0,5) * (0,60) = 0,3 
Tema 6 – Razonamiento Probabilístico 2016 
 
2 Ness Uned 
 
La probabilidad condicional (o a posteriori) se obtiene: 
1) De la probabilidad inicial o a priori del suceso. (Tener depresión, fobia, ansiedad) 
2) De la diagnosticidad del dato, es decir, en qué medida se asocian ambos (enfermo / no enfermo). 
Como la probabilidad de un suceso es siempre el cociente entre los casos favorables (a la hipótesis) y los casos 
posibles, en el ejemplo, dividimos los pacientes curados de depresión por la suma de todas las probabilidades de 
haber sido curado de cualquier trastorno. 
 
La estadística bayesiana permite introducir probabilidades subjetivas, al evaluar las probabilidades a priori, y las 
probabilidades condicionales del suceso. Estas probabilidades pueden obtenerse de distintos datos, tales como la 
evidencia existente, teorías previas o la opinión o creencias de la persona. 
El razonamiento probabilístico humano generalmente no es extensional, es decir, no contempla el conjunto 
de probabilidades de forma exhaustiva (aunque las conozca). Existen estrategias y procedimientos psicológicos 
que facilitan y hacen más rápido y menos costoso el proceso de asignación de probabilidades que si se realizasen 
los cálculos matemáticos basados en modelos normativos como el Teorema de Bayes. 
Ü Enfoque de los Heurísticos (Atajos) 
 
Los heurísticos constituyen reglas y estrategias intuitivas que se aplican de manera deliberada o no para 
producir una estimación o una predicción. Esta evaluación que proporcionan los heurísticos puede dar lugar a errores 
sistemáticos denominados sesgos o falacias. 
Tversky y Kahneman conceptualizan los 3 tipos básicos: representatividad, accesibilidad y anclaje y ajuste. 
 
1. Heurístico de Representatividad 
 
¿Cuál es la probabilidad de 1) que el objeto A pertenezca a la categoría B, 2) el proceso de B sea la causa de A, o 3) 
el dato A se genere a partir de B? Para responder a estas preguntas recurrimos generalmente al heurístico de 
representatividad. En el: 
• Las probabilidades se juzgan teniendo en cuenta la medida en que A es representativo de o se asemeje a 
B. 
La categorización de objetos y acontecimientos ha demostrado, que la información de prototipos y esquemas 
contribuyen significativamente a la forma en que almacenamos y procesamos la información. Resulta natural y 
económica desde el punto de vista cognitivo, juzgar la probabilidad de un acontecimiento evaluando el grado en el 
cual es representativo de la categoría o esquema de referencia. 
Esta estrategia produce sesgos significativos pues la semejanza o representatividad no se ve afectada por factores 
que deberían afectar a los juicios de probabilidad. 
1.1. Insensibilidad a las Probabilidades a Priori. (No tenemos en cuenta el % a priori, el reparto que existe). 
Evaluación de la probabilidad en función del grado en que una descripción es representativa de un estereotipo, 
atendiendo poco o nada a las probabilidades a priori de pertenecer a esa categoría en concreto, violando de forma 
drástica la predicción del teorema de Bayes (Ej.: 30% ingeniero, 70% abogados y al revés, su asignación a un grupo 
se realiza en función de la descripción que se ofrece -> con gafas, matemático, serio, con don de palabra, etc.). 
La dificultad para aplicar el algoritmo para calcular la probabilidad de un acontecimiento, contemplando las 
probabilidades a priori, ha sido demostrada también con participantes expertos (Eddy). También sesgan. 
Gigerenzer y Hoffrage indican que: la dificultad de aplicar las normas de la inferencia bayesiana es el resultado de 
un planteamiento metodológico inadecuado, es decir, hay un desajuste entre la forma en la que presentamos la 
información y el formato de la representación cognitiva natural de la misma. 
Basan su argumentación en lateoría de la evolución: la mente y su entorno han evolucionado en paralelo, el 
formato natural de procesamiento de series es la frecuencia (5 de 10) más que la probabilidad o el porcentaje (0,05 
o 5%). Las demandas de los algoritmos bayesianos son más simples cuando la información se codifica en 
frecuencias más que en probabilidad porque las probabilidades a priori no necesitan ser atendidas. 
Si presentamos los datos con el formato de muestreo natural, la fórmula del teorema de Bayes se simplifica mucho. 
La probabilidad de cáncer de mama en mujeres de 40 años es de 10 sobre 1.000 (1%). De cada 10 mujeres que 
padecen cáncer de mama, 8 dan un resultado positivo en la mamografía (80%). La probabilidad de que una mujer sin 
cáncer de mama dé un resultado positivo en la mamografía de 95 sobre 990 (9,5%). 
Tema 6 – Razonamiento Probabilístico 2016 
 
3 Ness Uned 
 
1.2. Insensibilidad a la Capacidad Predictiva del Dato. 
En relación a las descripciones que nos dan de un sujeto, por ejemplo (inteligente y trabajador), se pueden realizar 2 
tipos de preguntas: 
a) Evaluación: qué impresión te produce esta descripción en relación a la habilidad académica -> Se evalúa el 
dato. 
b) Predicción: ¿qué calificación media estimas que obtendrá el sujeto? -> Predice el resultado, por tanto se da un 
grado superior de incertidumbre en relación con la segunda pregunta. + Difícil. 
La hipótesis de representatividad sostiene que predicción y evaluación deberían coincidir. 
Kahneman y Tversky demostraron con su experimento que los juicios del grupo de predicción y de evaluación 
fueron muy similares, si bien en el primer caso el criterio era una variable objetiva y próxima, mientras que en el 
segundo se trataba de una variable remota, basada en la impresión que producía la descripción. 
En la Teoría Estadística de la predicción, la equivalencia entre predicción y evaluación estaría justificada sólo si la 
eficacia predictiva fuera perfecta. Cuando la descripción no es objetiva o es inexacta, o siendo objetiva se 
presentan datos nuevos, los sujetos parecen ignorar la probabilidad del dato dada la hipótesis alternativa. 
La predicción basada en la impresión de la descripción sin considerar factores que afectan al peso de la 
evidencia, da lugar a sesgos sistemáticos en el juicio probabilístico que responden al concepto de ilusión de validez. 
1.3. Concepciones Estadísticas Inexactas. 
 
• La Concepción Errónea de la Regresión constituye otro sesgo en el juicio predictivo basado en el heurístico de 
representatividad. (Galton) La regresión se utiliza para predecir una medida basándonos en el conocimiento de 
otra (Conozco X y predigo Y). La regresión estadística o regresión a la media es la tendencia de una medición 
extrema a situarse más próxima a la media cuando se realiza una segunda medición. Se da la creencia de 
que el resultado predicho debería ser representativo al máximo de la evidencia disponible y tan extremo como 
esta. (se les hace una evaluación a un grupo de niños, los mejores sacaron peores notas en una segunda 
evaluación y lo contrario pasó en el grupo de los inicialmente peores, no obstante, parece que quiere decir que 
las personas seguirán juzgando a los niños en función de la primera evaluación). 
 
• En la Calibración del Juicio Predictivo, contrariamente a la predicción del concepto de regresión a la media, el 
carácter extremo de la evidencia potencia la fuerza de la impresión y la confianza subjetiva en su replicabilidad. 
 
• En relación con El Tamaño de la Muestra, la Teoría del Muestreo sostiene que en una muestra grande es más 
difícil superar el 50% (hospital grande y hospital pequeño, en cuanto al registro en el que un 60% de nacimientos 
fue de varones en el pequeño). La Insensibilidad al Tamaño de la Muestra explica nuestras expectativas en los 
juegos de azar (falacia del jugador), en la medida en que esperamos que las muestras pequeñas de procesos 
aleatorios representen el proceso con un número elevado de ensayos (tras una secuencia de rojos en la ruleta, la 
mayor parte de la gente espera de forma errónea que ha llegado el turno del negro, resultado en una secuencia 
más representativo del rojo). 
La concepción errónea del azar no se limita a persona ingenuas, también se da en expertos: La Creencia en 
la Ley de los Números Pequeños revela que la expectativa de una hipótesis válida en relación con una 
población, puede basarse en la significación estadística de un resultado de una muestra, prestando poca 
consideración a su tamaño. Los investigadores corren el riesgo de atribuir excesiva fiabilidad a resultados con 
muestras pequeñas y sobreestimar la replicabilidad de los resultados. 
1.4. La Falacia de Conjunción. 
La representatividad no es extensional, no siempre está determinada por la frecuencia ni limitada por la inclusión 
de clases de los datos que componen el espacio muestral. 
En el modelo normativo de la Teoría de la Probabilidad, la ley más simple y fundamental desde un punto de 
vista cualitativo es el principio de la extensión: una conjunción no puede ser más probable que cada uno de sus 
constituyentes, y se aplica tanto si A y B son o no independientes y es válido para cualquier valor de probabilidad del 
mismo espacio muestral P(A) ≥ P(A y B). (Es más probable que ocurra uno solo que ambos). 
Ejemplo: El problema de Linda (se ofrece una descripción de la personalidad diseñada para que fuera muy 
representativa de una feminista activa y poco representativa de una cajera de banco). Los participantes consideraron 
la opción “cajera de banco y feminista” más probable que “cajera de banco” o “feminista” por separado. 
La violación de la regla de conjunción es la comparación directa entre los constituyentes y su conjunción. La 
semejanza de un ejemplar con su categoría se define en función de la ponderación (que peso damos) de las 
propiedades que son comunes y distintivas y varía en función del contexto estimular y la tarea (Tversky). Desde 
el punto de vista de la regla extensional, la clase “cajera de banco” incluye a la de “cajera de banco feminista. 
Tema 6 – Razonamiento Probabilístico 2016 
 
4 Ness Uned 
 
El intento deliberado de inducir una actitud reflexiva no elimina el heurístico. Ser experto en un dominio específico 
tampoco evita los errores de conjunción, siendo consistente con el heurístico de representatividad. 
Herwing y Gigerenzer critican de la tarea de Linda que se utilice el término matemático “probable”, ya que la 
mayoría lo iguala a “si es posible” “concebible” o “verosímil”, inferencia semántica que contribuye a explicar por qué 
se elige como más “probable” la conjunción, por lo que no se trataría de una violación del principio extensional del 
modelo normativo de la teoría de la probabilidad, ya que esta no estaría siendo evaluada. 
 
2. Heurístico de Accesibilidad 
 
Las personas evaluamos la frecuencia de los ejemplares de una categoría o la probabilidad de un acontecimiento por 
la facilidad con la que los ejemplos nos vienen a la mente (son accesibles). La frecuencia o probabilidad se juzga 
a partir de la disponibilidad o facilidad de acceso a sus ejemplares ya que los ejemplos de categorías frecuentes se 
recuerdan con mayor facilidad y rapidez que los menos frecuentes. La accesibilidad se ve afectada por otro tipo de 
factores que Tversky y Kahneman agrupan en 4 categorías: 
2.1. Sesgo debido a la Facilidad de Recuperación. 
El sesgo observado tanto en la prueba de recuerdo como en la prueba de estimación de frecuencias demuestra el 
efecto significativo del heurístico de accesibilidad en el juicio probabilístico (lista de nombres de mujeres famosas y 
no famosas. Se recuerdan los de las mujeres famosas y se piensa que hay mayor número de estas, cuando hay el 
mismo). Además de la familiaridad, otros factores como la saliencia afectan a la accesibilidad. La probabilidad 
subjetiva de accidentes de tráfico aumenta temporalmente si se acaba de ver un coche volcado. 
Este sesgo de inmediatezse basa también en la facilidad de recuperación de las experiencias recientes. En la 
investigación de la autopercepción de estados emocionales los participantes tienden a percibir las emociones 
inmediatas como más intensas (inmediatas se perciben, distantes se recuerdan), aunque entrañen experiencias 
objetivamente similares, las emociones inmediatas se juzgan como más intensas (directas), sensitivas (nos afectan 
más) e informativas (más detallada). 
2.2. Sesgo debido a la Facilidad en la Construcción de Ejemplos. 
Es debida a la facilidad de generar ejemplos. En el ejemplo, se les indicó a los sujetos, que el hecho de que hubiera 
una letra impresa dificultaría su recuerdo, o que lo facilitaría, los sujetos confirmaron la facilidad o dificultad en el 
recuerdo. Emitieron 2 tipos de juicios: 
→ Juicio 1: Grado de dificultad para recordar: palabras que empiezan por t y palabras que tienen la letra t en la 3ª 
posición. Todos los sujetos coincidieron que es más fácil recordar palabras que empiezan por la letra t. 
→ Juicio 2: Frecuencia relativa de palabras que empiezan por t respecto a las que tienen la letra t en la 3ª posición. 
Los sujetos del grupo "facilitación" juzgaron que la facilidad para recordar palabras que empiezan por t debía ser 
atribuida a la impresión de letras t en la hoja de respuestas, por lo que estimaron su frecuencia objetiva como menor. 
Su razonamiento fue: "me ha resultado más fácil recordar palabras que empiezan por t, pero esto debe ser atribuido 
a la impresión de letras t en la hoja de respuestas y no al hecho de que sean objetivamente más frecuentes". 
Los sujetos del grupo "inhibición" juzgaron que: "si a pesar de la dificultad para recordar palabras que empiezan por 
t debido a la impresión de éstas en la hoja de respuestas, me ha resultado fácil recordarlas, esto debe ser atribuido 
al hecho de que son objetivamente muy frecuentes y me han venido a la cabeza con mucha facilidad. 
Por tanto, la estimación de la frecuencia relativa se basa en la facilidad objetiva de recuerdo y en la atribución que 
hacen los sujetos de la experiencia de facilidad de recuperación de la información. 
Una variable relevante en las tareas de búsqueda de ejemplos que da lugar a sesgos significativos en la estimación 
de la probabilidad subjetiva es la accesibilidad de posibles contextos. Los contextos de palabras abstractas (amor, 
amistad) resultan más fáciles de imaginar o asociar a historias vividas, leídas o basadas en películas que palabras 
concretas (puerta, agua) desprovistas de connotaciones que permitan evocar con facilidad escenarios. 
2.3. Sesgo debido a la Facilidad para Imaginar Situaciones. 
 
La facilidad para imaginar situaciones juega un papel importante en la evaluación de probabilidades en la vida real. 
En el ejemplo, se medía la probabilidad que asignaban unos sujetos a contraer una enfermedad, en base a si la 
lectura de un texto era fácil o difícil de imaginar. Se observó que los participantes “fácil de imaginar” tendían a juzgar 
la probabilidad de contraer la enfermedad mayor que los de la condición “difícil de imaginar” -> Es más probable si es 
fácil de imaginar. 
2.4. Sesgo debido a la Correlación Ilusoria e Ilusión de Control. 
Las asociaciones entre eventos o conceptos se fortalecen como resultado de su ocurrencia conjunta repetida. 
Tema 6 – Razonamiento Probabilístico 2016 
 
5 Ness Uned 
 
• El término “Correlación Ilusoria” (Chapman) agrupa los errores como resultado de la sobreestimación de la 
correlación entre 2 acontecimientos o elementos distintivos (de su frecuencia). La correlación ilusoria es uno de 
los mecanismos en que se basa la explicación de las supersticiones o las creencias mágicas, el “efecto halo” y 
los estereotipos sociales. 
• Cuando lo que se sobreestima es la correlación entre la conducta y sus consecuencias se produce la 
“Ilusión De Control”, que se define como la expectativa de la probabilidad de éxito personal 
inadecuadamente elevada en relación a la probabilidad objetiva. 
Langer demostró que la ilusión de control puede inducirse introduciendo factores supuestamente relacionados con la 
habilidad y destreza del jugador en los juegos de azar, como la competitividad, la posibilidad de elegir, familiaridad 
con los estímulos y las respuestas y la implicación pasiva o activa en la situación. Este fenómeno constituye uno de 
los factores que explica el sentimiento excesivo de confianza en el éxito y el riesgo excesivo asumido en los juegos 
de azar. La ilusión de control contribuye a explicar la persistencia del sesgo de sobre-confianza en la calibración del 
propio juicio, de segundo orden. 
3. Heurístico del Prototipo 
La denominación “heurísticos de prototipo” responde al nuevo enfoque de Kahneman y Frederick (modelo original 
de Tversky). Los heurísticos de prototipo son resultado de un doble proceso de sustitución: 
• Una categoría completa se sustituye por su ejemplar prototípico, 
• Un atributo de la categoría (el que se evalúa) se sustituye por una propiedad del prototipo. 
 
1) Desde el modelo normativo de la Teoría de la Probabilidad (tradicional), en la predicción de pertenencia de un 
ejemplar a una categoría, la probabilidad de pertenencia debería variar con la probabilidad a priori. 
2) En la predicción por Representatividad de la pertenencia de un ejemplar a una categoría, se descarta la 
probabilidad a priori de la categoría, porque el prototipo no contiene información sobre la frecuencia de sus 
miembros. La representatividad no es necesariamente la propiedad del prototipo que sustituye al atributo. 
 
La Evaluación Retrospectiva de las experiencias con valor afectivo ilustra el proceso de sustitución basado en la 
accesibilidad de la información. Por ejemplo: pacientes sometidos a una exploración dolorosa -> si los picos de 
dolor finales eran moderados, aunque globalmente el sufrimiento informado continuo hubiera sido mayor, el paciente 
decía que habían sido menos dolorosos. 
 
Doble Sustitución: La categoría “dolor que produce la experiencia global” se sustituye por 1) el prototipo 
“promedio del pico más elevado de dolor y 2) el valor más próximo al momento final de la experiencia”. La propiedad 
del prototipo sustituye al atributo de la categoría (“intensidad”). No viene dada por la representatividad, sino 
por su accesibilidad en la memoria. 
 
La insensibilidad a características extensionales de las categorías: las probabilidades a priori en la predicción de 
la pertenencia de un ejemplar a una categoría o la relación monotónica entre la duración de la experiencia y su valor 
afectivo, constituyen ejemplos de la desviación sistemática del modelo normativo de la lógica en el juicio intuitivo bajo 
incertidumbre. La estimación cuantitativa subjetiva de una experiencia se realiza por el valor afectivo que entraña, a 
diferencia del heurístico de anclaje y ajuste, en donde la estimación cuantitativa está desprovista de valor afectivo y el 
objeto del juicio es externo al sujeto. 
 
4. Heurístico de Anclaje y Ajuste (Se integra en los modelos de Accesibilidad) 
En ocasiones realizamos estimaciones de cantidades inciertas a partir de un valor inicial (ancla) que se ajusta 
hasta alcanzar la respuesta final. El valor inicial o punto de partida puede sugerirse por la formulación del problema o 
ser el resultado de un cómputo parcial. Diferentes puntos de partida producen estimaciones diferentes sesgadas 
hacia el valor inicial. Pueden servir de anclaje valores informativos como los que no lo son. 
En la fase comparativa el sujeto genera una cantidad independiente del valor del anclaje y compara ese valor con su 
estimación para determinar si el valor de anclaje es demasiado alto o demasiado bajo. Pare emitir el juicio absoluto, 
ajusta el juicio inicial en la dirección apropiada hasta que encuentra un valor aceptable. De acuerdo con esta primera 
interpretación de Tversky y Kahneman, el sesgo en el proceso de anclaje no se situaría en la producción del juicio 
estimado inicialsino en un segundo juicio final. 
Jacowitz y Kahneman demostraron un efecto asimétrico en el sesgo de anclaje, ya que la influencia del ancla era 
mayor si el valor de éste era alto más que si era bajo, por ello concluyeron que el sesgo se daba en el propio ancla, 
cuya consideración puede variar la estimación que se hubiera hecho antes y modificar el juicio absoluto emitido. 
La razón puede residir en el hecho de que existe un claro valor 0 mínimo, pero no hay uno máximo. Existe un claro 
límite inferior para los valores bajos (cero), pero no hay límite superior para los valores elevados. 
Tema 6 – Razonamiento Probabilístico 2016 
 
6 Ness Uned 
 
El ancla puede considerarse: a) un punto de partida para el ajuste (Tversky), b) un indicio conversacional 
debido a la saliencia que le confiere la autoridad académica del experimentador, c) una sugerencia o prime. 
La investigación más reciente sugiere que el anclaje se origina con frecuencia en la fase de recuperación de la 
información y que el ancla actúa como una sugerencia, haciendo la información consistente con el ancla más 
accesible. Se demuestra que el efecto de anclaje no se produce si no se cumplen determinadas condiciones de 
compatibilidad entre el ancla (valor inicial) y el juicio requerido (respuesta final). 
Strack y Mussweiler demuestran que es necesario además que se expresen en la misma dimensión (altura frente 
anchura). La fuerza del efecto depende de la medida en que la información activada por el ancla también se percibe 
como aplicable al juicio absoluto. Cuando el ancla es un valor plausible, la tarea comparativa se resuelve elaborando 
la respuesta en un proceso cognitivo que consume tiempo, de esta manera la información relevante es fácilmente 
accesible y acelera la respuesta. Cuanto más tiempo consuma en el juicio comparativo, menos tiempo 
consumirá en el absoluto. Solo cuando el ancla es un valor plausible debería esperarse una correlación negativa 
entre las latencias de respuesta de los juicios comparativo y absoluto. Los resultados del análisis correlacional 
apoyan esta predicción. Para las anclas no plausibles las latencias de respuesta de ambos juicios no correlacionan. 
Chapman y Johnson presentan un modelo teórico alternativo que permite interpretar el sesgo de anclaje en un 
amplio abanico de tareas y procedimientos experimentales. El mecanismo de anclaje se basa en un proceso de 
accesibilidad selectiva que se genera en la fase inicial de recuperación de la información y determina la formación 
de la respuesta. El proceso de anclaje puede ser resultado de múltiples causas y los mecanismos responsables 
pueden producirse en más de una fase. Los errores en los juicios y sesgos se producirán como consecuencia 
del priming asimétrico en el proceso de recuperación de la información, que incrementaría de forma 
desproporcionada la disponibilidad de rasgos compartidos por “ancla” y respuesta y reduciría la disponibilidad de 
aquellos rasgos que los diferencian. El modelo de accesibilidad selectiva atribuye el sesgo en el juicio absoluto a una 
ponderación excesiva de los rasgos comunes entre el ancla y la respuesta, en detrimento de los discrepantes, 
basada en una tendencia confirmatoria. 
Incrementar experimentalmente la accesibilidad de rasgos diferentes reduce el sesgo hacia el valor inicial al 
propiciar identificar razones discrepantes con el valor del ancla. (Una silla y otra firmada por un famoso diseñador). 
No ocurre en todos los casos. 
De acuerdo con Elpey y Gilovich, los procesos implicados en el efecto de anclaje difieren dependiendo de si el ancla 
es suministrada por el experimentador o por cualquier otra fuente externa, o el propio sujeto. El proceso de ajuste 
sería el responsable del efecto, en la medida en que el valor numérico del ancla, por su condición de respuesta 
autogenerada, adquiriría el estatus de respuesta candidata con el peso suficiente para iniciar dicho proceso. 
Epley y Gilovich coinciden con Jacowitz y Kahneman en proponer una taxonomía de posibles efectos de anclaje en 
los juicios bajo incertidumbre, en la medida en que son muchas las variables que pueden intervenir e interactuar en 
función del tipo o procedimiento experimental: magnitud del valor del ancla, compatibilidad o no de la escala de 
medida y dimensión, grado de plausibilidad y el que sea generada de forma espontánea o comunicada por otros). 
 
5. La Teoría del Apoyo 
 
El principio de extensión en la teoría de la probabilidad establece que si B está contenido en A o constituye parte de 
A, la probabilidad de B no puede ser superior a la probabilidad de A. Un caso especial de la regla de extensión es la 
regla de la conjunción, que establece que la probabilidad de A y B no puede ser superior ni a la probabilidad de A ni a 
la de B porque contiene a ambos elementos. 
La Teoría del Apoyo constituye una perspectiva del juicio intuitivo bajo incertidumbre, cuyo principio explicativo es 
el Efecto de Desempaquetado, donde en el juicio probabilístico humano “el todo es MENOR que la suma de 
sus partes”. Descripciones detalladas dan lugar a juicios de probabilidad superiores que las que genera una 
descripción general del mismo acontecimiento (+ probable que 1000 personas mueran en un terremoto, que en un 
desastre natural). 
Tversky y Koehler desarrollaron una teoría no extensional del juicio probabilístico en la que la probabilidad 
subjetiva no está ligada a los acontecimientos sino a las descripciones de los mismos -> hipótesis. 
Consideran que la desviación de la lógica extensional en el juicio de los humanos no constituye una colección de 
ejemplos aislados, sino que el juicio probabilístico sobre un evento determinado depende del grado en que se 
describe. 
Según esta teoría del apoyo, cada hipótesis A posee un valor de apoyo determinado s(A) que corresponde a la 
fuerza de la evidencia favorable a dicha hipótesis. La clave conceptual del que parte la teoría es que desempaquetar 
la descripción de una hipótesis en sus posibles componentes o hipótesis elementales generalmente 
argumenta su apoyo. El apoyo de la disyunción explícita (accidente de barco o avión) es igual o mayor que el apoyo 
de la disyunción implícita que no menciona ninguna causa. 
Tema 6 – Razonamiento Probabilístico 2016 
 
7 Ness Uned 
 
La Teoría del Apoyo es sub-aditiva para disyunciones implícitas (C) y aditiva para disyunciones explícitas 
 s (C1 v C2) = s (C1) + s (C2) 
El grado de subaditividad está influido por varios factores, uno de ellos es la interpretación de la escala de 
probabilidad. 
è Se espera que la subaditividad sea mayor cuando la probabilidad se interpreta como predisposición de un caso 
individual (Singular) respecto a cuándo se estima como frecuencia relativa en una determinada población 
(Distribucional), siendo este más preciso que el singular. 
è La disyunción implícita “accidente” se desempaqueta con mayor facilidad en sus componentes (accidente de 
coche, de avión, etc.) cuando se considera a la población en su conjunto, atendiendo a que las posibles causas 
de muerte se representan en las estadísticas de mortandad de la población. 
La tendencia a desempaquetar una disyunción implícita es mayor en el modo distribucional. 
El factor de desempaquetado puede calcularse dividiendo la suma de las probabilidades de las hipótesis elementales 
explícitas entre la probabilidad de la hipótesis implícita (Σ/P), cuanto mayor sea el valor de dicho factor, mayor será el 
grado de subaditividad observado. Resumiendo: 
• Las estimaciones presentan mayor grado de subaditividad cuando juzgan probabilidades que frecuencias; 
• La subaditividad que se observa en una disyunción implícita es tanto mayor cuanto más se explicitan sus 
componentes y es más acusada en juicios de probabilidad frente al de frecuencias. 
• La subaditividad no se restringe a los juicios de novatos, también se observa en expertos. 
Van Boven y Epley aplicaron esta teoría a juicios evaluativos con valor afectivo, en losque se juzga el carácter 
positivo o adverso de una categoría o de las consecuencias de un acontecimiento. Explican que las descripciones 
más detalladas producen juicios evaluativos más extremos ya que a) permiten recordar con mayor facilidad 
posibilidades que han pasado por alto y b) facilitan la simulación mental y la imaginación vívida de las categorías o 
acontecimientos. 
En los juicios evaluativos de una categoría parece jugar un papel más importante la facilidad con la que se recuerdan 
sus elementos constituyentes que la cantidad total de elementos que pueden recuperarse. 
La facilidad para recuperar información, construir ejemplos y/o imaginar situaciones, constituyen estrategias 
cognitivas derivadas de la aplicación del heurístico de accesibilidad, que explican el sesgo en la estimación de 
frecuencias relativas de ejemplares de una categoría. 
 
Ü La Teoría de los Modelos Mentales 
 
Ofrece un marco explicativo unitario para la deducción y la inducción y sostiene que las conclusiones 
probabilísticas son el resultado de ambos tipos de inferencias. Los individuos razonan construyendo modelos de 
las situaciones descritas en las premisas. Una conclusión: 
→ es posible si se mantiene en al menos un modelo de las premisas, 
→ es probable si aparece en la mayor parte de los modelos y 
→ es necesaria si se da en todos los modelos. 
Esta teoría se aplica a la forma natural de razonamiento sobre probabilidades de individuos ingenuos. Se da cuenta 
del razonamiento extensional sobre probabilidades, es decir, del razonamiento deductivo que genera la probabilidad 
de un acontecimiento a partir de las diferentes posibilidades en que puede ocurrir. Se basa en los principios: 
è Principio de verdad: las personas representan situaciones construyendo exclusivamente los modelos mentales 
que responden a una posibilidad verdadera. La capacidad limitada de la memoria de trabajo no permite que se 
representen de manera exhaustiva la totalidad de los modelos explícitos. Las situaciones con probabilidad 0 
corresponden a lo que es falso, por lo que no se representan en los modelos. 
è Principio de equiprobabilidad (igualdad de probabilidades): cada modelo representa una alternativa 
equiprobable, a menos que el conocimiento o las creencias de los sujetos indiquen lo contrario, en cuyo caso 
asignarán diferentes probabilidades a diferentes modelos. 
è Principio de proporcionalidad: garantiza la equiprobabilidad, la probabilidad de un evento A depende de la 
proporción de modelos en los que ocurre. Un corolario (evidencia que no necesita demostración) de este principio 
es el principio de inclusión, si un acontecimiento A ocurre en cada modelo en el que sucede otro 
acontecimiento B, entonces A es al menos tan probable como B, si además A ocurre en algunos modelos en los 
que B no ocurre, A es más probable que B. 
Tema 6 – Razonamiento Probabilístico 2016 
 
8 Ness Uned 
 
Probabilidad de que una persona
padezca una enfermedad
Probabilidad de que una persona
de positivo en la prueba
Total probabilidades
è Principio numérico: si una premisa hace referencia a una probabilidad numérica, una probabilidad desconocida 
puede ser calculada restando la suma de las n-1 probabilidades conocidas de la probabilidad global. 
è Principio del subconjunto: suponiendo la equiprobabilidad, la probabilidad condicional p(A/B) depende del 
subconjunto de B que es A u la proporcionalidad de A respecto a B da lugar al valor numérico. Si los modelos se 
etiquetan con sus frecuencias absolutas o posibilidades, la probabilidad condicional es igual al modelo de A y 
B dividido por la suma de todas las frecuencias de modelos que contienen a B. Cuando se computa la ratio 
de estas relaciones de subconjuntos, los sujetos pueden cometer errores asignando valores al numerador o más 
frecuentemente al denominador. 
Ante el ejemplo de que 4 de cada 10 personas sufren una enfermedad, 3 de cada 4 personas enfermas tienen el 
síntoma, y 2 de cada 6 personas sin la enfermedad tienen el síntoma, cuál es la probabilidad de que una persona 
elegida al azar con síntoma sufra la enfermedad: aplicado adecuadamente se puede inferir el subconjunto A y B 
(enfermedad y síntoma) del conjunto apropiado B (síntoma) y resolverlo correctamente: 3/5. Si se focalizan en el 
modelo enfermedad-síntoma 3, extraerían este subconjunto erróneamente del conjunto de todas las posibilidades y 
afirmarían que la relación probabilística es 3/10. En este caso, no atenderían a la capacidad predictiva del dato. 
Girotto y González manipularon el contenido de las instrucciones para ayudar a los sujetos a considerar el 
numerador y el denominador de forma adecuada, aplicando el principio del subconjunto para calcular la 
probabilidad condicional inversa: la probabilidad de que la persona sufra la enfermedad si presenta el síntoma, del 
total de 10 posibilidades, tiene xxx posibilidades de tener el síntoma, entre ellas, xxx posibilidades estarían asociadas 
con la enfermedad. Estas instrucciones facilitaron la respuesta correcta (de 5 posibilidades de tener el síntoma, 3 
están asociadas con la enfermedad). 
De acuerdo con Johnson-Laird y col., la versión numérica de este principio no podría aplicarse de forma obvia si los 
datos se proporcionan en términos de porcentajes ni siempre que los datos numéricos se presentan en términos de 
frecuencias. De acuerdo con ellos, los principio normativos de la inferencia bayesiana resultan con frecuencia contra-
intuitivos y propone una pedagogía de razonamiento bayesiano basada en la teoría de los modelos mentales, en la 
que las probabilidades se planteen en términos numéricos sencillos para que se pueda inferir la probabilidad 
condicional posterior aplicando el principio del subconjunto sin necesidad de aplicar el teorema de Bayes. 
Barbey y Sloman integran el enfoque de los modelos mentales en el marco teórico de las hipótesis de los conjuntos 
anidados: los errores y sesgos en la inferencia bayesiana se reducen cuando el planteamiento del problema 
facilita la representación de las relaciones inclusivas de las categorías relevantes para resolverlo. La facilitación 
observada cuando los problemas se presentan en formatos de frecuencias frente al formato de probabilidades no se 
debe a que la representación natural facilita la aplicación del teorema sino a que el formato de frecuencias 
contribuye a clarificar y hacer más transparentes las relaciones inclusivas pertinentes. 
La probabilidad de padecer una enfermedad es de 1/1.000, un sujeto que no padece la enfermedad tiene una 
probabilidad del 5% de dar positivo en la prueba, y un sujeto que padece la enfermedad da positivo en todos los 
casos: ¿probabilidad de que una persona extraída al azar que dé un resultado positivo padezca la enfermedad? 
La respuesta con este tipo de versión es 95%, suponiendo que la tasa de error de la prueba es del 5% (falsos 
positivos) debería producir un 95% de resultados correctos, pasando de la probabilidad a priori de sufrir la 
enfermedad, que constituye uno de los rasgos en la estimación de probabilidades condicionales. Correcto es 2%. 
Cuando la redacción del problema se acompaña del diagrama el 
porcentaje de aciertos es mayor. La representación gráfica de conjuntos 
anidados reduce de forma sustancial el sesgo. Los diagramas hacen 
explícito, sin operaciones, que las posibilidades de que una persona dé 
positivo en la prueba es un subconjunto de todas las posibilidades, y 
que las posibilidades de padecer la enfermedad es un subconjunto de 
las posibilidades de dar positivo en la prueba: 1/50 = 2%. 
El hecho de añadir la categoría de “falsos negativos” al problema 
incrementa la dificultad del mismo, planteado tanto en probabilidades 
como en frecuencias. Esta nueva categoría no es relevante para 
resolverlo y no altera el valor del resultado pero incrementa la complejidad de la representación de las categorías. 
Sloman y col. argumentan que la dificultad para captar las relaciones relevantes a partir de una representaciónmental más compleja explicaría el bajo rendimiento. 
En la teoría de los modelos mentales el añadir la categoría de “falsos positivos” supone la representación de un 
modelo mental adicional, que aumentaría la carga en la memoria de trabajo y dificulta la aplicación del principio del 
subconjunto. 
Ejemplo: Sólo hay una afirmación correcta sobre una mano de póker. ¿Qué es más probable el Rey o el As? 
1) Hay un Rey o un As en ambas. 2) Hay una Reina o un As o ambas. 
Tema 6 – Razonamiento Probabilístico 2016 
 
9 Ness Uned 
 
Según la TMM es más probable el Rey, aunque la mayoría diríamos el As porque aparece en más modelos mentales 
cuando los representamos. El As es menos probable que el Rey, porque, como sólo una de las dos afirmaciones 
es cierta, si la reina no está, tampoco está el As, ni solo, ni con ella, ni con el Rey, por lo tanto, de las seis 
combinaciones posibles, el As queda eliminado en todas (probabilidad 1/6). 
Johnson-Laird y Savary demostraron que razonando sobre posibilidades “relativas” la mayor parte de los sujetos 
alcanzaban conclusiones imposibles cuando no consideraban los casos en que las premisas son falsas. 
El supuesto teórico de subaditividad en el razonamiento probabilístico de la teoría del apoyo permite explicar la 
violación de la regla de la disyunción (derivada del axioma 3 de la teoría de la probabilidad – heurístico de 
accesibilidad) y de la regla de conjunción (derivada del axioma 4 – heurístico de representatividad). 
Los supuestos teóricos de la teoría de los modelos mentales permiten explicar las dificultades en la representación 
mental de las relaciones inclusivas relevantes para resolver la inferencia bayesiana como consecuencia de las 
limitaciones en la memoria de trabajo. En uno y otro caso, los sesgos observados son el resultado de la violación de 
los principios de la lógica inclusiva en el modelo normativo de la teoría de la probabilidad. 
 
Ü Juicio Probabilístico y Calibración 
El concepto calibración se define como el grado de precisión o ajuste entre el juicio probabilístico sobre la 
confianza en el propio rendimiento y la eficacia objetiva avalada por los datos de la ejecución. 
El efecto del exceso de confianza o sobre-confianza, se traduce en que las personas tenemos más confianza en 
la eficacia de nuestro rendimiento de lo que avalan los datos objetivos. No solo se observa en los laboratorios sino 
con un elevado grado de consistencia en el ámbito profesional: en el juicio clínico, en las previsiones de empresarios, 
etc. Un segundo efecto estable y consistente es el efecto fácil-difícil, que constata que el grado de sobre-
confianza aumenta con el grado de dificultad de las preguntas. 
1. Enfoques Teóricos 
 
è El Enfoque de los Modelos Mentales Probabilísticos (MMP) 
Gigerentzer, Hoffrage y Kleinbölting proponen un marco teórico integrador, que permita explicar el “efecto de 
exceso de confianza” y el “efecto fácil – difícil”: el enfoque de los “Modelos mentales probabilísticos” (MMP). 
• La tarea prototípica en juicios de confianza incluye: un conjunto de preguntas de cultura general con 2 
alternativas de respuesta. El desajuste en la calibración no es una característica intrínseca del juicio humano sino 
la consecuencia de la utilización de tareas con escasa validez ecológica, que no permiten poner en marcha un 
modelo mental probabilístico que propicie un modelo de inferencia inductiva adecuado para resolver con éxito la 
tarea. 
• Un modelo mental probabilístico es un procedimiento inductivo (estimado) que se utiliza cuando el 
conocimiento es limitado y permite realizar inferencias rápidas. La clave conceptual es que un MMP estará 
adaptado si permite conectar la estructura específica de la tarea con una estructura de probabilidad, en una clase 
de referencia del ambiente natural del sujeto, almacenada en su MLP. El desajuste en la calibración de los juicios 
probabilísticos vendría dado porque la clase de referencia que integra los elementos a comparar no es 
representativa del entorno natural del sujeto o porque siéndolo no lo son los elementos que se comparan. 
Un MMP contiene una clase de referencia (ciudades >200.000 hab.) una variable criterio (nº de habitantes) y unas 
claves probabilísticas que varían en su grado de validez (tener equipo de fútbol en primera, tener aeropuerto…). 
La generación de las claves: tener o no universidad, ser o no capital de una CCAA, refleja una jerarquía de acuerdo 
con su grado de validez. 
En el ejemplo: formularon preguntas representativas (ambiente natural) y seleccionadas (cultura general). Además, 
el sujeto debía emitir un juicio de confianza relativo a cada una de sus respuestas, después de contestar cada 
pregunta; y un juicio de frecuencia después de cada bloque, referido a las respuestas. De 
acuerdo con esta teoría, el sesgo de sobre-confianza esperado en los juicios sobre cada 
pregunta individual de cultura general debería corregirse y ajustarse a la eficacia objetiva 
cuando se emite un juicio de frecuencia, cada bloque debería constituir una muestra de clase 
de referencia natural “conocimiento de cultura general que he demostrado en exámenes 
previos”. 
Se observa un sesgo de sobre-confianza que es más acusado cuanto mayor es la eficacia de 
las respuestas. Este sesgo se corrige cuando se utilizan preguntas representativas, la 
curva de confianza para estas se asemeja a la de regresión para la estimación del porcentaje 
de aciertos a partir de la confianza asignada, revelando sub-confianza en la parte izquierda de 
la escala de confianza, sobre-confianza en la derecha y 0 sobre-confianza como promedio. 
Tema 6 – Razonamiento Probabilístico 2016 
 
10 Ness Uned 
 
La media de las diferencias entre el juicio de confianza y el porcentaje de respuestas correctas no difiere 
significativamente de 0, lo que indica un juicio promedio bien calibrado. 
Analizaron la curva de calibración del conjunto de preguntas que denominan emparejadas, preguntas 
representativas equivalentes en el nivel de dificultad a las de cultura general. (3 tipos: representativas, 
seleccionadas y emparejadas). 
Si las ciudades que se comparaban no eran representativas de la clase de referencia, la calibración no es ajustada 
y se observa el sesgo de sobre-confianza, y el sesgo observado se corrige cuando el juicio de confianza se refiere 
a la frecuencia de aciertos en una muestra representativa de preguntas seleccionadas. 
La diferencia media entre la frecuencia estimada de respuestas correctas en cada bloque de preguntas 
seleccionadas y la frecuencia real no difirió significativamente. 
Si bien los resultados apoyan la teoría como modelo integrador, requiere un mayor desarrollo para responder a: 
• La selección de la clave probabilística que se activa, 
• Si el orden en que se activan las claves se ajusta siempre a su jerarquía de acuerdo con su validez y 
• A las condiciones que delimitan que las claves se ajusta siempre a su jerarquía de acuerdo con su validez y a 
las condiciones que determinan que las claves probabilísticas se sustituyan o se integren de forma múltiple 
para decidir la respuesta. 
Gigerenzer y Goldstein formularon el algoritmo “Take the best” (La mejor clave), marco conceptual de la teoría de 
los modelos mentales probabilísticos, que se representa como un diagrama de flujo basado en 5 principios para 
claves binarias. Supone una ordenación subjetiva de las claves de acuerdo con su grado de validez, la clave 
superior en el rango constituye la mejor clave, que permite discriminar entre las 2 alternativas de respuesta. 
1. Principio de reconocimiento: el reconocimiento del objeto constituye un predictor de la variable (nº de 
habitantes). 
2. Búsqueda de claves con validez: se recuperan de la memoria las claves y sus valores en un orden jerárquico 
de acuerdo con su grado de validez. La validez ecológica (ambiental) de una clave es la frecuencia relativa 
con la que la clave predice correctamente el resultado (en el 87%de los casos, la ciudad con un equipo de fútbol 
en primera división tiene un nº superior de habitantes, la validez ecológica de la clave es 0,87). 
3. Regla de discriminación: una clave discrimina entre 2 objetos si uno de ellos tiene un valor positivo en la clave y 
el otro no lo tiene (o es negativo o se desconoce). 
4. Principio de sustitución de la clave: si la clave discrimina se para la búsqueda de nuevas claves, si no se 
vuelve al paso anterior y se continúa la búsqueda hasta que se encuentre la clave que discrimina. 
5. Regla de maximización para la elección: se elige el objeto con un valor positivo en la clave, si ninguna clave 
discrimina, se elige al azar entre ambas alternativas. El algoritmo TTB es un procedimiento no 
compensatorio porque solo la clave que mejor discrimina determina la inferencia sin que la combinación de 
valores de claves distintas ni la integración de información puedan contrarrestar la elección basada en la clave 
con mayor validez. 
El modelo TTB se encuadra en un modelo teórico de racionalidad ecológica que permite explicar cómo el sesgo de 
sobre-confianza se corrige cuando el sujeto realiza la inferencia sobre objetos de su entorno natural (clase de 
referencia), que le permiten seleccionar claves probabilísticas con suficiente validez. Una clave probabilística válida 
es aquella capaz de predecir la inferencia adecuada. 
 
è El Modelo “Fuerza – Peso” de la Confianza en la Evidencia 
Griffin y Tversky estudian los casos en que se selecciona una clave con escaso valor predictivo para realizar una 
inferencia y las razones que explican su elección. El sesgo de sobre-confianza no puede reducirse al efecto del nivel 
de dificultad. Introducen el efecto de ILUSIÓN DE VALIDEZ: la evidencia disponible a partir de la cual emitimos 
un juicio intuitivo se interpreta de acuerdo con 2 coordenadas: fuerza o saliencia de la evidencia y su peso o 
validez predictiva. 
La teoría estadística y el cálculo probabilístico prescriben reglas que combinan con precisión la fuerza o 
intensidad de la evidencia y su peso o validez. El juicio humano no combina ambos factores de acuerdo con los 
modelos normativos, lo que produce sesgos y errores de calibración. 
El modelo teórico del juicio probabilístico que integra esta dicotomía predice: 
è Sobre-confianza cuando la fuerza es elevada y el peso es bajo, y 
è Sub-confianza cuando la fuerza es baja y el peso es elevado. 
Tema 6 – Razonamiento Probabilístico 2016 
 
11 Ness Uned 
 
El hecho de que la fuerza de la evidencia tienda a dominar su peso responde a que el sujeto se focaliza inicialmente 
en la impresión que le produce la evidencia para después ajustar el juicio de acuerdo con su conocimiento de validez. 
El juicio combina el anclaje en la fuerza de la impresión con un proceso de ajuste que tiene en cuenta el valor 
predictivo de la evidencia. Las personas basamos la confianza en nuestro rendimiento en la impresión sobre los 
resultados sin observar suficientemente la calidad de los datos. 
Griffin y Tversky reinterpretan el efecto fácil-difícil de acuerdo con este enfoque: demuestran un efecto de sub-
confianza (rendimiento objetivo superior al juicio de confianza) cuando los ítems son fáciles, de sobre-confianza 
cuando son difíciles y de sobre-confianza extrema cuando eran imposibles. 
 
2. La Calibración en el Juicio de los Expertos 
 
La “desatención a las probabilidades a priori” de la hipótesis y “la capacidad predictiva del dato” se identifican 
como los predictores más claros de la calibración sesgada en el juicio cotidiano de expertos en dominios específicos. 
Koehler, Brenner y Griffin proponen un modelo de calibración adaptado al juicio probabilístico sobre un caso 
particular, que integra la teoría del apoyo con el modelo de calibración fuerza-peso de la confianza en la evidencia. 
“Tos aguda y persistente” constituye el dato; “padecer neumonía”, la hipótesis focal, probabilidad a priori escasa para 
este caso concreto. 
• El juicio de los médicos muestra una marcada sub-confianza cuando tanto la probabilidad a priori como la 
discriminalidad son elevadas. 
• Una ligera sobre-confianza cuando la probabilidad a priori es baja y la discriminalidad es alta, y 
• Una sobre-confianza extrema cuando la probabilidad a priori es muy baja y la discriminalidad es baja. 
La impresión que causa el síntoma, cuando los médicos se enfrentan a un caso particular, se ve reforzada por la 
accesibilidad de la fuente de información: el carácter vívido de la experiencia personal y la proximidad al paciente. 
Esta impresión que determina inicialmente la fuerza de la evidencia adquiere especial relevancia debido a la 
probabilidad a priori de la enfermedad. 
• La saliencia del síntoma parece variar en relación inversa con la tasa de la enfermedad en la población: 
cuanto más atípica resulta la enfermedad, mayor relevancia adquiere el síntoma. 
• La disponibilidad de síntomas coherentes con la hipótesis focal contribuye a su proceso de 
desempaquetado en sus síntomas componentes incrementando su probabilidad subjetiva. 
• El sesgo en la focalización inicial del juicio a favor de la hipótesis focal respecto a las alternativas, restará 
eficacia al proceso de ajuste final, que no considerará de forma suficiente la discriminalidad objetiva del síntoma: 
su validez predictiva real de la enfermedad. La insensibilidad a la capacidad predictiva del dato constituye, en 
este caso, un ejemplo de sesgo basado en el heurístico accesibilidad. 
Esta combinación de fuerza (impresión) y peso (validez predictiva) de la evidencia (tos) respecto a la hipótesis focal 
(neumonía) se ajusta con bastante exactitud al marco teórico de Griffin y Tversky. 
 
Ü Sesgo Predictivo y Retrospectivo 
Hemos visto cómo realizamos inferencias probabilísticas a partir de impresiones basadas en la evidencia cercana, 
que percibimos o con la que empatizamos afectivamente. La disponibilidad nos hace sobrevalorar la fuerza de la 
evidencia sin que atendamos de forma suficiente a la validez de los datos disponibles. 
• El sesgo de sobre-confianza es más acusado en expertos, que ofrecen mayor resistencia a reconocer errores. 
• La persistencia en las creencias obedece a la ILUSIÓN DE VALIDEZ (Kahneman), estableciendo un paralelismo 
entre esta ilusión cognitiva y la ilusión perceptiva. 
• La confianza subjetiva se sustenta en la falacia narrativa, basada en el intento de buscar un sentido al mundo 
y una coherencia en los hechos. La confianza excesiva en el juicio predictivo dificulta que el feedback sobre su 
falta de precisión pueda en ocasiones futuras corregirlo y ajustarlo con eficacia a la evidencia objetiva. La 
confianza subjetiva perece ser el resultado de un modo de procesamiento fácil y rápido que busca la 
coherencia asociativa y que enlaza de forma más directa con la sensación y el sentimiento que con el juicio 
cognitivo deliberado. 
El sesgo retrospectivo constituye la otra cara de la moneda de la ilusión de coherencia. Si la ilusión de validez 
nos conduce a confiar en exceso en nuestros juicios predictivos si son coherentes con la evidencia, el sesgo 
retrospectivo revisa y reestructura nuestra concepción sobre un hecho del pasado si la evidencia disponible la 
contradice (Fuimos más acertados en nuestras predicciones). Es muy robusto y está demostrado en todas las etapas 
evolutivas. 
Sus 3 componentes son: 
Tema 6 – Razonamiento Probabilístico 2016 
 
12 Ness Uned 
 
a) Impresiones de necesidad reflejan el grado en que los resultados de un acontecimiento se perciben como 
determinados causalmente. 
b) Impresiones de predictibilidad asumen las percepciones y juicios coherentes con el hecho de que los 
resultados podrían haberse anticipado (siempre supe que iba a ocurrir). 
c) Distorsiones de la memoria revelan el recuerdo erróneo de que sus predicciones estuvieron más cerca de 
los resultados de lo que de hecho estuvieron. 
Blank et al. definen los procesos psicológicos subyacentes: 
a) En el caso de atribucióncausal elaboramos antecedentes consistentes con el resultado de forma que 
parezca en mayor medida predeterminado. 
b) La impresión de predictibilidad implica consideraciones meta-cognitivas que presuponen que el resultado 
podía haberse anticipado en algún momento. 
c) Las distorsiones en el recuerdo están gobernadas por procesos de memoria que se concretan en el anclaje 
del resultado y la reconstrucción de la predicción inicial. 
Los 3 procesos son diferentes y no tienen que coincidir en el mismo participante, el denominador común es el 
resultado de la construcción narrativa basada en la búsqueda de coherencia.

Continuar navegando