Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Tema 6 – Razonamiento Probabilístico 2016 1 Ness Uned Ü Introducción El pensamiento probabilístico constituye una modalidad de pensamiento que se enfrenta a problemas abiertos, en un mundo en donde la información es incompleta y se modifica temporalmente. Nos permite adaptarnos de manera eficaz a la incertidumbre y variabilidad ambiental generando formas de percibir, computar y representar las variables externas para emitir juicios de probabilidad, que permitan estimar dicha variabilidad y actuar sobre el entorno. Las leyes de probabilidad en tareas de razonamiento probabilístico constituyen un modelo normativo o prescriptivo sobre cómo deben realizarse las inferencias probabilísticas. Ü Teorema de Bayes Cuando asignamos un valor de probabilidad a un suceso podemos conocer o no el espacio de probabilidades. Cuando conocemos el espacio de probabilidades, si asumimos la equiprobabilidad de las posibilidades, la probabilidad de un suceso aleatorio sería: el nº de resultados favorables / el nº total de resultados posibles. En la vida diaria, habitualmente no conocemos el espacio completo de probabilidades en relación a un suceso determinado, lo que nos exige llevar a cabo estimaciones subjetivas en relación al espacio muestral, y es posible además que las diferentes alternativas no sean equiprobables. (2 candidatos para un trabajo pueden obtener la misma puntuación en una prueba psicométrica, sin embargo la eficacia en el rendimiento de trabajo depende de otras variables, no todas conocidas (experiencia, personalidad, motivación, etc.). Tanto si la fuente de la que se ha obtenido la probabilidad de un suceso es objetiva como si es subjetiva, la teoría de probabilidad asume un conjunto de axiomas. • La probabilidad de un suceso varía entre 0 (imposibilidad) y 1 (certeza). • La suma de las probabilidades de todos los posibles sucesos es 1. • La probabilidad de “no ocurrencia” de un suceso será igual a 1 menos la probabilidad de su “ocurrencia” P (no S) = 1-P (S). • Si 2 sucesos (S1 y S2) son mutuamente excluyentes entre sí, la probabilidad de uno u otro será igual a la suma de sus probabilidades. P (S1 o S2) = P (S1) + P (S2) • Si 2 sucesos (S1 y S2) son dependientes, la probabilidad de la conjunción de estos sucesos será igual al producto de la probabilidad de S1 por la probabilidad de S2 asumiendo S1: “Probabilidad Condicionada” P (S1 y S2) = P (S1) x P (S2 dado S1) = P (S1) x P (S2/S1) El segundo factor de este producto se denomina probabilidad condicional de S2 dado S1. • Si 2 sucesos (S1 y S2) son independientes, la probabilidad de la conjunción de estos sucesos será igual al producto de la probabilidad de S1 por la probabilidad de S2: P (S1 y S2) = P (S1) x P (S2) ¿Cuál es la probabilidad de un paciente cogido al azar en una muestra sometido a tratamiento que está curado hubiera sido diagnosticado previamente de trastorno depresivo (y no de ansiedad o de fobia)? Thomas Bayes añadió a estos axiomas una fórmula conocida como el Teorema de Bayes, que permite calcular la probabilidad condicional inversa, también denominada probabilidad posterior o a posteriori. El cálculo de esta probabilidad no es directo, ya que tenemos el dato, está curado, pero son 3 las alternativas (depresión, ansiedad o fobia). El teorema constituye la ley fundamental en la que se basa este tipo de inferencia probabilística, tanto cuando la información procede de datos muestrales como cuando procede de estimaciones subjetivas de probabilidades. El teorema permite estimar la probabilidad de un suceso a la luz de un nuevo dato, partiendo de las probabilidades del suceso a priori, y de la capacidad predictiva que la ocurrencia del dato tiene para la ocurrencia del propio suceso, es decir, la diagnosticidad del dato. Probabilidades conjuntas “tipo de trastorno” y “curación” Hipótesis Probabilidad del Trastorno P(H) Probabilidad de curación/no curación P(D/H) P(H) P(D/H) – P Conjunta Depresión 0,30 0,50 (0,3) * (0,50) = 0,15 0.50 (0,3) * (0,50) = 0,15 Fobias 0,20 0,70 (0,2) * (0,70) = 0,14 0,30 (0,2) * (0,30) = 0,06 Ansiedad 0,50 0,40 (0,5) * (0,40) = 0,2 0,60 (0,5) * (0,60) = 0,3 Tema 6 – Razonamiento Probabilístico 2016 2 Ness Uned La probabilidad condicional (o a posteriori) se obtiene: 1) De la probabilidad inicial o a priori del suceso. (Tener depresión, fobia, ansiedad) 2) De la diagnosticidad del dato, es decir, en qué medida se asocian ambos (enfermo / no enfermo). Como la probabilidad de un suceso es siempre el cociente entre los casos favorables (a la hipótesis) y los casos posibles, en el ejemplo, dividimos los pacientes curados de depresión por la suma de todas las probabilidades de haber sido curado de cualquier trastorno. La estadística bayesiana permite introducir probabilidades subjetivas, al evaluar las probabilidades a priori, y las probabilidades condicionales del suceso. Estas probabilidades pueden obtenerse de distintos datos, tales como la evidencia existente, teorías previas o la opinión o creencias de la persona. El razonamiento probabilístico humano generalmente no es extensional, es decir, no contempla el conjunto de probabilidades de forma exhaustiva (aunque las conozca). Existen estrategias y procedimientos psicológicos que facilitan y hacen más rápido y menos costoso el proceso de asignación de probabilidades que si se realizasen los cálculos matemáticos basados en modelos normativos como el Teorema de Bayes. Ü Enfoque de los Heurísticos (Atajos) Los heurísticos constituyen reglas y estrategias intuitivas que se aplican de manera deliberada o no para producir una estimación o una predicción. Esta evaluación que proporcionan los heurísticos puede dar lugar a errores sistemáticos denominados sesgos o falacias. Tversky y Kahneman conceptualizan los 3 tipos básicos: representatividad, accesibilidad y anclaje y ajuste. 1. Heurístico de Representatividad ¿Cuál es la probabilidad de 1) que el objeto A pertenezca a la categoría B, 2) el proceso de B sea la causa de A, o 3) el dato A se genere a partir de B? Para responder a estas preguntas recurrimos generalmente al heurístico de representatividad. En el: • Las probabilidades se juzgan teniendo en cuenta la medida en que A es representativo de o se asemeje a B. La categorización de objetos y acontecimientos ha demostrado, que la información de prototipos y esquemas contribuyen significativamente a la forma en que almacenamos y procesamos la información. Resulta natural y económica desde el punto de vista cognitivo, juzgar la probabilidad de un acontecimiento evaluando el grado en el cual es representativo de la categoría o esquema de referencia. Esta estrategia produce sesgos significativos pues la semejanza o representatividad no se ve afectada por factores que deberían afectar a los juicios de probabilidad. 1.1. Insensibilidad a las Probabilidades a Priori. (No tenemos en cuenta el % a priori, el reparto que existe). Evaluación de la probabilidad en función del grado en que una descripción es representativa de un estereotipo, atendiendo poco o nada a las probabilidades a priori de pertenecer a esa categoría en concreto, violando de forma drástica la predicción del teorema de Bayes (Ej.: 30% ingeniero, 70% abogados y al revés, su asignación a un grupo se realiza en función de la descripción que se ofrece -> con gafas, matemático, serio, con don de palabra, etc.). La dificultad para aplicar el algoritmo para calcular la probabilidad de un acontecimiento, contemplando las probabilidades a priori, ha sido demostrada también con participantes expertos (Eddy). También sesgan. Gigerenzer y Hoffrage indican que: la dificultad de aplicar las normas de la inferencia bayesiana es el resultado de un planteamiento metodológico inadecuado, es decir, hay un desajuste entre la forma en la que presentamos la información y el formato de la representación cognitiva natural de la misma. Basan su argumentación en lateoría de la evolución: la mente y su entorno han evolucionado en paralelo, el formato natural de procesamiento de series es la frecuencia (5 de 10) más que la probabilidad o el porcentaje (0,05 o 5%). Las demandas de los algoritmos bayesianos son más simples cuando la información se codifica en frecuencias más que en probabilidad porque las probabilidades a priori no necesitan ser atendidas. Si presentamos los datos con el formato de muestreo natural, la fórmula del teorema de Bayes se simplifica mucho. La probabilidad de cáncer de mama en mujeres de 40 años es de 10 sobre 1.000 (1%). De cada 10 mujeres que padecen cáncer de mama, 8 dan un resultado positivo en la mamografía (80%). La probabilidad de que una mujer sin cáncer de mama dé un resultado positivo en la mamografía de 95 sobre 990 (9,5%). Tema 6 – Razonamiento Probabilístico 2016 3 Ness Uned 1.2. Insensibilidad a la Capacidad Predictiva del Dato. En relación a las descripciones que nos dan de un sujeto, por ejemplo (inteligente y trabajador), se pueden realizar 2 tipos de preguntas: a) Evaluación: qué impresión te produce esta descripción en relación a la habilidad académica -> Se evalúa el dato. b) Predicción: ¿qué calificación media estimas que obtendrá el sujeto? -> Predice el resultado, por tanto se da un grado superior de incertidumbre en relación con la segunda pregunta. + Difícil. La hipótesis de representatividad sostiene que predicción y evaluación deberían coincidir. Kahneman y Tversky demostraron con su experimento que los juicios del grupo de predicción y de evaluación fueron muy similares, si bien en el primer caso el criterio era una variable objetiva y próxima, mientras que en el segundo se trataba de una variable remota, basada en la impresión que producía la descripción. En la Teoría Estadística de la predicción, la equivalencia entre predicción y evaluación estaría justificada sólo si la eficacia predictiva fuera perfecta. Cuando la descripción no es objetiva o es inexacta, o siendo objetiva se presentan datos nuevos, los sujetos parecen ignorar la probabilidad del dato dada la hipótesis alternativa. La predicción basada en la impresión de la descripción sin considerar factores que afectan al peso de la evidencia, da lugar a sesgos sistemáticos en el juicio probabilístico que responden al concepto de ilusión de validez. 1.3. Concepciones Estadísticas Inexactas. • La Concepción Errónea de la Regresión constituye otro sesgo en el juicio predictivo basado en el heurístico de representatividad. (Galton) La regresión se utiliza para predecir una medida basándonos en el conocimiento de otra (Conozco X y predigo Y). La regresión estadística o regresión a la media es la tendencia de una medición extrema a situarse más próxima a la media cuando se realiza una segunda medición. Se da la creencia de que el resultado predicho debería ser representativo al máximo de la evidencia disponible y tan extremo como esta. (se les hace una evaluación a un grupo de niños, los mejores sacaron peores notas en una segunda evaluación y lo contrario pasó en el grupo de los inicialmente peores, no obstante, parece que quiere decir que las personas seguirán juzgando a los niños en función de la primera evaluación). • En la Calibración del Juicio Predictivo, contrariamente a la predicción del concepto de regresión a la media, el carácter extremo de la evidencia potencia la fuerza de la impresión y la confianza subjetiva en su replicabilidad. • En relación con El Tamaño de la Muestra, la Teoría del Muestreo sostiene que en una muestra grande es más difícil superar el 50% (hospital grande y hospital pequeño, en cuanto al registro en el que un 60% de nacimientos fue de varones en el pequeño). La Insensibilidad al Tamaño de la Muestra explica nuestras expectativas en los juegos de azar (falacia del jugador), en la medida en que esperamos que las muestras pequeñas de procesos aleatorios representen el proceso con un número elevado de ensayos (tras una secuencia de rojos en la ruleta, la mayor parte de la gente espera de forma errónea que ha llegado el turno del negro, resultado en una secuencia más representativo del rojo). La concepción errónea del azar no se limita a persona ingenuas, también se da en expertos: La Creencia en la Ley de los Números Pequeños revela que la expectativa de una hipótesis válida en relación con una población, puede basarse en la significación estadística de un resultado de una muestra, prestando poca consideración a su tamaño. Los investigadores corren el riesgo de atribuir excesiva fiabilidad a resultados con muestras pequeñas y sobreestimar la replicabilidad de los resultados. 1.4. La Falacia de Conjunción. La representatividad no es extensional, no siempre está determinada por la frecuencia ni limitada por la inclusión de clases de los datos que componen el espacio muestral. En el modelo normativo de la Teoría de la Probabilidad, la ley más simple y fundamental desde un punto de vista cualitativo es el principio de la extensión: una conjunción no puede ser más probable que cada uno de sus constituyentes, y se aplica tanto si A y B son o no independientes y es válido para cualquier valor de probabilidad del mismo espacio muestral P(A) ≥ P(A y B). (Es más probable que ocurra uno solo que ambos). Ejemplo: El problema de Linda (se ofrece una descripción de la personalidad diseñada para que fuera muy representativa de una feminista activa y poco representativa de una cajera de banco). Los participantes consideraron la opción “cajera de banco y feminista” más probable que “cajera de banco” o “feminista” por separado. La violación de la regla de conjunción es la comparación directa entre los constituyentes y su conjunción. La semejanza de un ejemplar con su categoría se define en función de la ponderación (que peso damos) de las propiedades que son comunes y distintivas y varía en función del contexto estimular y la tarea (Tversky). Desde el punto de vista de la regla extensional, la clase “cajera de banco” incluye a la de “cajera de banco feminista. Tema 6 – Razonamiento Probabilístico 2016 4 Ness Uned El intento deliberado de inducir una actitud reflexiva no elimina el heurístico. Ser experto en un dominio específico tampoco evita los errores de conjunción, siendo consistente con el heurístico de representatividad. Herwing y Gigerenzer critican de la tarea de Linda que se utilice el término matemático “probable”, ya que la mayoría lo iguala a “si es posible” “concebible” o “verosímil”, inferencia semántica que contribuye a explicar por qué se elige como más “probable” la conjunción, por lo que no se trataría de una violación del principio extensional del modelo normativo de la teoría de la probabilidad, ya que esta no estaría siendo evaluada. 2. Heurístico de Accesibilidad Las personas evaluamos la frecuencia de los ejemplares de una categoría o la probabilidad de un acontecimiento por la facilidad con la que los ejemplos nos vienen a la mente (son accesibles). La frecuencia o probabilidad se juzga a partir de la disponibilidad o facilidad de acceso a sus ejemplares ya que los ejemplos de categorías frecuentes se recuerdan con mayor facilidad y rapidez que los menos frecuentes. La accesibilidad se ve afectada por otro tipo de factores que Tversky y Kahneman agrupan en 4 categorías: 2.1. Sesgo debido a la Facilidad de Recuperación. El sesgo observado tanto en la prueba de recuerdo como en la prueba de estimación de frecuencias demuestra el efecto significativo del heurístico de accesibilidad en el juicio probabilístico (lista de nombres de mujeres famosas y no famosas. Se recuerdan los de las mujeres famosas y se piensa que hay mayor número de estas, cuando hay el mismo). Además de la familiaridad, otros factores como la saliencia afectan a la accesibilidad. La probabilidad subjetiva de accidentes de tráfico aumenta temporalmente si se acaba de ver un coche volcado. Este sesgo de inmediatezse basa también en la facilidad de recuperación de las experiencias recientes. En la investigación de la autopercepción de estados emocionales los participantes tienden a percibir las emociones inmediatas como más intensas (inmediatas se perciben, distantes se recuerdan), aunque entrañen experiencias objetivamente similares, las emociones inmediatas se juzgan como más intensas (directas), sensitivas (nos afectan más) e informativas (más detallada). 2.2. Sesgo debido a la Facilidad en la Construcción de Ejemplos. Es debida a la facilidad de generar ejemplos. En el ejemplo, se les indicó a los sujetos, que el hecho de que hubiera una letra impresa dificultaría su recuerdo, o que lo facilitaría, los sujetos confirmaron la facilidad o dificultad en el recuerdo. Emitieron 2 tipos de juicios: → Juicio 1: Grado de dificultad para recordar: palabras que empiezan por t y palabras que tienen la letra t en la 3ª posición. Todos los sujetos coincidieron que es más fácil recordar palabras que empiezan por la letra t. → Juicio 2: Frecuencia relativa de palabras que empiezan por t respecto a las que tienen la letra t en la 3ª posición. Los sujetos del grupo "facilitación" juzgaron que la facilidad para recordar palabras que empiezan por t debía ser atribuida a la impresión de letras t en la hoja de respuestas, por lo que estimaron su frecuencia objetiva como menor. Su razonamiento fue: "me ha resultado más fácil recordar palabras que empiezan por t, pero esto debe ser atribuido a la impresión de letras t en la hoja de respuestas y no al hecho de que sean objetivamente más frecuentes". Los sujetos del grupo "inhibición" juzgaron que: "si a pesar de la dificultad para recordar palabras que empiezan por t debido a la impresión de éstas en la hoja de respuestas, me ha resultado fácil recordarlas, esto debe ser atribuido al hecho de que son objetivamente muy frecuentes y me han venido a la cabeza con mucha facilidad. Por tanto, la estimación de la frecuencia relativa se basa en la facilidad objetiva de recuerdo y en la atribución que hacen los sujetos de la experiencia de facilidad de recuperación de la información. Una variable relevante en las tareas de búsqueda de ejemplos que da lugar a sesgos significativos en la estimación de la probabilidad subjetiva es la accesibilidad de posibles contextos. Los contextos de palabras abstractas (amor, amistad) resultan más fáciles de imaginar o asociar a historias vividas, leídas o basadas en películas que palabras concretas (puerta, agua) desprovistas de connotaciones que permitan evocar con facilidad escenarios. 2.3. Sesgo debido a la Facilidad para Imaginar Situaciones. La facilidad para imaginar situaciones juega un papel importante en la evaluación de probabilidades en la vida real. En el ejemplo, se medía la probabilidad que asignaban unos sujetos a contraer una enfermedad, en base a si la lectura de un texto era fácil o difícil de imaginar. Se observó que los participantes “fácil de imaginar” tendían a juzgar la probabilidad de contraer la enfermedad mayor que los de la condición “difícil de imaginar” -> Es más probable si es fácil de imaginar. 2.4. Sesgo debido a la Correlación Ilusoria e Ilusión de Control. Las asociaciones entre eventos o conceptos se fortalecen como resultado de su ocurrencia conjunta repetida. Tema 6 – Razonamiento Probabilístico 2016 5 Ness Uned • El término “Correlación Ilusoria” (Chapman) agrupa los errores como resultado de la sobreestimación de la correlación entre 2 acontecimientos o elementos distintivos (de su frecuencia). La correlación ilusoria es uno de los mecanismos en que se basa la explicación de las supersticiones o las creencias mágicas, el “efecto halo” y los estereotipos sociales. • Cuando lo que se sobreestima es la correlación entre la conducta y sus consecuencias se produce la “Ilusión De Control”, que se define como la expectativa de la probabilidad de éxito personal inadecuadamente elevada en relación a la probabilidad objetiva. Langer demostró que la ilusión de control puede inducirse introduciendo factores supuestamente relacionados con la habilidad y destreza del jugador en los juegos de azar, como la competitividad, la posibilidad de elegir, familiaridad con los estímulos y las respuestas y la implicación pasiva o activa en la situación. Este fenómeno constituye uno de los factores que explica el sentimiento excesivo de confianza en el éxito y el riesgo excesivo asumido en los juegos de azar. La ilusión de control contribuye a explicar la persistencia del sesgo de sobre-confianza en la calibración del propio juicio, de segundo orden. 3. Heurístico del Prototipo La denominación “heurísticos de prototipo” responde al nuevo enfoque de Kahneman y Frederick (modelo original de Tversky). Los heurísticos de prototipo son resultado de un doble proceso de sustitución: • Una categoría completa se sustituye por su ejemplar prototípico, • Un atributo de la categoría (el que se evalúa) se sustituye por una propiedad del prototipo. 1) Desde el modelo normativo de la Teoría de la Probabilidad (tradicional), en la predicción de pertenencia de un ejemplar a una categoría, la probabilidad de pertenencia debería variar con la probabilidad a priori. 2) En la predicción por Representatividad de la pertenencia de un ejemplar a una categoría, se descarta la probabilidad a priori de la categoría, porque el prototipo no contiene información sobre la frecuencia de sus miembros. La representatividad no es necesariamente la propiedad del prototipo que sustituye al atributo. La Evaluación Retrospectiva de las experiencias con valor afectivo ilustra el proceso de sustitución basado en la accesibilidad de la información. Por ejemplo: pacientes sometidos a una exploración dolorosa -> si los picos de dolor finales eran moderados, aunque globalmente el sufrimiento informado continuo hubiera sido mayor, el paciente decía que habían sido menos dolorosos. Doble Sustitución: La categoría “dolor que produce la experiencia global” se sustituye por 1) el prototipo “promedio del pico más elevado de dolor y 2) el valor más próximo al momento final de la experiencia”. La propiedad del prototipo sustituye al atributo de la categoría (“intensidad”). No viene dada por la representatividad, sino por su accesibilidad en la memoria. La insensibilidad a características extensionales de las categorías: las probabilidades a priori en la predicción de la pertenencia de un ejemplar a una categoría o la relación monotónica entre la duración de la experiencia y su valor afectivo, constituyen ejemplos de la desviación sistemática del modelo normativo de la lógica en el juicio intuitivo bajo incertidumbre. La estimación cuantitativa subjetiva de una experiencia se realiza por el valor afectivo que entraña, a diferencia del heurístico de anclaje y ajuste, en donde la estimación cuantitativa está desprovista de valor afectivo y el objeto del juicio es externo al sujeto. 4. Heurístico de Anclaje y Ajuste (Se integra en los modelos de Accesibilidad) En ocasiones realizamos estimaciones de cantidades inciertas a partir de un valor inicial (ancla) que se ajusta hasta alcanzar la respuesta final. El valor inicial o punto de partida puede sugerirse por la formulación del problema o ser el resultado de un cómputo parcial. Diferentes puntos de partida producen estimaciones diferentes sesgadas hacia el valor inicial. Pueden servir de anclaje valores informativos como los que no lo son. En la fase comparativa el sujeto genera una cantidad independiente del valor del anclaje y compara ese valor con su estimación para determinar si el valor de anclaje es demasiado alto o demasiado bajo. Pare emitir el juicio absoluto, ajusta el juicio inicial en la dirección apropiada hasta que encuentra un valor aceptable. De acuerdo con esta primera interpretación de Tversky y Kahneman, el sesgo en el proceso de anclaje no se situaría en la producción del juicio estimado inicialsino en un segundo juicio final. Jacowitz y Kahneman demostraron un efecto asimétrico en el sesgo de anclaje, ya que la influencia del ancla era mayor si el valor de éste era alto más que si era bajo, por ello concluyeron que el sesgo se daba en el propio ancla, cuya consideración puede variar la estimación que se hubiera hecho antes y modificar el juicio absoluto emitido. La razón puede residir en el hecho de que existe un claro valor 0 mínimo, pero no hay uno máximo. Existe un claro límite inferior para los valores bajos (cero), pero no hay límite superior para los valores elevados. Tema 6 – Razonamiento Probabilístico 2016 6 Ness Uned El ancla puede considerarse: a) un punto de partida para el ajuste (Tversky), b) un indicio conversacional debido a la saliencia que le confiere la autoridad académica del experimentador, c) una sugerencia o prime. La investigación más reciente sugiere que el anclaje se origina con frecuencia en la fase de recuperación de la información y que el ancla actúa como una sugerencia, haciendo la información consistente con el ancla más accesible. Se demuestra que el efecto de anclaje no se produce si no se cumplen determinadas condiciones de compatibilidad entre el ancla (valor inicial) y el juicio requerido (respuesta final). Strack y Mussweiler demuestran que es necesario además que se expresen en la misma dimensión (altura frente anchura). La fuerza del efecto depende de la medida en que la información activada por el ancla también se percibe como aplicable al juicio absoluto. Cuando el ancla es un valor plausible, la tarea comparativa se resuelve elaborando la respuesta en un proceso cognitivo que consume tiempo, de esta manera la información relevante es fácilmente accesible y acelera la respuesta. Cuanto más tiempo consuma en el juicio comparativo, menos tiempo consumirá en el absoluto. Solo cuando el ancla es un valor plausible debería esperarse una correlación negativa entre las latencias de respuesta de los juicios comparativo y absoluto. Los resultados del análisis correlacional apoyan esta predicción. Para las anclas no plausibles las latencias de respuesta de ambos juicios no correlacionan. Chapman y Johnson presentan un modelo teórico alternativo que permite interpretar el sesgo de anclaje en un amplio abanico de tareas y procedimientos experimentales. El mecanismo de anclaje se basa en un proceso de accesibilidad selectiva que se genera en la fase inicial de recuperación de la información y determina la formación de la respuesta. El proceso de anclaje puede ser resultado de múltiples causas y los mecanismos responsables pueden producirse en más de una fase. Los errores en los juicios y sesgos se producirán como consecuencia del priming asimétrico en el proceso de recuperación de la información, que incrementaría de forma desproporcionada la disponibilidad de rasgos compartidos por “ancla” y respuesta y reduciría la disponibilidad de aquellos rasgos que los diferencian. El modelo de accesibilidad selectiva atribuye el sesgo en el juicio absoluto a una ponderación excesiva de los rasgos comunes entre el ancla y la respuesta, en detrimento de los discrepantes, basada en una tendencia confirmatoria. Incrementar experimentalmente la accesibilidad de rasgos diferentes reduce el sesgo hacia el valor inicial al propiciar identificar razones discrepantes con el valor del ancla. (Una silla y otra firmada por un famoso diseñador). No ocurre en todos los casos. De acuerdo con Elpey y Gilovich, los procesos implicados en el efecto de anclaje difieren dependiendo de si el ancla es suministrada por el experimentador o por cualquier otra fuente externa, o el propio sujeto. El proceso de ajuste sería el responsable del efecto, en la medida en que el valor numérico del ancla, por su condición de respuesta autogenerada, adquiriría el estatus de respuesta candidata con el peso suficiente para iniciar dicho proceso. Epley y Gilovich coinciden con Jacowitz y Kahneman en proponer una taxonomía de posibles efectos de anclaje en los juicios bajo incertidumbre, en la medida en que son muchas las variables que pueden intervenir e interactuar en función del tipo o procedimiento experimental: magnitud del valor del ancla, compatibilidad o no de la escala de medida y dimensión, grado de plausibilidad y el que sea generada de forma espontánea o comunicada por otros). 5. La Teoría del Apoyo El principio de extensión en la teoría de la probabilidad establece que si B está contenido en A o constituye parte de A, la probabilidad de B no puede ser superior a la probabilidad de A. Un caso especial de la regla de extensión es la regla de la conjunción, que establece que la probabilidad de A y B no puede ser superior ni a la probabilidad de A ni a la de B porque contiene a ambos elementos. La Teoría del Apoyo constituye una perspectiva del juicio intuitivo bajo incertidumbre, cuyo principio explicativo es el Efecto de Desempaquetado, donde en el juicio probabilístico humano “el todo es MENOR que la suma de sus partes”. Descripciones detalladas dan lugar a juicios de probabilidad superiores que las que genera una descripción general del mismo acontecimiento (+ probable que 1000 personas mueran en un terremoto, que en un desastre natural). Tversky y Koehler desarrollaron una teoría no extensional del juicio probabilístico en la que la probabilidad subjetiva no está ligada a los acontecimientos sino a las descripciones de los mismos -> hipótesis. Consideran que la desviación de la lógica extensional en el juicio de los humanos no constituye una colección de ejemplos aislados, sino que el juicio probabilístico sobre un evento determinado depende del grado en que se describe. Según esta teoría del apoyo, cada hipótesis A posee un valor de apoyo determinado s(A) que corresponde a la fuerza de la evidencia favorable a dicha hipótesis. La clave conceptual del que parte la teoría es que desempaquetar la descripción de una hipótesis en sus posibles componentes o hipótesis elementales generalmente argumenta su apoyo. El apoyo de la disyunción explícita (accidente de barco o avión) es igual o mayor que el apoyo de la disyunción implícita que no menciona ninguna causa. Tema 6 – Razonamiento Probabilístico 2016 7 Ness Uned La Teoría del Apoyo es sub-aditiva para disyunciones implícitas (C) y aditiva para disyunciones explícitas s (C1 v C2) = s (C1) + s (C2) El grado de subaditividad está influido por varios factores, uno de ellos es la interpretación de la escala de probabilidad. è Se espera que la subaditividad sea mayor cuando la probabilidad se interpreta como predisposición de un caso individual (Singular) respecto a cuándo se estima como frecuencia relativa en una determinada población (Distribucional), siendo este más preciso que el singular. è La disyunción implícita “accidente” se desempaqueta con mayor facilidad en sus componentes (accidente de coche, de avión, etc.) cuando se considera a la población en su conjunto, atendiendo a que las posibles causas de muerte se representan en las estadísticas de mortandad de la población. La tendencia a desempaquetar una disyunción implícita es mayor en el modo distribucional. El factor de desempaquetado puede calcularse dividiendo la suma de las probabilidades de las hipótesis elementales explícitas entre la probabilidad de la hipótesis implícita (Σ/P), cuanto mayor sea el valor de dicho factor, mayor será el grado de subaditividad observado. Resumiendo: • Las estimaciones presentan mayor grado de subaditividad cuando juzgan probabilidades que frecuencias; • La subaditividad que se observa en una disyunción implícita es tanto mayor cuanto más se explicitan sus componentes y es más acusada en juicios de probabilidad frente al de frecuencias. • La subaditividad no se restringe a los juicios de novatos, también se observa en expertos. Van Boven y Epley aplicaron esta teoría a juicios evaluativos con valor afectivo, en losque se juzga el carácter positivo o adverso de una categoría o de las consecuencias de un acontecimiento. Explican que las descripciones más detalladas producen juicios evaluativos más extremos ya que a) permiten recordar con mayor facilidad posibilidades que han pasado por alto y b) facilitan la simulación mental y la imaginación vívida de las categorías o acontecimientos. En los juicios evaluativos de una categoría parece jugar un papel más importante la facilidad con la que se recuerdan sus elementos constituyentes que la cantidad total de elementos que pueden recuperarse. La facilidad para recuperar información, construir ejemplos y/o imaginar situaciones, constituyen estrategias cognitivas derivadas de la aplicación del heurístico de accesibilidad, que explican el sesgo en la estimación de frecuencias relativas de ejemplares de una categoría. Ü La Teoría de los Modelos Mentales Ofrece un marco explicativo unitario para la deducción y la inducción y sostiene que las conclusiones probabilísticas son el resultado de ambos tipos de inferencias. Los individuos razonan construyendo modelos de las situaciones descritas en las premisas. Una conclusión: → es posible si se mantiene en al menos un modelo de las premisas, → es probable si aparece en la mayor parte de los modelos y → es necesaria si se da en todos los modelos. Esta teoría se aplica a la forma natural de razonamiento sobre probabilidades de individuos ingenuos. Se da cuenta del razonamiento extensional sobre probabilidades, es decir, del razonamiento deductivo que genera la probabilidad de un acontecimiento a partir de las diferentes posibilidades en que puede ocurrir. Se basa en los principios: è Principio de verdad: las personas representan situaciones construyendo exclusivamente los modelos mentales que responden a una posibilidad verdadera. La capacidad limitada de la memoria de trabajo no permite que se representen de manera exhaustiva la totalidad de los modelos explícitos. Las situaciones con probabilidad 0 corresponden a lo que es falso, por lo que no se representan en los modelos. è Principio de equiprobabilidad (igualdad de probabilidades): cada modelo representa una alternativa equiprobable, a menos que el conocimiento o las creencias de los sujetos indiquen lo contrario, en cuyo caso asignarán diferentes probabilidades a diferentes modelos. è Principio de proporcionalidad: garantiza la equiprobabilidad, la probabilidad de un evento A depende de la proporción de modelos en los que ocurre. Un corolario (evidencia que no necesita demostración) de este principio es el principio de inclusión, si un acontecimiento A ocurre en cada modelo en el que sucede otro acontecimiento B, entonces A es al menos tan probable como B, si además A ocurre en algunos modelos en los que B no ocurre, A es más probable que B. Tema 6 – Razonamiento Probabilístico 2016 8 Ness Uned Probabilidad de que una persona padezca una enfermedad Probabilidad de que una persona de positivo en la prueba Total probabilidades è Principio numérico: si una premisa hace referencia a una probabilidad numérica, una probabilidad desconocida puede ser calculada restando la suma de las n-1 probabilidades conocidas de la probabilidad global. è Principio del subconjunto: suponiendo la equiprobabilidad, la probabilidad condicional p(A/B) depende del subconjunto de B que es A u la proporcionalidad de A respecto a B da lugar al valor numérico. Si los modelos se etiquetan con sus frecuencias absolutas o posibilidades, la probabilidad condicional es igual al modelo de A y B dividido por la suma de todas las frecuencias de modelos que contienen a B. Cuando se computa la ratio de estas relaciones de subconjuntos, los sujetos pueden cometer errores asignando valores al numerador o más frecuentemente al denominador. Ante el ejemplo de que 4 de cada 10 personas sufren una enfermedad, 3 de cada 4 personas enfermas tienen el síntoma, y 2 de cada 6 personas sin la enfermedad tienen el síntoma, cuál es la probabilidad de que una persona elegida al azar con síntoma sufra la enfermedad: aplicado adecuadamente se puede inferir el subconjunto A y B (enfermedad y síntoma) del conjunto apropiado B (síntoma) y resolverlo correctamente: 3/5. Si se focalizan en el modelo enfermedad-síntoma 3, extraerían este subconjunto erróneamente del conjunto de todas las posibilidades y afirmarían que la relación probabilística es 3/10. En este caso, no atenderían a la capacidad predictiva del dato. Girotto y González manipularon el contenido de las instrucciones para ayudar a los sujetos a considerar el numerador y el denominador de forma adecuada, aplicando el principio del subconjunto para calcular la probabilidad condicional inversa: la probabilidad de que la persona sufra la enfermedad si presenta el síntoma, del total de 10 posibilidades, tiene xxx posibilidades de tener el síntoma, entre ellas, xxx posibilidades estarían asociadas con la enfermedad. Estas instrucciones facilitaron la respuesta correcta (de 5 posibilidades de tener el síntoma, 3 están asociadas con la enfermedad). De acuerdo con Johnson-Laird y col., la versión numérica de este principio no podría aplicarse de forma obvia si los datos se proporcionan en términos de porcentajes ni siempre que los datos numéricos se presentan en términos de frecuencias. De acuerdo con ellos, los principio normativos de la inferencia bayesiana resultan con frecuencia contra- intuitivos y propone una pedagogía de razonamiento bayesiano basada en la teoría de los modelos mentales, en la que las probabilidades se planteen en términos numéricos sencillos para que se pueda inferir la probabilidad condicional posterior aplicando el principio del subconjunto sin necesidad de aplicar el teorema de Bayes. Barbey y Sloman integran el enfoque de los modelos mentales en el marco teórico de las hipótesis de los conjuntos anidados: los errores y sesgos en la inferencia bayesiana se reducen cuando el planteamiento del problema facilita la representación de las relaciones inclusivas de las categorías relevantes para resolverlo. La facilitación observada cuando los problemas se presentan en formatos de frecuencias frente al formato de probabilidades no se debe a que la representación natural facilita la aplicación del teorema sino a que el formato de frecuencias contribuye a clarificar y hacer más transparentes las relaciones inclusivas pertinentes. La probabilidad de padecer una enfermedad es de 1/1.000, un sujeto que no padece la enfermedad tiene una probabilidad del 5% de dar positivo en la prueba, y un sujeto que padece la enfermedad da positivo en todos los casos: ¿probabilidad de que una persona extraída al azar que dé un resultado positivo padezca la enfermedad? La respuesta con este tipo de versión es 95%, suponiendo que la tasa de error de la prueba es del 5% (falsos positivos) debería producir un 95% de resultados correctos, pasando de la probabilidad a priori de sufrir la enfermedad, que constituye uno de los rasgos en la estimación de probabilidades condicionales. Correcto es 2%. Cuando la redacción del problema se acompaña del diagrama el porcentaje de aciertos es mayor. La representación gráfica de conjuntos anidados reduce de forma sustancial el sesgo. Los diagramas hacen explícito, sin operaciones, que las posibilidades de que una persona dé positivo en la prueba es un subconjunto de todas las posibilidades, y que las posibilidades de padecer la enfermedad es un subconjunto de las posibilidades de dar positivo en la prueba: 1/50 = 2%. El hecho de añadir la categoría de “falsos negativos” al problema incrementa la dificultad del mismo, planteado tanto en probabilidades como en frecuencias. Esta nueva categoría no es relevante para resolverlo y no altera el valor del resultado pero incrementa la complejidad de la representación de las categorías. Sloman y col. argumentan que la dificultad para captar las relaciones relevantes a partir de una representaciónmental más compleja explicaría el bajo rendimiento. En la teoría de los modelos mentales el añadir la categoría de “falsos positivos” supone la representación de un modelo mental adicional, que aumentaría la carga en la memoria de trabajo y dificulta la aplicación del principio del subconjunto. Ejemplo: Sólo hay una afirmación correcta sobre una mano de póker. ¿Qué es más probable el Rey o el As? 1) Hay un Rey o un As en ambas. 2) Hay una Reina o un As o ambas. Tema 6 – Razonamiento Probabilístico 2016 9 Ness Uned Según la TMM es más probable el Rey, aunque la mayoría diríamos el As porque aparece en más modelos mentales cuando los representamos. El As es menos probable que el Rey, porque, como sólo una de las dos afirmaciones es cierta, si la reina no está, tampoco está el As, ni solo, ni con ella, ni con el Rey, por lo tanto, de las seis combinaciones posibles, el As queda eliminado en todas (probabilidad 1/6). Johnson-Laird y Savary demostraron que razonando sobre posibilidades “relativas” la mayor parte de los sujetos alcanzaban conclusiones imposibles cuando no consideraban los casos en que las premisas son falsas. El supuesto teórico de subaditividad en el razonamiento probabilístico de la teoría del apoyo permite explicar la violación de la regla de la disyunción (derivada del axioma 3 de la teoría de la probabilidad – heurístico de accesibilidad) y de la regla de conjunción (derivada del axioma 4 – heurístico de representatividad). Los supuestos teóricos de la teoría de los modelos mentales permiten explicar las dificultades en la representación mental de las relaciones inclusivas relevantes para resolver la inferencia bayesiana como consecuencia de las limitaciones en la memoria de trabajo. En uno y otro caso, los sesgos observados son el resultado de la violación de los principios de la lógica inclusiva en el modelo normativo de la teoría de la probabilidad. Ü Juicio Probabilístico y Calibración El concepto calibración se define como el grado de precisión o ajuste entre el juicio probabilístico sobre la confianza en el propio rendimiento y la eficacia objetiva avalada por los datos de la ejecución. El efecto del exceso de confianza o sobre-confianza, se traduce en que las personas tenemos más confianza en la eficacia de nuestro rendimiento de lo que avalan los datos objetivos. No solo se observa en los laboratorios sino con un elevado grado de consistencia en el ámbito profesional: en el juicio clínico, en las previsiones de empresarios, etc. Un segundo efecto estable y consistente es el efecto fácil-difícil, que constata que el grado de sobre- confianza aumenta con el grado de dificultad de las preguntas. 1. Enfoques Teóricos è El Enfoque de los Modelos Mentales Probabilísticos (MMP) Gigerentzer, Hoffrage y Kleinbölting proponen un marco teórico integrador, que permita explicar el “efecto de exceso de confianza” y el “efecto fácil – difícil”: el enfoque de los “Modelos mentales probabilísticos” (MMP). • La tarea prototípica en juicios de confianza incluye: un conjunto de preguntas de cultura general con 2 alternativas de respuesta. El desajuste en la calibración no es una característica intrínseca del juicio humano sino la consecuencia de la utilización de tareas con escasa validez ecológica, que no permiten poner en marcha un modelo mental probabilístico que propicie un modelo de inferencia inductiva adecuado para resolver con éxito la tarea. • Un modelo mental probabilístico es un procedimiento inductivo (estimado) que se utiliza cuando el conocimiento es limitado y permite realizar inferencias rápidas. La clave conceptual es que un MMP estará adaptado si permite conectar la estructura específica de la tarea con una estructura de probabilidad, en una clase de referencia del ambiente natural del sujeto, almacenada en su MLP. El desajuste en la calibración de los juicios probabilísticos vendría dado porque la clase de referencia que integra los elementos a comparar no es representativa del entorno natural del sujeto o porque siéndolo no lo son los elementos que se comparan. Un MMP contiene una clase de referencia (ciudades >200.000 hab.) una variable criterio (nº de habitantes) y unas claves probabilísticas que varían en su grado de validez (tener equipo de fútbol en primera, tener aeropuerto…). La generación de las claves: tener o no universidad, ser o no capital de una CCAA, refleja una jerarquía de acuerdo con su grado de validez. En el ejemplo: formularon preguntas representativas (ambiente natural) y seleccionadas (cultura general). Además, el sujeto debía emitir un juicio de confianza relativo a cada una de sus respuestas, después de contestar cada pregunta; y un juicio de frecuencia después de cada bloque, referido a las respuestas. De acuerdo con esta teoría, el sesgo de sobre-confianza esperado en los juicios sobre cada pregunta individual de cultura general debería corregirse y ajustarse a la eficacia objetiva cuando se emite un juicio de frecuencia, cada bloque debería constituir una muestra de clase de referencia natural “conocimiento de cultura general que he demostrado en exámenes previos”. Se observa un sesgo de sobre-confianza que es más acusado cuanto mayor es la eficacia de las respuestas. Este sesgo se corrige cuando se utilizan preguntas representativas, la curva de confianza para estas se asemeja a la de regresión para la estimación del porcentaje de aciertos a partir de la confianza asignada, revelando sub-confianza en la parte izquierda de la escala de confianza, sobre-confianza en la derecha y 0 sobre-confianza como promedio. Tema 6 – Razonamiento Probabilístico 2016 10 Ness Uned La media de las diferencias entre el juicio de confianza y el porcentaje de respuestas correctas no difiere significativamente de 0, lo que indica un juicio promedio bien calibrado. Analizaron la curva de calibración del conjunto de preguntas que denominan emparejadas, preguntas representativas equivalentes en el nivel de dificultad a las de cultura general. (3 tipos: representativas, seleccionadas y emparejadas). Si las ciudades que se comparaban no eran representativas de la clase de referencia, la calibración no es ajustada y se observa el sesgo de sobre-confianza, y el sesgo observado se corrige cuando el juicio de confianza se refiere a la frecuencia de aciertos en una muestra representativa de preguntas seleccionadas. La diferencia media entre la frecuencia estimada de respuestas correctas en cada bloque de preguntas seleccionadas y la frecuencia real no difirió significativamente. Si bien los resultados apoyan la teoría como modelo integrador, requiere un mayor desarrollo para responder a: • La selección de la clave probabilística que se activa, • Si el orden en que se activan las claves se ajusta siempre a su jerarquía de acuerdo con su validez y • A las condiciones que delimitan que las claves se ajusta siempre a su jerarquía de acuerdo con su validez y a las condiciones que determinan que las claves probabilísticas se sustituyan o se integren de forma múltiple para decidir la respuesta. Gigerenzer y Goldstein formularon el algoritmo “Take the best” (La mejor clave), marco conceptual de la teoría de los modelos mentales probabilísticos, que se representa como un diagrama de flujo basado en 5 principios para claves binarias. Supone una ordenación subjetiva de las claves de acuerdo con su grado de validez, la clave superior en el rango constituye la mejor clave, que permite discriminar entre las 2 alternativas de respuesta. 1. Principio de reconocimiento: el reconocimiento del objeto constituye un predictor de la variable (nº de habitantes). 2. Búsqueda de claves con validez: se recuperan de la memoria las claves y sus valores en un orden jerárquico de acuerdo con su grado de validez. La validez ecológica (ambiental) de una clave es la frecuencia relativa con la que la clave predice correctamente el resultado (en el 87%de los casos, la ciudad con un equipo de fútbol en primera división tiene un nº superior de habitantes, la validez ecológica de la clave es 0,87). 3. Regla de discriminación: una clave discrimina entre 2 objetos si uno de ellos tiene un valor positivo en la clave y el otro no lo tiene (o es negativo o se desconoce). 4. Principio de sustitución de la clave: si la clave discrimina se para la búsqueda de nuevas claves, si no se vuelve al paso anterior y se continúa la búsqueda hasta que se encuentre la clave que discrimina. 5. Regla de maximización para la elección: se elige el objeto con un valor positivo en la clave, si ninguna clave discrimina, se elige al azar entre ambas alternativas. El algoritmo TTB es un procedimiento no compensatorio porque solo la clave que mejor discrimina determina la inferencia sin que la combinación de valores de claves distintas ni la integración de información puedan contrarrestar la elección basada en la clave con mayor validez. El modelo TTB se encuadra en un modelo teórico de racionalidad ecológica que permite explicar cómo el sesgo de sobre-confianza se corrige cuando el sujeto realiza la inferencia sobre objetos de su entorno natural (clase de referencia), que le permiten seleccionar claves probabilísticas con suficiente validez. Una clave probabilística válida es aquella capaz de predecir la inferencia adecuada. è El Modelo “Fuerza – Peso” de la Confianza en la Evidencia Griffin y Tversky estudian los casos en que se selecciona una clave con escaso valor predictivo para realizar una inferencia y las razones que explican su elección. El sesgo de sobre-confianza no puede reducirse al efecto del nivel de dificultad. Introducen el efecto de ILUSIÓN DE VALIDEZ: la evidencia disponible a partir de la cual emitimos un juicio intuitivo se interpreta de acuerdo con 2 coordenadas: fuerza o saliencia de la evidencia y su peso o validez predictiva. La teoría estadística y el cálculo probabilístico prescriben reglas que combinan con precisión la fuerza o intensidad de la evidencia y su peso o validez. El juicio humano no combina ambos factores de acuerdo con los modelos normativos, lo que produce sesgos y errores de calibración. El modelo teórico del juicio probabilístico que integra esta dicotomía predice: è Sobre-confianza cuando la fuerza es elevada y el peso es bajo, y è Sub-confianza cuando la fuerza es baja y el peso es elevado. Tema 6 – Razonamiento Probabilístico 2016 11 Ness Uned El hecho de que la fuerza de la evidencia tienda a dominar su peso responde a que el sujeto se focaliza inicialmente en la impresión que le produce la evidencia para después ajustar el juicio de acuerdo con su conocimiento de validez. El juicio combina el anclaje en la fuerza de la impresión con un proceso de ajuste que tiene en cuenta el valor predictivo de la evidencia. Las personas basamos la confianza en nuestro rendimiento en la impresión sobre los resultados sin observar suficientemente la calidad de los datos. Griffin y Tversky reinterpretan el efecto fácil-difícil de acuerdo con este enfoque: demuestran un efecto de sub- confianza (rendimiento objetivo superior al juicio de confianza) cuando los ítems son fáciles, de sobre-confianza cuando son difíciles y de sobre-confianza extrema cuando eran imposibles. 2. La Calibración en el Juicio de los Expertos La “desatención a las probabilidades a priori” de la hipótesis y “la capacidad predictiva del dato” se identifican como los predictores más claros de la calibración sesgada en el juicio cotidiano de expertos en dominios específicos. Koehler, Brenner y Griffin proponen un modelo de calibración adaptado al juicio probabilístico sobre un caso particular, que integra la teoría del apoyo con el modelo de calibración fuerza-peso de la confianza en la evidencia. “Tos aguda y persistente” constituye el dato; “padecer neumonía”, la hipótesis focal, probabilidad a priori escasa para este caso concreto. • El juicio de los médicos muestra una marcada sub-confianza cuando tanto la probabilidad a priori como la discriminalidad son elevadas. • Una ligera sobre-confianza cuando la probabilidad a priori es baja y la discriminalidad es alta, y • Una sobre-confianza extrema cuando la probabilidad a priori es muy baja y la discriminalidad es baja. La impresión que causa el síntoma, cuando los médicos se enfrentan a un caso particular, se ve reforzada por la accesibilidad de la fuente de información: el carácter vívido de la experiencia personal y la proximidad al paciente. Esta impresión que determina inicialmente la fuerza de la evidencia adquiere especial relevancia debido a la probabilidad a priori de la enfermedad. • La saliencia del síntoma parece variar en relación inversa con la tasa de la enfermedad en la población: cuanto más atípica resulta la enfermedad, mayor relevancia adquiere el síntoma. • La disponibilidad de síntomas coherentes con la hipótesis focal contribuye a su proceso de desempaquetado en sus síntomas componentes incrementando su probabilidad subjetiva. • El sesgo en la focalización inicial del juicio a favor de la hipótesis focal respecto a las alternativas, restará eficacia al proceso de ajuste final, que no considerará de forma suficiente la discriminalidad objetiva del síntoma: su validez predictiva real de la enfermedad. La insensibilidad a la capacidad predictiva del dato constituye, en este caso, un ejemplo de sesgo basado en el heurístico accesibilidad. Esta combinación de fuerza (impresión) y peso (validez predictiva) de la evidencia (tos) respecto a la hipótesis focal (neumonía) se ajusta con bastante exactitud al marco teórico de Griffin y Tversky. Ü Sesgo Predictivo y Retrospectivo Hemos visto cómo realizamos inferencias probabilísticas a partir de impresiones basadas en la evidencia cercana, que percibimos o con la que empatizamos afectivamente. La disponibilidad nos hace sobrevalorar la fuerza de la evidencia sin que atendamos de forma suficiente a la validez de los datos disponibles. • El sesgo de sobre-confianza es más acusado en expertos, que ofrecen mayor resistencia a reconocer errores. • La persistencia en las creencias obedece a la ILUSIÓN DE VALIDEZ (Kahneman), estableciendo un paralelismo entre esta ilusión cognitiva y la ilusión perceptiva. • La confianza subjetiva se sustenta en la falacia narrativa, basada en el intento de buscar un sentido al mundo y una coherencia en los hechos. La confianza excesiva en el juicio predictivo dificulta que el feedback sobre su falta de precisión pueda en ocasiones futuras corregirlo y ajustarlo con eficacia a la evidencia objetiva. La confianza subjetiva perece ser el resultado de un modo de procesamiento fácil y rápido que busca la coherencia asociativa y que enlaza de forma más directa con la sensación y el sentimiento que con el juicio cognitivo deliberado. El sesgo retrospectivo constituye la otra cara de la moneda de la ilusión de coherencia. Si la ilusión de validez nos conduce a confiar en exceso en nuestros juicios predictivos si son coherentes con la evidencia, el sesgo retrospectivo revisa y reestructura nuestra concepción sobre un hecho del pasado si la evidencia disponible la contradice (Fuimos más acertados en nuestras predicciones). Es muy robusto y está demostrado en todas las etapas evolutivas. Sus 3 componentes son: Tema 6 – Razonamiento Probabilístico 2016 12 Ness Uned a) Impresiones de necesidad reflejan el grado en que los resultados de un acontecimiento se perciben como determinados causalmente. b) Impresiones de predictibilidad asumen las percepciones y juicios coherentes con el hecho de que los resultados podrían haberse anticipado (siempre supe que iba a ocurrir). c) Distorsiones de la memoria revelan el recuerdo erróneo de que sus predicciones estuvieron más cerca de los resultados de lo que de hecho estuvieron. Blank et al. definen los procesos psicológicos subyacentes: a) En el caso de atribucióncausal elaboramos antecedentes consistentes con el resultado de forma que parezca en mayor medida predeterminado. b) La impresión de predictibilidad implica consideraciones meta-cognitivas que presuponen que el resultado podía haberse anticipado en algún momento. c) Las distorsiones en el recuerdo están gobernadas por procesos de memoria que se concretan en el anclaje del resultado y la reconstrucción de la predicción inicial. Los 3 procesos son diferentes y no tienen que coincidir en el mismo participante, el denominador común es el resultado de la construcción narrativa basada en la búsqueda de coherencia.
Compartir