Logo Studenta

Estadística (10-17)

¡Estudia con miles de materiales!

Vista previa del material en texto

Contenido
10. GENERALIDADES	2
11. DESCRIPTIVA	2
12. PROBABILIDAD	3
13. LEYES DE DISTRIBUCIÓN BIOLÓGICAS	3
14. INFERENCIAL	4
15. CONTRASTE DE HIPÓTESIS	5
16. ANÁLISIS DE CORRELACIÓN Y DE REGRESIÓN	6
17. TAMAÑO MUESTRAL	6
10. GENERALIDADES
	Muestreo
	Probabilístico: por azar
	No probabilístico: no azar
	Misma probabilidad todos de ser incluidos
	Diferente probabilidad de ser incluidos
	Correctos
	Sesgos
	Estadística inferencial
	No extrapolables a la población
	· Simple
· Estratificado
· Sistemático
· Por conglomerados
	· Casos consecutivos: ir eligiendo a los pacientes que cumplen determinados criterios hasta alcanzar el número necesario o dentro de un intervalo de tiempo prefijado
· De conveniencia: “a dedo” los más apropiados
	Variables
	Cualitativas
	Nominales
	Dicotómicas/binarias (L2)
	Diagrama de sectores
	Diagrama de barras (normal, compuesto, horizontal)
	
	
	
	No dicotómicas (L>2)
	
	
	
	
	Ordinales
Glasgow
	
	
	
	Cuantitativas
	Discretas
	
	
	
	
	Continuas
	
	Histograma y polígono de frecuencias
11. DESCRIPTIVA
	Tipo de distribución
	Mejor medida de centralización
	Mejor medida de dispersión
	Simétrica
	Media
	Desviación típica, varianza
	Asimétrica
	Mediana
	Rango y rango intercuartílico
	Medidas de centralización
	Media aritmética
	· Sumando todos los valores y dividiendo por el número de observaciones
	MediANA
	· Divide el conjunto de datos ordenados en dos partes iguales: el 50% será mayor y el 50% menor
· En una simétrica equivale a la media
	Moda
	· Valor más frecuente
· Puede haber más de una
	Parámetros de posición
	· Dividen el conjunto en 4 (cuartiles), 10 (deciles) o 100 (percentiles) partes iguales respectivamente
	Media geométrica
	· Muy usada en microbiología y serología, cuyos datos tienen una marcada asimetría positiva (hacia la derecha)
· Menos sensible a valores extremos
	Si a todos los valores de una distribución
	Acción
	Media
	Desviación típica
	Varianza
	+ k
	+ k
	=
	=
	· k
	· k
	· k
	· k2
	Medidas de dispersión
	Rango
	· Diferencia entre el valor máximo y el mínimo
	
	Desviación media
	· Media de desviaciones respecto la media aritmética
	
	Varianza
σ2, s2
	· Media del cuadrado de las desviaciones de los elementos respecto a la media aritmética
	
	Desviación típica
σ, s
	· Raíz cuadrada positiva de la varianza: muestra cómo se distribuyen los valores alrededor de la media
	
	Rango intercuartílico
	· Diferencia entre el percentil 75 y 25
	P75 – P25
	Coeficiente de variación
CV
	· Adimensional, % que representa la desviación estándar sobre la media
· Comparar variabilidad o dispersión relativa de variables que estén expresadas en las mismas o diferentes unidades
· Decir si una distribución es homogénea o dispersa (>33% = dispersa)
	
	
	Asimetría
Desviación horizontal
	Coeficiente
de Fisher
g1
	>0
	· Distribución asimétrica + (derecha)
	
	
	
	<0
	· Distribución asimétrica negativa (izquierda)
	
	
	
	=1
	· Distribución simétrica
	
	Curtosis
Concentración central
Apuntamiento
	Coeficiente
de curtosis
g2: TWOrtosis
	>0
	· Leptocúrtica: gran concentración
	
	
	
	<0
	· Mesocúrtica: concentración normal
	
	
	
	=0
	· Platicúrtica: baja concentración
	
· Curva normal o de Gauss: g1 = ±0,5 y g2 = ±0,5
12. PROBABILIDAD
	Suceso seguro
	· P(E) = 1
	Sucesos incompatibles
	· P(AyB) = 0 (mujer y cáncer de próstata)
	Probabilidad condicionada
	· Probabilidad de A condicionada a la ocurrencia de B
	
	Multiplicación
	· Probabilidad de que sucedan A y B
	Dependiente
	
	
	· 
	Independiente
	
	Suma
	· Probabilidad de que suceda A o B
	
Si dicen “pero no las 2 a la vez” hay que multiplicar P(A∩B) x2 
	
	· Si son mutuamente excluyentes
	
13. LEYES DE DISTRIBUCIÓN BIOLÓGICAS
	DISTRIBUCIÓN NORMAL O DE GAUSS: + FRC
	Características
	· Variables cuantitativas continuas
· Simétrica: media = mediana = moda (unimodal)
· Acampanada, sin pico excesivo, - ∞ a + ∞, ABC = 1
	
	Desviación típica
	x ± …
	Límites
	Engloba
	Sobra
	
	
	1s
	16% - 84 %
	68%
	32%: 16% + 16%
	
	
	1,96s
	2,5% - 97,5%
	95%
	5%: 2,5 % + 2,5%
	
	
	2,57s
	0,15% - 99,85%
	99,7%
	0,3%: 0,15% + 0,15%
	
	Tipificación
	· Convierte cualquier distribución normal en una distribución normal típica tabulada con X=0 y σ=1
· Permite comparar de forma absoluta (convertidos a Z) valores de distribuciones con X y σ diferentes
	
	
	Binomial
	Variables
cuantitativas
discretas
	· Se conoce de entrada la probabilidad de aparición del fenómeno biológico o éxito (p) y la de no aparición o fracaso (q= 1-p)
· Resultado dicotómico: éxito o fracaso
· Variable de interés: número de éxitos alcanzados en n pruebas
	Poisson
	· 
	· Experimentos binomiales donde el número de pruebas es muy alto, pero la probabilidad de éxito es muy baja
· Sucesos raros cuando p > 0,1 y n · p < 5
14. INFERENCIAL
	
	Estadística descriptiva
	Estadística inferencial
	Hablamos de
	Muestra
	“Población”: medias muestrales
	Descripción de la distribución
	X ± s
	μ ± eem
	
	Se calcula, se afirma
	Se estima, no se puede afirmar
	Cálculo de la medida 
de dispersión
	
	
	
	Indica la dispersión de una distribución normal cualquiera
	Indica la dispersión de la distribución de medias muestrales
	X: 68% (1), 95% (1,96), 99% (2,57)
Límite inferior (A) y superior (B)
	El X% de los valores de la muestra están comprendidos entre A-B
	Existe un X% de confianza/probabilidad de que entre A-B esté el valor real de la media poblacional
	EJEMPLOS DE INFERENCIA HABITUAL
	IC 95%
	IC 99%
	Si n < 30: t corresponde a los valores tabulados de la distribución teórica de t de Student
	
	
	
· IC:
· Si incluye 1 (efecto neutro del factor de estudio) resultado no significativo
· Cuanto más ancho (menos n), menor precisión mayor probabilidad de incluir, entre otros valores, el 1
· Si se estudia una variable cualitativa (estimación de un porcentaje):
· Si n<100: la estimación sigue una distribución binomial y su cálculo está tabulado
· Si n>100, n · p >5 y n · (1-p) >5: 
· La distribución binomial se aproxima a la distribución normal
· Podemos calcularla igual que la tabla superior, pero en lugar de eem usamos eep (error estándar del porcentaje)
· p = proporción (en tanto por uno) hallada en la muestra
15. CONTRASTE DE HIPÓTESIS
· Mediante un contraste de hipótesis se calcula cómo de probable es (p) que lo concluido en nuestro estudio (H1) lo haya provocado el azar en el muestreo:
1. Previamente al ensayo se prefija el valor máximo permitido de que las diferencias observadas puedan ser debidas al azar (H0) y no a diferencias reales (H1): error I (α), suele ser 5%
2. Posteriormente se calcula en nuestro estudio esa misma probabilidad:
· Si p < α poca probabilidad resultados significativos (me creo lo que veo), aceptamos H1 y rechazamos H0, favorecido por n<30
· Si p > α mucha probabilidad, riesgo de equivocarnos si las aceptamos resultados no significativos (no me creo lo que veo), rechazamos H1 y aceptamos H0, favorecido por n grande
	
	Realidad en la población
	
	Hay diferencias (H1 cierta, H0 falsa)
	No hay diferencias (H1 falsa, H0 cierta)
	Resultado de la investigación
	· Se acepta H1 se rechaza H0
· Encuentras diferencias
	1- β (potencia)
	Error I (α, p)
	
	· No se acepta H1 no se rechaza H0
· No encuentras diferencias
	Error II (β)
	1- α
	PRUEBAS DE CONTRASTE DE HIPÓTESIS
	VARIABLE
	PARAMÉTRICOS: n>30, normal y NO ordinales
	NO PARAMÉTRICOS: n <30, no normal
	MULTIVARIANTE
	Independiente
	Dependiente
	No apareados
	Apareados
	No apareados
	Apareados
	
	
	
	Chi-cuadrado
	
	
80% de las celdas (Fe) <5
	
	Regresión logística
Si dependiente cualitativa
	 
	2
	
	t de Student
	t de Student apareados
	 
	
	Regresión lineal
múltiple o 
multivariante
Si dependiente cuantitativa 
continua
	
	≥ 3
	
	ANOVA
	ANOVA apareados
	
	
	
	
	
	Regresión lineal: predecir
r de Pearson: correlación
	
	Rho de Spearman: correlación
Tau de Kendall: rangos
	
	
	Tiempo hasta cualitativa 
(SV)
	1. Kaplan-Meier (curva de SV): método descriptivo proporción acumulada que sobrevive para el tiempo de SV individualde cada paciente 
2. Log-Rank, Breslow: comparan curvas de SV y permite saber si existen diferencias en un determinado momento
	Regresión 
de Cox
· Los porcentajes se consideran variables cualitativas.
· Variables ordinales: se usan como cuantitativas y nos mueven a la columna de NO PARAMÉTRICOS
· Análisis multivariante: 
· Intenta establecer la asociación estadística entre dos variables controlando el efecto de terceras (factores de confusión)
· Establece qué factores influyen en la variable resultado y mide su fuerza para generar cambios
	Variable dependiente a predecir
	Cualitativa
	Cuantitativa
	Supervivencia
	Ejemplo
	IAM sí/no
	Carga viral
	Tiempo hasta oclusión stent/BP
	Test estadístico
	Regresión logística
	Regresión lineal múltiple
	Regresión de Cox
	Medida de asociación
	OR
	-
	Hazard ratio
	PRUEBAS Y COLAS
	EJEMPLO
	2 COLAS
	H1 BIL
	· No se establece dirección (solo buscamos diferencias): H0 ≠ H1
· Más conservadora, menos riesgo de error I, + difícil encontrar significación (p mayores)
· Preferible si no se sabe cuál usar
	· H1 = la media de netas de CTO Valencia no son 170
· H0 = la media de netas de CTO Valencia son 170
	1 COLA
	H1 UNIL
	· Se establece dirección: H0 > o < H1
	· H1 = la media de netas de CTO Valencia es >170
· H0 = la media de netas de CTO Valencia no es >170
	EJEMPLO DE CURVA DE SV
	General
	· Se representan porcentajes, no individuos
	
	Log-rank
	· Test de significación estadística: determina si hay o no diferencias estadísticas entre gráficas. En nuestro caso p<0.0001
· Objetiva la sobrevida de grupos en TODO el período de seguimiento, no solo en un punto
· No ofrece información sobre la magnitud de las diferencias
	· 
	Regresión de Cox 
Hazard ratio
	· Estimación de la magnitud de las diferencias
· “Cuantificación clínica”: cuánto menos riego de progresión de enfermedad tiene un grupo que el otro
	· 
	Mediana de progresión
	· Punto a partir del cual es más probable estar muerto que vivo
· Mejor estimador del efecto de la diferencia entre 2 curvas de SV
	· Panitumumab + BSC: 8s
· BSC: 7s y media
· Diferencia de medianas: menor de 1 s
16. ANÁLISIS DE CORRELACIÓN Y DE REGRESIÓN
	Asociación entre variables cuantitativas
	Regresión lineal
	· Determina la forma de relación entre variable dependiente e independiente y permite estimar el valor de una para un valor de la otra
	· y= α + βx
· X (abXisas): INDEPENDIENTE, controlada por el investigador
· Y (ordenadas, = estantería): DEPENDIENTE, Y= α si x= 0
· Coeficientes de regresión: α y β (pendiente)
	Pearson (r)
	· No se habla de variable dependiente ni independiente
· Mide la intensidad de la relación lineal
	· Rango: de -1 a +1
· r = ± 1 correlación perfecta (línea recta)
· > 0,7 o <-0,7 correlación fuerte
· r = 0 no hay correlación 
17. TAMAÑO MUESTRAL
	Estimación de parámetros o medias
	CONTRASTE DE HIPÓTESIS
	Confianza o seguridad 
	1- α
	Confianza o seguridad
	1- α
	Riesgo α
	α
	Riesgo α
	α
	Precisión
	d
	Proporción de pérdidas esperadas: mortalidad, abandonos
	d
	Cualitativa
	· Proporción esperada aproximada
	p = 1-q
	Mínima diferencia clínicamente relevante
	δ
	Cuantitativa
	· Varianza esperada aproximada
	s2
	
	
	
	Potencia
	1- β (≥0,8)
	
	Riesgo β
	β
	
	Contraste BIL o UNIL
	Variabilidad de la variable principal (error aleatorio)

Continuar navegando