Logo Studenta

Estadística no paramétrica

¡Este material tiene más páginas!

Vista previa del material en texto

Estadística no 
paramétrica
Estadística
IT
S
JC
Ingeniería en Agronomía
Docente: Ing. Rodolfo Campos Tenorio
Alumno: Brayan Cosco Rivera
405-A
Unidad 7
18180130
03/06/2020
"Estadística no paramétrica, y 
estadística inferencial"
I TSJC | IAGRO
Rangos de 
Wilcoxon.
Es una prueba no paramétrica para
comparar el rango medio de dos
muestras relacionadas y determinar si
existen diferencias entre ellas. Se utiliza
como alternativa a la prueba t de Student
cuando no se puede suponer la
normalidad de dichas muestras.
Prueb a d e los ra ng os con 
s ig no d e Wi lcoxon
R
A
N
G
O
S 
D
E 
W
IL
C
O
X
O
N
Ejemplo
Se desea estudiar la efectividad de cierta dieta y para
ello se toma una muestra aleatoria de 12 mujeres
adultas en el grupo de edad de 35-40 años. Se toma el
peso (peso en libras) antes de iniciar la prueba y al mes
de encontrarse realizando la dieta. Los resultados se
muestran a continuación:
Ej
em
p
lo
: 
Pr
u
eb
a
d
e 
ra
n
g
os
co
n
 s
ig
n
o
d
e 
W
il
co
xo
n Utilizar un α = 0,05.
Respuesta
H0: No hay diferencias entre el peso
de las mujeres antes de iniciar la
dieta y el peso un mes después.
H1: El peso al mes de realizar la dieta
es inferior al peso inicial.
HIPÓ TE S IS :
Se introducen así los datos en el programa
SPSS en la Vista de datos:
Ahora vamos a la Vista 
de variables y deberá 
quedarles así:
Se introducen así los datos en el programa 
SPSS en la Vista de datos:
Ahora sale el siguiente 
cuadro de diálogo:Se introducen así los datos en el 
programa SPSS en la Vista de 
datos:
Se pasa la variable; Peso
antes de la dieta (esta es
la primera medición de
cada paciente del
estudio) para donde dice
Variable 1 y luego se pasa
la variable Peso después
de la dieta (esta es la
segunda medición de
cada paciente del
estudio, es la medición
después de aplicar la
dieta) para donde dice
Variable 2. Luego se deja
marcado el cuadrito que
dice Wilcoxon.
Resultados
PRUEBA DE LOS RANGOS CON SIGNO DE 
WILCOXON
a. Peso después de la dieta < Peso antes de la dieta
b. Peso después de la dieta > Peso antes de la dieta
c. Peso después de la dieta = Peso antes de la dieta
Prueba de 
Mann-
Whitney.
Resulta útil si tenemos dos muestras independientes
y queremos si hay una diferencia en la magnitud de
la variable que estamos estudiando, pero no
podemos usar la prueba de t independiente o la
prueba de z porque los datos no cumplen con
alguno de los requisitos.
PR UE B A U D E M A N N -
WHITN E Y
PR
U
EB
A
 D
E 
M
A
N
N
-
W
H
IT
N
EY Ejemplo
Se realiza un experimento para determinar el efecto
de 40 g de alcohol sobre el tiempo de reacción a un
estímulo auditivo. En la siguiente tabla se muestran
los tiempos de reacción de una muestra de 12
sujetos repartidos en dos grupos. El primer grupo no
ingiere alcohol, el segundo ingiere 40 g. S e desea
saber si la ingestión de alcohol influye en el tiempo
de reacción a un estímulo auditivo.
Ej
em
p
lo
: 
Pr
u
eb
a
d
e 
M
a
n
n
-W
h
it
n
ey
Use α = 0.05.
Respuesta
Hay dos muestras
independientes (una con 7
sujetos que no ingieren alcohol
(Alcohol=0) y 5 sujetos que
ingirió Alcohol (Alcohol=1)) y
una variable cuantitativa
(tiempo de reacción a un
estímulo auditivo); nos interesa
determinar si las medianas de
esas dos poblaciones difieren.
Respuesta
H0: MedAlcohol=0 = MedAlcohol=1
H1: MedAlcohol=0 ≠ MedAlcohol=1
Donde:
MedAlcohol=0: mediana de los
sujetos que no ingirieron alcohol
MedAlcohol=1: mediana de los sujetos
que ingirieron alcohol
H I PÓTES I S :
Utilizaremos dos columnas pues
tenemos dos variables; en la primera
columna pondremos los grupos que
codificaremos como 1 para la muestra
de sujetos que no i ngirieron alcohol
(son 7 sujetos en esta muestra y es
Alcohol=0) y 2 para la muestra de los
ingirieron alcohol (son 5 pacientes en
esta muestra y es Alcohol=1). La otra
variable va en la segunda columna y
corresponde al tiempo de reacción a
un estímulo auditivo de cada sujeto
según pertenezca a cada muestra.
Vista de variablesVista de datos
Se introducen así los datos en el programa 
SPSS en la Vista de datos:
Ir al menú Analizar y damos un clic
para que salga un menú
desplegable e iremos a buscar donde
dice Pruebas no paramétricas y nos
paramos con el mouse ahí y saldrá
otro menú desplegable y no s
paramos con el mouse donde dice
Cuadros de diálogo anteriores y
ahí saldrá otro menú desplegable y
daremos un clic donde dice 2
muestras independientes…
daremos un clic
Se introducen así los datos en el programa 
SPSS en la Vista de datos:
Clic sobre la variable Tiempo de reacción a … y la pasaremos
hacia donde dice Lista Contrastar variables: y luego
activaremos dando un clic sobre la variable Grupos de sujetos
de l… y la pasaremos hacia donde dice Variable de agrupación
Saldrá la siguiente 
ventana
Se introducen así los datos en el programa 
SPSS en la Vista de datos:
Luego daremos un clic 
en el botón continuar
Luego en el botón donde dice Definir 
grupos daremos un clic y en Grupo 1 
pondremos el número 1 y donde dice 
Grupo 2 pondremos el numero 2.
Resultados
PRUEBA DE MANN-WHITNEY
a. Variable de agrupación: Grupos de sujetos de 
la investigación
b. No corregidos para los empates.
Prueba de 
Kruskal-Wallis.
En estadística, la prueba de Kruskal-Wallis es
un método no paramétrico para probar si un
grupo de datos proviene de la misma
población. Intuitivamente, es idéntico al
ANOVA con los datos reemplazados por
categorías. Es una extensión de la prueba de
la U de Mann-Whitney para 3 o más grupos.
PR UE B A D E KR US KAL -
WA L L IS .
PR
U
EB
A
 D
E 
K
RU
SK
A
L-
W
A
LL
IS Ejemplo
Los efectos de dos drogas con respecto al tiempo de
reacción a cierto estímulo fueron estudiados en tres
grupos de animales experimentales. El grupo III
sirvió como control (C), mientras que a los grupos I
y II les fueron aplicadas las drogas A y B
respectivamente, con anterioridad a la aplicación
del estímulo. Puede afirmarse que los tres grupos
difieren en cuanto al tiempo de reacción.
Ej
em
p
lo
: 
Pr
u
eb
a
d
e 
K
ru
sk
a
l-
W
a
ll
is
Respuesta
H0: Las tres muestras provienen de la
misma población
H1: Al menos una de las muestras
proviene de una población con
mediana diferente.
HIPÓ TE S IS :
Se introducen así los datos en el programa
SPSS en la Vista de datos:
En la Vista de variables se llena lo siguiente y deberá 
quedar así.
Se introducen así los datos en el programa 
SPSS en la Vista de datos:
Ahora sale el siguiente 
cuadro de diálogo
Luego se le indica lo 
siguiente al programa
Se introducen así los datos en el programa 
SPSS en la Vista de datos:
Definir rango se da un clic y sale otro
cuadro de diálogo en el que hay que
poner en Mínimo 1 y en Máximo 3 (pues
hay tres grupos)
Se pasa la variable Tiempo de reacción…
para donde dice Lista Contrastar variables
y luego se pasa la variable Grupo de
pertenencia para donde dice Variable de
agrupación.
Se introducen así los datos en el programa 
SPSS en la Vista de datos:
Luego luego otro clic en el botón
Aceptar. No desmarcar donde
dice H de Kruskal-Wallis ya que es
esta prueba la que se hará.
Resultados
PRUEBA DE KRUSKAL-WALL IS
a. Prueba de Kruskal-Wallis
b. Variable de agrupación: Grupo de pertenencia
Es una prueba no paramétrica
desarrollado por el economista Milton
Friedman. Equivalente a la prueba ANOVA
para medidas repetidas en la versión no
paramétrica, el método consiste en
ordenar los datos por filas o bloques,
reemplazándolos por su respectivo orden.
PR UE B A D E FR IE D M A N
Prueba de 
Friedman.
PR
U
EB
A
 D
E 
FR
IE
D
M
A
N
Ejemplo
Se reúnen los datos en la forma especificada en la
Tabla. Recuérdese que por ser un procedimiento que
se aplica a un diseño de bloques al azar, en todos
los grupos se colocan en la misma fila los datos
correspondientes a la misma persona o a personas
que son equivalentes de acuerdo con un
procedimiento de apareamiento adecuado.
DATOS
Ej
em
p
lo
:P
ru
eb
a
d
e 
Fr
ie
d
m
a
nPrueba de 
Friedman.
A cont inuac ión , en cada
f i la . se toman los datos ,
se ordenan y se les
as ignan los rangos
cor respondientes . En
caso de que dos o mas
puntuac iones estén
igua ladas , e l rango
as ignado será e l
promedio de los rangos
cor respondientes a las
puntuac iones igualadas .
El siguiente paso es
sumar los rangos de
cada columna (Rj).
Para cada columna se
eleva al cuadrado la
suma de rangos (Rj2).
Al final se suman los valores
Rj2 y se sustituye el resultado
en la fórmula.
Donde J es el número de grupos y
n es el número de valores en cada
grupo.
E L R E S U LT AD O E SΧR 2 = 8 . 1 2
En caso de que haya empates, se 
calcula una puntuación para corregir
este valor, con la fórmula:
DANDO COMO
RESULTADO: E = 147
Y la fórmula de
Friedman se modifica
de la siguiente manera:
ji2 = 
8.6122
OBTENIENDO EL 
RESULTADO:
gl = J-1 
= 2
OBTENIENDO EL 
RESULTADO:
Prueba de rachas
de Wald-
Wolfowitz.
Permite contrastar la hipótesis de que ambas
muestras proceden de la misma población. Al
igual que la prueba de Kolmogorov-Smirnov,
es sensible no sólo a diferencias entre los
promedios poblaciones, sino a diferencias en
variabilidad, simetría, etc.
L A P RU E B A D E L A S RA C HA S P A RA 
D O S M U E ST R AS I N D E PEN DI ENT ES
PR
U
EB
A
 D
E 
FR
IE
D
M
A
N
Ejemplo
Los siguientes datos son las edades de una muestra
de personas seleccionadas entre los visitantes de
un Bingo.
32 , 23 , 64 , 3 1 , 74 , 44 , 61 , 33 , 66 , 73 ,
27, 65, 40, 54, 23, 43, 58, 87, 58, 62.
68, 89, 93, 24, 73, 42, 33, 63, 36, 48,
77, 75, 37, 59, 70 , 61 , 43 , 68 , 54 , 29 ,
48, 81 , 57 , 97 , 35 , 58 , 56 , 58 , 57 , 45
Ej
em
p
lo
:P
ru
eb
a
d
e 
ra
ch
a
s
d
e 
W
a
ld
-
W
ol
fo
w
it
z.
Ordenamos los datos de 
menor a mayor y realizamos
una tabla de frecuencias
con 4 clases.
PARA REALIZAR LOS CÁLCULOS, Y CON EL
PROPOSITO DE SIMPLIF ICARLOS SE HAN
EMPLEADO LA TABLA DE DATOS AGRUPADOS EN
LUGAR DE LOS DATOS PRIMITIVOS, RESULTANDO:
Calculamos ahora la probabilidad para cada clase usando la 
distribución N(55.2, 18.7)
La
p
ro
b
a
b
ili
d
a
d
q
ue
co
rr
es
p
on
d
er
ía
a
la
s
d
is
tin
ta
s
cl
a
se
s
si
se
cu
m
p
le
la
hi
p
ót
es
is
nu
la
d
e
q
ue
lo
s
d
a
to
s
si
g
ue
n
un
a
d
is
tr
ib
uc
ió
n
N
(5
5.
2,
18
.7
)
es
:
P ( 40 < X ≤ 
6 0 ) =
NormalDist(60; 55.2, 
18.7)−NormalDist(40; 
55.2, 18.7) =
= 0.601 29 − 0.208 16 = 
0.393 13
P( X ≤ 40 ) =
= NormalDist(40; 55.2, 
18.7) = 0.208 16
P ( 8 0 < X) =
1 − NormalDist(80; 55.2, 
18.7) = 9. 238 6 × 10−2
P( 6 0 < X ≤ 
80 ) =
NormalDist(80; 55.2, 
18.7)−NormalDist(60; 
55.2, 18.7) =
= 0.907 61 − 0.601 29 = 
0.306 32
Multiplicamos por el número total
de datos estas probabilidades para
obtener la frecuencia esperada, npi:
El valor experimental es:
χ2 =(12−10.5)210.5 +(18−19.66)219.66 +(15−15.32)215.32 (5−4.5)2 4.5 = 0.416 69
Ingeniería en Agronomía
Docente: Ing. Rodolfo Campos Tenorio
Alumno: Brayan Cosco Rivera
405-A
Unidad 7
18180130
03/06/2020
"Estadística no paramétrica, y 
estadística inferencial"
I TSJC | IAGRO
Referencias
Aranda, M., & Corzo, J. (2002). Aproximación
de la potencia asintótica de la prueba del
rango signado de Wilcoxon. Revista de la
Academia Colombiana de Ciencias Exactas,
Físicas y Naturales, 26(101), 555-564.
Turcios, R. A. S. (2015). Prueba de Wilcoxon-
Mann-Whitney: mitos y realidades. Rev Mex
Endocrinol Metab Nutr, 2, 18-21.
Rivas-Ruiz, R., Moreno-Palacios, J., & Talavera,
J. O. (2013). Investigación clínica XVI.
Diferencias de medianas con la U de Mann-
Whitney. Revista Médica del Instituto
Mexicano del Seguro Social, 51(4), 414-419.
Gómez-Gómez, M., Danglot-Banck, C., &
Vega-Franco, L. (2003). Sinopsis de pruebas
estadísticas no paramétricas. Cuándo
usarlas. Revista Mexicana de Pediatría, 70(2),
91-99.
Alva, J. A. V., & Carreño, M. A. D. (2003).
Pruebas no paramétricas para Procesos
Poisson no Homogéneos. Agrociencia, 37(1),
21-31.
Turcios, R. A. S. (2015). Prueba de Wilcoxon-
Mann-Whitney: mitos y realidades. Rev Mex
Endocrinol Metab Nutr, 2, 18-21.
Gómez-Gómez, M., Danglot-Banck, C., &
Vega-Franco, L. (2003). Sinopsis de pruebas
estadísticas no paramétricas. Cuándo
usarlas. Revista Mexicana de Pediatría, 70(2),
91-99.
Kruskal, W., & Wallis, W. (1957). Estadística no
paramétrica. Prueba de Kruskal-Wallis, 702-
708.
Ramos, D. S., & Márquez, L. E. C. (2000).
Eestimación del nivel de significancia real
de la prueba de MANN-WHITNEY ante
violaciones a los supuestos estándar
usando simulación
Montecarlo. Agrociencia, 34(1), 69-74.
Referencias
Berlanga, V., & Rubio Hurtado, M. J. (2012).
Clasificación de pruebas no paramétricas.
Cómo aplicarlas en SPSS. REIRE. Revista
d'Innovació i Recerca en Educació, 2012, vol.
5, num. 2, p. 101-113.
Siegel, S., & Castellan, N. J. (1995). La prueba
de Friedman. Estadística no paramétrica
aplicada a las ciencias de la conducta. 4th
ed. México. DF: Editorial Trillas, 207.
Berlanga, V., & Rubio Hurtado, M. J. (2012).
Clasificación de pruebas no paramétricas.
Cómo aplicarlas en SPSS. REIRE. Revista
d'Innovació i Recerca en Educació, 2012, vol.
5, num. 2, p. 101-113.
Silvente, V. B., & Hurtado, M. J. R. (2012).
Clasificación de pruebas no paramétricas.
Cómo aplicarlas en SPSS. REIRE, 5(2), 101-113.
Gracias 
por la 
atención 
prestada
!!
	Diapositiva 1
	Diapositiva 2
	Diapositiva 3
	Diapositiva 4
	Diapositiva 5
	Diapositiva 6
	Diapositiva 7
	Diapositiva 8
	Diapositiva 9
	Diapositiva 10
	Diapositiva 11
	Diapositiva 12
	Diapositiva 13
	Diapositiva 14
	Diapositiva 15
	Diapositiva 16
	Diapositiva 17
	Diapositiva 18
	Diapositiva 19
	Diapositiva 20
	Diapositiva 21
	Diapositiva 22
	Diapositiva 23
	Diapositiva 24
	Diapositiva 25
	Diapositiva 26
	Diapositiva 27
	Diapositiva 28
	Diapositiva 29
	Diapositiva 30
	Diapositiva 31
	Diapositiva 32
	Diapositiva 33
	Diapositiva 34
	Diapositiva 35
	Diapositiva 36
	Diapositiva 37
	Diapositiva 38
	Diapositiva 39
	Diapositiva 40
	Diapositiva 41
	Diapositiva 42
	Diapositiva 43
	Diapositiva 44
	Diapositiva 45
	Diapositiva 46
	Diapositiva 47
	Diapositiva 48
	Diapositiva 49
	Diapositiva 50

Continuar navegando