Logo Studenta

∼ Bi(n, 1/2). Cuando lanzamos muchas veces la moneda, por ejemplo 1000 veces, decir que vamos a obtener la mitad de veces una cara y la otra mitad ...

∼ Bi(n, 1/2). Cuando lanzamos muchas veces la moneda, por ejemplo 1000 veces, decir que vamos a obtener la mitad de veces una cara y la otra mitad cruz es falso.2 El número de caras es aleatorio y no variará cada vez que lancemos 1000 veces la moneda. Sin embargo, sí que es cierta la afirmación de que esperamos observar 500 caras. Veamos porqué. EX = n∑x=0x(nxx)px(1− p)n−x = n∑x=0x(n(n− 1) . . . (n− x+ 1)x!px(1− p)n−x = npn∑x=1(n− 1) . . . (n− x+ 1)(x− 1)!px−1(1− p)n−x = npn−1∑y=0(n− 1y)py(1− p)n−y−1 = np. (4.2) Es decir que la media de la binomial es np, número de pruebas de Bernoulli por la probabilidad de éxito en una prueba. Si lanzamos 1000 veces la moneda esperamos observar 1000× 12 = 500 caras.3 Ejemplo 4.4. Si X ∼ Po(λ), EX = ∑x≥0xe−λλxx! = λe−λ∑x−1≥0λx−1(x− 1)! = λ. Media de una variable continua Hemos definido la media de una variable discreta. Su definición como hemos visto tiene que ver con sumatorios finitos y sumas de series infinitas. Cuando la variable es continua tenemos una función de densidad de probabilidad. Básicamente lo que vamos a hacer es sustituir los sumatorios por integración. Por lo demás la definición es la misma. Supongamos primero que tenemos una variable continua no negativa X con densidad f . Definimos su media como EX = ∫ +∞0xf(x)dx. (4.3) Decimos que existe la media cuando la integral anterior es finita. Si es una variable aleatoria continua no necesariamente no negativa entonces definimos (del mismo modo que en el caso discreto) las variables no negativas siguientes: X+ = max{X, 0} y X− = max{−X, 0}. Son variables no negativas para las que hemos definido su media. En el caso de que exista la media tanto de X+ como de X− decimos que existe la media de X y la definimos como EX = EX+ − EX−. Se tiene que en el caso de que exista la media está vendrá dada por EX = ∫ +∞−∞xf(x)dx. (4.4) 3¿Alguien lo dudaba? 142 CAPÍTULO 4. ESPERANZA Notemos que la existencia de la media supone que también existe la media de E|X|. De hecho la proposición 4.1 es válida para variables continuas con la misma prueba. Ejemplo 4.5. Si X tiene una distribución exponencial de parámetro λ4 entonces EX = ∫ +∞0xλe−λxdx, pero fácilmente comprobamos (integrando por partes) que ∫ +∞0xe−λxdx = 1λ2 de donde EX = 1λ. De hecho, se tiene un curioso resultado y es que la probabilidad P ( X EX > x) no depende del parámetro λ. Es la misma para cualquier distribución exponencial. Se tiene P ( X EX > x ) = P ( X > xλ ) =∫ +∞xλλe−λxdx = e−λ xλ = e−x. (4.5) Media de una función de una variable Ya hemos definido la media de una variable aleatoria X. Suponga- mos que transformamos la variable y consideramos la nueva variable g(X). ¿Quién será la media de la nueva variable? Si X es discreta entonces la nueva variable también es discreta y tendremos que Eg(X) = ∑ig(xi)P (X = xi), ya que la variable g(X) toma el valor g(xi) cuando X toma el valor xi. SiX es continua y su transformada también lo es entonces también se verifica que Eg(X) = ∫ +∞−∞g(x)f(x)dx. En el siguiente resultado vemos algunas propiedades básicas de la esperanza. Proposición 4.2. 1. Tenemos la variable aleatoria X y dos trans- formaciones de la misma, g y h así como a, b ∈ R. Se verifica que E[ag(X) + bh(X)] = aE[g(X)] + bE[h(X)]. Y, como caso particular, se sigue que E(aX + b) = aE(X) + b. 2. P (a ≤ X ≤ b) = 1 =⇒ a ≤ E(X) ≤ b. 3. P (g(X) ≤ h(X)) = 1 =⇒ Eg(X) ≤ Eh(X). 4. |Eg(X)| ≤ E|g(X)|. 4Con densidad f(x) = λe−λx para x ≥ 0 y cero en otro caso. 4.2. ESPERANZA O MEDIA 143 Momentos de una variable aleatoria La media es una medida de localización de la variable aleatoria. Localizamos con un número algo que es aleatorio. Obviamente, es una muy simple descripción del valor aleatorio. Dos variables pueden tener la misma media y ser, desde el punto de vista estocástico, muy diferentes. Tener distribuciones de probabilidad muy distintas. Sin embargo, el concepto de valor medio es muy intuitivo para nosotros. Siguiendo con estas dos ideas uno puede pretender describir de un modo más detallado a la variable aleatoria utilizando valores medios pero no solamente de la variable original sino de transformaciones de dicha variable. Además estas variables bien elegidas nos pueden describir distintos aspectos de la variable original. Definición 4.2. Dada la variable aleatoria X definimos el momento de orden k o momento no central de orden k como µk = EXk. Definición 4.3. Dada la variable aleatoria X definimos el momento central de orden k como E(X − EX)k. En particular, la varianza de la variable X es el momento central de orden 2. Se denota como var(X) o V (X) o σ2(X). Definición 4.4. Si la variable aleatoria X es discreta definimos su varianza como V (X) = var(X) = σ2(X) = ∑i(xi − EX)2P (X = xi). Si la variable X es continua entonces su varianza vendrá dada por V (X) = var(X) = σ2(X) = ∫ +∞−∞(x− µ)2f(x)dx. Definición 4.5. Dada una variable aleatoria X definimos su des- viación estándar o desviación típica como σX = √ var(X), es decir, como la raiz cuadrada de la varianza. Y finalmente introducimos los momentos factoriales. Quizás de menos uso en Estadística que los anteriores pero que tienen una gran utilidad en Probabilidad. Definición 4.6. Dada la variable aleatoria X definimos el momento factorial de orden k como E[X(X − 1) . . . (X − k + 1)]. En la siguiente proposición mostramos algunas propiedades básicas de la varianza. Proposición 4.3. Sea X una variable aleatoria con varianza finita σ2 X < ∞. Se verifica que 1. var(X) ≥ 0. 144 CAPÍTULO 4. ESPERANZA 2. var(aX + b) = a2var(X). 3. var(X) = E(X2)− [E(X)]2. 4. var(X) hace mínima E [ (X − a)2 ] . Prueba. Las dos primeras son inmediatas. Para la propiedad 3 tene- mos var(X) = E(X − µ)2 = E(X2 + µ2 − 2µX) = E(X2) + µ2 − 2µµ = EX2 − µ2. (4.6) donde la tercera igualdad es una consecuencia de la proposición 4.2. Finalmente para la propiedad 4 tenemos E [ (X − a)2 ] = E [ (X − E(X) + E(X)− a)2 ] = E [ (X − E(X))2 ] +E [ (E(X)− a)2 ] +2E [(X − E(X)(E(X)− a)] = var(X) + (E(X)− a)2. (4.7) Estandarización o tipificación Una transformación de variable muy utilizada en Estadística es lo que se conoce como estandarización o tipificación de una variable. Si suponemos una variable aleatoria X con media µ y con varianza σ2 entonces tipificar o estandarizar la variable consiste en considerar la nueva variable aleatoria Z = X − µ σ . (4.8) ¿Por qué esta transformación? ¿Qué se pretende al transformar X de este modo? Lo que se pretende es conseguir una variable que esté cen- trada en cero (que tenga media nula) y desviación estándar y varianza unitarias. Es fácil comprobar que se verifican estas propiedades. EZ = E ( X − µ σ ) = E ( 1 σ X − µ σ ) = 1 σ µ− µ σ = 0. (4.9) En cuanto a la varianza, var(Z) = var ( X − µ σ ) = 1 σ2 σ2

Esta pregunta también está en el material:

Probabilidade Básica
249 pag.

Estatística I I E De SantanderI E De Santander

💡 1 Respuesta

User badge image

Ed IA de Studenta Verified user icon

Entiendo que estás hablando sobre la distribución binomial y la media de una variable aleatoria. La afirmación de que al lanzar una moneda muchas veces, como por ejemplo 1000 veces, obtendremos la mitad de las veces cara y la otra mitad cruz es falsa. El número de caras es aleatorio y no variará cada vez que lancemos 1000 veces la moneda. Sin embargo, es cierto que esperamos observar alrededor de 500 caras. La media de la distribución binomial se calcula como np, donde n es el número de pruebas de Bernoulli y p es la probabilidad de éxito en una prueba. Por lo tanto, si lanzamos 1000 veces la moneda, esperamos observar alrededor de 1000 × 1/2 = 500 caras.

0
Dislike0

✏️ Responder

FlechasNegritoItálicoSubrayadaTachadoCitaCódigoLista numeradaLista con viñetasSuscritoSobreDisminuir la sangríaAumentar la sangríaColor de fuenteColor de fondoAlineaciónLimpiarInsertar el linkImagenFórmula

Para escribir su respuesta aquí, Ingresar o Crear una cuenta

User badge image

Otros materiales