Logo Studenta

form probabilidad - Axel

¡Estudia con miles de materiales!

Vista previa del material en texto

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 1 
 
FORMULARIO DE PROBABILIDAD 
 
AXIOMAS DE LA PROBABILIDAD 
 
Los axiomas son verdades tan evidentes que se admiten sin demostración. La probabilidad está 
basada en los axiomas de Probabilidad desarrollados en 1933 por el matemático ruso 
Kolmogórov. 
 
Para un espacio muestral 𝑺, la probabilidad de cada evento 𝑨 ⊂ 𝑺 es un número que se asigna 
al evento, se denota 𝑷(𝑨), y tiene las siguientes propiedades: 
 
1. 𝑷(𝑨) es un número no negativo; esto es, 𝑷(𝑨) ≥ 𝟎 
 
2. La probabilidad del espacio muestral 𝑺 es la unidad, es decir, 𝑷(𝑺) = 𝟏 
 
3. Si 𝑨 y 𝑩 son eventos que se excluyen mutuamente en 𝑺, entonces la probabilidad de la 
unión de los eventos es igual a la suma de sus probabilidades, esto es: 
 
𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) 
 
Si un evento tiene probabilidad cero, en el axioma uno, no significa que sea un evento imposible. 
Para tener el evento vacío (o imposible) una probabilidad de cero es condición necesaria, pero 
no suficiente. 
 
 
VALOR ESPERADO DE UNA VARIABLE ALEATORIA 
 
Sea 𝑿 una variable aleatoria con distribución de probabilidad 𝒇𝑿(𝑿). El valor esperado de 𝑿, 
𝑬[𝑿] es: 
𝑬[𝑿] =
⎩
⎪
⎨
⎪
⎧ 𝒙𝒇𝑿(𝑿)
∀𝒙
 ; 𝑿 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂
𝒙𝒇𝑿(𝑿)𝒅𝒙 ; 𝑿 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂
 
 
 
PROPIEDADES DEL VALOR ESPERADO 
 
1. El valor esperado de una constante 𝒌, es la propia constante 
 
𝑬[𝒌] = 𝒌 
 
2. El valor esperado de una variable aleatoria por una constante, es la constante por el 
valor esperado de la variable aleatoria 
 
𝑬[𝒂𝑿] = 𝒂𝑬[𝑿] 
 
3. El valor esperado de la cantidad 𝒂𝑿 + 𝒃 donde 𝒂 y 𝒃 son constantes, es el producto de 
𝒂 por el valor esperado de 𝑿 más 𝒃. 
 
𝑬[𝒂𝑿 + 𝒃] = 𝒂𝑬[𝑿] + 𝒃 
 
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 2 
 
4. Si 𝒈(𝒙) es una función de 𝑿, entonces: 
 
𝑬[𝒈(𝒙)] =
⎩
⎪
⎨
⎪
⎧ 𝒈(𝒙)𝒇𝑿(𝒙) ; 𝑿 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂
∀𝒙
𝒈(𝒙) 𝒇𝑿(𝒙)𝒅𝒙 ; 𝑿 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂
 
 
5. El valor esperado de una suma de funciones es igual a la suma de los valores 
esperados. Si 𝒈𝟏(𝑿) y 𝒈𝟐(𝑿) son funciones de 𝑿, entonces 
 
𝑬[𝒈𝟏(𝑿) + 𝒈𝟐(𝑿)] = 𝑬[𝒈𝟏(𝑿)] + 𝑬[𝒈𝟐(𝑿)] 
 
6. Si 𝒈(𝒙) es una función de 𝑿, entonces: 
 
 
LOS MOMENTOS RESPECTO AL ORIGEN Y RESPECTO A LA MEDIA 
 
El r-ésimo momento con respecto al origen se define mediante: 
 
𝒎𝒓 =
𝟏
𝒏
𝒙𝒊
𝒓
𝒏
𝒊 𝟏
 
 
El r-ésimo momento con respecto a la media se define mediante: 
 
𝒎𝒓 =
𝟏
𝒏
(𝒙𝒊 − 𝒙)
𝒓
𝒏
𝒊 𝟏
 
 
El primer momento con respecto al origen 𝒎𝟏 es l a media 𝒙, mientras que el segundo momento 
con respecto a la media 𝒎𝟐 es la varianza 𝒔𝒏𝟐. 
 
CARACTERÍSTICAS DE LA VARIANZA 
 
𝑽𝒂𝒓[𝑿] = 𝑬 𝑿𝟐 − (𝑬[𝑿])𝟐 = 𝑬 𝑿𝟐 − 𝝁𝟐 
 
1. La varianza de una constante es cero: 𝑽𝒂𝒓[𝒌] = 𝟎 
 
2. La varianza de una constante por la variable aleatoria es el cuadrado de la constante 
por la varianza de la variable aleatoria 
 
𝑽𝒂𝒓[𝒂𝑿] = 𝒂𝟐𝑽𝒂𝒓[𝑿] 
 
PROPIEDADES DE LA COVARIANZA 
 
𝑪𝒐𝒗[𝑿, 𝒀] = 𝑬[𝑿𝒀] − 𝑬[𝑿]𝑬[𝒀] = 𝑬[𝑿𝒀] − 𝝁𝑿𝝁𝒀 
 
1. Si 𝑿 y 𝒀 son variables aleatorias conjuntas independientes, su covarianza es cero. Pero 
si la covarianza es cero no quiere decir que sean independientes. 
 
𝑪𝒐𝒗[𝑿, 𝒀] = 𝟎 
 
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 3 
 
2. Si 𝑿 y 𝒀 son variables aleatorias con esperanzas 𝑬[𝑿] y 𝑬[𝒀] y se definen las funciones 
𝑼 = 𝒂𝟏𝑿 + 𝒃𝟏 y 𝑽 = 𝒂𝟐𝒀 + 𝒃𝟐 entonces 
 
𝑪𝒐𝒗(𝑼, 𝑽) = 𝒂𝟏𝒂𝟐𝑪𝒐𝒗(𝑿, 𝒀) 
 
3. Si 𝑿 y 𝒀 son variables aleatorias con varianzas 𝑽𝒂𝒓(𝑿) y 𝑽𝒂𝒓(𝒀) entonces: 
 
𝑽𝒂𝒓(𝑿 ± 𝒀) = 𝑽𝒂𝒓(𝑿) + 𝑽𝒂𝒓(𝒀) ± 𝟐𝑪𝒐𝒗(𝑿, 𝒀) 
 
Corolario: Si 𝑿 y 𝒀 son variables aleatorias independientes, entonces: 
 
𝑽𝒂𝒓(𝑿 + 𝒀) = 𝑽𝒂𝒓(𝑿 − 𝒀) = 𝑽𝒂𝒓(𝑿) + 𝑽𝒂𝒓(𝒀) 
 
 
DISTRIBUCIONES DE PROBABILIDAD 
 
DISCRETAS: 
 
DISTRIBUCIÓN DISCRETA UNIFORME 
 
Definición: Sea 𝑿 una variable aleatoria, que toma los valores 𝒙𝟏, 𝒙𝟐, … , 𝒙𝒌, con igual 
probabilidad 
𝒇𝑿(𝒙; 𝒌) =
𝟏
𝒌
 , 𝒙 = 𝒙𝟏, 𝒙𝟐, … , 𝒙𝒌 
 
entonces la distribución es directa uniforme con parámetro 𝒌. Se denota 𝑿~𝒖𝒏𝒊𝒇𝒐𝒓𝒎𝒆(𝒌). 
 
Teorema: Si 𝑋 es una variable aleatoria con distribución discreta uniforme, entonces: 
 
𝝁𝑿 = 𝑬[𝑿] =
𝟏
𝒌
𝒙𝒊
𝒌
𝒊 𝟏
 
 
𝝈𝑿
𝟐 = 𝑽𝒂𝒓[𝑿] =
𝟏
𝒌
(𝒙𝒊 − 𝝁𝑿)
𝟐
𝒌
𝒊 𝟏
 
 
 
DISTRIBUCIÓN DE BERNOULLI 
 
Definición: Sea 𝑿 la variable aleatoria que representa el número de éxitos que se obtienen al 
realizar un ensayo de Bernoulli, entonces 𝑿 tiene una distribución de Bernoulli con parámetro 
𝒑. 
𝒇𝑿(𝒙; 𝒑) =
𝟏 − 𝒑 ; 𝒙 = 𝟎
 𝒑 ; 𝒙 = 𝟏
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
 
Se denota: 𝑿~𝑩𝒆𝒓𝒏𝒐𝒖𝒍𝒍𝒊(𝒑) 
 
También puede escribirse como. 
𝒇𝑿(𝒙) =
𝒑𝒙(𝟏 − 𝒑)𝟏 𝒙 ; 𝒙 = 𝟎, 𝟏
 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
 
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 4 
 
Teorema: Si X es una variable aleatoria con distribución de Bernoulli, entonces: 
 
𝝁𝑿 = 𝑬[𝑿] = 𝒑 
 
𝝈𝑿
𝟐 = 𝑽𝒂𝒓[𝑿] = 𝒑𝒒 
 
 
DISTRIBUCIÓN BINOMIAL 
 
Definición: Sea X la variable aleatoria que representa el número de éxitos que se observan al 
realizar un proceso de Bernoulli, entonces X recibe el nombre de variable aleatoria binomial, 
con distribución 
𝒇𝑿(𝒙; 𝒏, 𝒑) =
𝒏
𝒙
𝒑𝒙(𝟏 − 𝒑)𝒏 𝒙 ; 𝒙 = 𝟎, 𝟏, … , 𝒏
 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
 
 
Se denota 𝑿~𝑩𝒊𝒏𝒐𝒎𝒊𝒂𝒍(𝒏, 𝒑) 
 
Teorema: Sea X una variable aleatoria con distribución binomial y parámetros n y p, entonces. 
 
𝝁𝑿 = 𝑬[𝑿] = 𝒏𝒑 
 
𝝈𝑿
𝟐 = 𝑽𝒂𝒓[𝑿] = 𝒏𝒑𝒒 
 
 
DISTRIBUCIÓN GEOMÉTRICA 
 
Definición: Sea X la variable aleatoria que representa el número de ensayos Bernoulli que se 
requieren para observar por primera vez un éxito, entonces X tiene una distribución 
geométrica con parámetro 𝒑. 
𝒇𝑿(𝒙) =
𝒑(𝟏 − 𝒑)𝒙 𝟏 ; 𝒙 = 𝟏, 𝟐, … , 𝒏
 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
 
Se denota: 
𝑿~𝑮𝒆𝒐𝒎é𝒕𝒓𝒊𝒄𝒂(𝒑) 
 
Teorema: Sea 𝑿 la variable aleatoria con distribución geométrica con parámetro 𝒑 entonces 
 
𝝁𝑿 = 𝑬[𝑿] =
𝟏
𝒑
 
 
𝝈𝑿
𝟐 = 𝑽𝒂𝒓[𝑿] =
𝟏 − 𝒑
𝒑𝟐
 
 
 
DISTRIBUCIÓN BINOMIAL NEGATIVA (DISTRIBUCIÓN DE PASCAL) 
 
Definición: Sea 𝑿 una variable aleatoria que representa el número de ensayos de Bernoulli que 
se requieren para observar el r-ésimo éxito, si en cada uno de los ensayos se tiene una 
probabilidad de éxito 𝒑, entonces 𝑿 tiene una distribución de Pascal con parámetros 𝒓 y 𝒑. 
 
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 5 
 
𝒇𝑿(𝒙) =
𝒙 − 𝟏
𝒓 − 𝟏
𝒑𝒓𝒒𝒙 𝒓 ; 𝒙 = 𝒓, 𝒓 + 𝟏, .
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
 
 
Se denota por 𝑿~𝑷𝒂𝒔𝒄𝒂𝒍(𝒓, 𝒑). 
 
Teorema: Sea 𝑿 una variable aleatoria con distribución de Pascal con parámetros 𝒓 y 𝒑, 
entonces 
𝝁𝑿 = 𝑬[𝑿] =
𝒓
𝒑
 
 
𝝈𝑿
𝟐 = 𝑽𝒂𝒓[𝑿] =
𝒓(𝟏 − 𝒑)
𝒑𝟐
 
 
DISTRIBUCIÓN DE POISSON 
 
Definición: Sea 𝑿 una variable aleatoria con distribución de Poisson, con parámetro 𝝀, 
entonces 
 
𝒇𝑿(𝒙) =
𝝀𝒙𝒆 𝝀
𝒙!
 ; 𝒙 = 𝟎, 𝟏, …
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
 
Se denota 𝑿~𝑷𝒐𝒊𝒔𝒔𝒐𝒏(𝝀). 
 
Teorema: Sea 𝑿 una variable aleatoria con distribución de Poisson y parámetro 𝝀, entonces 
 
𝝁𝑿 = 𝑬[𝑿] = 𝝀 
 
𝝈𝑿
𝟐 = 𝑽𝒂𝒓[𝑿] = 𝝀 
 
 
CONTINUAS: 
 
DISTRIBUCIÓN CONTINUA UNIFORME 
 
Definición: Sea 𝑿 una variable aleatoria que se distribuye 
 
𝒇𝑿(𝒙) =
𝟏
𝒃 − 𝒂
 ; 𝒂 ≤ 𝒙 ≤ 𝒃
 𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
 
 
Entonces 𝑿 tiene una distribución continua uniforme con parámetros 𝒂 y 𝒃. Se denota 
𝑿~𝑼𝒏𝒊𝒇𝒐𝒓𝒎𝒆(𝒂, 𝒃). 
 
Teorema: Si 𝑿 es una variable aleatoria con distribución continua uniforme, entonces 
 
𝝁𝑿 =
𝒂 + 𝒃
𝟐
 
 
𝝈𝑿
𝟐 =
(𝒃 − 𝒂)𝟐
𝟏𝟐
 
 
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda PinedaNorman 6 
 
DISTRIBUCIÓN EXPONENCIAL 
 
Definición: Sea 𝑻 la variable aleatoria que representa el intervalo (generalmente tiempo), que 
transcurre entre dos ocurrencias sucesivas de un evento, entonces 𝑻 tiene una distribución 
exponencial con parámetro 𝝀 y función de densidad 
 
𝒇𝑻(𝒕) =
𝝀𝒆 𝝀𝒕 ; 𝒕 > 𝟎
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
 
 
Se denota por 𝑻~𝒆𝒙𝒑𝒐𝒏𝒆𝒏𝒄𝒊𝒂𝒍(𝝀). 
 
Teorema: Sea 𝑻 una variable aleatoria con distribución exponencial y parámetro 𝝀, entonces 
 
𝝁𝑻 = 𝑬[𝑻] =
𝟏
𝝀
 
 
𝝈𝑻
𝟐 = 𝑽𝒂𝒓[𝑻] =
𝟏
𝝀𝟐
 
 
 
DISTRIBUCIÓN NORMAL 
 
Definición: Sea 𝑿 una variable aleatoria continua. Se dice que 𝑿 tiene una distribución normal, 
con parámetros media 𝝁 y varianza 𝝈𝟐 en todos los reales cuando su función de densidad es: 
 
𝒇(𝒙) =
𝟏
𝝈√𝟐𝝅
𝒆
(𝒙 𝝁)𝟐
𝟐𝝈𝟐 ; −∞ < 𝒙 < ∞ 
 
 Se denota 𝐗~𝑵𝒐𝒓𝒎𝒂𝒍(𝝁,𝝈𝟐) o 𝐗~𝑵(𝝁,𝝈𝟐). 
 
Teorema: Si 𝑿 es una variable aleatoria continua distribuida de manera normal en (−∞, ∞) y 
𝒇(𝒙) es una función de densidad de probabilidad, entonces: 
 
𝑬(𝑿) = 𝝁 
 
𝑽(𝑿) = 𝝈𝟐 
 
Teorema: Aditividad de la Distribución Normal. Si 𝑿𝟏, 𝑿𝟐, … , 𝑿𝒏 son variables aleatorias 
independientes, y todos con distribución normal con media 𝝁𝒊 y varianza 𝝈𝒊
𝟐, entonces la 
variable aleatoria 𝒀 definida como 
𝒀 = 𝑿𝟏 + 𝑿𝟐 + ⋯ + 𝑿𝒏 = 𝑿𝒊
𝒏
𝒊 𝟏
 
 
Tiene distribución normal con media ∑ 𝝁𝒊𝒏𝒊 𝟏 y varianza ∑ 𝝈𝒊
𝟐𝒏
𝒊 𝟏 . 
 
Distribución Normal Estándar: 
 
De los cursos de cálculo sabemos que la integral de la función 
 
𝒇(𝒙) =
𝟏
𝝈√𝟐𝝅
𝒆
(𝒙 𝝁)𝟐
𝟐𝝈𝟐 
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 7 
 
no se puede resolver con funciones elementales, sino por métodos numéricos (algoritmos). 
Para resolver este problema se usa la estandarización de la variable normal, que es cambiar la 
variable aleatoria 
𝒁 =
𝑿 − 𝝁
𝝈
 
 
Que se conoce como la estandarización de la variable 𝑿~𝑵 𝝁, 𝝈𝟐 a unidades en 𝒁. Además 
 
𝒁~𝑵(𝟎, 𝟏) 
 
 
DISTRIBUCIÓN JI CUADRADA 
 
Definición: Sean 𝒁𝟏, 𝒁𝟐, … , 𝒁𝝂; 𝝂 variables aleatorias independientes con distribución normal 
estándar, entonces: 
𝚾𝟐 = 𝒁𝟏
𝟐 + 𝒁𝟐
𝟐 + ⋯ + 𝒁𝝂
𝟐 
 
La función de densidad de una variable aleatoria continua con distribución 𝒋𝒊 𝒄𝒖𝒂𝒅𝒓𝒂𝒅𝒂 y 
parámetro 𝝂 es: 
𝒇(𝒙; 𝝂) =
⎩
⎪
⎨
⎪
⎧
𝟏
𝟐
𝝂
𝟐𝜞
𝝂
𝟐
𝒙
𝝂
𝟐
𝟏𝒆
𝒙
𝟐
 
 𝒙 ≥ 𝟎
𝟎 𝒙 < 𝟎
 
 
A 𝝂 se le conoce como los 𝑔𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 (𝑔. 𝑙. ) , y está relacionada con el tamaño de la 
muestra. Se denota por 𝝌𝟐 (ji cuadrada). 
 
Teorema: Si 𝚾𝟐es una variable aleatoria que tiene una distribución Ji cuadrada con 𝝂 grados de 
libertad, 𝚾𝟐~ 𝝌𝝂𝟐 , entonces 
𝑬 𝚾𝟐 = 𝝂 
 
𝑽𝒂𝒓 𝚾𝟐 = 𝟐𝝂 
 
Función de densidad de la distribución 𝝌𝟐 con 3,6,9 y 12 grados de libertad (G. 𝑙.) 
 
 
 
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 8 
 
DISTRIBUCIÓN T DE STUDENT 
 
Definición: Sean 𝒁 y 𝑿𝟐 dos variables aleatorias independientes con distribución normal 
estándar y Ji cuadrada respectivamente, es decir: 𝒁~𝑵(𝟎, 𝟏) y 𝚾𝟐~𝝌𝝂𝟐, entonces la variable 
aleatoria 𝑻 definida como 
𝑻 =
𝒁
𝚾𝟐
𝝂
 
 
Tiene una distribución t de Student con 𝝂 grados de libertad y está definida por 
 
𝒇𝑻(𝒕) =
𝜞
𝝂 + 𝟏
𝟐
𝜞
𝝂
𝟐 √
𝝅𝝂
𝟏 +
𝒕𝟐
𝝂
𝝂 𝟏
𝟐
 ; −∞ < 𝒕 < ∞ ; 𝝂 > 𝟎 
 
donde 𝝂 son los 𝒈. 𝒍. y están relacionados con el tamaño de la muestra. 
 
La distribución t-Student, al igual que la distribución normal es simétrica y tiene forma de 
campana. 
 
Teorema: Si 𝑻 es una variable aleatoria que tiene distribución t de Student con 𝝂 grados de 
libertad, entonces 
𝑬[𝑻] = 𝟎 
 
𝑽𝒂𝒓[𝑻] =
𝝂
𝝂 − 𝟐
 ; 𝝂 > 𝟐 
 
La función de densidad de los modelos t-Student, para 1, 2, 5 y 30 g. 𝑙. 
 
 
 
DISTRIBUCIÓN F 
 
Definición: Si 𝑿 y 𝒀 son dos variables aleatorias independientes con distribución Ji cuadrada 
con parámetros 𝝂𝟏 y 𝝂𝟐, es decir 
 
𝑿~𝝌𝝂𝟏
𝟐 ; 𝒀~𝝌𝝂𝟐
𝟐 
 
Entonces la variable aleatoria 𝑭 definida como 
𝑭 =
𝑿
𝝂𝟏
𝒀
𝝂𝟐
 
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 9 
 
Tiene una distribución 𝑭 de Fisher-Snedecor con 𝝂𝟏 y 𝝂𝟐 grados de libertad del numerador y 
denominador, respectivamente y función de densidad dada por 
 
𝒇(𝒙) =
𝜞
𝝂𝟏 + 𝝂𝟐
𝟐
𝝂𝟏
𝝂𝟐
𝝂𝟏
𝟐
𝜞
𝝂𝟏
𝟐
𝜞
𝝂𝟐
𝟐
∙ 𝑿
𝝂𝟏
𝟐
𝟏 𝟏 +
𝝂𝟏
𝝂𝟐
𝑿
𝝂𝟏 𝝂𝟐
𝟐
, 𝑿 > 𝟎 
 
Los parámetros 𝝂𝟏 y 𝝂𝟐 son los 𝒈. 𝒍. de la distribución 𝑭 del numerador y denominador, 
respectivamente. Se denota 
𝑭~𝑭𝝂𝟏,𝝂𝟐 
 
Se emplea en la razón entre varianzas. 
 
Teorema: Si 𝑭 es una variable aleatoria con distribución 𝑭 de Fisher-Snedecor con 𝝂𝟏 grados 
de libertad en el numerador y 𝝂𝟐 grados de libertad en el denominador, entonces 
 
𝑬[𝑭] =
𝝂𝟐
𝝂𝟐 − 𝟐
 ; 𝝂𝟐 > 𝟐 
 
𝑽𝒂𝒓[𝑭] =
𝟐𝝂𝟐
𝟐(𝝂𝟏 + 𝝂𝟐 − 𝟐)
𝝂𝟏(𝝂𝟐 − 𝟐)
𝟐(𝝂𝟐 − 𝟒)
 ; 𝝂𝟐 > 𝟒 
La gráfica es:

Continuar navegando

Otros materiales