Logo Studenta

Curso de Probabilidad en Comunicaciones_

¡Este material tiene más páginas!

Vista previa del material en texto

IPN 
 
UNIDAD PROFESIONAL INTERDISCIPLINARIA EN INGENIERÍA Y TECNOLOGÍAS AVANZADAS 
 
 
 
ACADEMIA DE TELEMÁTICA 
 
 
 
 
 
CURSO INTERSEMESTRAL: 
 
 
Aplicaciones de la Teoría de Probabilidades a 
Comunicaciones 
 
 
 
 
 
 
 
Instructor: 
 
Prof. Fernando Téllez A. 
 
 
 
 
 
 
 
 
 
 
 
 
Enero de 2005 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 2 
CURSO: Aplicaciones de la Teoría de Probabilidades a Comunicaciones 
 
 
Objetivo: 
Proporcionar al participante (alumno o profesor de Ciencias Básicas) un panorama general sobre el uso de 
la Teoría de Probabilidades y de Procesos Estocásticos en el área de las Telecomunicaciones, a través de 
una revisión de los conceptos de la probabilidad requeridos en las Comunicaciones, así como de la 
solución de problemas específicos de aplicación en las Telecomunicaciones, para ello se auxiliarán en el 
uso de software de computadora. 
 
Justificación: 
Actualmente existe una brecha práctica en la impartición de la materia de Probabilidad y Procesos 
Estocásticos dirigida a alumnos de tronco común de Ingeniería, específicamente aquellas ingenierías que 
involucran el uso de las Comunicaciones que es un área que hace uso intensivo y extensivo de la Teoría 
de la Probabilidad. Esto ocurre debido a que en el curso de Probabilidad no se tiene contemplado el cubrir 
aspectos de aplicación dirigidos a éstas carreras con la profundidad que sería deseable. Es por lo anterior 
que se ha desarrollado el curso de Aplicaciones de la Teoría de Probabilidades a Comunicaciones, 
dirigido a profesores del área de Matemáticas y a estudiantes de alguna ingeniería relacionada a las 
Comunicaciones. 
 
Pre-requisitos: 
Toda persona que desee tomar el curso deberá tener conocimientos sólidos en Álgebra, Cálculo y 
Probabilidad, así como conceptos básicos de Procesos Estocásticos. Así como poseer experiencia en 
algún lenguaje de programación, y es deseable que utilice algún software de matemáticas (Matlab, 
Mathematica, Maple, etc.) y/o de simulación, mas no es estrictamente necesario. 
 
Metodología: 
Para cubrir el material del curso se recurrirá a una exposición por tema, tanto en pizarrón como usando 
multimedios, para pasar después a la parte de resolución de problemas de aplicación, tanto en pizarrón 
como en computadora. 
 
Evaluación: 
El curso tendrá dos evaluaciones al final del curso, una teórica y una práctica mediante el uso de la 
computadora. 
 
Materiales necesarios: 
Para la impartición del curso se requiere de un espacio con una capacidad mínima de 15 personas, con 
una computadora asignada a cada lugar con las siguientes características: 
- Procesador Pentium 4 o superior. 
- Velocidad de 1 GHz o superior. 
- Un mínimo de 256 MB de RAM. 
- Software de matemáticas: Matlab, Mathematica o Maple. 
- Un lenguaje de programación, preferentemente C++. 
- Espacio disponible en disco duro de al menos 50 MB. 
También se requerirá de un cañón electrónico y una computadora para la presentación al grupo. 
 
 
PROGRAMA (tiempo total: 37:40) 
 
 
I. LA VARIABLE ALEATORIA (4:30) 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 3 
I.1 Interpretación de una variable aleatoria (0:30). 
I.2 La simulación como herramienta (0:30). 
I.3 La fdp y la fda de una variable (0:30). 
I.4 Transformaciones de variables aleatorias (2:00). 
I.5 Generadores de números aleatorios (1:00). 
 
II. LA SEÑAL ESTOCÁSTICA (11:35) 
II.1 La definición de señal. (0:30) 
II.2 La información como una señal analógica y su modelamiento como proceso estocástico 
continuo. (0:30) 
II.3 Clasificación. (0:30) 
II.4 Interpretación de la Transformada de Fourier en Comunicaciones (0:30) 
II.5 Caracterización: Los momentos centrados y no centrados, espaciales y temporales. 
- Media estadística y media temporal (Valor medio o de cd) (0:10) 
- Momentos estadísticos: La CCF (Potencia y potencia de ca) (0:10) 
- Correlación y covarianza (0:20) 
- Autocorrelación, autocovarianza, croscorrelación y croscovarianza (0:20) 
II.6 La función generadora de momentos y la función característica (1:00) 
II.7 Los momentos de la señal en el dominio de la frecuencia. 
- La densidad espectral de potencia (0:20) 
- El ancho de banda de la señal (1:00) 
- El poliespectro y las estadísticas de alto orden (0:15) 
II.8 Estacionaridad: en sentido amplio y en sentido estricto (0:30) 
II.9 Cicloestacionaridad, cuasiestacionaridad y estacionaridad de tiempo corto (0:40) 
II.10 Ergodicidad (1:20) 
II.11 Ruido analógico 
- Ruido gaussiano aditivo (1:00) 
- Ruido no gaussiano (0:30) 
II.12 La señal estocástica digital 
- señal binaria cuadrada (0:15) 
- señal binaria de coseno alzado (0:15) 
- señal multinivel (0:15) 
II.13 Ejemplos y simulaciones. 
- Ruido gaussiano (0:30) 
- Ruido blanco y ruido rosa (0:15) 
- Ruido con diferentes distribuciones de probabilidad (0:30) 
- Ejemplos de ruido coloreado en MATLAB y cálculo de sus parámetros (1:00) 
 
III. EL SISTEMA DE COMUNICACIONES ANALÓGICO (5:00) 
III.1 El esquema general de un sistema de comunicaciones analógico (1:00) 
III.2 El concepto de filtro y el medio de comunicación como un filtro (2:00) 
III.3 La relación señal a ruido (1:00) 
III.4 Filtraje de ruido (1:00) 
 
IV. EL SISTEMA DE COMUNICACIONES DIGITALES (10:30) 
IV.1 El esquema general de un sistema de comunicaciones digital (1:00) 
IV.2 La fuente 
- Codificación de fuente (1:00) 
- La fuente de información digital como un proceso estocástico discreto (0:30) 
- Fuentes con memoria y cadenas de Markov (1:00) 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 4 
- Entropía (0:45) 
- El primer teorema de Shannon (codificación de fuente) (0:30) 
- Codificación de canal (0:30) 
IV.3 El canal digital 
- El canal digital como una matriz (0:45) 
- El canal digital con memoria (0:45) 
IV.4 El receptor. 
- Detección (0:45) 
- El concepto de probabilidad de error (2:00) 
- La función de máxima verosimilitud (1:00) 
 
V. TELETRÁFICO (4:35) 
V.1 La red de comunicaciones y su tráfico como proceso estocástico (0:20) 
V.2 Procesos de nacimiento y muerte (1:00) 
- Solo nacimientos (0:30) 
- Solo muertes (0:30) 
V.3 Nacimientos y muertes con población infinita: La ec. B de Erlang (0:45) 
V.4 Nacimientos y muertes con población finita: La ec. C de Erlang (0:30) 
V.5 Aplicaciones en redes telefónicas y redes de datos (0:45) 
V.6 Procesos de nacimiento y muerte multidimensionales (0:30) 
V.7 Colas en tándem: Manejo del tráfico en redes de datos (0:45) 
 
VI. APLICACIONES AVANZADAS (1:30) 
VI.1 Algunos problemas avanzados en Procesamiento Digital de Señales (0:30) 
VI.2 El problema del receptor digital óptimo (0:30) 
VI.3 Los Sistemas de Comunicaciones Multiusuario (0:30) 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 5 
I. LA VARIABLE ALEATORIA 
 
I.1 Interpretación de una variable aleatoria 
En ingeniería se puede utilizar una variable aleatoria para designar el valor desconocido de un 
parámetro en una cierta realización o experimento. Por ejemplo, consideremos un enlace digital de 
comunicaciones en el que un transmisor emite una señal a un receptor a través de un canal ruidoso, el 
receptor por tanto recibirá lo que envió en transmisor, pero contaminado por ruido; Uno de los sistemas 
más elementales puede ser incluso un circuito lógicoen el que a la salida de una compuerta lógica se 
dispone de un nivel de voltaje (que es una variable aleatoria X) que se transmite por un cable hacia un 
receptor, que puede ser la entrada de otra compuerta lógica, el voltaje que se reciba en la entrada de la 
compuerta receptora Y no será el voltaje de salida de la compuerta del transmisor X, sino éste más un 
nivel de voltaje de ruido contaminante, es decir Y=X+N. 
 
Consideremos el sistema: 
 
 
 
Figura I.1. Sistema básico de comunicación digital. 
 
sabemos claramente que el funcionamiento de las compuertas depende de los niveles lógicos entre sus 
terminales de entrada: si el voltaje Y se encuentra entre 4 Vcd y 5 Vcd* la compuerta lo interpretará como 
un nivel lógico 1 (bit 1), mientras que si se encuentra entre 0 Vcd y 0.5 Vcd la compuerta lo interpretará 
como un nivel lógico 0 (bit 0), si Y se encuentra fuera de esos dos intervalos entonces el comportamiento 
del receptor será impredecible. Si X es un valor conocido, entonces el problema se reduce a analizar el 
comportamiento estadístico de Y, que en muchos casos se puede considerar como una variable gaussiana, 
cuyos parámetros estarán mayormente determinados por la longitud y el tipo de cable que se use. Algunas 
preguntas de interés serán por ejemplo 
- ¿cuál es la probabilidad de que el receptor registre un bit erróneo? 
- ¿a qué nivel de voltaje deberá incrementarse X para reducir la probabilidad de error a un umbral 
determinado? 
 
 
I.2 La simulación como herramienta 
Muchas veces es más sencillo obtener resultados preliminares en un problema para aproximar su 
solución cuando se pueden realizar simulaciones del mismo, la probabilidad no es una excepción. Y para 
el alumno la manera más sencilla es mediante la simulación de eventos de Montecarlo y utilizando la 
aproximación de frecuencia relativa a la probabilidad de un evento. 
En la computadora se pueden simular varias realizaciones de una variable aleatoria utilizando el 
generador de números aleatorios de la misma, donde se pueden cambiar algunos parámetros de 
inicialización del algoritmo para obtener más de una variable, de manera que se logre independencia 
estadística en las realizaciones. 
 
 
* Los niveles de voltaje dependen del tipo de compuerta y del fabricante de la misma. 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 6 
Ejemplo I.1: (Cálculo de la probabilidad por simulación de Montecarlo) Para el caso del sistema 
de la sección anterior, supongamos que X=4.5 Vcd. Se desea encontrar la probabilidad de que en 
recepción se interprete correctamente el bit 1. Supongamos que el ruido contaminante se puede 
modelar como una variable gaussiana con media 0 y una potencia de N2=500 mW. 
Si N es un voltaje gaussiano normal, entonces se puede mostrar que: 
 
 2exp1)( nnf N 

   25.4exp1)( 

 nyfY 
 
Si el evento de detección correcta del bit es B, entonces B={4Y5} y se puede mostrar que PB=0.52 
(si la potencia del ruido aumenta a 1 W entonces PB=0.383). 
La solución al problema anterior se puede obtener por simulación, generando un conjunto de 
realizaciones de la variable N y verificando cuántas de éstas nos conducen a éxitos (4Y5) del total. 
Usando el código MATLAB siguiente: 
 
function graf 
 t=[[10:10:1e3], [1.1e3:100:100e3]]; 
 pp=zeros(size(t)); 
 for k=1:length(t) 
 pp(k)=proba(t(k)); 
 end 
 sprintf(‘media=%f’,mean(pp)); 
return 
function p=proba(n) 
 y=sqrt(.5)*randn(n,1)+4.5; 
 exi=sum((y>=4)&(y<=5)); 
 p=exi/n; 
return 
 
 
En la variable pp se encuentran las probabilidades de éxito. Los resultados para la aproximación a PB 
se muestran en la siguiente figura. 
 
 
 
Figura I.2. Probabilidad de éxito en función del número de intentos. 
 
Se puede observar que conforme el número de intentos aumenta, la curva de la probabilidad se ajusta 
más al valor medio. Se puede calcular la media sobre el gráfico anterior y se obtiene PB=0.52. 
 
De ejemplo anterior se puede apreciar que la simulación puede resultar de gran utilidad, aunque en 
éste ejemplo particular puede ser bastante complejo (computacionalmente), en ocasiones puede ser de 
gran ayuda. 
 
 
I.3 La fdp y la fda de una variable 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 7 
En muchos casos es bastante útil el aproximar una función a la fdp de una variable, cuando se 
conoce exclusivamente un número limitado de realizaciones de la misma. Para ello hagamos una 
aproximación discreta a la integral de normalización de la fdp, es decir, si sabemos que para una variable 
aleatoria X: 
  1


dxxf X 
 
Ahora, si suponemos que conocemos un conjunto finito de muestras discretas uniformemente 
espaciadas de fX(x), es decir {xj} j=1, 2, ..., n, entonces, si aproximamos la integral de normalización por el 
método de la suma de áreas de rectángulos, entonces: 
 
  xfxfxfdxxf nX  


 121 ... 
o también: 
1
1
1
 


n
j
jfx 
 
donde x=xj-xj-1 es el espaciamiento entre muestras. 
Si tenemos ahora un conjunto de m realizaciones de la variable aleatoria Y, {yj} j=1, 2, ..., m, y dividimos 
todo su dominio en k subintervalos uniformes y consecutivos {[y’j, y’j+1)}j=1, 2, ..., m-1, con centros en 
{y’’j}j=1, 2, ..., m-1, podemos obtener el histograma de dichas muestras, que serían barras con alturas {hj} j=1, 2, 
..., m-1 correspondientes a cada centro de subintervalo; h1 sería entonces el número de realizaciones de la 
variable que se encuentran dentro del subintervalo [y’1, y’2), es decir, y’1,y0 y’2, cuyo centro es y’’1=( 
y’1+y’2)/2. Si suponemos que cada punto del mismo es un valor muestra que puede aproximar la fdp de la 
variable, entonces podemos encontrar un factor que normalice dicha curva. El área bajo la curva del 
histograma, tomando en cuenta sólo los puntos discretos (y’’j, hj), sería: 
  yhyhyhdyyh n  


 121 ... 
 
Multiplicando por el factor de normalización : 
 
  1...
1
121  

 ynhyyhyhyh
m
j
jn 
por lo que el factor es: 
yn

1
 
 
 
Ejemplo I.2: (Ajuste de la fdp de una variable, 1) Supongamos que se generan 100 realizaciones de 
una variable aleatoria X, los valores se muestran el siguiente gráfico. 
 
Si realizamos un histograma de los anteriores, tomando en cuenta 10 subintervalos, tomando en 
cuenta el rango dinámico de los valores, los centros de los intervalos quedan como: 
 
y’’ = [-1.953, -1.517, -1.082, -0.647, -0.211, 0.224, 0.659, 1.095, 1.53, 1.965] 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 8 
0 10 20 30 40 50 60 70 80 90 100
-3
-2
-1
0
1
2
3
 
 
Figura I.3. 100 realizaciones de una variable aleatoria X. 
 
por lo que y=y’’j-y’’j-1=0.43538; mientras que los valores del histograma serán: 
 
h = [2, 6, 9, 10, 19, 18, 21, 10, 4, 1] 
 
Un gráfico del histograma se puede ver en la gráfica de la izquierda de la figura 1.4. Ahora, si 
tomamos éste gráfico como una aproximación a la fdp de la variable, el factor de normalización será: 
 
 
02296.0
10043538.0
11



yn
 
 
entonces multiplicamos las alturas de las barras por el factor anterior, el resultado se puede apreciar 
en los puntos que se encuentran en el gráfico de la derecha de la figura 1.4, la curva que se muestra es 
una fdp normal con la misma media (0.04793) y la misma varianza (0.07543) que las realizaciones de 
X. Se puede apreciar que, para éste caso particular, X tieneun comportamiento aproximadamente 
gaussiano. 
 
-3 -2 -1 0 1 2 3
0
5
10
15
20
25
 
-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5
0
0.1
0.2
0.3
0.4
0.5
 
 
Figura I.4. Histograma (izquierda) y los puntos del histograma normalizado (derecha), la curva es una gaussiana 
con la misma media y varianza que los datos. 
 
 
I.4 Transformación de variables aleatorias 
En varios tipos de sistemas se involucran variables que resulta útil caracterizar, como el caso de 
ruidos introducidos por algunos bloques de procesamiento de señal; mientras que, una vez que se tiene 
caracterizada una variable, es útil conocer el desarrollo para caracterizar una segunda variable que se 
encuentra en función de la primera. Un caso común es cuando se desea diseñar un cuantificador para un 
convertidor analógico-digital, ADC; éste dispone de un conjunto finito y pequeño de bits para designar 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 9 
valores específicos, por ello se deben distribuir de manera que minimicen el error introducido por el ADC 
en la representación digital. 
El diagrama genérico a bloques de un DAC se muestra en la siguiente figura: 
 
muestreo cuantificación codificación
x(t) x(n) x'(n) y(n) 
 
Figura I.5 Diagrama a bloques de un ADC. 
 
Consideremos el caso en el que se desea digitalizar una señal senoidal x(t)=A sen(2ft), donde A es 
su amplitud en volts (V) y f es su frecuencia en hertz (Hz). Esta señal se muestrea en tiempos específicos 
uniformemente espaciados tn=nT donde T es el intervalo de muestreo, de manera que la señal muestreada 
será x(n)=x(tn)=x(nT). T deberá elegirse de manera que la señal original x(n) se pueda recuperar íntegra, 
sin distorsión. 
Si usamos un DAC uniforme de 3 bits (las palabras de código serán de 3 bits, desde la 000 hasta la 
111), entonces a la salida del mismo tendremos 23=8 diferentes niveles de amplitud para asignar. Como el 
rango dinámico (máxima abertura en amplitud de la señal) de la señal es de 2A, entonces la separación 
entre niveles será de 2A/8, ello considerando un cuantificador uniforme adaptado al rango de la señal. 
 
 
 
Figura I.6. Señales para el ADC, la entrada analógica x(t), la señal muestreada x(n) y la señal muestreada y 
cuantificada uniformemente a 8 niveles, 3 bits, x’(n). 
 
De acuerdo al teorema del muestreo de Shannon, la señal x(t) se puede recuperar a partir de las 
muestras x(n) sin distorsión alguna, pero no así de las muestras cuantificadas x’(n); la distorsión 
introducida por el proceso de cuantificación se puede controlar y reducir si se aumenta el número de bits 
del ADC (lo que implicaría que la representación digital de la señal requerirá una mayor cantidad de 
almacenamiento en memoria o una mayor capacidad del canal de comunicación), o distribuyendo de 
manera no uniforme los valores del cuantificador. Pero entonces surge la pregunta: ¿De qué manera se 
pueden distribuir los niveles de cuantificación de manera que pueda reducir la distorsión de la 
representación digital? Una de las posibles respuestas es analizando el comportamiento estadístico de la 
variable aleatoria x(n) y asignando una mayor resolución a las regiones en las que las amplitudes sean 
más probables, y una menor resolución a aquellas regiones donde las amplitudes sean menos probables. 
Para proceder como se mencionó, requerimos de un modelo del comportamiento estadístico de la 
amplitud de la señal senoidal. Si suponemos que tenemos una variable aleatoria  distribuida 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 10 
uniformemente en [-,], y obtenemos una segunda variable aleatoria X=sen(), entonces, se puede 
mostrar que la fdp de X, fX(x), será la misma que la fdp de x(n). Una manera de aproximar el 
comportamiento de fX(x) es tomando el histograma normalizado de un conjunto de realizaciones de la 
variable, mientras mayor sea el número de subintervalos que se toman, mejor será la aproximación (pero 
para no degradar la resolución en el eje vertical se requiere un número grande de realizaciones). En la 
siguiente figura se muestran los histogramas normalizados de la amplitud de la senoide, generados de dos 
maneras diferentes. 
 
 
 
Figura I.7. Histogramas normalizados para aproximar el comportamiento de la fdp de la variable X, el primero es de 
tomar directamente el histograma de las amplitudes de la senoide, mientras que el segundo se obtuvo generando un 
vector de realizaciones de , para ambos casos se tomaron 36,700 muestras. 
 
Se podrían generar mejores aproximaciones si se ajusta una curva a los histogramas anteriores y se 
normaliza después. Se podrá observar que la aproximación directamente de las muestras de la senoide nos 
da un comportamiento más uniforme al centro que la aproximación obtenida por las realizaciones de la 
variable aleatoria . 
Si se desea obtener el comportamiento exacto para fX(x) se requiere obtener a partir de la fdp de  y 
sabiendo de antemano la relación funcional entre ambas. Para encontrar fX(x) primero procedemos a 
encontrar la fda de X, FX(x). Como sabemos de antemano que FX(x)=P{Xx}. De la figura siguiente: 
 
 
 
Figura I.8. Curva de transformación de la variable  a la variable X. 
 
podremos ver que se puede separar el contradominio en 4 regiones disjuntas o eventos: 
 
i) X-1 ii) -1X0 iii) 0X1 iv) 1X 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 11 
ahora, para el evento i, si trazamos una recta horizontal en la figura de manera que X-1, se puede 
observar no existe  tal que se cumpla la condición, por lo tanto P(i)=P{X-1}=0. 
Para el evento ii, en la siguiente figura se podrá ver que el evento {-1X0} es equivalente al evento 
{ab}, de manera que P(ii)=P{-1X0}=P{ab}. 
 
 
 
Figura I.9. Partición del intervalo [-,] para los eventos ii y iii respectivamente. 
 
Debido a que  está distribuida uniformemente, entonces: 
 
   











 

)arcsen(
2
12
)arcsen(
1
2
1
2
2
1
)arcsen(
2/2/
x
x
dddbaPiiP
xbb
a
 
 
podemos observar que: 
 
  0
)1arcsen(
2
1
1




x
iiP  
2
1)0arcsen(
2
1
0



x
iiP 
 
Ahora, para el evento iii: 
 
     dcPdcPiiiP  1 
 
por simetría y tomando en cuenta el resultado del evento anterior: 
 
   









)arcsen(
2
1)arcsen(
2
1
11
xx
dcPiiiP 
 
y finalmente, se puede ver que P(iv)=1. Reuniendo los resultados anteriores, se puede ver que: 
 
 















1 1
1 
)arcsen(
2
1
1 0
x
x
x
x
xFX
 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 12 
y derivando, finalmente obtenemos: 
 
 
 











1 
1
1
1 0
2
x
x
x
dx
xdF
xf XX 
 
que es la fdp de la amplitud de la senoide. Se puede mostrar que la anterior tiene área unitaria. 
 
 
 
Figura I.10. fda y fdp para la amplitud de la senoide. 
 
Se puede ver en la figura anterior que las amplitudes ubicadas hacia los valores extremos son más 
probables que las bajas amplitudes. 
Esta información la podemos usar para el diseño de la curva de respuesta del cuantificador, una 
primera aproximación es la de tratar que el cuantificadorse comporte a la salida como una fuente discreta 
de información con entropía máxima, es decir, con símbolos equiprobables, ello equivale a subdividir la 
curva fX(x) en subintervalos de áreas iguales; como el cuantificador es de 3 bits, requiere de 8 
subintervalos de 1/8 de área cada uno. Si la partición es {-1, x1, x2, x3, x4, x5, x6, x7, 1}, entonces: 
 
              

1
1 7
7
6
6
5
5
4
4
3
3
2
1
x
X
x
x
X
x
x
X
x
x
X
x
x
X
x
x
X
x
X dxxfdxxfdxxfdxxfdxxfdxxfdxxf 
 
Como la distribución es simétrica, entonces x1=-x7, x2=-x6, x3=-x5 y x4=0; el problema se reduce a 3 
variables. La ecuación de la que partimos es: 
 
       
8
1
2
1
0
1
1
55
0
2
0
55


  xFFxFdx
x
dxxf XXX
xx
X
 
 
y recurriendo a la expresión de la fda que ya encontramos: 
 
8
1)arcsen( 5 

x
 
 
cuya solución es x5=0.382. Procediendo de la misma forma podemos encontrar que x6=0.7071 y 
x7=0.9234. Por tanto x1=-0.9234, x2=-0.7071 y x3=-0.382; por lo que las fronteras son: 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 13 
 
x={-1, -0.9234, -0.7071, -0.382, 0, 0.382, 0.7071, 0.9234, 1} 
 
Ya que encontramos la partición para el cuantificador, resta encontrar los niveles de amplitud de 
cuantificación que serán asignados {x’1, x’2, x’3, x’4, x’5, x’6, x’7, x’8}, éstos deberán ser los centroides de 
cada uno de su respectivo subintervalo. Por ejemplo, para el primer subintervalo positivo: 
   
 
 






382.0
0
2
0
0
0
555
1
800
5
5
5
dx
x
x
dxxf
dxxfx
dxxXxfxxXXEx
x
X
x
Xx
X
 
 
 
Figura I.11. Ubicación de las fronteras de los subintervalos de cuantificación y de los niveles de cuantificación 
(variables primadas) respecto a la fda, se puede observar que las divisiones en el eje vertical son uniformes. 
 
De la integral resulta x’5=0.1931. De igual manera se obtienen x’6=0.5527, x’7=0.8232 y x’8=0.9774; por 
lo que los centroides son: 
 
x’={ -0.9774, -0.8232, -0.5527, -0.1931, 0.1931, 0.5527, 0.8232, 0.9774 } 
 
Se puede mostrar que todos los resultados anteriores se pueden obtener gráficamente a partir de la fda, 
como se muestra en la figura 1.11. Para visualizar mejor los resultados, en la figura 1.12 se muestran las 
curvas de respuesta de los cuantificadores uniforme y no uniforme. 
 
 
 
Figura I.12. Curva de respuesta de un cuantificador uniforme y no uniforme para una senoide de amplitud 10. 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 14 
I.5 Generadores de números aleatorios 
Una de las herramientas básicas para simulación de sistemas es la de disponer de generadores de 
números aleatorios con alguna fdp específica e incluso, en ocasiones, con alguna función de 
autocorrelación determinada, algunos ejemplos lo son los generadores de ruido para determinado tipo de 
canales de comunicaciones o para fuentes de información de determinadas características estadísticas. 
En la actualidad hay software de simulación que ya dispone de generadores de números aleatorios 
con las características deseadas, pero éstos son caros y lentos, mientras que todos los lenguajes de 
programación (que, por el contrario, son baratos y rápidos, que es lo deseable) disponen de un generador 
de aleatorios, aunque generalmente se limitan a una fdp uniforme en [0,1] y sólo proporcionan una opción 
para cambiar la semilla del algoritmo de generación de aleatorios, por ello resulta de utilidad que el 
alumno pueda desarrollar un algoritmo para obtener un generador de números aleatorios con una 
distribución específica a partir de un conjunto de números aleatorios uniformes, y para ello se aplica una 
transformación de variables aleatorias. 
El problema a resolver entonces es, encontrar una transformación Y=g(X) tal que Y tenga una fdp 
deseada, sabiendo de antemano que X es una variable uniforme en [0,1], como se muestra en la figura 
1.13. 
 
 
Figura I.13. Dependencia de las variables aleatorias. 
Si y0=g(x0), entonces los eventos {Xx0} y {Yy0} son equiprobables (véase la figura 1.11 donde 
x=x0 y y=y0), por lo tanto: 
 
       xFxXPyFyYP XY  
 
Si sabemos que X es uniforme, entonces FX(x)=x para x[0,1], y por lo tanto: 
 
  xyFY  
y resolviendo para y: 
   xFxgy Y
1
 
 
 
Ejemplo I.3: (Generador de números aleatorios exponenciales para sistemas de cola de espera) 
En el problema de simular en una PC un sistema de un servidor con una cola de espera, que atiende a 
una población de usuarios (puede representar un conmutador telefónico, un host que atiende a un 
conjunto de PC’s cliente en red, ó un hilo servidor en una PC host que atiende a varios hilos cliente 
para un servicio en específico como el de impresión o el de acceso a archivos) aparece muy 
frecuentemente una variable exponencial para el tiempo entre el arribo de un cliente y el arribo 
siguiente de otro cliente. Si Y es el tiempo interarribo exponencial, entonces: 
 
  )(yueayf ayY
 
y su fda: 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 15 
    )(1 yueyF ayY  
 
donde el parámetro a es el inverso del tiempo interarribo medio, o frecuencia interarribo media (en s-
1). Evaluando la inversa de la fda: 
 
a
x
y


1ln
 
Por lo tanto: 
 
a
X
Y


1ln
 
 
En la figura 1.14 se muestran los histogramas de un conjunto de 10,000 realizaciones de X y el 
histograma correspondiente para Y con un valor medio de 10 usuarios/s para el sistema, se puede 
notar claramente como Y se aproxima a una variable exponencial con media a-1=0.1. 
 
0 0.2 0.4 0.6 0.8 1
0
50
100
150
200
250
 
0 0.2 0.4 0.6 0.8 1
0
500
1000
1500
2000
 
 
Figura I.14. Histogramas para 10,000 realizaciones de X e Y con a=10. 
 
 
Ejemplo I.4: (Generador de números aleatorios gaussianos para simular AWGN) Como ya se ha 
mencionado, en un sistema de comunicaciones es muy común encontrarse ruido blanco gaussiano 
aditivo (AWGN), y una de las maneras de simularlo es usando un generador de números aleatorios 
con distribución gaussiana; en el ejemplo 1.1 se partió de que la plataforma de software (Matlab) ya 
disponía de dicho generador, pero de no ser así, se requerirá de uno a partir de un generador uniforme. 
Si continuamos con el procedimiento ya visto, sabemos que la pdf y la pda gaussianas están dadas 
por: 











2
exp
2
1
)(
2y
yfY 










y
Y dz
z
yF
2
exp
2
1
)(
2
 
 
pero, para encontrar F-1(y) no se dispone de alguna expresión para la integral, por ello el 
procedimiento no es aplicable. En 1967 Dillar* prepuso un método para encontrar una variable 
gaussiana a partir de una variable Rayleigh, R, usando: 
 
  cosRY 
 
donde  es una variable uniforme en [0,2). La variable Rayleigh está caracterizada por: 
 
 
* Generating Random Numbers Having Probability Distributions Ocurring in Signal Detection Problems. IEEE 
Transactions on Information Theory, vol. 13, no. 4. Octubre de 1967. 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 16 
   ru
r
rrf R 






2
exp
2
    ru
r
rFR 












2
exp1
2
 
 
por lo tanto: 
  xru
r













2
exp1
2
 
y resolviendo para r: 
xr  1ln2 
por tanto: 
 XR  1ln2 
 
por lo que la variable gaussiana es: 
 
    cos1ln2 XY 
 
un dato extra es que X y  deben ser estadísticamente independientes. Para obtener  a partir de otra 
variable uniforme en [0,1]simplemente aplicamos la transformación =2X’ donde X’ es una variable 
uniforme en [0,1] y estadísticamente independiente a X. Por tanto: 
 
   '2cos1ln2 XXY  
 
Programando las fórmulas anteriores, en la parte superior de la siguiente figura se muestran los 
histogramas normalizados de 10,000 realizaciones de X y X’, mientras que en la parte inferior se 
muestran los correspondientes a las variables R e Y respectivamente. Se podrá observar que R e Y 
tienen un comportamiento más exacto que X y X’ a sus respectivas fdp’s. 
 
Se puede mostrar que con el procedimiento anterior, se puede generar una nueva variable Y’ 
como: 
  sen' RY 
 
y ésta será estadísticamente independiente a Y. 
Ahora que ya se dispone de un generador gaussiano, para que éste sea útil finalmente se requiere 
que pueda simular AWGN de cualquier valor de potencia, ello requiere que los números aleatorios 
generados tengan una varianza deseada. Si proponemos ahora una nueva variable aleatoria dada por: 
 
baYZ  
 
de las propiedades del operador de valor medio sabremos que: 
 
      bbYaEbaYEZEZ  
 
        22222222 aaYaEbbaYEZZE YZ  
 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 17 
0 0.2 0.4 0.6 0.8 1
0
0.2
0.4
0.6
0.8
1
1.2
0 0.2 0.4 0.6 0.8 1
0
0.2
0.4
0.6
0.8
1
1.2
0 1 2 3 4
0
0.2
0.4
0.6
0.8
-4 -2 0 2 4
0
0.1
0.2
0.3
0.4
0.5
 
Figura I.15. Histogramas normalizados y fdp’s para las variables X, X’, R e Y, respectivamente. 
 
por lo que, si deseamos simular ruido AWGN con una media de 0 Vcd y una potencia de 300 mW la 
transformación debe ser: 
 
YYZ 5477.03.0  
 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 18 
 
II. LA SEÑAL ESTOCÁSTICA 
 
II.1. La definición de señal 
 
Señal: Es el comportamiento de cualquier parámetro de un sistema en función del tiempo. En un circuito 
el comportamiento del voltaje o la corriente en un dispositivo es una señal, en un sistema mecánico 
la velocidad, posición fuerza o presión en función del tiempo son también ejemplos de una señal. 
 
En términos matemáticos, una señal puede representarse mediante una función, pero no al revés, ya 
que existen algunas funciones de determinadas características que no pueden ser señales (principalmente 
debido a que no pueden ser generadas por ningún sistema físico). Como por ejemplo la función 
f(x)=tan(x) no puede representar una señal ya ningún parámetro físico puede tener variaciones infinitas. 
En Ingeniería es muy común encontrarse con sistemas que producen señales. En las siguientes 
figuras se muestran algunos ejemplos de algunas señales físicas que se pueden encontrar en 
comunicaciones y que resultan de interés. 
 
 
 
Figura II.1. Tres ejemplos de un EEG de rata tomado del hipocampo. 
 
 
 
Figura II.2. Mediciones discretas de la temperatura promedio en el mes de Enero de 1900 a 1994. 
 
 
 
Figura II.3. Dos ejemplos de una señal digital, multinivel en banda base y binivel modulada. 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 19 
 
 
 
Figura II.4. Una realización de ruido gaussiano aditivo (tomada de un osciloscopio digital). 
 
 
 
 
Figura II.5. La señal de voz de un segmento de 2 s de duración (parte superior), abajo se muestran dos segmentos 
silábicos de los fonemas “a” y “s” de 30 ms de duración cada uno, tomados de la señal de arriba. 
 
 
 
Figura II.6. Dos ejemplos de una señal bidimensional. 
 
 
II.2. La Transformada de Fourier (TdF) en Comunicaciones 
Sabemos que el par de Fourier, o TdF, X() de una señal x(t) se define como: 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 20 






  dtetxdtetxX ftjtj 2)()()( 





 

 dfefXdeXtx ftjtj 2)()(
2
1
)( 
 
de hecho en Comunicaciones es más común utilizar la frecuencia lineal f en Hz que la frecuencia angular 
 en rad/s. 
X(f) tiene una interpretación sumamente útil en el área, y nos indica la distribución del contenido de 
la señal x(t) en un nuevo dominio. Si observamos la expresión de la TdF, si x(t) tiene unidades de volts 
(V), considerando que el factor ejt es adimensional, entonces X() tiene como unidades Vs=V/Hz; es 
decir, es una distribución de voltaje por unidad de frecuencia, y describe la manera en la cual, el voltaje 
relativo de la señal se distribuye en la frecuencia. 
La frecuencia tiene una interpretación física bastante sencilla, y es precisamente debido a la 
universalidad de la base de Fourier: las funciones senoidales {sen(2ft)} y cosenoidales {cos(2ft)}. El 
hecho de que dichas funciones tengan como TdF funciones impulsivas significa que éste tipo de 
funciones están constituidas de una única frecuencia f (y de que éste tipo de funciones se puedan 
implementar con relativa facilidad en laboratorio con generadores electrónicos sencillos; actualmente 
cualquier laboratorio cuenta con generadores de forma senoidal y cualquier estudiante de Ingeniería 
puede construir un generador con un circuito electrónico con 1 UJT y algunos resistores, alimentado con 
una pila). 
Otra de las razones de ello es debido a la simplificación en el análisis de sistemas en Ingeniería, 
entre éstos se encuentran los filtros, moduladores, modelos de canales de comunicación, etc. Es tan 
común el análisis de Fourier que generalmente en un laboratorio se cuenta con un conjunto de 
instrumentos de medición que ya realizan análisis de Fourier (analizadores de redes, analizadores de 
espectro, osciloscopios digitales con análisis espectral, medidores de distorsión armónica, etc) y se usan 
ampliamente en Telecomunicaciones. 
 
Consideremos el ejemplo de una señal periódica, para comenzar. Sea el circuito RC serie que se 
muestra en la figura II.7a, que es un circuito que prácticamente cualquier alumno puede armar en el 
Laboratorio de Electrónica, y alimentarlo con un generador de señales (si no dispone de uno puede usar 
un amplificador operacional en una cierta configuración para obtenerlo). 
 
 
 
Figura II.7. Circuito RC serie y la forma de onda del voltaje que se usa para alimentarlo. 
 
La señal de voltaje que alimenta el circuito se muestra en la figura II.7b, se podrá observar que es 
una forma de onda sencilla dada por: 
 








Tt
T
A
T
tA
tv
2
 
2
0 
)( con v(t)=v(t+T)  tR 
 
Se puede obtener su correspondiente Serie de Fourier (SF) dada por: 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 21 





k
tfj
k ectv
02)( 



pd
d
tfjktfjk
k dtetv
p
etvc
2
22 00 )(
2
1
),( 
 
donde 2p es el periodo de la señal y f0 es la frecuencia fundamental de la misma. Si evaluamos los 
coeficientes de la SdF obtenemos: 
 
 k
T
T
tfjk
T
tfjk
k
k
jA
dtAe
T
dtAe
T
c )1(1
11
2/
2
2/
0
2 00 

 

 
 
donde c0=0 (componente de cd del voltaje), por lo que la SdF (compleja y trigonométrica)del voltaje de 
alimentación es: 
 



















 ...
5
)10(sen
3
)6(sen
)2(sen
4)1(1
)( 000
2 0
tftf
tf
A
e
k
jA
tv
tfjk
k
k
 
 
 Una interpretación directa de la expresión anterior es la de representar la fuente de voltaje de 
señal cuadrada por una serie infinita de fuentes senoidales conectadas en serie; cada fuente tendrá una 
frecuencia (kf0), una amplitud (4A/k en éste caso) y una fase específicas (para éste caso todas se 
encuentran en fase). La TdF de la misma señal es: 
 
  )(
)1(1)1(1
)()( 0
2 0 kff
k
jA
e
k
jA
FtvFfV
k
k
tfjk
k
k









 

 





 
 
se podrá observar que la función anterior es una serie de funciones de Dirac en puntos específicos en el 
dominio de la frecuencia. Si graficamos por separado su magnitud y su fase obtendremos: 
 
 
 
Figura II.8. Espectro de amplitud (arriba) y de fase (abajo) para la señal cuadrada de voltaje (con A=1). 
 
 Se puede observar que la señal tiene la mayor parte de su potencia concentrada en las 
componentes de baja frecuencia, por lo tanto, la fuente de voltaje se puede aproximar por una suma de un 
número finito de fuentes senoidales, lo que hace que el análisis sea de utilidad, ya que la señal se puede 
sintetizar a partir de un número finito de fuentes, este principio se usa bastante en los actuales 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 22 
sintetizadores de música, en los que se puede generar una señal cualquiera (como puede ser una nota de 
un violín o de un piano) siempre que se conozca su espectro (el grado de fidelidad de la señal sintetizada 
depende del número de armónicas que se tomen en la síntesis). 
 
 Continuando con al análisis del circuito, sabemos que la ecuación integral para la corriente es: 
 



0
0
)(
1
)(
1
)()( dxxi
C
dxxi
C
tiRtv
t
 
 
donde el tercer sumando del miembro derecho representa el voltaje inicial del capacitor (generalmente se 
asume que el circuito se enciende en t=0 y que el voltaje inicial del capacitor es 0). Tomando la TdF de la 
ecuación anterior (asumiendo voltaje inicial nulo en el capacitor): 
 
fC
fI
jfIRfV


2
)(
)()( 
por lo que: 
fC
jR
fV
fI



2
1
)(
)( 
 
al término (2fC)-1 se le conoce como reactancia capacitiva y al denominador de la anterior se le conoce 
como impedancia compleja del circuito. Si deseamos la caída de voltaje en el capacitor, ésta será, en el 
dominio de Fourier (usando un divisor de voltaje): 
 
)(
21
1
)(
2
1
2
1
)( fV
fRCj
fV
fC
jR
fC
j
fVC






 
 
donde al primer factor del segundo miembro de la anterior se le conoce como la función de transferencia 
del circuito: 
fRCjfV
fV
fH C


21
1
)(
)(
)( 
 
y ésta es de bastante utilidad de Ingeniería, es la caracterización de un sistema lineal en el dominio de la 
frecuencia. En la siguiente figura se muestra un gráfico con la amplitud y la fase de la función de 
transferencia (mejor conocidos como diagramas de Bode). 
 La respuesta anterior nos muestra claramente que el circuito se comportará como un filtro pasa-
bajas, es decir, las señales que tengan componentes de baja frecuencia pasarán sin gran distorsión por el 
circuito a la salida (el filtro tiene una ganancia unitaria para frecuencias bajas), pero aquellas que tengan 
componentes en alta frecuencia, se verán distorsionadas, ya que se puede observar que el filtro atenuará 
las componentes de alta frecuencia. 
 Ahora, supongamos que la señal de voltaje de entrada v(t) al circuito tiene un periodo de T=100 
ms, entonces la componente fundamental (la delta más alta del espectro de la figura 1.23) se encuentra a 
f=1/T=10 Hz, por lo tanto la escala horizontal de la misma figura es por 10 Hz. Para las condiciones 
anteriores, para obtener la señal de salida del filtro (el voltaje en el capacitor) primero procedemos a 
encontrar la respuesta del filtro a la k-esimo armónico, esto es: 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 23 
 
 
 
Figura II.9. Respuesta en frecuencia (gráficas de Bode) para el circuito (para R=1 K y C=50F). 
 
RCfkj
kfH
0
0
21
1
)(

 
 
por lo tanto, el k-ésimo armónico saldrá con su amplitud modificada por un factor |H(kf0)| y con un 
corrimiento de fase arg[H(kf0)]. De lo anterior, el voltaje de salida es: 
 
RCfkj
e
k
jA
tv
tfjk
k
k
C
0
2
21
)1(1
)(
0






 
 
desarrollando la serie anterior: 
 































...
1015
2
613
2
21
2
0
21
2
613
2
1015
2
...
)(
0
10
0
6
0
2
0
2
0
6
0
10
000
000
RCfj
e
RCfj
e
RCfj
e
RCfj
e
RCfj
e
RCfj
e
jA
tv
tfjtfjtfj
tfjtfjtfj
C
 
 
y obteniendo común denominador por pares y agrupando para sustituir por sus equivalentes funciones 
trigonométricas obtenemos: 
 
   
 
   
 
   
  






























2
0
000
2
0
000
2
0
000
21
2cos222sen2
61
6cos626sen2
3
1
101
10cos10210sen2
5
1
...
2
)(
RCf
tfRCfjtfj
RCf
tfRCfjtfj
RCf
tfRCfjtfj
Aj
tvC
 
 
que finalmente se puede expresar de manera compacta como: 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 24 
 
   
   



impar 
2
0
000
21
2cos22sen4
)(
k
C
RCfkk
tfkRCfktfkA
tv 
 
en la siguiente figura se muestra la señal de salida del circuito (el voltaje en el capacitor): 
 
 
 
Figura II.10. Señal de salida del circuito (la línea interrumpida es la entrada) para T=1 s y para T=0.1 s. 
 
Si bien existen otras técnicas en Ingeniería a las que se puede recurrir para resolver el problema 
anterior (como puede ser la Transformada de Laplace), la anterior es bastante ilustrativa en 
comunicaciones debido a la interpretación física de la frecuencia lineal f. 
 
 
II.3. La información como señal analógica y su modelamiento 
Las anteriores pueden considerarse como señales generadas por una fuente de información, y se 
desea transmitirlas desde un punto a otro lejano mediante un sistema de comunicaciones. Un transmisor 
será el encargado de filtrar y procesar la señal de información para acondicionarla de manera que pueda 
ser transmitida por un medio hacia un receptor, que a su vez deberá realizar el procedimiento inverso con 
el fin de recuperar la señal de información para el destinatario. 
 
¿De qué manera se puede caracterizar una señal de información para su estudio y análisis con el fin de 
analizar los parámetros del sistema de comunicaciones? 
 
Debido a la característica aleatoria de la información (originalmente de acuerdo a Boltzmann y 
después a Shannon), las señales de información son realizaciones (o funciones miembro) de un proceso 
estocástico. Aunque en un sentido estricto no se dispone de una caracterización completa de una señal de 
algún parámetro físico como un proceso estocástico, se ha observado que cumplen con muchas de sus 
características, de manera que se puede asumir que se trata de un proceso estocástico de ciertas 
propiedades o de cierto tipo sin mucha pérdida de certeza. 
 
Ejemplo: La señal elemental de voltaje. 
La señal de voltaje es la forma más sencilla con la que un alumno puede llegar a familiarizarse. Si 
se analiza un circuito electrónico y se mide el voltaje en un punto del mismo (una terminal de algún 
resistor, el emisor de un transistor en un amplificadorde audio, la terminal de salida de un oscilador 
Colpitts, el pin de transmisión de un conector DB-9 a la salida del puerto serial de comunicaciones 
de una PC, etc.) usando un osciloscopio, lo que el alumno verá es una señal X(t) variante en el 
tiempo, ésta se puede considerar como la salida de una fuente de información. Como en 
comunicaciones se desconoce por completo la información que emite la fuente, X(t) tiene un 
comportamiento aleatorio, por tanto si se toma una muestra de voltaje con un voltmetro en un 
instante de tiempo t0, el valor de la amplitud del voltaje medido X(t0) será una variable aleatoria, de 
la misma forma lo serán las muestras X(t1), X(t2), ...; si se observa el comportamiento en el tiempo 
de la señal en un osciloscopio, la señal observada será una de las múltiples posibilidades que se 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 25 
puede encontrar a la salida de la fuente (si la información hubiese sido diferente, entonces la señal 
medida también hubiera sido diferente) por ello la señal medida x1(t) es sólo una realización de lo 
que se puede considerar como el proceso de información X(t), habiendo otras posibilidades x2(t), 
x3(t), ..., etc. Es por esto que dicho proceso se modela como un proceso estocástico, y en general se 
ha observado que los resultados de analizar la información con dicho modelo se acercan mucho a lo 
que sucede en la realidad. 
 
 
II.4. Clasificación de los procesos estocásticos 
 
1. Por su amplitud: 
- Continuos: aquellos para los cuales X(t)R  tR. Ejemplos: ruido blanco y ruido rosa (en canales 
continuos). 
- Discretos: aquellos para los que X(t)={xj}j=1, 2, …, n  tR, es decir, su amplitud sólo puede tomar un 
valor de un conjunto discreto (finito o infinito numerable) de posibles valores. Ejemplos: sistemas 
con cola de espera (telefónicos, redes de cómputo, etc.). 
 
2. Por tiempo: 
- Continuos: aquellos que están definidos en todo tiempo, X(t)   tR Ejemplos: ruido (de amplitud 
continua o discreta), solicitudes de servicio a sistemas con cola de espera. 
- Discretos: aquellos que están definidos sólo en tiempos discretos, X(t)   t{tj}j=1, 2, …, n, donde 
generalmente los instantes tj se encuentran uniformemente espaciados, es decir tk=kT, donde T es una 
constante. Ejemplos: señales digitales de información (cuantizadas, binarias y multinivel). 
 
3. Por la forma de sus funciones muestra: 
- Determinísticos: aquellos para los cuales todo el comportamiento de una función muestra del mismo 
está determinado por valores pasados del mismo. Ejemplos: generadores de forma de onda. 
- No determinísticos: aquellos para los cuales no se puede predecir su comportamiento a partir de sus 
valores pasados. Ejemplos: ruido (en canales discretos o continuos). 
 
4. Por sus características temporales: 
- Estacionarios: aquellos cuyas características estadísticas [los momentos de la variable aleatoria X(t0)] 
no cambian con el tiempo. Ejemplos: ruido blanco y ruido rosa, señales digitales sin memoria. 
- No estacionarios: aquellos cuyas características estadísticas cambian con el tiempo. Ejemplos: 
desvanecimientos en canales móviles, tráfico telefónico de desborde, señales de audio y video (en 
banda base y moduladas). 
- Cuasiestacionarios: aquellos cuyas características estadísticas cambian muy lentamente con el 
tiempo. Ejemplos: señales analógicas de voz y video. 
- Cicloestacionarios: aquellos cuyas características estadísticas cambian de manera periodica. 
Ejemplos: la señal PAM binaria. 
 
5. Por sus características espaciales: 
- Ergódicos: aquellos para los que sus momentos estadísticos son iguales a sus momentos temporales. 
Ejemplos: señales digitales bipolares sin memoria. 
- No ergódicos: aquellos para los que sus momentos estadísticos son diferentes a sus momentos 
temporales. Ejemplos: señales de audio y video. 
 
6. Por sus características espectrales: 
- Pasabajos: aquellos para los cuales su densidad espectral es de soporte compacto alrededor del origen, 
es decir SXX()=0  ||>B, donde B es una constante positiva conocida como ancho de banda 
absoluto del proceso. Ejemplos: señales en banda base (audio y video, analógico y digital). 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 26 
- Pasabanda: aquellos para los que su densidad espectral está definida sólo para un pequeño intervalo 
fuera del origen, es decir SXX()=0  |0|>B, con 0R+  0>B/2 (aunque generalmente es 
>>B/2). Ejemplo: señales con madulación analógica. 
 
7. Por su naturaleza: 
- Reales: aquellos para los que X(t)R. Ejemplos: los anteriores. 
- Complejos: aquellos para los que X(t)C. Ejemplos: envolventes de señales pasabanda, 
representaciones en banda base de señales moduladas (analógicas y digitales). 
 
 
II.5. Caracterización 
Si consideramos una variable aleatoria X como una muestra de la señal en un instante tk, sus 
momentos no centrados están dados por: 
 
       
00
)(






  n
X
n
n
n
X
n
X
nn
n
d
d
j
d
Md
dxxfxXEm
R
 
 
donde X es la variable muestra del proceso en un instante determinado, fX(x) es su fdp, MX() es su 
función generadora de momentos y X() es su función característica, éstas se definen como: 
 
    
 
R
dxexfeEM xX
X
X )(     
 
R
dxexfeE xjX
Xj
X )( 
 
Se podrá observar que fX(x) y X() forman un par de Fourier, se puede mostrar que m0=1 [es el 
área bajo fX(x)] y Xm 1 (es el valor medio de X). Los momentos centrados serán: 
 
  nn XXE  
Algunas identidades útiles son: 
 
10  01  
2
12
2
2 mmX  
3
12133 3 mmm  
 
Una manera común de caracterizar a las señales en Ingeniería es mediante sus momentos, en la 
siguiente tabla se muestran algunas métricas de la señal que son bastante comunes de medir en laboratorio 
(suponiendo que la señal es de voltaje): 
 
Parámetro Variable momento 
Componente de cd Vcd m1 
Potencia P m2 
Potencia de ca Pca 2 
 
Si la señal es no estacionaria, entonces sus momentos serán función del tiempo, y en ese caso los 
parámetros se les denominará instantáneos, es decir, una señal tendrá componente de cd instantánea, 
m1(t), potencia de cd instantánea, m2(t) y potencia de ca instantánea 2(t). 
Si bien, una señal es sólo una de las múltiples realizaciones del proceso estocástico, lo anterior se toma 
como válido. 
 
 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 27 
II.5.1. La media estadística y la media temporal 
Se define la media estadística de un proceso como: 
 
 )()()(1 tXEtXtm  
 
mientras que la media temporal se define de manera análoga al valor medio de una función x(t), mediante 
el operador A{}: 
  



T
T
T
dttx
T
tx )(
2
1
lim)(A 
 
debido a la naturaleza de la anterior, se aplica sólo a funciones miembro de un proceso, por lo anterior, 
existe la posibilidad de que cada función miembro del proceso tenga una media temporal diferente. 
 
 
II.5.2 Momentos estadísticos: La función de correlación cruzada (CCF) y la función de covarianza 
cruzada 
Sabemos que la CCF entre dos procesos estocásticos se define como: 
 
     1*111 ),( tYtXEttRXY 
 
y resulta bastante útil en Comunicaciones, se utiliza como una medida de la relación estadística que tienen 
las variaciones de una señal aleatoria en instante determinado con respecto a las variaciones de otra señal 
aleatoria en otro instante de tiempo diferente. 
Adicionalmente, otra función de bastanteutilidad es la función de covarianza cruzada que se define 
como: 
 
               1*111*111111 ),(),( tYtXttRtYtYtXtXEttK XYXY 
 
 
II.6 Estacionaridad 
Como sabemos, un proceso estocástico es estacionario de orden n si sus n primeros momentos son 
independientes del tiempo. Si n=2 el proceso es estacionario en sentido amplio (WSS), mientras que si 
todos los momentos son independientes de t entonces el proceso es estacionario en sentido estricto (SSS). 
Por ejemplo, en la figura II.4 se muestra una función muestra de ruido blanco y en la figura II.5 se 
muestra una función muestra de la voz humana. Se puede apreciar en la figura como en ambas señales el 
valor de la componente de cd (media) es constante en el tiempo, por lo que se podría inferir que ambos 
son casos de procesos estacionarios de orden 1. A diferencia de la media, se podrá observar que la 
potencia instantánea es variable en el tiempo para el caso de la señal de voz, mientras que el ruido blanco 
mantiene su potencia instantánea constante, por lo que éste es un proceso WSS, mientras que la voz 
humana no lo es. Si a lo anterior le agregamos que el ruido blanco es el resultante de la suma de múltiples 
tipos de variaciones de voltaje debidas a dispositivos, por el teorema del límite central, la suma de todos 
éstos efectos tenderá a tener un comportamiento gaussiano, por esto y debido a que un proceso gaussiano 
queda completamente determinado por su media y su función de autocorrelación [si consideramos que la 
variable aleatoria X(t1) es estadísticamente independiente de la variable X(t2) para t1t2 (para cuando t1=t2 
se trata de la potencia instantánea de la señal) el ruido es puramente blanco, si hay un cierto grado de 
dependencia entre ambas variables se trata de ruido coloreado], entonces el AWGN es un proceso SSS 
(los momentos de alto orden del proceso son nulos). 
 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 28 
Ejemplo. Sonido de una cuerda: Consideremos la siguiente señal muestra: 
 
 
Figura II.12. Señal muestra del sonido de la cuerda (superior azul), su media (superior rojo) y su varianza 
(inferior) instantáneas. 
 
La anterior es el sonido que produce una cuerda en una guitarra, se obtuvo un estimado de su media 
y su varianza en función del tiempo (usando una ventana deslizante de 300 muestras de longitud). 
Se podrá observar que la media es prácticamente 0*; otro punto importante es como la varianza 
instantánea es función altamente dependiente del tiempo. Por lo anterior, se podría decir que el 
sonido de la cuerda es un proceso estacionario de orden 1, pero no es WSS†. 
 
 
Ejemplo. Un generador senoidal: Ahora analicemos el problema de un generador de señal 
senoidal, en la siguiente figura se muestra un ensamble de tan sólo 5 posibles funciones de las 
múltiples posibles, se podrá observar claramente que la diferencia entre ellas es la fase inicial de la 
misma, ello dependerá en general del instante en el que se enciende el generador y a las 
características mismas de los circuitos que se utilizan para su generación. El proceso se puede 
modelar con la siguiente expresión: 
 
  tAtX cos)( 
 
donde A es la amplitud de la señal, =2f es la frecuencia angular de la misma, f es la frecuencia 
lineal y  es una variable aleatoria que representa la fase inicial de la señal, podemos suponer que 
ésta está distribuida uniformemente en (-,]. Se podrá observar de la expresión que el proceso es 
determinístico. 
 
 
* Conforme se aumente la longitud de la ventana la media tenderá a 0. 
† El sonido producido por una cuerda de manera sostenida se aproxima más a un proceso WSS. 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 29 
 
 
Figura II.12. Ensamble de 5 de las posibles señales de salida del generador. 
 
La media estadística del proceso es: 
 
    
 
 
    
     0sencos2
2
2
sen
2
cos2
2
sensen
2
sen
22
cos
cos)()(1














 





 















t
A
ttttA
tt
A
t
A
d
t
AtAEtXEtm
 
 
que es algo que se esperaba dado el comportamiento de las gráficas de {xk(t)}. Ahora, la función de 
autocorrelación del proceso es: 
 
         
    
     
    
   
   
       
2
cos
2
22sen22sen
42
cos
2
22sen
42
cos
2
22cos
22
cos
22coscos
2
cos
2
1
cos
2
1
coscos
coscos)()(,
222
22
22
2
2
2
*

































AttAA
tAA
d
tAA
tE
A
ttttEA
ttEA
tAtAEtXtXEttRXX
 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 30 
donde se puede ver que es independiente de t, es decir, RXX(t,t+)=RXX(), por lo tanto, de los dos 
resultados anteriores podemos concluir que el proceso X(t) es WSS. 
 
 
II.7. Ergodicidad 
Un proceso se dice que es ergódico cuando sus momentos temporales son iguales a sus momentos 
estadísticos. 
Una manera de interpretar lo anterior es mediante lo siguiente: Si se tiene una fuente de 
información , y esta emite señales que se modelan como un proceso estocático X(t) (WSS al menos). Un 
posible evento de información de la fuente sería x1(t), y lo mismo serían {xk(t)}kZ; en la práctica 
generalmente es imposible analizar todo el conjunto de señales {xk(t)}kZ, pero si X(t) es ergódico, 
entonces los momentos estadísticos: 
 
  XtXEtX  )()( 
         )(),(   XXtXtX RtXtXEttR 
 
serán iguales a los momentos temporales: 
 
 )(txkA 
 )()(  txtx kkA 
 
serán iguales*. Por lo tanto no sería necesario analizar cada una de las señales {xk(t)}kZ, ya que sus 
momentos serían iguales a los de una sola de ellas. En laboratorio ello implica mucho, ya que se puede 
utilizar un generador y obtener una sola realización del proceso (una señal en un tiempo finito 
considerable) y analizar sus momentos temporales (en el tiempo y en la frecuencia), y con ello los 
resultados serían representativos del proceso completo X(t). 
En una señal de voz, la ergodicidad se puede apreciar considerando la voz de una persona como una 
señal muestra del proceso, por tanto dos personas proporcionan señales diferentes; se podrá observar que 
la media temporal de cada señal es nula, así como la media estadística para las muestras de las señales en 
un instante de tiempo determinado, por ello se puede inferir que la señal de voz en un proceso estocástico 
ergódico de orden 1 (pero no es ergódico de orden 2 ya que la potencia instantánea de la señal es variante 
en el tiempo). 
 
 
Ejemplo. El generador senoidal (cont.): Analicemos nuevamente el problema de un generador de 
señal senoidal; obtengamos la media temporal del proceso: 
 
      
     
                















 
T
TTT
A
T
TT
A
T
t
A
dttA
T
tAtX
T
T
T
T
T
T
T
T
2
sencoscossensencoscossen
lim
2
sensen
lim
2
sen
lim
cos
2
1
limcos)( AA
 
 
* Si ambos momentos son iguiales el proceso sería al menos ergódico en el sentido amplio (WSE). 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. FernandoTéllez A. _________________________________________________________________________ 31 
 
               
   
 
 
0
sen
limcos
2
cos2sen
lim
2
sencoscossensencoscossen
lim)(












T
T
A
T
T
A
T
TTTT
AtX
TT
T
A
 
 
ya que =2f y f=1/T. Por lo que el proceso es ergódico de orden 1, ya que E{X(t)}=A{X(t)}. 
Ahora, si evaluamos el momento temporal de orden 2: 
 
       
    
     
    
 
  












22cos
22
cos
22coscos
2
cos
2
1
cos
2
1
coscos
coscos)()(
22
2
2
2
*
t
AA
t
A
ttttA
ttA
tAtAtXtX
A
A
A
A
AA
 
Usando un desarrollo parecido al realizado con la media temporal, se puede mostrar que el 
segundo sumando de la anterior es 0, por tanto: 
 
   
2
cos
)()(
2
* 
A
tXtXA 
 
por lo que el proceso es WSE, lo cual implica en general que, se obtendrán los mismos resultados si 
se analizan n señales de salida de un solo generador, a que si se analizaran las salidas de n 
generadores de las mismas características. 
 
 
II.8. Cicloestacionaridad 
Un proceso cicloestacionario X(t) es aquel para el que la pdf cumple con: 
 
   
  nn
ntXtXtXntXtXtX
tttn
TtTtTtftttf
nn
RZ 

...,,, 
 ...,,,...,,,
21
21)()...()(21)()...()( 2121
 
 
también se contemplan los casos particulares de procesos cicloestacionarios en el sentido amplio (WSCS) 
y cicloestacionarios en el sentido estricto (SSCS). 
Un ejemplo particular de procesos cicloestacionarios es la señal PAM binaria*, que es la que 
generalmente se utiliza para transmisiones de información digital en banda base, ésta se define como: 
 



Nn
n nTthatX )()( 
 
 
* Probability, Random Variables and Stochastic Processes. A. Papoulis, 4ª ed, McGraw Hill, 2002. 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 32 
donde an es una secuencia de realizaciones de una variable aleatoria binaria, T es el periodo de símbolo* y 
h(t) es la respuesta al impulso del conocido como filtro formador de pulso (es una función deterministica). 
Si tomamos la media estadística de la anterior: 
 
     









NNN n
n
n
n
n
n nTthaEnTthaEnTthaEtXEtm )()()()()(1 
 
que es dependiente del tiempo [X(t) es no estacionario], el momento de segundo orden es: 
 
 
  

  









N NN N
NN
n m
aa
n m
mn
m
m
n
nXX
mTthnTthmnRmTthnTthaaE
mTthanTthaEtXtXEttR
)()()()()(
)()()()(),(
***
***
 
 
En las anteriores se puede mostrar que m1(t)=m1(t+kT) y RXX(t,t+)=RXX(t+kT,t+kT+) para kZ, es 
decir, ambos momentos son periódicos con periodo T, por ello la señal PAM es un proceso 
cicloestacionario. 
Dado que la autocorrelación de la señal PAM es variante en el tiempo, en Ingeniería es más 
práctico trabajar con su media temporal, es decir: 
 
   
T
XXXXXX dtttR
T
ttRR
0
),(
1
),()( A 
 
pero más útil es su densidad espectral promedio, que se definirá más tarde. 
 
Dos casos muy conocidos de señales PAM son: 
 
a) an={+5,0} Vcd para una señal PAM TTL (como la mayor parte de los circuitos digitales con los 
que trabajan los alumnos), y 
b) an={-25,+25} Vcd para el caso de una señal PAM RS-232 (puerto serial de una PC, aunque 
trabaja con lógica negativa). 
 
 
II.9. Momentos en la frecuencia: Análisis espectral 
Como ya se analizó en una sección previa, el análisis espectral es de vital importancia en 
comunicaciones. Sabemos que si x1(t) es una función muestra de un proceso X(t), entonces x1(t) tiene TdF 
X1(f), es decir, X1(f) es el espectro de x1(t) en la frecuencia. Pero {Xk(f)}kZ es un ensamble de funciones 
muestra de otro proceso estocástico X(f) definido por: 
 



 dtetXf ftj2)()(X 
 
donde la integral anterior existe en el sentido Riemann cuadrático medio [o que el proceso X(t) sea 
continuo en el sentido cuadrático medio*]. Evidentemente no es conveniente atacar el análisis espectral 
 
* Si la variable a no es una variable binaria, entonces la transmisión es multinivel y los símbolos son de más de un 
bit (generalmente el universo de a tiene una cardinalidad de una potencia entera de 2 si la transmisión es binaria). 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 33 
vía X(f), en primer lugar debido a que alguna (o para la mayoría) de las TdF {Xk(f)}kZ puede no existir†, y 
también debido a la complejidad de los tópicos necesarios, pero se puede optar por hacerlo vía los 
momentos de X(t) en el dominio de la frecuencia. 
 
 
II.9.1. La Densidad Espectral de Potencia 
 Para un proceso aleatorio X(t), sea xT(t) definida como la porción de una función muestra x(t) que 
exista entre - T y T (intervalo que denominaremos I); esto es 
 
 
 


 

caso otro 0
 TtTtx
txT 
 
Lo anterior siempre y cuando T sea finito, suponemos que xT(t) tiene sus valores limitados, y safisface: 
 


T
T
T dttx )( 
y su TdF XT(ω) es: 




 
T
T
tj
T
T
tj
TT dtetxdtetxX )()()( 
 
La energía contenida en x(t) en I es‡: 
 
   


T
T
T
T
Tx dttxdttxE
22
 
 
Puesto que XT(ω) es la TdF de xT(t), sus energías se deben relacionar con XT(ω) por el teorema de 
Parseval, es decir: 
 
  




 dXdttxE T
T
T
Tx
22 )(
2
1
 
 
Dividiendo las anteriores por 2T, obtenemos la potencia media Px en x(t) sobre I: 
 
  





 d
T
X
dttx
TT
E
P
T
T
T
T
x
x
2
)(
2
1
2
1
2
2
2 
 
En este punto observamos que |XT(ω)|2/2T es la densidad espectral de potencia de xT(t). En general al dejar 
que T llegue a ser arbitrariamente grande para incluir toda la energía en el segmento del conjunto, para 
 
* El proceso X(t) es continuo, en el sentido cuadrático medio, para cualquier tiempo t(0,T), si 
  12)()(  aCtXtXE donde C y a son constantes positivas y t, t+  (0,T). 
† Los problemas se complican aún más si se considera la Transformada de Laplace. 
‡ Asumimos un proceso verdadero X(t) e interpretamos x(t) como el voltaje o la corriente a través de una impedancia 
de 1Ω en un circuito. 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 34 
ello está claro que debemos aplicar a la forma el límite cuando T y tomar el valor esperado para 
obtener una densidad espectral de energía para el proceso estocástico, es decir: 
 
  
 









 d
T
XE
dttXE
T
P
T
T
T
T
T
X
2
)(
lim
2
1
2
1
lim
2
2 
 
Si sustituimos por el operador A{}, la media temporal, en el primer miembro de la anterior, la anterior se 
puede expresar como: 
     )(
2
1
lim 22 tXEdttXE
T
P
T
T
T
X A 


 
 
Para un proceso WSS,   22 )( XtXE  es una constante, y 2XPX  . Segundo PX se puede obtener por 
una integración del dominio de la frecuencia. Si definimos la densidad espectral de potencia para el 
proceso estocástico: 
 
  
T
XE
S
T
T
XX
2
lim
2



 
Entonces: 
 




 dSP XXX
2
1
 
 
 
Ejemplo. Consideremosel proceso estocástico: 
 
)cos()( 00  tAtX 
 
Donde A0 y ω0 son constantes reales y Θ es una variable aleatoria uniformemente distribuida en el 
intervalo (0, π/2). Encontremos la potencia media PX en X(t) encontrando la media estadística: 
 
       
  
)2sin(
2
)22cos(
2
22
22cos
22
22cos
22
cos
0
2
0
2
0
2
0
0
2
0
2
0
0
2
0
2
0
0
2
0
2
0
0
22
0
2
t
AA
dt
AA
tE
AA
t
AA
EtAEtXE
















 
 
Se podrá observar que X(t) no es estacionario, ya que E{X2(t)} es variable en el tiempo. El 
promedio temporal de la anterior es: 
 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 35 
   
22
lim
4
cos
4
cos
22
1
lim)2cos(
22
1
lim
)2(sen
2
1
lim)2(sen
22
1
lim
2
0
2
0
0
2
02
00
0
2
02
0
0
2
02
00
2
0
2
02
A
T
TA
T
T
T
T
A
TA
T
t
A
TA
T
dtt
A
TA
T
dtt
AA
T
tXE
T
T
T
T
T
T
T
T
T
T
T


















 





 





































 APx
 
 
Ahora, reconsideramos el proceso para encontrar PX(ω) y la potencia media PX evaluando 
directamente la TdF. Para XT(ω): 
 
 
  
 
  
  




























T
T
e
T
T
eTA
dteedtee
A
dtetAX
jj
T
T
tjj
T
T
tjj
T
T
tj
T
0
0
0
0
0
)()(0
00
sensen
2
)cos(
00 
 
Ahora determinamos |XT()|2=XT()X
*
T() y encontramos después su valor esperado. Después de 
una reducción algebraica simple obtenemos. 
 
 
  
 
    
 
  
 
  
 
  
 
 
 
     
  
 
  
 
 
    
  
  



















































 
2
0
0
2
02
0
22
0
0
2
2
0
22
0
0
2
0022
0
222
0
0
2
22
0
22
0
0
2
0
0
0
022
22
0
0
2
22
0
2
sen
2cos2cos
2cossen
sen
sensen
2cos2sen
sensensensen
T
TT
T
A
T
T
TT
TT
T
TA
T
T
T
T
T
T
ee
T
T
TAX jjT
 
 
y tomando el valor esperado: 
 
     
 
 
    
  
 
  
 
   
  
  
 20
0
2
2
02
0
2
02
02
0
0
2
2
0
2
0
0
2
02
0
22
0
0
2
2
0
2
sen
2cos
2cos2cossen
sen
2cos2cos
2cossen


























T
AE
TT
A
T
A
T
TT
T
EAXE T
 
 
pero: 
 
    
     
0
0sensen2sen2
2cos2cos
2
0
2
0










 dE 
 
por lo tanto: 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 36 
     
 
  
  













2
0
0
2
2
0
0
2
2
0
2 sensen TT
AXE T 
 
si la anterior es la densidad de energía media en la frecuencia, la densidad de potencia 
correspondiente es: 
 
 
     
 
  
 
  
  
  
   


































2
0
0
2
2
0
0
22
0
2
0
0
2
2
0
0
22
0
2
sensen
2
lim
sensen
2
lim
2
lim
T
TT
T
TTA
TT
T
A
T
XE
S
T
T
T
T
XX
 
 
Pero sabemos que: 
)(
)sin(
lim
2








 T
TT
T
 
por tanto: 
 )()(
2
)( 00
2
0 


A
S XX 
 
Finalmente, utilizando la anterior podemos encontrar la potencia del proceso: 
 
   
2
)()(
22
1
2
1
2
0
00
2
0 Ad
A
dSP XXX 




 




 
 
que es lo que ya habíamos encontrado previamente en el dominio del tiempo. 
 
 
II.9.2. Propiedades de la Densidad Espectral de Potencia 
 La densidad espectral de potencia de un proceso X(t) real tiene algunas propiedades interesantes, a 
continuación se muestran las más importantes: 
 
 i)   0XXS 
 ii)     XXXX SS 
 iii)   RSXX  
iv)   )()(
2
1 2 tXEAdSXX 
 


 
v)     XXXX SS
2
 
vi)     XX
F
XX SR 
 
De las anteriores, la última es de las más importantes (también conocida como el Teorema de Wiener-
Khinchine), establece que la función de autocorrelación y la densidad espectral de potencia de un proceso 
estocástico forman un par de Fourier. Ésta es precisamente la forma que se utiliza para caracterizar a los 
procesos en el dominio de la frecuencia, aún cuando sus funciones miembro no tengan TdF, la única 
condición es que deben ser procesos WSS (para que la función de autocorrelación esté definida). 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 37 
Si el proceso no es WSS, entonces se utiliza la propiedad iv, ésta establece que se debe tomar la 
media temporal de la función de autocorrelación, por lo que el par de Fourier quedaría: 
 
 ),()(
2
1

 


 ttRdeS XX
tj
XX A  


  dettRS jXXXX ),()( A 
 
 
II.9.3. El ancho de banda 
Si asumimos que X(t) es un proceso real pasabajas*, es decir, que sus componentes espectrales se 
concentran alrededor de =0 y decrecen en magnitud conforme aumenta la frecuencia. Si analizamos la 
propiedad i de la sección anterior, podríamos pensar que SXX() se comporta como la fdp de una cierta 
variable aleatoria†, a excepción de que la integral de SXX() no es la unidad, pero esto se puede salvar 
normalizándola. 
Si recordamos, la desviación estándar de una variable es una medida de la dispersión media en los 
valores de una variable aleatoria; y si consideramos que la variable es la frecuencia que presenta el 
proceso, entonces la desviación estándar sería una medida de que tanto se desvía ésta de una valor central 
(=0 para éste caso), a éste valor también se le conoce como el ancho de banda rms del proceso, W. De 
la varianza del proceso WSS, W será: 
 









dS
dS
W
XX
XX
)(
)(2
2 
 
Si el proceso no es pasabajas, entonces primero se requiere encontrar cual es la frecuencia media 0 
del mismo: 








dS
dS
XX
XX
)(
)(
0
0
 
 
De la anterior, la densidad espectral de potencia estará concentrada alrededor de las frecuencias 0 y 
0 , y su ancho de banda rms será: 
 
 







0
0
2
0
2
)(
)(4
dS
dS
W
XX
XX
 
 
 
 
* A éste tipo de procesos también se les conoce como procesos en banda base, ya que son los que generalmente se 
encuentran en las señales de información que aún no se encuentran moduladas. 
† Si analizamos que su dominio es la frecuencia angular, podríamos pensar que dicha variable es la frecuencia 
instantánea del proceso X(t). 
Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ 
Prof. Fernando Téllez A. _________________________________________________________________________ 38 
Ejemplo. Dada la densidad espectral de potencia de un proceso X(t): 
 
 22)10/(1
10
)(

XXS 
 
que corresponde a una función de autocorrelación dada por: 
 
     10125 10eRXX 
 
en la siguiente figura se muestran sus gráficas correspondientes: 
 
 
 
Figura II.13. Densidad espectral de potencia y función de autocorrelación para el ejemplo. 
 
Donde el ancho de banda a 6 dB es de 10 rad/s. Obtengamos el ancho de banda rms W.

Otros materiales

Materiales relacionados