Logo Studenta

TFG4277_Manzanedo Vicioso

¡Este material tiene más páginas!

Vista previa del material en texto

Proyecto Fin de Carrera
Ingeniería de Telecomunicación
Formato de Publicación de la Escuela Técnica
Superior de Ingeniería
Autor: F. Javier Payán Somet
Tutor: Juan José Murillo Fuentes
Dep. Teoría de la Señal y Comunicaciones
Escuela Técnica Superior de Ingeniería
Universidad de Sevilla
Sevilla, 2013
Trabajo Fin de Grado
Grado en Ingeniería de las Tecnologías de Telecomu-
nicación
Comunicaciones digitales en Python:
estimación espectral
Autor: Alberto Manzanedo Vicioso
Tutor: Juan José Murillo Fuentes y Francisco Javier Payan Somet
Dpto. Teoría de la señal y comunicaciones
Escuela Técnica Superior de Ingeniería
Universidad de Sevilla
Sevilla, 2022
Trabajo Fin de Grado
Grado en Ingeniería de las Tecnologías de Telecomunicación
Comunicaciones digitales en Python:
estimación espectral
Autor:
Alberto Manzanedo Vicioso
Tutor:
Juan José Murillo Fuentes y Francisco Javier Payan Somet
Profesor Titular
Dpto. Teoría de la señal y comunicaciones
Escuela Técnica Superior de Ingeniería
Universidad de Sevilla
Sevilla, 2022
Trabajo Fin de Grado: Comunicaciones digitales en Python:
estimación espectral
Autor: Alberto Manzanedo Vicioso
Tutor: Juan José Murillo Fuentes y Francisco Javier Payan Somet
El tribunal nombrado para juzgar el trabajo arriba indicado, compuesto por los siguientes profesores:
Presidente:
Vocal/es:
Secretario:
acuerdan otorgarle la calificación de:
El Secretario del Tribunal
Fecha:
Resumen
En este estudio se pretende realizar una introducción al campo de la estimación espectral yen concreto, a la estimación de espectros de potencia aplicado a señales del mundo de
las comunicaciones digitales como son las modulaciones digitales de tipo lineal. Finalmente, se
implementarán las técnicas de estimación analizadas en el lenguaje de programación Python para,
posteriormente, realizar un supuesto experimental aplicando estos métodos a una modulación digital
PAM entre otras cosas.
I
Índice
Resumen I
Notación V
1 Introducción 1
2 Estimación de la densidad espectral: Fundamento teórico 3
2.1 Estimación de la densidad espectral de energía 3
2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 5
2.3 Efectos de enventanado 12
2.4 Zero padding 16
3 Periodograma: métodos no paramétricos 19
3.1 Método de Bartlett 19
3.2 Método de Welch 21
3.3 Método de Blackman y Tukey 22
3.4 Comparación de prestaciones 25
3.4.1 Estimador PSD de Bartlett 26
3.4.2 Estimador PSD de Welch 27
3.4.3 Estimador PSD de Blackman-Tukey 28
4 Estimación espectral de procesos cicloestacionarios 31
4.1 Periodograma cíclico 34
4.2 Métodos de estimación de la función de correlación espectral o espectro cíclico 37
4.2.1 Método de suavizado en frecuencia 38
4.2.2 Método de suavizado en tiempo 39
5 Técnicas de estimación espectral en Python 41
5.1 Algoritmos de estimación de la PSD: periodograma y sus métodos no paramétricos 41
5.1.1 Periodograma 41
5.1.2 Periodograma de Bartlett 42
5.1.3 Periodograma de Welch 43
5.1.4 Periodograma de Blackman-Tukey 45
5.2 Algoritmos de estimación de la SCF: periodograma cíclico y sus métodos derivados 46
5.2.1 Periodograma cíclico 46
5.2.2 Método de suavizado en frecuencia del CP 47
5.2.3 Método de suavizado en tiempo del CP 48
III
IV Índice
6 Ejemplo experimental de estimación espectral: modulación digital lineal 51
6.1 Diseño de un transmisor PAM 52
6.2 Configuración de parámetros del modelo experimental 54
6.3 Resultados experimentales 55
6.3.1 PSD estimada mediante periodograma 56
6.3.2 PSD estimada mediante método de Bartlett 58
6.3.3 PSD estimada mediante método de Welch 59
6.3.4 PSD estimada mediante método de Blackman-Tukey 62
6.3.5 SCF estimada mediante periodograma cíclico 64
6.3.6 SCF estimada mediante el método de suavizado en frecuencia del CP 67
6.3.7 SCF estimada mediante el método de suavizado en tiempo del CP 70
6.4 Conclusiones y análisis finales 74
6.4.1 Detalles generales de la PSD y sus estimaciones 74
6.4.2 Detalles generales de la SCF y sus estimaciones 76
6.4.3 Estimación espectral para otras modulaciones lineales 79
6.4.4 Estimación espectral para modulaciones con ruido 81
Índice de Figuras 83
Índice de Tablas 85
Índice de Códigos 87
Bibliografía 89
Glosario 91
Notación
R Cuerpo de los números reales
C Cuerpo de los números complejos
Z Cuerpo de los números enteros
∈ Contenido en
< Menor que
≪ Mucho menor que
> Mayor que
≫ Mucho mayor que
≈ Aproximadamente igual
∞ Infinito
x → ∞ x tiende a ∞∫
Integral
∑ Sumatorio
∗ operación de convolución
|·| Módulo / Valor absoluto
(·)∗ Conjugado
·̃ Enventanado
F{·} Transformada de fourier
F−1{·} Transformada de fourier inversa
DT FT{·} Transformada de fourier en tiempo discreto (D.T.F.T.)
⟨·⟩ Valor medio de una función
lı́mx→a{·} Límite cuando x tiende a a de una función
e Número e
ejx Exponencial compleja
sen(·) Función seno
cos(·) Función coseno
sinc(·) Función seno cardial normalizada
logn(·) Logaritmo en base n
δ (·) Delta de Dirac
N Número de muestras de la señal x(n) realización de un
proceso aleatorio
M Número de muestras del segmento i de la señal x(n)
K Número de segmentos de la señal x(n) en el método de
Bartlett
L Número de segmentos de la señal x(n) en el método de
Welch
V
VI Notación
t Variable temporal medida en segundos
Tm Periodo de muestreo medido en segundos
T0 Periodo de una señal medido en segundos
f0 Frecuencia de una señal medido en Hercios
T Parámetro temporal medido en segundos
f Variable frecuencial mediada en Hercios
F Variable frecuencial normalizada
Fm Frecuencia de muestreo medida en Hercios
Fc Frecuencia de ciclo normalizada Hercios
B Frecuencia máxima de la señal
BW Ancho de banda
Ex Energía de x medida en julios
Ts Tiempo de símbolo medido en segundos
Tb Tiempo de bit medido en segundos
Rs Tasa de símbolo medido en símbolos
Rb Tasa de bit medido en bits por segundo
M Número de símbolos de la modulación
k Número de bit por símbolo
Eav Energía media de símbolo medida en julios
Eb Energía media de bit medida en julios
An Proceso aleatorio discreto estacionario en sentido débil
p(t) Pulso conformador de modulación lineal
Px Energía de x medida en vatios
x(t) Señal continua dependiente del tiempo
x(n) Señal discreta dependiente de la variable discreta n
xm(n) Resultando de muestreo de la señal x
xi(n) Segmento i de la señal x
xN(n) Señal discreta dependiente de n truncada a N puntos
x̃(n) Señal discreta dependiente de n enventanada
X( f ) Espectro en frecuencia de la señal x
X(F) Espectro en frecuencia normaliza de la señal x resultado
de D.T.F.T.
X̃( f ) Espectro de la señal x enventanada
Rx(τ) Autocorrelación de la señal x
rx(n) Autocorrelación discreta de la señal x
Sx( f ) Densidad espectral de energía de la señal x
Sx(F) Densidad espectral de energía de la señal x en frecuencia
normalizada resultado de D.T.F.T.
X(t,ν) Proceso aleatorio X
XT ( f ,ν) Proceso aleatorio truncado entre −T/2 y T/2
X(t) Variable aleatoria resultado de un proceso aleatorio para
un instante de tiempo t
mx Media de la señal x
mX(t) Valor esperado del proceso aleatorio X
E[X ] Valor esperado del proceso aleatorio X
Var[X ] Varianza del proceso aleatorio X
σX Desviación típica del proceso aleatorio X
fX(t) Función densidad de probabilidad del proceso aleatorio
X en el instante t
f̂ (x) Estimador de la función f (x)
Notación VII
γX(t1,t2) Autocorrelación estadística del proceso aleatorio X
γX(τ) Autocorrelación estadística del proceso aleatorio estacio-
nario X
γ̃X Autocorrelación estadística enventanada del proceso alea-
torio estacionario X
ΓX( f ) Densidad espectral de potencia del proceso aleatorio X
xν0(t) Señal continua resultado de la realización del proceso
aleatorio X(t,ν)
Pxν0 (t) Potencia de xν0(t) mediada en vatios
Sxν0 ( f ) Densidad espectral de energía de xν0(t)
Px(F) Periodograma
Pix(F) Periodograma del segmento i de la señal x
PBx (F) Periodograma de Bartlett
PWx (F) Periodograma de Welch
PBTx (F) Periodograma de Blackman-Tukey
w(n) Ventana cualquiera
W (F) Espectro de ventana cualquiera
wB(m) Ventanade Bartlett
WB(F) Espectro de ventana de Bartlett
rA Coeficiente de Pearson del periodograma de tipo A
rB Coeficiente de Pearson del periodograma de Bartlett
rW Coeficiente de Pearson del periodograma de Welch
rBT Coeficiente de Pearson del periodograma de Blackman-
Tukey
∆F Resolución espectral
a Múltiplos enteros de la frecuencia fundamental de ciclo
γ
a/T0
X (τ) Función de autocorrelación cíclica ó autocorrelación cí-
clica del proceso aleatorio WSCS X (CAF)
Ra/T0x (τ) Estimador de CAF en dominio continuo
ra/T0x (n) Estimador de CAF en dominio discreto
Γ
a/T0
X (τ) Función de correlación espectral o espectro cíclico del
proceso aleatorio WSCS X (SCF)
Pa/T0x (F) Periodograma cíclico
Pa/T0x,sym(F) Periodograma cíclico simétrico
1 Introducción
En las últimas décadas, las comunicaciones digitales han cobrado más y más relevancia en el mundo
tecnológico. Hoy en día, infinidad de procesos y sistemas dependen en cierto punto de este tipo
de técnicas de comunicación. Estas son implementadas mediante modulaciones digitales que, de
manera resumida, consiste en agrupar los bits de información a enviar en M paquetes diferentes
de k bits cada uno de tal forma que a cada paquete de bit se le asigna una función denominada
pulso conformador. Estas funciones que representan las agrupaciones de bit se van transmitiendo
de manera sucesiva generándose así una transmisión digital.
Para caracterizar este tipo de modulaciones es necesario recurrir a la estadística, en concreto al
campo de los procesos aleatorios. Esto ofrece un modelo matemático independiente de la información
a enviar, es decir, no depende del conjunto de bit o mensaje que se quieran transmitir y, por tanto,
representa de manera fehaciente el sistema de comunicaciones digitales al completo ya que, es
válido para cualquier transmisión.
Tanto para diseñar este tipo de sistemas como para poder caracterizarlos, es de gran importancia
conocer cómo se distribuye la potencia inyectada en la transmisión a lo largo del espectro, de
esta forma, se puede entre otras cosas determinar el ancho de banda ocupado para así obtener el
canal requerido o la interferencia que podría provocar la transmisión en componentes espectrales
adyacentes pertenecientes a otras transmisiones. La función que mide esta distribución de potencia
en el espectro se denomina densidad espectral de potencia (PSD) y será el principal objeto de
estudio de este trabajo.
Puesto que las modulaciones digitales se definen a través de procesos aleatorios su determinación
experimental al completo carece de sentido. Pese a esto, se pueden estimar ciertas propiedades
mediante funciones de realizaciones del propio proceso, es decir, transmisiones concretas. A estas
funciones se las conoce como estimadores. En este punto, la palabra determinación debe ser
cambiada por la palabra estimación la cual da nombre al campo de estudio en que se enmarca este
trabajo, estimación espectral.
Con todo esto, el objetivo final será estimar la distribución espectral de potencia de modulaciones
digitales de tipo lineal. Para ello se hará un análisis deductivo donde, en el capítulo 2 se hará una
breve introducción teórica a la estimación de la PSD para señales deterministas de energía finita para
posteriormente dar el salto a señales de potencia como son los procesos aleatorios estacionarios,
donde se encontrará un primer estimador para la PSD, el periodograma.
A continuación, en el capítulo 3, se hará un recorrido por las principales técnicas de estimación
derivadas del periodograma, conocidas como métodos no paramétricos donde se hará un análisis
cualitativo de las principales características que estos ofrecen.
En el capítulo 4 se dará paso al análisis espectral de las modulaciones digitales lineales donde se
verá que estas pertenecen a una nueva categoría de procesos aleatorios denominados cicloestaciona-
rios (WSCS) para la cual, la esperanza y autocorrelación estadísticas presentan una distribución
periódica con periodo denominado periodo cíclico. cómo se estudiará en este capítulo, las técnicas
1
2 Capítulo 1. Introducción
de estimación derivadas del periodograma serán del todo válidas para estimar la PSD de este tipo
de procesos.
Debido a las propiedades cicloestacionarias, surge una nueva visión del concepto de distribución
de potencia en el espectro puesto que, existirán componentes espectrales correlacionados separados
por múltiplos de la frecuencia de ciclo fundamental (inversa del periodo cíclico) que mostrarán
distribuciones de potencia distintas de cero. Esta función de potencia espectral recibe el nombre
de espectro cíclico o función de correlación espectral (SCF). En el caso de los procesos aleatorios
WSS, estas correlaciones son nulas y, por tanto, la SCF es la propia PSD. De la misma forma,
tomando una diferencia de frecuencias nula, es decir, un múltiplo de cero en la frecuencia de ciclo,
se obtendrá la PSD del proceso WSCS.
Con todo esto, para finalizar este capítulo se analizará el periodograma cíclico, así como dos
métodos derivados de este capaces de estimar la SCF. Además, se verá que se mantiene la generalidad
respecto a la SCF con la PSD donde al tomar nula la frecuencia de ciclo en el periodograma cíclico,
este convergerá al periodograma visto en el capítulo 3.
En capítulo 5 se dará paso a la implementación en el lenguaje de programación Python de los
métodos de estimación estudiados para finalmente en el capítulo 6 hacer un supuesto experimental
donde se pondrán en práctica estas técnicas para estimar la PSD y la SCF de una modulación digital
lineal de tipo PAM. Como añadido, al final de este capítulo se realizarán una seria de aclaraciones y
generalizaciones respecto a los resultados obtenidos además de nuevos análisis donde se añadirá
ruido al sistema o se propondrá una nueva modulación.
2 Estimación de la densidad espectral:
Fundamento teórico
A lo largo del siguiente capítulo, se hará una introducción a la estimación espectral pasando
primeramente por la densidad espectral de energía hasta encontrar el estimador periodograma para
la densidad espectral de potencia de procesos aleatorios [15, 17].
2.1 Estimación de la densidad espectral de energía
Se va a considerar una señal determinista en tiempo continuo x(t) de energía finita la cual puede
obtenerse como:
E =
∫
∞
−∞
|x(t)|2dt < ∞ (2.1)
Además, se supondrá que su transformada de Fourier X( f ) existe. Según el teorema de Parseval [1],
la energía de x(t) puede describirse a través de su transformada de Fourier.
E =
∫
∞
−∞
|x(t)|2dt =
∫
∞
−∞
|X( f )|2d f (2.2)
Al termino |X( f )|2 se le denomina densidad espectral de energía de x(t) (ESD) puesto que
representa la distribución energética de esta a lo largo de todo el espectro de frecuencias.
Sx( f ) = |X( f )|2 (2.3)
Esta función espectral se puede obtener, a partir de su correspondiente función temporal aplicando
la transformada de Fourier inversa. Dicha función temporal representa la autocorrelación de la señal
x(t) y se define como:
Rx(τ) =
∫
∞
−∞
x∗(t)x(t + τ)dt (2.4)
Según lo expuesto, existen dos vías para obtener la ESD de x(t). Una de ellas es calcular primera-
mente la autocorrelación de x(t) para posteriormente hallar la transformada de Fourier de esta, lo
que se conoce como método indirecto. Y la segunda consiste en aplicar la ecuación (2.3) calculando
la transformada de Fourier de x(t) de manera directa para posteriormente obtener el módulo de esta
al cuadrado.
Si bien, ambos caminos implican funciones continuas que no pueden ser manejadas en softwares
de cálculo y, por tanto, impiden obtener técnicas de estimación realizables de manera practica
3
4 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico
sobre funciones reales las cuales son discretas y de longitud finita. En un primer acercamiento para
solventar esta problemática, se realizará un muestreo periódico sobre la señal x(t) a una frecuencia
de muestreo Fm la cual se supondrá, cumple con el criterio de Nyquist (Fs > 2B). Esta versión
muestreada de la señalx(t) es una secuencia discreta que se denotará como x(n), −∞ < n < ∞.
En este caso, para obtener el espectro en frecuencia de x(n), se debe recurrir a la transformada de
Fourier en tiempo discreto (DTFT) definida como:
X(F) =
∞
∑
n =−∞
x(n)e− j2πFn (2.5)
Donde F = f/Fs. Análogamente al estudio en tiempo continuo, la autocorrelación de x(n) se puede
computar recurriendo a la definición de la operación de convolución discreta.
rx(m) =
∞
∑
n =−∞
x∗(n)x(n+m) (2.6)
Al igual que ocurría en el caso de la señal continua x(t), se puede demostrar, según el teorema de
Wiener-Khinchin [5], que la DTFT de rx(m) es la ESD definida en el dominio F de x(n).
Sx(F) =
∞
∑
m =−∞
rx(m)e− j2πFm (2.7)
Sustituyendo la ecuación (2.6) en la ecuación anterior, la ESD se puede expresar de manera
directa a través de la DTFT de x(n).
Sx(F) = |X(F)|2 (2.8)
A pesar de obtener una expresión para ESD de x(t) a través de su versión muestreada x(n), sigue
existiendo el problema de la infinitud de las muestras. De esta forma y para terminar de asimilar
el supuesto a un caso real, se supondrá un truncamiento finito de N muestras de x(n). Esto se
puede expresar matemáticamente como el producto de la señal x(n) de infinitas muestras, por una
señal rectangular de N muestras unitarias w(n) (ventana). A este procedimiento se le conoce como
enventanado, de tal forma que, la relación entre x(n) y la señal enventanada x̃(n) es
x̃(n) = x(n)w(n) =
{
x(n), 0 ≤ n ≤ N −1
0, e.o.c (2.9)
Si ahora se pretende obtener el espectro de la señal truncada, es fácilmente notable que el resultado
será la convolución del espectro de la señal x(n) con el espectro de la ventana w(n).
X̃(F) =
∫ 1/2
−1/2
X(α)W (F −α)dα (2.10)
Al final de este capítulo se dedicará una sección a los efectos del enventanado, como adelanto,
decir que enventanar una señal provoca una distorsión o deformación del espectro de la señal real el
cual depende de manera directa de las características de la ventana. Aparece un fenómeno conocido
como fuga espectral donde el espectro se expande hacia frecuencias donde el espectro real debería
ser cero. Este fenómeno se muestra a través de la aparición de lóbulos los cuales tanto su ancho
como altura y número dependen de la ventana seleccionada. Además, como se ha adelantado ya,
existen multitud de ventanas diferentes que se adecuan a cada caso en cuestión ofreciendo diferentes
posibilidades en cuanto a resultados obtenidos.
De esta discusión se concluye que, puesto que la señal enventanada x̃(n) ofrece un espectro
aproximado al de la señal real x(n) que depende principalmente de la ventana, la densidad espectral
2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 5
de energía resultante heredará también estas propiedades, puesto que, según la ecuación (2.8) la
ESD de una ruta de muestras finitas x̃(n) será:
Sx̃(F) = |X̃(F)|2 =
∣∣∣∣∣ N−1∑n = 0 x̃(n)e− j2πFn
∣∣∣∣∣
2
(2.11)
lo cual mantiene los efectos del enventanado y, por esto, la ESD así obtenida será una versión
aproximada de la ESD real.
La expresión dada en (2.11) puede ser computada de manera numérica recurriendo al transformada
de Fourier discreta (DFT). Esta transformada es una versión discreta de la DTFT puesto que esta,
a pesar de estar definida a través de una señal discreta, el dominio F que resulta sigue siendo
continuo y, por esto, no puede ser calculado numéricamente. Para ello, la DFT plantea un muestreo
en un periodo de la función Sx̃(F) de N frecuencias equiespaciadas. Existe un algoritmo altamente
eficiente conocido como FFT (transformada rápida de Fourier) que permite implementar la DFT de
cualquier señal discreta. Matemáticamente, esta operación se puede expresar como
Sx̃
(
F =
k
N
)
=
∣∣∣∣∣ N−1∑n = 0 x̃(n)e− j 2πkN n
∣∣∣∣∣
2
= Sx̃(k) (2.12)
Notar que, este resultado es aún más si cabe, una versión aproximada del espectro real Sx( f ).
2.2 Estimación de la densidad espectral de potencia de procesos aleatorios
WSS: Periodograma
Hasta ahora se han considerado señales deterministas de energía finita las cuales poseen transformada
de Fourier y pueden ser caracterizadas a través de su densidad espectral de energía. Además de
este tipo de señales, existen multitud de casos en las que las señales involucradas no pueden ser
modeladas de esta manera puesto que no son deterministas o poseen energía infinita.
Como ejemplo de esto, el caso de las modulaciones digitales es claramente representativo de este
tipo de señales ya que, desde un punto de vista general no son deterministas puesto que dependen
de la información enviada en cada momento y, por tanto, para una correcta descripción de estas
señales, se acude al campo de la estadística, en concreto al ámbito de los procesos estocásticos o
aleatorios.
Siguiendo pues este enfoque la señal a estudiar será un proceso aleatorio [16] del tipo X(t,ν) y,
por consiguiente, dependerá no solo de la variable temporal t, sino también de una variable aleatoria
ν que modele el comportamiento estadístico. La característica principal de este tipo de funciones es
que, si se fija el valor de la variable aleatoria ν0, se obtiene una señal determinista variable en el
tiempo x(t) a la que se le denomina realización del proceso aleatoria o muestra del proceso aleatorio.
De igual forma, fijar un instante temporal t0 implica obtener una variable aleatoria que se denotará
como X(t0).
Puesto que este proceso aleatorio posee dos dimensiones, una estadística y otra temporal, exis-
tirán dos enfoques distintos de caracterizarlo. Uno determinista basado en las propiedades de las
realizaciones de este y otro de tipo estadístico que arroje las características de la variable aleatoria
en cuestión.
Aplicando pues el enfoque estadístico, se pueden obtener dos propiedades que serán de interés a
lo largo de este estudio. la esperanza o media estadística que se define como
mX(t) = E[X(t)] =
∫
∞
−∞
x fX(t)(x) dx (2.13)
y la autocorrelación estadística
6 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico
γX(t1,t2) = γX(t,t + τ) = E[X∗(t)X(t + τ)] =
∫
∞
−∞
∫
∞
−∞
x1x2 fXt ,Xt+τ (x1,x2; t,t + τ) dx1 dx2 (2.14)
Ambas expresiones operan sobre la dimensión estadística del proceso y, por ello, en general serán
funciones del tiempo. Existe un caso donde esta dependencia de la variable determinista no ocurre
y se dice que el proceso aleatorio en cuestión es estacionario. Cuando esto sucede únicamente en la
esperanza y la autocorrelación se dice que el proceso aleatorio es estacionario en sentido amplio
(WSS) o también conocido como estacionaridad débil. De esta forma, la esperanza estadística será
constante
mX(t) = E[X(t)] = mX (2.15)
y la autocorrelación dependerá exclusivamente de la diferencia entre los instantes donde esta se
aplica (τ), de modo que, es independiente del instante t1 de partida
γX(t,t + τ) = E[X∗(t)X(t + τ)] = γX(τ) (2.16)
Según el teorema de Wiener-Khinchin [5, pág Potencia], la densidad espectral de potencia (PSD)
de un proceso aleatorio estacionario es la transformada de Fourier de su función de autocorrelación,
es decir
ΓX( f ) =
∫
∞
−∞
γX(τ)e− j2π f τ dτ (2.17)
Para entender un poco más esta definición, se tomará el siguiente procedimiento. En primer lugar,
se calculará la densidad espectral de potencia de una realización de dicho proceso. Para ello se
toma un valor fijo de la variable estadística, es decir, una realización cuyo resultado, como se vio
anteriormente, es una señal determinista dependiente del tiempo xν0(t) de energía infinita, cuya
potencia se define como
Pxν0 = lı́mT→∞
1
T
∫ T/2
−T/2
|xν0(t)|
2 dt = lı́m
T→∞
1
T
∫
∞
−∞
|xν0T (t)|
2 dt = lı́m
T→∞
1
T
Rxν0T (0) = ⟨|xν0T (t)|
2⟩ (2.18)
donde
xν0T (t) =
{
xν0(t), −T/2 ≤ t ≤ T/2
0, e.o.c
y que, según el teorema de Parseval,
Pxν0 = lı́mT→∞
1
T
∫
∞
−∞
|xν0T (t)|
2 dt = lı́m
T→∞
1
T
∫
∞
−∞
|Xν0T ( f )|
2 d f (2.19)
De esta ecuación se concluye que, la PSD de una realización cualquiera del proceso aleatorio
estacionario X(t,ν) viene dada por
Sxν0 ( f ) = lı́mT→∞1
T
|Xν0T ( f )|
2 (2.20)
Ahora bien, esta PSD obtenida, es a su vez un proceso aleatorio SX( f ,ν0), puesto que depende
del valor tomado para ν . Por tanto, es lógico pensar que, tomando el promedio estadístico del nuevo
proceso obtenido, se obtendrá (ahora sí) la PSD del proceso aleatorio al completo.
ΓX( f ) = E
[
lı́m
T→∞
1
T
|XT ( f ,ν)|2
]
= lı́m
T→∞
E
[
1
T
|XT ( f ,ν)|2
]
(2.21)
2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 7
Por último, para conectar completamente con la ecuación (2.17), se puede operar a través de la
ecuación anterior, expresando esta en función del proceso aleatorio en el dominio del tiempo, es
decir
ΓX( f ) = lı́mT→∞
E
[
1
T
|XT ( f ,ν)|2
]
= lı́m
T→∞
E
[
1
T
XT ( f ,ν)X∗T ( f ,ν)
]
=
lı́m
T→∞
E
[
1
T
F{XT (t,ν)} ·F{X∗T (−t,ν)}
]
= lı́m
T→∞
E
[
1
T
F{XT (t,ν)∗X∗T (−t,ν)}
]
=
F
{
lı́m
T→∞
E
[
1
T
XT (t,ν)∗X∗T (−t,ν)
]}
= F
{
lı́m
T→∞
E
[
1
T
∫
∞
−∞
XT (t + τ,ν)X∗T (t,ν) dt
]}
=
F
{
lı́m
T→∞
E
[
1
T
∫ T/2
−T/2
X(t + τ,ν)X∗(t,ν) dt
]}
= F
{
lı́m
T→∞
1
T
∫ T/2
−T/2
E [X(t + τ,ν)X∗(t,ν)] dt
}
=
F
{
lı́m
T→∞
1
T
∫ T/2
−T/2
γX(τ) dt
}
=
∫
∞
−∞
γX(τ)e− j2π f τ dτ
En un caso real, no se puede disponer del proceso aleatorio al completo ya que, por propia
definición, al depender este de una variable aleatoria, se necesitarían infinitas realizaciones de este.
De lo que si se pude disponer es de una o más realizaciones del proceso sobre las cuales se pueden
estimar su media y autocorrelación, por ejemplo, para el caso de una muestra:
mx = lı́mT→∞
1
T
∫ T/2
−T/2
x(t) dt (2.22)
Rx(τ) = lı́mT→∞
1
T
∫ T/2
−T/2
x∗(t)x(t + τ) dt (2.23)
Puesto que la realización (función muestra) de la que se dispondrá ser finitas, se puede suponer
que, para cuando la duración de esta (T0) sea suficientemente grande, se puede hacer la siguiente
aproximación:
mx ≈
1
T0
∫ T0/2
−T0/2
x(t) dt (2.24)
Rx(τ)≈
1
T0
∫ T0/2
−T0/2
x∗(t)x(t + τ) dt (2.25)
En este punto se puede plantear la pregunta, ¿De qué forma se pueden obtener datos estadísticos
referentes al proceso aleatorio con tan solo realizaciones de este? En respuesta a esto, se debe
pensar que, puesto que el proceso aleatorio bajo estudio es estacionario y, por tanto, su esperanza
estadística es constante y su autocorrelación no dependen del tiempo es lógico suponer que, teniendo
una realización del proceso de duración infinita, todos los posibles valores que aporta la variable
estadística del proceso aleatorio, han ocurrido y promediar esta en el tiempo sería equivalente
a calcular la esperanza estadística del proceso aleatorio que la generó. De igual forma ocurriría
con la autocorrelación que, convergería a la autocorrelación estadística. A esta propiedad se la
denomina ergodicidad [18], y es la conexión básica entre la teoría de procesos aleatorios y el estudio
experimental de estos. Matemáticamente,para el caso de lo momentos de primer y segundo orden,
se puede expresar como:
mX = lı́mT0→∞
mx = lı́mT0→∞
1
T0
∫ T0/2
−T0/2
x∗(t) dt (2.26)
8 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico
γX(τ) = lı́mT0→∞
Rx(τ) = lı́mT0→∞
1
T0
∫ T0/2
−T0/2
x∗(t)x(t + τ) dt (2.27)
A las funciones que aparecen dentro de límite se les denomina estimadores [11] y forman parte de
una categoría a la que en teoría estadística se le conoce como estadísticos. Estas funciones, como
bien indica su nombre, se utilizan para estimar propiedades estadísticas que en este caso son la
esperanza y la autocorrelación. De tal forma que, al evaluar estas funciones para una determinada
longitud de la muestra del proceso, se obtendrá una estimación de la función o del valor al que
pretenden estimar. El alcance de un estimador viene descrito a través de una serie de propiedades
como son el sesgo, la eficiencia, la robustez, la consistencia, la suficiencia y la invarianza. En este
estudio, se tomará como condición suficiente para dar por válido un estimador si cumple con el
criterio de consistencia, el cual exige que:
1. La esperanza estadística del estimador debe converger a la función que pretende estimar a
medida que la duración de la muestra tiende a infinito.
E[ f̂ (x)]→ f (x) cuando T0 → ∞, siendo T0 la duración de la muestra. (2.28)
2. La varianza estadística del estimador debe tender a cero a medida que la duración de la muestra
tiende a infinito.
Var[ f̂ (x)]→ 0 cuando T0 → ∞, siendo T0 la duración de la muestra. (2.29)
En el caso de contar con más de un estimador para una misma propiedad estadística, se tomará
aquel con menor varianza. Esto se conoce como eficiencia del estimador.
Siguiendo este análisis, la ecuación (2.25) es un candidato a estimador de la autocorrelación del
proceso aleatorio estacionario y, según lo visto, se tendría que comprobar la validez de este para
que dicha estimación sea correcta.
Nuevamente se encuentra la misma tesitura que para el caso de señales deterministas de energía.
Si se pretenden realizar estimaciones sobre señales reales, debemos plantear estimadores basados
en señales discretas y finitas. Para ello se tomarán N muestras de la realización x(t) del proceso
aleatorio a una frecuencia de muestreo Fm > 2B donde B es la máxima frecuencia de la señal. Esta
nueva señal obtenida que se denotará como x(n) es un conjunto de N muestras de una realización
del proceso aleatorio estacionario, la cual es discreto, finita y hereda directamente las propiedades
de ergodicidad de su versión continua.
Siguiendo el mismo razonamiento que en el caso continuo, tendría sentido plantear un estimador de
la autocorrelación estadística (en tiempo discreto) del proceso aleatorio mediante la autocorrelación
discreta de x(n). Dicha función se puede expresar como
rx(m) =
1
N −m
N−m−1
∑
n=0
x∗(n)x(n+m) m = 0,1,...,N −1
rx(m) =
1
N −|m|
N−1
∑
n=|m|
x∗(n)x(n+m) m =−1,−2,...,1−N
(2.30)
Aplicando el primer criterio de consistencia de estimadores enunciado anteriormente, se cumple
que
E[γ̂X(m)] = E[rx(m)] =
1
N −|m|
N−m−1
∑
n=0
E[x∗(n)x(n+m)] = γX(m) (2.31)
2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 9
Como se ve, no ha sido necesario tomar el límite de muestras a infinito. Cuando esto sucede se
dice que el estimador es insesgado o centrado.
Respecto al segundo criterio, la varianza del estimador se puede aproximar como
Var[γ̂X(m)] =Var[rx(m)]≈
N
(N −|m|)2
∞
∑
n=−∞
[|γX(n)|2 + γ∗X(n−m)γX(n+m)] (2.32)
donde al tomar el límite cuando las muestras tienden a infinito se cumple claramente que
lı́m
N→∞
Var[γ̂X(m)] = 0 (2.33)
lo cual demuestra que el estimador para la autocorrelación estadística del proceso aleatorio es
consistente. Si bien, la expresión encontrada para la varianza del estimador crece a medida que se
tienen valores mayores del parámetro m (para un número de muestras dada), esto motiva el intento
de encontrar un nuevo estimador que mejore las prestaciones respecto a la varianza y, por tanto,
según las propiedades de los estimadores, sea más eficiente. Para ello se da una expresión alternativa
para la autocorrelación media de la señal x(n) que será el nuevo candidato a estimador.
r′x(m) =
1
N
N−|m|−1
∑
n=0
x∗(n)x(n+m) m = 1−N,..,−1,0,1,...,N −1 (2.34)
La esperanza de dicho estimador resulta
E[γ̂X(m)] = E[r′x(m)] =
1
N
N−|m|−1
∑
n=0
E[x∗(n)x(n+m)] =
(
1− |m|
N
)
γX(m) (2.35)
En este caso, el nuevo estimador no es insesgado, pero cumple con el primer criterio de consis-
tencia puesto que, al tomar el límite de muestras infinitas sobre la función anterior converge a la
función de autocorrelación estadística. Se dice pues que el estimador es asintóticamente insesgado.
Respecto a la varianza, se puede demostrar que
Var[γ̂X(m)] =Var[r′x(m)]≈
1
N
∞
∑
n=−∞
[|γX(n)|2 + γ∗X(n−m)γX(n+m)] (2.36)
Es fácilmente observable que esta varianza es inferior a medida que el retraso en la autocorrelación
de la señal x(n) crece
Var[rx(m)]
Var[r′x(m)]
=
N
(N−|m|)2
1
N
=
N2
(N −|m|)2
≥ 1 −→ Var[r′x(m)]≤Var[rx(m)]
y por consiguiente el estimadorr′x(m) es más eficaz que el estimador primeramente propuesto.
Además, se sigue cumpliendo el segundo criterio de consistencia lo cual hace más interesante
utilizar este nuevo estimador para este estudio. Por comodidad en la notación, se eliminará el
superíndice prima de r′x(m) de la expresión (2.34) ya que a partir de aquí se trabajará solo con este
estimador.
Una vez se ha encontrado un estimador consistente para obtener de manera experimental la
autocorrelación estadística del proceso aleatorio estacionario a través de muestras de una realización
del este, es lógico pensar que, si se computa la DTFT del estimador encontrado se obtendría un
estimador de la densidad espectral de potencia en el dominio de F del mismo.
Px(F) =
N−1
∑
m=1−N
rx(m)e− j2πFm (2.37)
10 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico
Desarrollando esta ecuación, sobre el termino rx(m), se encuentra una forma alternativa de
expresar el estimador Px(F)
Px(F) =
1
N
∣∣∣∣∣N−1∑n=0 x(n)e− j2πFn
∣∣∣∣∣
2
=
1
N
|X(F)|2 (2.38)
Donde X(F) es la DTFT de la señal x(n). A la función Px(F) se le conoce con el nombre de pe-
riodograma la cual fue introducida por Schuster en el año 1898 para detectar y medir periodicidades
ocultas en muestras de señales. La obtención de dicha función viene descrita mediante dos formas,
que no son más que un método directo a través de la DTFT de la señal x(n) y un método indirecto
computándose primeramente la autocorrelación de la señal x(n) para posteriormente hallar su DTFT.
Estos métodos recuerdan a las ecuaciones (2.7) y (2.8) y de hecho, comparando la ecuación (2.38)
y (2.8) se puede ver la relación fundamental entre potencia y energía.
Px( f ) = lı́mT→∞
SxT ( f )
T
(2.39)
donde SxT es la densidad espectral de energía de una señal determinista x(t) truncada entre −T/2
y T/2 y ΓX( f ) es la densidad espectral de potencia de la señal x(t). Si se supone que esta señal
x(t) proviene de la realización de un proceso aleatorio estacionario, y que es muestreada a una
frecuencia Fm, se obtiene la señal xN(n) y, por ello, la ecuación (2.39)
PxN (F) = lı́mN→∞
SxN (F)
N
(2.40)
Donde TmN = T . Si se toma un número de muestras suficientemente grande, la expresión anterior
se puede aproximar como
PxN (F)≈
SxN (F)
N
=
|XN(F)|
2
N
(2.41)
donde la señal xN(n) es idéntica a la señal x(n) introducida en esta sección.
Finalizando aquí este breve inciso sobre la relación existente entre estimación de la PSD de
procesos aleatorios estacionarios y ESD de señales deterministas de energía finita, queda por
comprobar la consistencia del estimadorperiodograma.
En primer lugar, la esperanza estadística de dicho estimador resulta
E[Px(F)] = E
[
N−1
∑
m=1−N
rx(m)e− j2πFm
]
=
N−1
∑
m=1−N
E [rx(m)]e− j2πFm
=
N−1
∑
m=1−N
(
1− |m|
N
)
γX(m)e− j2πFm
(2.42)
la cual se puede interpretar como la DTFT del enventanado de la autocorrelación
E[Px(F)] = DT FT {γ̃X(m)}= DT FT
{(
1− |m|
N
)
γX(m)
}
(2.43)
donde al termino
(
1− |m|N
)
es una ventana de tipo Bartlett o triangular debida al sesgo del
estimador. Por tanto, una forma alternativa de expresar este resultado es a través de la convolución
de la DTFT de la autocorrelación ΓX(F), por la DTFT de la ventana
E[Px(F)] =
∞
∑
m=−∞
γ̃X(m)e− j2πFm =
∫ 1/2
−1/2
ΓX(υ)WB(F −υ) dυ (2.44)
2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 11
donde WB(F) es el espectro en frecuencia normalizada de la ventana Bartlett. Esta relación ofrece
un resultado bastante ilustrativo del resultado esperado al utilizar el periodograma como estimador
de la PSD de un proceso aleatorio estacionario. La consecuencia de esto es que la esperanza de dicho
estimador ofrece una versión distorsionada de la verdadera PSD ΓX(F) acorde con las propiedades
de la ventana. Este resultado de hecho es similar al problema que se planteó al inicio del estudio,
donde se analizaba la estimación de la ESD de una señal determinista la cual, también resultaba una
versión distorsionada del verdadero espectro. Al igual que ocurría en este caso, se puede demostrar
que, a medida que el número de muestras N crece, los efectos del enventanado desaparecen y la
esperanza del periodograma converge a la verdadera PSD del proceso. Se dice pues, que dicho
estimador es asintóticamente insesgado
lı́m
N→∞
E[Px(F)] = lı́mN→∞
E
[
N−1
∑
m=1−N
rx(m)e− j2πFm
]
= lı́m
N→∞
N−1
∑
m=1−N
(
1− |m|
N
)
γX(m)e− j2πFm =
∞
∑
m=−∞
γX(m)e− j2πFm = ΓX(F)
(2.45)
Si embargo, el problema se tiene al aplicar el segundo criterio de consistencia sobre este estimador
que, como se verá a continuación, no se cumple puesto que la varianza de este no decae a cero a
medida que las muestras tomadas N tienden a infinito.
Tomando como ejemplo, un proceso aleatorio estacionario de tipo gaussiano, la varianza del
periodograma es
Var[Px(F)] = Γ2X(F)
[
1+
(
sen(2πFN)
N sen(2πF)
)2]
(2.46)
la cual, cuando se toma el límite cuando N → ∞, tiende a
lı́m
N→∞
Var[Px(F)] = Γ2X(F) (2.47)
En resumen, si bien el estimador de la autocorrelación estadística del proceso rx(m) dado por
la ecuación (2.34) es consistente, su transformada de Fourier, es decir, el estimador denominado
periodograma Px(F) no lo es. Dicho estimador contiene un sesgo cuando se tiene una duración
finita de N muestras que como se ve en la ecuación (2.44), se traduce en una distorsión de la PSD
real causa del enventanado. Por tanto, esto limita, entre otras cosas, la capacidad de resolución de
aquellos espectros que tengan fuertes componentes espectrales estrechamente espaciadas. Además
de esto, el periodograma presenta una varianza no nula cuando se tiene un número de muestras
infinito, lo que lo hace del todo inconsistente.
A pesar de estos problemas y debido a la fácil implementación de dicho estimador que, como se
ve en la ecuación (2.38), basta con aplicar el algoritmo de FFT sobre las muestras del proceso y
elevar el módulo de este resultado al cuadrado, motiva el estudio de técnicas que, aun asumiendo
estos problemas inherentes a la propia definición del estimador, mejoren los resultados de este y
aprovechando así la fácil implementación. Estas técnicas se agrupan en dos categorías principales
denominadas métodos no paramétricos o clásicos y métodos paramétricos.
Los métodos no paramétricos no hacen suposiciones sobre el origen de los datos y se centran
en encontrar un estimador consistente basado en el periodograma o en su defecto, que mejore las
prestaciones de este aumentando la capacidad de resolución y disminuyendo la varianza.
Los métodos paramétricos se construyen a partir de modelos basados en el origen de los datos y
que, por lo general, proporcionan una resolución significativamente mayor que los métodos clásicos.
12 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico
Además de estas dos categorías, existen algunas técnicas más modernas como son el método de
Capon basado en reducir la varianza de la estimación, el método de Pisarenko de descomposición
harmónica o el método música.
En las siguientes secciones de este estudio, se analizarán los métodos paramétricos y cómo estos
se comportan a la hora de estimar señales típicas del mundo de las comunicaciones.
2.3 Efectos de enventanado
Como se ha visto en los capítulos anteriores, para estimar el espectro de potencia o energía, es
necesario tomar un numero finito de muestras N de una realización del proceso aleatorio. Esto se
traduce en lo que se conoce como enventanado [10] y está presente a lo largo de todo este estudio y,
por este motivo, es conveniente detenerse y analizar cómo influye esto en el espectro en frecuencia.
Si bien ya se han mencionado algunos de estos efectos como son la fuga espectral, existen otros
como la resolución espectral.
Para ilustrar esto en primer lugar, se supondrá que se tiene una señal dada por la siguiente
ecuación:
x(t) = cos(2π f0t) (2.48)
El espectro de dicha función se puede obtener de manera directa como
X( f ) =
1
2
δ ( f − f0)+
1
2
δ ( f + f0) (2.49)
Si ahorase quisiera computar numéricamente su espectro, se tendría que muestrear dicha señal a
una frecuencia Fm > F0 de tal forma que se eliminen los efectos del aliasing.
x(nTm) = cos(2π f0nTm)−→ x(n) = cos(2πF0n) (2.50)
Y también, será necesaria trucar la señal a un número finito de muestras N de tal forma que
n = 0,1,...,N −1. Esto, como ya se ha visto, se puede expresar como el producto de la señal x(n)
por una ventana que tome valores distintos de cero en el intervalo [0,N −1]. En un primer análisis
se tomará una ventana rectangular
x̃(n) = x(n)w(n) = x(n), n = 0,1,...,N −1 (2.51)
La señal x̃(n) es la señal muestreada y truncada para N muestras de x(t) cuyo espectro, se puede
determinar a través de la DTFT de x̃(n).Esto a su vez se puede expresar a través de la convolución
del espectro de x(n) por el espectro de la ventana tal como se vio en la ecuación (2.10)
X̃(F) =
1
2
W (F −F0)+
1
2
W (F +F0), F = [−0.5, 0.5] (2.52)
Siendo W (F) la transformada discreta de Fourier de la ventana w(n)
W (F) =
sin(2πFN/2)
sin(2πF/2)
e− j2πF(N−1)/2 (2.53)
A continuación, se representa la magnitud del espectro de la señal (2.51) para un valor de F0 = 0.2:
Como se ve el espectro resultante difiere en gran medida del espectro ideal dado por (2.49). En
primer lugar, se observa el fenómeno de fuga espectral donde la potencia que en principio debería
de concentrarse únicamente en la frecuencia F0, se "derrama" a lo largo del espectro en forma de
lóbulos secundarios. Dichos lóbulos pasan por 0 en frecuencias múltiplos de 1/N de tal forma que
2.3 Efectos de enventanado 13
Figura 2.1 Espectro de la señal x̃(n) con ventana rectangular, N = 10 y F0 = 0.2.
Figura 2.2 Espectro de la señal x̃(n) con ventana rectangular, N = 30 y F0 = 0.2.
el ancho del lóbulo principal viene dado por 1/N. Se puede observar que, si se aumenta el número
de puntos tomados en el muestreo, el ancho del lóbulo principal decrece y aparecen más lóbulos
secundarios, más estrechos y de menor potencia. De hecho, cuando N → ∞, el espectro converge a
una delta centrada en F0 el cual sí representa el espectro ideal de x(t).
Hasta el momento, solo se ha tenido en cuenta un enventanado de tipo de rectangular, pero en la
práctica, existen multitud de ventanas con diferentes propiedades que ofrecen distintas posibilidades
para adecuarse a las necesidades de cada caso. Un ejemplo de estas ventanas es la ventana de Bartlett
la cual está presente en la definición del periodograma de un proceso aleatorio estacionario. Esta
ventana tiene la forma
WB(F) =
1
M
(
sin(πFM)
sin(πF)
)2
(2.54)
donde M = (N +1)/2 y, aplicando esta ventana a la señal x(n), se tiene
X̃(F) =
1
2
WB(F −F0)+
1
2
WB(F +F0), F = [−0.5, 0.5] (2.55)
cuyo espectro resultante se muestra en la figura a continuación.
Como se ve, las características respecto al número de lóbulos cambia, es decir, el ancho de los
lóbulos aumenta pero la magnitud de los lóbulos secundarios es inferior y, en consecuencia, la
14 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico
Figura 2.3 Espectro de la señal x̃(n) con ventana de Bartlett, N = 10 y F0 = 0.2.
Figura 2.4 Espectro de la señal x̃(n) con ventana de Bartlett, N = 30 y F0 = 0.2.
potencia fugada es notablemente menor.
Otro aspecto fundamental a la hora de enventanar señales es la resolución espectral. Esta carac-
terística mide la mínima separación de frecuencias que se puede distinguir en el espectro, de tal
forma que a medida que este parámetro sea menor, la resolución espectral será mejor puesto que se
pueden identificar más frecuencias fundamentales en el espectro. Para ver esto, se puede suponer
una nueva señal x(n) dada por
x(n) = cos(2πF1t)+ cos(2πF2t) (2.56)
donde ∆F = F2 −F1. Aplicando el mismo procedimiento anterior, donde se utilizaba una ventana
rectangular, el nuevo espectro de x̃(n) resulta
X̃(F) =
1
2
[W (F −F1)+W (F −F2)+W (F +F1)+W (F +F2)] , F = [−0.5, 0.5] (2.57)
Siguiendo el mismo razonamiento anterior, se puede intuir el hecho de que para ciertos valores
de N los lóbulos principales de W (F ±F1) y W (F ±F2) podrán solaparse de tal forma que no se
puedan distinguir visualmente y es por esto por lo que surge el concepto de resolución espectral.
Para resolver este problema, se puede recurrir a una regla práctica que defina una condición para
el número de muestras N que permita distinguir dos componentes de frecuencias separados una
2.3 Efectos de enventanado 15
cierta cantidad ∆F . De manera aproximada se puede decir que, cuando ∆F es mayor o igual que
el ancho del lóbulo principal tomado cuando este reduce 3 dB respecto al valor máximo, serán
distinguibles y, por tanto, queda definido la resolución espectral máxima (separación de frecuencias
mínima distinguible) como:
∆F =
β
N
(2.58)
Siendo β un factor que depende exclusivamente del tipo de ventana y también del criterio
seleccionado. En este caso se optado por un criterio poco restrictivo que toma como ancho del
lóbulo principal una reducción de 3 dB de referencia, pero hay algunos libros que optan por 6 dB.
Una idea cualitativa de la resolución espectral que ofrecen las principales ventanas se recoge la
tabla 2.1.
Tabla 2.1 Resolución espectral máxima para diferentes tipos de ventanas de igual longitud N [10].
Ventana Resolución 3dB (∆F)
Rectangular 0.89/N
Bartlett 1.28/N
Hanning 1.44/N
Hamming 1.30/N
Blackman 0.89/N
Figura 2.5 Espectro de la señal x(n) definida en (2.56) con enventanado rectangular para N = 10,
F1 = 0.20 y F2 = 0.23.
Por lo tanto, según este criterio, se puede justificar la diferencia en el ancho del lóbulo principal
entre la ventana rectangular y de Bartlett. Tomando por ejemplo el caso donde N = 50, se representa
en la figura 2.7 el espectro de la señal x(n) definida en (2.48) con enventanado rectangular y de
Bartlett respectivamente en dB. Si se mide el ancho del lóbulo principal para ambos caso, se ve que
casa perfectamente con los valores de resolución espectral máxima dados en la tabla 2.1.
Respecto a cómo afecta todo esto al estimador periodograma es fácil ver que, según la propia
definición del estimador, ecuación (2.38), los efectos se manifiestan de manera directa y es por esto
que a la hora de realizar estimaciones de la PSD habrá que tener presente los efectos de fuga y
resolución espectral.
16 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico
Figura 2.6 Espectro de la señal x(n) definida en (2.56) con enventanado rectangular para N = 50,
F1 = 0.20 y F1 = 0.23.
(a) Enventanado rectangular. (b) Enventanado de Bartlett.
Figura 2.7 Espectro de la señal x(n) definida en (2.48) en dB con enventanado rectangular y de
Bartlett, N = 50 y F0 = 0.2.
2.4 Zero padding
El zero padding [13] es una técnica utilizada en el cálculo de espectros a través del algoritmo FFT.
Esta consiste en añadir valores nulos al final de la señal muestreada para mejorar las cualidades
de su espectro. Es muy importante tener claro que esta técnica no ofrece mejores resultados del
espectro en cuanto a resolución espectral se refiera. Lo que se consigue con esto en realidad es
mejorar las cualidades de la representación en cuanto a interpolación de los puntos. Para ilustrar
con mayor claridad esto, se aplicará esta técnica al estimador periodograma.
Para ello se puede partir de la ecuación (2.38) donde dicho estimador queda definido a partir de la
DTFT de N muestras de la realización del proceso aleatorio x(n). Como se vio ya en la sección 2.1, el
resultado de la DTFT está definido en una variable continua F y, por tanto, será necesario muestrear
este dominio para una serie de frecuencias determinadas. Para esto se recurre al algoritmo FFT el
cual, si se tienen N puntos de la señal x(n), calcula N frecuencias equiespaciadas pertenecientes a
un periodo de la DTFT. Aplicando esto a la ecuación (2.38), se obtendrá el periodograma evaluado
en las frecuencias F = k/N con k = 0,1,...,N −1.
2.4 Zero padding 17
Px(k/N) =
1
N
∣∣∣∣∣N−1∑n=0 x(n)e− j 2πkN n
∣∣∣∣∣
2
k = 0,1,...,N −1 (2.59)
Como se ve, dicho algoritmoevalúa únicamente N frecuencias del espectro continuo de x(n) lo
cual implica una pérdida de información y en muchos casos no proporciona una buena representación
del espectro estimado. Una solución simple pero eficaz para esto, consiste en rellenar la señal x(n)
hasta L muestras añadiendo ceros (zero padding) de tal forma que el computo de periodograma
quedaría.
Px(k/L) =
1
N
∣∣∣∣∣N−1∑n=0 x(n)e− j 2πkL n
∣∣∣∣∣
2
k = 0,1,...,L−1 (2.60)
Esto implica que, cuando se le aplique el algoritmo a la nueva señal rellenada de ceros, se
obtendrán L puntos de la PSD estimada. Si bien, este método no mejora la resolución espectral
de la señal, únicamente ofrece mejoras en la interpolación de aquellos puntos que pertenecen al
espectro real y, por tanto, mejorando los resultados en cuanto a la representación pero no en cuanto
a la resolución espectral se refiere.
3 Periodograma: métodos no
paramétricos
A continuación, se dará paso al estudio y análisis de los principales métodos clásicos denominados
no paramétricos utilizados para estimar la densidad espectral de potencia de procesos aleatorios
estacionarios [15, 17]. Todas estas técnicas implementan en última instancia la DTFT de la señal
discreta de N puntos resultantes de la realización del proceso y no hacen suposiciones sobre el origen
de dichas muestras. Las principales diferencias de estos métodos se dan en cómo es tratada esta
cadena de información previa a ser transformada. Dado que las estimaciones se basan completamente
en un registro finito de datos, la resolución espectral cómo se ha visto en la sección 2.3, dependerá
del tipo de ventana utilizada y del número de muestras tomadas. Además, se podrá comprobar que
cuando se encuentren mejoras respecto a la varianza inherente de dicho estimador, la resolución
espectral se verá repercutida negativamente. Al final de este capítulo se realizará una comparación
cualitativa referido a la resolución espectral y al coeficiente de Pearson ofrecido por los diferentes
métodos.
3.1 Método de Bartlett
El método Bartlett consigue una reducción en la varianza del periodograma mediante tres pasos.
Primeramente, se divide la señal de información x(n) en K segmentos de longitud M siendo
M = N/K de tal forma que no existe solapamiento entre estos.
xi(n) = x(n+ iM) i = 0,1,...,K −1
n = 0,1,...,M−1
(3.1)
En segundo lugar, se computa el periodograma de los K segmentos.
Pix(F) =
1
M
∣∣∣∣∣M−1∑n=0 xi(n)e− j2πFn
∣∣∣∣∣
2
i = 0,1,...,K −1 (3.2)
Por último, se obtiene el periodograma completo a través de la media uniforme de estas K
funciones.
PBx (F) =
1
K
K−1
∑
i=0
Pix(F) (3.3)
19
20 Capítulo 3. Periodograma: métodos no paramétricos
El súper índice B denota que este estimador periodograma implementa el método Bartlett. Sus
propiedades estadísticas se pueden obtener de manera sencilla en función de las propiedades del
periodograma clásico. La esperanza estadística se puede expresar como
E[PBx (F)] = E
[
1
K
K−1
∑
i=0
Pix(F)
]
=
1
K
K−1
∑
i=0
E[Pix(F)] = E[Pix(F)] (3.4)
y utilizando la ecuación (2.42) y (2.44) se obtiene que
E[Pix(F)] =
M−1
∑
m=1−M
(
1− |m|
M
)
γX(m)e− j2πFm =
=
∫ 1/2
−1/2
ΓX(υ)Wb(F −υ) dυ
(3.5)
donde
WB(F) =
1
M
(
sen(πFM)
sen(πF)
)2
(3.6)
es la respuesta en frecuencia de la ventana de Bartlett. De este resultado se puede extraer que, la
esperanza del periodograma de Bartlett es la convolución en frecuencia de la verdadera densidad
espectral de potencia del proceso por la ventana de Bartlett de parámetro M. A diferencia del
resultado obtenido por en la ecuación (2.42) donde, en este caso, la ventana tenía una longitud de
2N −1 puntos, ahora el ancho de muestras de la ventana se ha reducido a M = N/K, o lo que es lo
mismo, el ancho en frecuencia de la ventana ha aumentado por un factor K. Esto se traduce en una
mayor pérdida de resolución espectral.
Para darle consistencia a este resultado, se puede demostrar que este nuevo estimador es, al
igual que el periodograma básico, asintóticamente insesgado ya que, manteniendo un valor de K
constante, cuando N → ∞, M → ∞ y, por tanto
lı́m
N→∞
E[Pix(F)] = ΓX(F) (3.7)
Respecto a la varianza estadística se tiene que
Var[PBx (F)] =Var
[
1
K
K−1
∑
i=0
Pix(F)
]
=
1
K2
K−1
∑
i=0
Var
[
Pix(F)
]
=
1
K
Var
[
Pix(F)
]
(3.8)
y, de igual forma que se hizo para obtener la esperanza estadística de Pix(F), se toma la ecuación
(2.46) y se llega al siguiente resultado
Var[PBx (F)] =
1
K
Γ2X(F)
[
1+
(
sen(2πFM)
M sen(2πF)
)2]
(3.9)
Si ahora, se toma el límite para un número de muestras infinitas se obtiene una reducción en la
varianza respecto al periodograma básico en un factor K.
lı́m
N→∞
Var[PBx (F)] =
1
K
Γ2X(F) (3.10)
En resumen, el método de Bartlett consiste en promediar K periodogramas de segmentos no
solapadas de la realización del proceso aleatorio. Este método genera un nuevo estimador para la
densidad espectral de potencia del proceso denominado periodograma de Bartlett PBx (F) que, al
3.2 Método de Welch 21
igual que el periodograma básico, es asintóticamente insesgado, pero presenta una varianza k veces
menor. Como contrapartida, se sacrifica resolución espectral.
3.2 Método de Welch
El método de estimación de Welch toma como punto de partida el método de Bartlett al cual se le
aplican una serie de modificaciones en sus pasos previos a la obtención del estimador final. Estas
modificaciones se resumen en dos. En primer lugar, se tomarán en este caso L segmentos de longitud
M de la realización del proceso aleatorio de tal forma que haya solapamiento.
xi(n) = x(n+ iD) i = 0,1,...,L−1
n = 0,1,...,M−1
(3.11)
iD es la muestra de inicio del segmento i que, para que exista solapamiento, tendrá que ser
menor que la longitud de cada uno de ellos. La segunda modificación añade en el cómputo del
periodograma de cada segmento Pix(F), un enventanado a cada uno de ellos. Esto se puede expresar
como
P̃ix(F) =
1
MU
∣∣∣∣∣M−1∑n=0 xi(n)w(n)e− j2πFn
∣∣∣∣∣
2
i = 0,1,...,L−1 (3.12)
donde U es un factor de normalización utilizado para eliminar la contribución energética de la
ventana y, por tanto, se define como
U =
1
M
M−1
∑
n=0
w2(n) (3.13)
Finalmente, igual que para el método de Bartlett, el periodograma de Welch es el promediado de
los periodograma modificados de los segmentos, es decir
PWx (F) =
1
L
L−1
∑
i=0
P̃ix(F) (3.14)
La esperanza estadística de este estimador es
E[PWx (F)] = E
[
1
L
L−1
∑
i=0
P̃ix(F)
]
=
1
L
L−1
∑
i=0
E[P̃ix(F)] = E[P̃ix(F)] (3.15)
y la esperanza estadística del periodograma modificado del segmento i es
E[P̃ix(F)] =
1
MU
M−1
∑
n=0
M−1
∑
m=0
w(n)w(m)E[xi(n)x∗i (m)]e
− j2πF(n−m)
=
1
MU
M−1
∑
n=0
M−1
∑
m=0
w(n)w(m)γX(n−m)e− j2πF(n−m)
(3.16)
Sabiendo que
γX(n) =
∫ 1/2
−1/2
ΓX(ν) dν (3.17)
22 Capítulo 3. Periodograma: métodos no paramétricos
se puede sustituir esta expresión en la ecuación (3.14) y se obtiene
E[P̃ix(F)] =
1
MU
∫ 1/2
−1/2
ΓX(ν)
[
M−1
∑
n=0
M−1
∑
m=0
w(n)w(m)e− j2π( f−ν)(n−m)
]
dν
=
∫ 1/2
−1/2
ΓX(ν)W ( f −ν) dν
(3.18)
donde
W ( f ) =
1
MU
∣∣∣∣∣M−1∑n=0 w(n)e− j2πFn
∣∣∣∣∣
2
(3.19)
se puede comprobar que, este estimador modificado es asintóticamente insesgado ya que, cuando
el límite de muestras M tiende a infinito, la ventana se hace infinitamente ancha y, por tanto, su
respuesta en frecuencia tiende a una delta. De esta forma, la convolución en frecuencia de la ecuación
(3.16) daría como resultado la verdadera densidad espectral de potencia del proceso.
lı́m
N→∞
E[Pix(F)] = ΓX(F) (3.20)
Respecto a la varianza del estimador de Welch, se tiene (aplicando directamente la definición de
varianza estadística)
Var[PWx (F)] =
1
L2
L−1
∑
i=0
L−1
∑
j=0
E[P̃ix(F)P̃
j
x (F)]−E2[PWx (F)] (3.21)
Es lógico pensar que, suponiendo que no haya solapamiento (L = K), es decir que se esté en el
supuesto del método de Bartlett, se deberían obtener los mismos resultados.
Var[PWx (F)] =
1
L
Var[P̃ix(F)] (3.22)
de tal forma que, cuando N → ∞ y M → ∞
Var[PWx (F)]≈
1
L
Γ2X(F) (3.23)
Suponiendo un caso más propio de estanueva técnica donde si exista solapamiento, por ejemplo,
el caso que utilizó Welch para su estudio donde suponía un 50% de solapamiento (L = 2K) se tiene
un resultado para la varianza de
Var[PWx (F)]≈
9
8L
Γ2X(F) = 0.5625 ·
1
K
Γ2X(F) (3.24)
En resumen, el método de Welch redefine el estimador de Bartlett de manera que los segmentos
presentan solapamientos entre ellos. Este efecto mantiene las propiedades de estimador insesgado
y reduce la varianza de este. Cabe decir que, el valor de la varianza dependerá del porcentaje de
solapamiento elegido, así como de la ventana utilizada en el periodograma de los segmentos.
3.3 Método de Blackman y Tukey
El método de Blackman y Tukey toma la ecuación (2.37) añadiendo un enventanado a la correlación
rx(m). La justificación de hacer esto es que, para grandes retrasos, las estimaciones son menos
fiables ya que para valores de m que se acercan a N, la varianza de estas estimaciones es muy alta,
3.3 Método de Blackman y Tukey 23
y por lo tanto se les debe dar un peso menor en la formación de la estimación. El estimador de
Blackman-Tukey se define como
PBTx (F) =
M−1
∑
m=1−M
rx(m)w(m)e− j2πFm (3.25)
donde la ventana w(m) tendrá un ancho de 2M−1 muestras y es cero para |m| ≥M. Este resultado
se puede expresar de manera alternativa a través de la convolución del espectro de la ventana por el
espectro de autocorrelación, es decir el periodograma.
PBTx (F) =
∫ 1/2
−1/2
Px(u)W (F −u) du (3.26)
Por tanto, como era de esperar, esta propuesta ofrece una versión suavizada del periodograma
básico. Además, se pueden intuir algunas propiedades que debe cumplir la ventana, como son
paridad para asegurar que la estimación es real y debe ser no negativa para |F | ≤ 1/2 puesto que la
PSD debe ser positiva.
La esperanza estadística de este estimador es
E[PBTx (F)] =
∫ 1/2
−1/2
E[Px(u)]W (F −u) du (3.27)
donde, según la ecuación (2.44)
E[Px(u)] =
∫ 1/2
−1/2
ΓX(v)WB(u− v) dv (3.28)
añadiendo el resultado de esta expresión a la ecuación (3.27) se obtiene
E[PBTx (F)] =
∫ 1/2
−1/2
∫ 1/2
−1/2
ΓX(v)WB(u− v)W (F −u) dudv (3.29)
Equivalente a esto, se puede analizar la esperanza estadística trabajando en el dominio del tiempo
E[PBTx (F)] =
M−1
∑
m=1−M
E[rx(m)]w(m)e− j2πFm
=
M−1
∑
m=1−M
γX(m)wB(m)w(m)e− j2πFm
(3.30)
siendo wB(m) la ventana de Bartlett en el domino temporal
wB(m) =
1−
|m|
N
, |m|< N
0, e.o.c
(3.31)
Si se elige una longitud para la ventana w(m) tal que M << N, provocará que esta sea más
estrecha que WB(m) y entonces se cumple la siguiente aproximación:∫ 1/2
−1/2
WB(u− v)W (F −u) du ≈W (F − v) (3.32)
que si se aplica a la ecuación (3.29), queda
24 Capítulo 3. Periodograma: métodos no paramétricos
E[PBTx (F)]≈
∫ 1/2
−1/2
ΓX(v)W (F − v) dv (3.33)
y análogamente en el dominio del tiempo
E[PBTx (F)]≈
M−1
∑
m=1−M
γX(m)w(m)e− j2πFm (3.34)
Respecto a la varianza del estimador de Blackman-Tukey, aplicando directamente la definición se
tiene
Var[PBTx (F)] = E[[P̃BTx (F)]2]−E2[PBTx (F)] (3.35)
El primer sumando de esta expresión es el momento de orden dos del estimador que se puede
analizar a través de la ecuación (3.27) como
E[[P̃BTx (F)]2] =
∫ 1/2
−1/2
∫ 1/2
−1/2
E[Px(u)Px(v)]W (F −u)W (F − v) dudv (3.36)
El término E[Px(u)Px(v)] se puede desarrollar resolviendo la ecuación (2.44)
E[Px(u)Px(v)] = ΓX(u)ΓX(v)
[
1+
[
sen(π(v+u)N)
N sen(π(v+u))
]2
+
[
sen(π(v−u)N)
N sen(π(v−u))
]2]
(3.37)
y sustituyendo este resultado en la ecuación (3.36)
E[[P̃BTx (F)]2] =
[∫ 1/2
−1/2
ΓX(v)W (F − v) dv
]2
+
∫ 1/2
−1/2
∫ 1/2
−1/2
ΓX(u)ΓX(v)W (F −u)W (F − v)
·
[[
sen(π(v+u)N)
N sen(π(v+u))
]2
+
[
sen(π(v−u)N)
N sen(π(v−u))
]2]
dudv
(3.38)
Analizando ahora el segundo sumando de la varianza en la ecuación (3.35) es fácil ver que, dicho
término se puede expresar como
E2[PBTx (F)] =
[∫ 1/2
−1/2
ΓX(v)W (F − v) dv
]2
(3.39)
y que junto con el resultado expuesto en la ecuación (3.38) ofrece un resultado para la varianza de
Var[PBTx (F)] =
∫ 1/2
−1/2
∫ 1/2
−1/2
ΓX(u)ΓX(v)W (F −u)W (F − v)
·
[[
sen(π(v+u)N)
N sen(π(v+u))
]2
+
[
sen(π(v−u)N)
N sen(π(v−u))
]2]
dudv
(3.40)
En el caso en el que N >> M, la función sen(π(v+u)N)N sen(π(v+u)) y
sen(π(v−u)N)
N sen(π(v−u)) son relativamente estrechas
comparadas con W (F) en las cercanías donde v=−u y v= u y, por tanto, se puede hacer la siguiente
aproximación:
3.4 Comparación de prestaciones 25
∫ 1/2
−1/2
ΓX(v)W (F − v)
[[
sen(π(v+u)N)
N sen(π(v+u))
]2
+
[
sen(π(v−u)N)
N sen(π(v−u))
]2]
dv
≈ ΓX(−u)W (F +u)+ΓX(u)W (F −u)
N
(3.41)
Aplicando esto a la ecuación (3.40) se obtiene
Var[PBTx (F)]≈
1
N
∫ 1/2
−1/2
ΓX(u)W (F −u)[ΓX(−u)W (F +u)+ΓX(u)W (F −u)] du (3.42)
y nuevamente, se puede hacer otra aproximación aplicando los mismos razonamientos expuestos
anteriormente ∫ 1/2
−1/2
ΓX(u)ΓX(−u)W (F −u)W (F +u) du ≈ 0 (3.43)
Finalmente, la varianza se convierte en
Var[PBTx (F)]≈
1
N
∫ 1/2
−1/2
Γ2X(u)W
2(F −u) du (3.44)
Este resultado puede aproximarse aún más suponiendo el caso donde W (F) sea más estrecha que
ΓX(F). Asumiendo este hecho, la ecuación (3.44) queda
Var[PBTx (F)]≈ Γ2X(F)
[
1
N
∫ 1/2
−1/2
W 2(v) dv
]
≈ Γ2X(F)
[
1
N
M−1
∑
m=1−M
w2(m)
] (3.45)
En conclusión, el método de estimación de Blackman y Tukey utiliza el método indirecto de
obtención del periodograma para obtener un nuevo estimador de la densidad espectral de potencia.
Para esto, realiza un enventanado previo del estimador de la autocorrelación del proceso con un
ancho de muestras 2M−1 tal que M << N siendo N la longitud de muestras de la realización del
proceso.
3.4 Comparación de prestaciones
Una vez se han sido presentados los diferentes métodos no paramétricos de estimación espectral de
potencia, es de gran interés definir algún tipo de factor de calidad o figura de mérito que permita
comparar de cierta forma estos métodos. Como medida de calidad se puede recurrir al denominado
coeficiente de variación de Pearson [3], el cual ofrece de manera porcentual una medida de la
desviación típica de la estimación respecto a la media, o lo que es lo mismo, para cada método nos
dará información de cuan mucho o poco se desviarán los resultados obtenidos respecto al valor
esperado. Dicho coeficiente se define como
rA =
σ [PAx (F)]
E[PAx (F)]
=
√
Var[PAx (F)]
E2[PAx (F)]
(3.46)
Donde A = B (Bartlett), W (Welch), BT (Blackman-Tukey). Puesto que este coeficiente es adi-
mensional, las propiedades comparativas del mismo son más que evidentes. Puesto que se ha hecho
26 Capítulo 3. Periodograma: métodos no paramétricos
hincapié en encontrar una expresión para la varianza de los diferentes métodos y no de la desviación
típica, será más conveniente utilizar el cuadrado del coeficiente de Pearson para así expresarlo en
función de la varianza.
r2A =
Var[PAx (F)]
E2[PAx (F)]
(3.47)
Otro detalle comparativo importante es la resolución espectral máxima ofrecida entendida (según
lo visto en la sección 2.3) como la mínima separación de frecuencias que se puede distinguir en la
estimación. Esta propiedad vendrá dada por la ventana utilizada en cada método, (ver tabla 2.1).
Tomando como referencia el periodograma estándar, ecuación (2.38), se tiene que
Px(F) =
1
N
∣∣∣∣∣N−1∑n=0 x(n)e− j2πFn
∣∣∣∣∣
2
=
1
N
|X(F)|2 (3.48)
Donde se encontró que, cuando N → ∞
1. Esperanza:
E[Px(F)]→ ΓX(F) (3.49)
2. Varianza:
Var[Px(F)]→ Γ2X(F) (3.50)
y, por tanto, el cuadrado del coeficiente de Pearson queda
r2 =
Γ2X(F)
Γ2X(F)
= 1 (3.51)
Este resultado muestra que, si los diferentes métodos de estimación mejoran el periodograma
básico reduciendo la varianza del estimador, se cumplirá que
r2A < 1 (3.52)
Siendo un estimador de desviación nula o convergencia perfecta aquel que presenta r = 0.
En lo referido a la resolución espectral, en el estudio del periodograma se vio que la esperanza
de dicho estimador posee un sesgo dado por la ventana de Bartlett lo cual, según la ecuación (2.44),
es un enventanamiento de la verdadera PSD y ofrece una resolución de:
∆F =
0.89
N
(3.53)
3.4.1 Estimador PSD de Bartlett
Elmétodo de Bartlett consiste en un promediado de periodogramas de K segmentos de longitud M
pertenecientes a la ruta de muestras de la realización del proceso aleatorio de longitud N. Puesto
que estos segmentos carecen de solapamiento se tendrá que K = N/M. Por tanto, retomando la
definición para el periodograma de Bartlett vista en la ecuación (3.3) se tiene que:
PBx (F) =
1
K
K−1
∑
i=0
Pix(F) (3.54)
Siendo la esperanza y la varianza de este cuando N → ∞ y M → ∞, con K fijado
1. Esperanza:
E[PBx (F)]→ Γ2X(F) (3.55)
3.4 Comparación de prestaciones 27
2. Varianza:
Var[PBx (F)]→
1
K
Γ2X(F) (3.56)
y, por consiguiente, el coeficiente de Pearson al cuadrado para el periodograma de Bartlett es
r2B =
1
K Γ
2
X(F)
Γ2X(F)
=
1
K
=
M
N
(3.57)
En lo referido a la resolución espectral, la esperanza del periodograma de Bartlett es, para una
longitud de la muestra N fijada (ecuaciones (3.4) y (3.5)):
E[PBx (F)] = E[Pix(F)] = ΓX(F)∗Wb(F) (3.58)
Donde WB(F) es la ventana de Bartlett de longitud M, lo que ofrece una resolución espectral de
∆F =
0.89
K
= 0.89
M
N
(3.59)
3.4.2 Estimador PSD de Welch
El método de Welch es una modificación del método de Bartlett donde se tienen L segmentos de
longitud M que en este caso presentan solapamiento entre ellos. Además, a la hora del cálculo del
periodograma de cada segmento, se realiza un enventanado de la misma longitud que estos, pero
dando la posibilidad de usar ventanas diferentes a la rectangular. En la sección 3.2 se definió el
periodograma de Welch como
PWx (F) =
1
L
L−1
∑
i=0
P̃ix(F) =
1
L
L−1
∑
i=0
 1MU
∣∣∣∣∣M−1∑n=0 xi(n)w(n)e− j2πFn
∣∣∣∣∣
2
 (3.60)
para el cual, cuando N → ∞ fijando L y para un solapamiento de un 50% entre muestras, se
obtiene:
• Esperanza:
E[PWx (F)] = E[Pix(F)]→ ΓX(F) (3.61)
• varianza:
Var[PWx (F)]→
1
L
Γ2X(F) (3.62)
lo que arroja un coeficiente de Pearson al cuadrado de
r2W =
9
8L Γ
2
X(F)
Γ2X(F)
=
9
8L
(3.63)
En lo referido a la resolución espectral, teniendo en cuenta las ecuaciones (3.15) y (3.18), la
esperanza estadística del periodograma de Welch para un número de muestras N finito es
E[PWx (F)] = E[Pix(F)] = ΓX(F)∗W (F) (3.64)
y, por tanto, la resolución espectral vendrá determinada por el tipo de ventana seleccionada que,
en el caso por ejemplo de la ventana de Bartlett, se tendría
∆F =
1.28
M
(3.65)
28 Capítulo 3. Periodograma: métodos no paramétricos
3.4.3 Estimador PSD de Blackman-Tukey
El método de estimación de Blackman y Tukey se basa en la obtención del periodograma mediante
un enfoque indirecto, es decir, en primer lugar, se estima la autocorrelación del proceso y posterior-
mente, a través del teorema de Wiener-Khinchin, se obtiene el periodograma como la DTFT de
la autocorrelación. Previo a este paso, se realiza un enventanado del estimador de autocorrelación
que mejora las prestaciones de la estimación final. Retomando la definición del periodograma
Blackman-Tukey dada por la ecuación (3.25):
PBTx (F) =
M−1
∑
m=1−M
rx(m)w(m)e− j2πFm = Px(F)∗W (F) (3.66)
Cuando N → ∞ y M → ∞, hacen converger la esperanza y la varianza a
• Esperanza:
E[PBTx (F)]→ ΓX(F) (3.67)
• varianza para una ventana de Bartlett:
Var[PBTx (F)]≈ Γ2X(F)
[
1
N
M−1
∑
m=1−M
w2(m)
]
→ Γ2X(F)
2M
3N
(3.68)
El coeficiente de Pearson al cuadrado es
r2W =
2M
3N Γ
2
X(F)
Γ2X(F)
=
2M
3N
≈ 0.7M
N
(3.69)
Puesto que la ventana utilizada tiene longitud 2M − 1, la resolución espectral en el caso, por
ejemplo, de usar una ventana de Bartlett será:
∆F =
1.28
2M−1
≈ 0.64
M
(3.70)
Para concluir con esta sección, es interesante ver que las dos figuras de mérito encontradas para
los diferentes métodos de estimación (resolución espectral y coeficiente de Pearson) se pueden
relacionar a través de los parámetros longitud de muestras N y de segmentos M. En la tabla 3.1, se
recogen estas relaciones, en concreto, se ha introducido el coeficiente de Pearson al cuadrado en
función de la resolución espectral.
Tabla 3.1 Coeficiente de Pearson al cuadrado en función de la resolución espectral máxima para el
periodograma de Bartlett, el periodograma de Welch con ventana de Bartlett y 50% de
overlap y periodograma de Blackman-Tukey de ventana de Bartlett.
Método no paramétrico Coeficiente de Pearsonal cuadrado (r2A)
Resolución espectral
(∆F)
r2A = f (∆F)
Bartlett M/N 0.89/M r2B = 0.89/N∆F
Welch 9M/16N 1.28/M r2W = 0.72/N∆F
Blackman-Tukey 0.6M/N 0.64/M r2BT = 0.43/N∆F
De estas relaciones se puede ver que, el coeficiente de Pearson al cuadrado es inversamente
proporcional a la resolución espectral y, por tanto, es imposible para cualquier longitud de muestras
N tener un coeficiente de Pearson y una resolución espectral de valor cero. Es por esto por lo que
3.4 Comparación de prestaciones 29
será necesario llegar a un punto de equilibrio que se adapte a las necesidades de nuestro proceso
aleatorio de estudio. Si por ejemplo se da la mínima de ∆F necesaria (la resolución espectral
requerida), se puede ajustar el número de muestras tomadas para obtener una determinada relación
entre varianza y esperanza de la estimación. De igual forma, si se tiene un número de muestras dado
se deberá, o sacrificar resolución espectral en favor de tener menor desviación en la estimación, o
por lo contrario, aumentar la desviación en favor de mejorar la resolución espectral.
4 Estimación espectral de procesos
cicloestacionarios
Hasta el momento, el estudio de estimadores para la densidad espectral de potencia, parte de la
condición que el proceso aleatorio a estimar sea de tipo estacionario en sentido amplio (WSS), lo
que implica que el proceso en cuestión deba cumplir la condición (2.15) y (2.16). Esto se puede
ver teniendo en cuenta los estimadores definidos para la media y autocorrelación dados en (2.24) y
(2.25) los cuales cumplen ambas condiciones. No obstante, el objetivo de este trabajo es encontrar
estimadores para señales implicadas en comunicaciones digitales, es decir, modulaciones digitales.
Este tipo de señales se modelan a través de procesos aleatorios que en general no son estacionarios
y, por tanto, se podría pensar que los estimadores definidos hasta el momento no serían válidos para
este tipo de situaciones. A pesar de esto, se verá a continuación que, si lo son y que, de hecho, los
estimadores vistos en el capítulo 3 serían una particularidad de un caso más general.
En primera instancia, se deben analizar qué características desde el punto de vista estadístico,
poseen los procesos aleatorios que modelan este tipo de señales. Para esto, se supondrá un caso
sencillo de modulación digital de tipo lineal en banda base con tasa de bit Rb y formada por un
pulso conformador p(t) de energía unidad. El proceso aleatorio que modela dicha modulación [2]
tiene la siguiente forma:
X(t) =
∞
∑
n=−∞
An p(t −nTs) (4.1)
Donde An es un proceso aleatorio discreto estacionario en sentido débil (WSS) que depende,
para cada n del símbolo que se transmitirá. En general, An podrá tomar valores reales o complejos
dependiendo del tipo de modulación tomada. La esperanza estadística de dicho proceso es
mX(t) =E[X(t)] = E
[
∞
∑
n=−∞
An p(t −nTs)
]
=
∞
∑
n=−∞
E[An]p(t −nTs)
=mA
∞
∑
n=−∞
p(t −nTs)
(4.2)
Como se puede ver, no se cumple la condición (2.15) puesto que la expresión encontrada para la
esperanza depende del tiempo de manera periódica con periodo TS y, por esto, se cumple que
mX(t) = mX(t +λTs), λ ∈Z (4.3)
Respecto a la autocorrelación del proceso, se tiene que
31
32 Capítulo 4. Estimación espectral de procesos cicloestacionarios
γX(t1,t2) =E[X(t1)X∗(t2)] = E
[
∞
∑
n=−∞
∞
∑
m=−∞
AnA∗m p(t1 −nTs)p∗(t2 −mTs)
]
=
∞
∑
n=−∞
∞
∑
m=−∞
E[AnA∗m]p(t1 −nTs)p∗(t2 −mTs)
(4.4)
Tomando el cambio de variable k = n−m y sabiendo que An es un proceso WSS se obtiene
γX(t1,t2) =E[X(t1)X∗(t2)] =
∞
∑
k=−∞
∞
∑
m=−∞
E[Am+kA∗m]p(t1 − (m+ k)Ts)p∗(t2 −mTs)
=
∞
∑
k=−∞
γA(k)
[
∞
∑
m=−∞
p(t1 − (m+ k)Ts)p∗(t2 −mTs)
] (4.5)
Nuevamente, se observa que no se cumple la condición de estacionaridad (2.16) parala auto-
correlación puesto que esta depende de los instantes t1 y t2 y no únicamente de la diferencia entre
estos tiempos. A pesar de esto, como se observa con la esperanza estadística, se tiene un resultado
periódico de periodo Ts puesto que
γX(t1,t2) = γX(t1 +λTs, t2 +λTs), λ ∈Z (4.6)
Los procesos aleatorios que cumplen estas dos condiciones de periodicidad temporal tanto para la
esperanza estadística como para la correlación se denominan procesos aleatorios cicloestacionarios
en sentido amplio (WSCS) [7, 9].
Este cambio en las propiedades fundamentales del proceso incurre en ciertos cambios en la
metodología para encontrar la densidad espectral de potencia. De esta forma, si por ejemplo se
quisiera aplicar el teorema de Wiener-Khinchin tal como se vio en la sección 2.2, surgiría un
problema. La autocorrelación para un proceso aleatorio WSCS no depende únicamente de la
variable τ puesto que depende del instante de referencia donde esta se tome. Por lo que, aplicando
este teorema de manera directa se obtendrán infinitas PSD para cada instante de tiempo tomado. Una
solución posible sería promediar la autocorrelación en el tiempo previamente a ser transformada al
dominio de la frecuencia y de esta manera se obtendría la densidad espectral de potencia promediada
en el tiempo. Esta solución es del todo válida, pero conlleva la perdida de información de ciertas
propiedades de la distribución de potencia del proceso en el dominio de la frecuencia.
Para tener una visión más amplia del espectro de potencia de un proceso cicloestacionario [14, 6],
se debe comenzar reescribiendo la función de autocorrelación del proceso a través de su serie de
Fourier, lo cual es posible puesto que esta es periódica.
γX(t,t + τ) =
∞
∑
n=−∞
γ
n/T0
x (τ)e
j2π nT0 t (4.7)
El termino γn/T0X (τ) son los coeficientes complejos de la serie de Fourier y en este caso recibe el
nombre de función de autocorrelación cíclica que puede expresarse como
γ
n/T0
X (τ) =
1
T0
∫ T0/2
−T0/2
γX(t,t + τ)e
− j2π nT0 t dt (4.8)
Las frecuencias n/T0 se denominan frecuencias cíclicas y muestran aquellas frecuencias para las
cuales la función de autocorrelación es distinta de cero. La frecuencia 1/T0 se denomina frecuencia
cíclica fundamental. Es fácil ver que, para procesos puramente estacionarios (WSS), el termino
33
γ
n/T0
X (τ) solo es distinto de cero en el caso γ0X(τ) ya que no posee frecuencias cíclicas. De este
hecho se deduce la generalidad de esta nueva función de autocorrelación cíclica la cual engloba a la
función de autocorrelación para procesos WSS dada por la ecuación (2.14) cuando n = 0.
El espectro de esta nueva función de autocorrelación se denomina espectro cíclico o función de
correlación espectral (SCF) [8]. Esta relación se engloba dentro del teorema de Wiener-Khinchin.
Γ
n/T0
X ( f ) =
∫
∞
−∞
γ
n/T0
X (τ)e
− j2π f τ dτ (4.9)
El espectro encontrado muestra la correlación entre componentes espectrales del proceso se-
parados por múltiplos de 1/T0. Al igual que ocurre con la función de autocorrelación cíclica,
particularizando para n = 0, se obtiene en este caso la densidad espectral de potencia
Γ0X( f ) =
∫
∞
−∞
γ0X(τ)e
− j2π f τ dτ =
∫
∞
−∞
< γX(t,t + τ)>t e− j2π f τ dτ = ΓX( f ) (4.10)
De este análisis se concluye como afecta la periodicidad temporal a los procesos aleatorios
generando una nueva dimensión formada por las frecuencias cíclicas del mismo. Es por esto por
lo que hablar de densidad espectral de potencia de un proceso cicloestacionario, no es más que
promediar el espectro en su dimensión temporal o lo que es lo mismo, tomar como frecuencia de
ciclo el valor nulo. Asumiendo este hecho, el análisis de la PSD de un proceso cicloestacionario y
de un proceso estacionario es idéntico.
En este punto, se puede obtener la función de autocorrelación cíclica del proceso WSCS descrito
por (4.4), sustituyendo la ecuación (4.5) en (4.8). Suponiendo además que el proceso An es de media
cero (lo cual es común en la mayoría de las modulaciones digitales lineales), se tiene que
γ
n/Ts
X (τ) =
1
Ts
∫ Ts/2
−Ts/2
γA(0)
[
∞
∑
m=−∞
p(t + τ −mTs)p∗(t −mTs)
]
e− j2π
n
Ts
t dt
=
γA(0)
Ts
∫
∞
−∞
p(t + τ)p∗(t)e− j2π
n
Ts
t dt
(4.11)
Sustituyendo esto en la ecuación (4.9), se obtiene la función de correlación espectral teórica del
proceso
Γ
n/Ts
X ( f ) =
∫
∞
−∞
γA(0)
Ts
∫
∞
−∞
p(t + τ)p∗(t)e− j2π
n
Ts
t dte− j2π f τ dτ
=
γA(0)
Ts
∫
∞
−∞
∫
∞
−∞
p(t + τ)e− j2π f τ dτ p∗(t)e− j2π
n
Ts
t dt
=
γA(0)
Ts
P( f )
∫
∞
−∞
p∗(t)e− j2π
n
Ts
te j2π f t dt
=
γA(0)
Ts
P( f )P∗( f +
n
Ts
)
(4.12)
La densidad espectral de potencia de este proceso se puede obtener de manera directa aplicando
el resultado visto en (4.10)
Γ0X( f ) =
γA(0)
Ts
P( f )P∗( f ) =
γA(0)
Ts
|P( f )|2 = ΓX( f ) (4.13)
34 Capítulo 4. Estimación espectral de procesos cicloestacionarios
4.1 Periodograma cíclico
Como se ha visto, el espectro cíclico de un proceso WSCS incluye la PSD cuando se toma en
(4.9) la frecuencia de ciclo igual a cero. Es por esto por lo que encontrar un estimador para la
SCF del proceso debe conducir de alguna manera al periodograma clásico o en su defecto, a un
estimador alternativo para la PSD. En cualquier caso, el procedimiento a seguir para encontrar
este estimador, será similar al que se utilizó para encontrar el periodograma. Para poder introducir
cualquier estimador para un proceso aleatorio, es necesario que este posee propiedades ergódicas.
En el caso de los procesos WSCS el concepto es un poco más complejo puesto que la ruta de
muestras infinitas de la realización del proceso debe poder contener las propiedades de periodicidad
que representan a este. Esta suposición no es descabellada y de hecho los procesos aleatorios de
interés para este trabajo (modulaciones lineales) lo cumplen y, por tanto, tiene sentido expresar la
autocorrelación cíclica del proceso a través de la autocorrelación cíclica de la realización de este.
Matemáticamente, el estimador planteado se puede expresar como
Rn/T0x (τ) =
1
T
∫ T/2
−T/2
x(t + τ)x∗(t)e− j2π
n
T0
t dt (4.14)
Al suponer que el proceso cicloestacionario posee la propiedad cicloergodicidad o también
llamada periódicamente ergódica, se cumple que
γ
n/T0
X (τ) = lı́mT→∞
E[Rn/T0x (τ)] (4.15)
Al igual que se hizo con la función de autocorrelación cíclica para obtener la función de correlación
espectral, se recurrirá a la relación cíclica de Wiener-Khinchin dada por la ecuación (4.9) para
obtener a través del estimador planteando en (4.14) un candidato a estimador para la SCF.
Pn/T0x ( f ) =F
{
1
T
∫ T/2
−T/2
x(t + τ)x∗(t)e− j2π
n
T0
t dt
}
=
1
T
F
{∫
∞
−∞
xT (t + τ)x∗T (t)e
− j2π nT0 t dt
}
=
1
T
F
{
xT (τ)∗
(
xT (−τ)e
− j2π nT0 τ
)∗}
=
1
T
XT ( f )X∗T ( f −n/T0)
(4.16)
Este estimador se denomina periodograma cíclico [4, 14] y será el punto de partida para encontrar
de manera experimental las propiedades del espectro de potencia de un proceso WSCS.
Un detalle de este estimador es que carece de simetría en el espectro, lo cual a la hora de su
representación es limitante para poder observar espectros con altas frecuencias de ciclo. Para
solventar esto, se puede expresar el periodograma cíclico de manera simétrica como
4.1 Periodograma cíclico 35
Pn/T0x ( f ) =F
{
1
T
∫ T/2
−T/2
x(t + τ)x∗(t)e− j2π
n
2T0
te− j2π
n
2T0
t dt
}
=
1
T
F
{∫
∞
−∞
xT (t + τ)e
− j2π n2T0 (t+τ)x∗T (t)e
− j2π n2T0 t dte j2π
n
2T0
τ
}
=
1
T
F
{[
xT (τ)e
− j2π n2T0 τ ∗
(
xT (−τ)e
− j2π n2T0 τ
)∗]
e j2π
n
2T0
τ
}
=
1
T
[
XT
(
f +
n
2T0
)
X∗T
(
f − n
2T0
)]
∗δ
(
f − n
2T0
)
=Pn/T0x,sym( f )∗δ
(
f − n
2T0
)
(4.17)
El termino Pn/T0x,sym( f ) es la versión simétrica del periodograma cíclico. De la misma forma, se
puede obtener la versión simétrica del estimador de la autocorrelación cíclica a partir de la relación
de Wiener–Khinchin como
Rn/T0x (τ) = F−1
{
Pn/T0x ( f )
}
= F−1
{
Pn/T0x,sym( f )∗δ
(
f − n
2T0
)}
= Rn/T0x,sym(τ)e
jπ nT0 τ (4.18)
Donde Rn/T0x,sym(τ) es la versión simétrica del estimador

Otros materiales

Materiales relacionados