Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Proyecto Fin de Carrera Ingeniería de Telecomunicación Formato de Publicación de la Escuela Técnica Superior de Ingeniería Autor: F. Javier Payán Somet Tutor: Juan José Murillo Fuentes Dep. Teoría de la Señal y Comunicaciones Escuela Técnica Superior de Ingeniería Universidad de Sevilla Sevilla, 2013 Trabajo Fin de Grado Grado en Ingeniería de las Tecnologías de Telecomu- nicación Comunicaciones digitales en Python: estimación espectral Autor: Alberto Manzanedo Vicioso Tutor: Juan José Murillo Fuentes y Francisco Javier Payan Somet Dpto. Teoría de la señal y comunicaciones Escuela Técnica Superior de Ingeniería Universidad de Sevilla Sevilla, 2022 Trabajo Fin de Grado Grado en Ingeniería de las Tecnologías de Telecomunicación Comunicaciones digitales en Python: estimación espectral Autor: Alberto Manzanedo Vicioso Tutor: Juan José Murillo Fuentes y Francisco Javier Payan Somet Profesor Titular Dpto. Teoría de la señal y comunicaciones Escuela Técnica Superior de Ingeniería Universidad de Sevilla Sevilla, 2022 Trabajo Fin de Grado: Comunicaciones digitales en Python: estimación espectral Autor: Alberto Manzanedo Vicioso Tutor: Juan José Murillo Fuentes y Francisco Javier Payan Somet El tribunal nombrado para juzgar el trabajo arriba indicado, compuesto por los siguientes profesores: Presidente: Vocal/es: Secretario: acuerdan otorgarle la calificación de: El Secretario del Tribunal Fecha: Resumen En este estudio se pretende realizar una introducción al campo de la estimación espectral yen concreto, a la estimación de espectros de potencia aplicado a señales del mundo de las comunicaciones digitales como son las modulaciones digitales de tipo lineal. Finalmente, se implementarán las técnicas de estimación analizadas en el lenguaje de programación Python para, posteriormente, realizar un supuesto experimental aplicando estos métodos a una modulación digital PAM entre otras cosas. I Índice Resumen I Notación V 1 Introducción 1 2 Estimación de la densidad espectral: Fundamento teórico 3 2.1 Estimación de la densidad espectral de energía 3 2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 5 2.3 Efectos de enventanado 12 2.4 Zero padding 16 3 Periodograma: métodos no paramétricos 19 3.1 Método de Bartlett 19 3.2 Método de Welch 21 3.3 Método de Blackman y Tukey 22 3.4 Comparación de prestaciones 25 3.4.1 Estimador PSD de Bartlett 26 3.4.2 Estimador PSD de Welch 27 3.4.3 Estimador PSD de Blackman-Tukey 28 4 Estimación espectral de procesos cicloestacionarios 31 4.1 Periodograma cíclico 34 4.2 Métodos de estimación de la función de correlación espectral o espectro cíclico 37 4.2.1 Método de suavizado en frecuencia 38 4.2.2 Método de suavizado en tiempo 39 5 Técnicas de estimación espectral en Python 41 5.1 Algoritmos de estimación de la PSD: periodograma y sus métodos no paramétricos 41 5.1.1 Periodograma 41 5.1.2 Periodograma de Bartlett 42 5.1.3 Periodograma de Welch 43 5.1.4 Periodograma de Blackman-Tukey 45 5.2 Algoritmos de estimación de la SCF: periodograma cíclico y sus métodos derivados 46 5.2.1 Periodograma cíclico 46 5.2.2 Método de suavizado en frecuencia del CP 47 5.2.3 Método de suavizado en tiempo del CP 48 III IV Índice 6 Ejemplo experimental de estimación espectral: modulación digital lineal 51 6.1 Diseño de un transmisor PAM 52 6.2 Configuración de parámetros del modelo experimental 54 6.3 Resultados experimentales 55 6.3.1 PSD estimada mediante periodograma 56 6.3.2 PSD estimada mediante método de Bartlett 58 6.3.3 PSD estimada mediante método de Welch 59 6.3.4 PSD estimada mediante método de Blackman-Tukey 62 6.3.5 SCF estimada mediante periodograma cíclico 64 6.3.6 SCF estimada mediante el método de suavizado en frecuencia del CP 67 6.3.7 SCF estimada mediante el método de suavizado en tiempo del CP 70 6.4 Conclusiones y análisis finales 74 6.4.1 Detalles generales de la PSD y sus estimaciones 74 6.4.2 Detalles generales de la SCF y sus estimaciones 76 6.4.3 Estimación espectral para otras modulaciones lineales 79 6.4.4 Estimación espectral para modulaciones con ruido 81 Índice de Figuras 83 Índice de Tablas 85 Índice de Códigos 87 Bibliografía 89 Glosario 91 Notación R Cuerpo de los números reales C Cuerpo de los números complejos Z Cuerpo de los números enteros ∈ Contenido en < Menor que ≪ Mucho menor que > Mayor que ≫ Mucho mayor que ≈ Aproximadamente igual ∞ Infinito x → ∞ x tiende a ∞∫ Integral ∑ Sumatorio ∗ operación de convolución |·| Módulo / Valor absoluto (·)∗ Conjugado ·̃ Enventanado F{·} Transformada de fourier F−1{·} Transformada de fourier inversa DT FT{·} Transformada de fourier en tiempo discreto (D.T.F.T.) ⟨·⟩ Valor medio de una función lı́mx→a{·} Límite cuando x tiende a a de una función e Número e ejx Exponencial compleja sen(·) Función seno cos(·) Función coseno sinc(·) Función seno cardial normalizada logn(·) Logaritmo en base n δ (·) Delta de Dirac N Número de muestras de la señal x(n) realización de un proceso aleatorio M Número de muestras del segmento i de la señal x(n) K Número de segmentos de la señal x(n) en el método de Bartlett L Número de segmentos de la señal x(n) en el método de Welch V VI Notación t Variable temporal medida en segundos Tm Periodo de muestreo medido en segundos T0 Periodo de una señal medido en segundos f0 Frecuencia de una señal medido en Hercios T Parámetro temporal medido en segundos f Variable frecuencial mediada en Hercios F Variable frecuencial normalizada Fm Frecuencia de muestreo medida en Hercios Fc Frecuencia de ciclo normalizada Hercios B Frecuencia máxima de la señal BW Ancho de banda Ex Energía de x medida en julios Ts Tiempo de símbolo medido en segundos Tb Tiempo de bit medido en segundos Rs Tasa de símbolo medido en símbolos Rb Tasa de bit medido en bits por segundo M Número de símbolos de la modulación k Número de bit por símbolo Eav Energía media de símbolo medida en julios Eb Energía media de bit medida en julios An Proceso aleatorio discreto estacionario en sentido débil p(t) Pulso conformador de modulación lineal Px Energía de x medida en vatios x(t) Señal continua dependiente del tiempo x(n) Señal discreta dependiente de la variable discreta n xm(n) Resultando de muestreo de la señal x xi(n) Segmento i de la señal x xN(n) Señal discreta dependiente de n truncada a N puntos x̃(n) Señal discreta dependiente de n enventanada X( f ) Espectro en frecuencia de la señal x X(F) Espectro en frecuencia normaliza de la señal x resultado de D.T.F.T. X̃( f ) Espectro de la señal x enventanada Rx(τ) Autocorrelación de la señal x rx(n) Autocorrelación discreta de la señal x Sx( f ) Densidad espectral de energía de la señal x Sx(F) Densidad espectral de energía de la señal x en frecuencia normalizada resultado de D.T.F.T. X(t,ν) Proceso aleatorio X XT ( f ,ν) Proceso aleatorio truncado entre −T/2 y T/2 X(t) Variable aleatoria resultado de un proceso aleatorio para un instante de tiempo t mx Media de la señal x mX(t) Valor esperado del proceso aleatorio X E[X ] Valor esperado del proceso aleatorio X Var[X ] Varianza del proceso aleatorio X σX Desviación típica del proceso aleatorio X fX(t) Función densidad de probabilidad del proceso aleatorio X en el instante t f̂ (x) Estimador de la función f (x) Notación VII γX(t1,t2) Autocorrelación estadística del proceso aleatorio X γX(τ) Autocorrelación estadística del proceso aleatorio estacio- nario X γ̃X Autocorrelación estadística enventanada del proceso alea- torio estacionario X ΓX( f ) Densidad espectral de potencia del proceso aleatorio X xν0(t) Señal continua resultado de la realización del proceso aleatorio X(t,ν) Pxν0 (t) Potencia de xν0(t) mediada en vatios Sxν0 ( f ) Densidad espectral de energía de xν0(t) Px(F) Periodograma Pix(F) Periodograma del segmento i de la señal x PBx (F) Periodograma de Bartlett PWx (F) Periodograma de Welch PBTx (F) Periodograma de Blackman-Tukey w(n) Ventana cualquiera W (F) Espectro de ventana cualquiera wB(m) Ventanade Bartlett WB(F) Espectro de ventana de Bartlett rA Coeficiente de Pearson del periodograma de tipo A rB Coeficiente de Pearson del periodograma de Bartlett rW Coeficiente de Pearson del periodograma de Welch rBT Coeficiente de Pearson del periodograma de Blackman- Tukey ∆F Resolución espectral a Múltiplos enteros de la frecuencia fundamental de ciclo γ a/T0 X (τ) Función de autocorrelación cíclica ó autocorrelación cí- clica del proceso aleatorio WSCS X (CAF) Ra/T0x (τ) Estimador de CAF en dominio continuo ra/T0x (n) Estimador de CAF en dominio discreto Γ a/T0 X (τ) Función de correlación espectral o espectro cíclico del proceso aleatorio WSCS X (SCF) Pa/T0x (F) Periodograma cíclico Pa/T0x,sym(F) Periodograma cíclico simétrico 1 Introducción En las últimas décadas, las comunicaciones digitales han cobrado más y más relevancia en el mundo tecnológico. Hoy en día, infinidad de procesos y sistemas dependen en cierto punto de este tipo de técnicas de comunicación. Estas son implementadas mediante modulaciones digitales que, de manera resumida, consiste en agrupar los bits de información a enviar en M paquetes diferentes de k bits cada uno de tal forma que a cada paquete de bit se le asigna una función denominada pulso conformador. Estas funciones que representan las agrupaciones de bit se van transmitiendo de manera sucesiva generándose así una transmisión digital. Para caracterizar este tipo de modulaciones es necesario recurrir a la estadística, en concreto al campo de los procesos aleatorios. Esto ofrece un modelo matemático independiente de la información a enviar, es decir, no depende del conjunto de bit o mensaje que se quieran transmitir y, por tanto, representa de manera fehaciente el sistema de comunicaciones digitales al completo ya que, es válido para cualquier transmisión. Tanto para diseñar este tipo de sistemas como para poder caracterizarlos, es de gran importancia conocer cómo se distribuye la potencia inyectada en la transmisión a lo largo del espectro, de esta forma, se puede entre otras cosas determinar el ancho de banda ocupado para así obtener el canal requerido o la interferencia que podría provocar la transmisión en componentes espectrales adyacentes pertenecientes a otras transmisiones. La función que mide esta distribución de potencia en el espectro se denomina densidad espectral de potencia (PSD) y será el principal objeto de estudio de este trabajo. Puesto que las modulaciones digitales se definen a través de procesos aleatorios su determinación experimental al completo carece de sentido. Pese a esto, se pueden estimar ciertas propiedades mediante funciones de realizaciones del propio proceso, es decir, transmisiones concretas. A estas funciones se las conoce como estimadores. En este punto, la palabra determinación debe ser cambiada por la palabra estimación la cual da nombre al campo de estudio en que se enmarca este trabajo, estimación espectral. Con todo esto, el objetivo final será estimar la distribución espectral de potencia de modulaciones digitales de tipo lineal. Para ello se hará un análisis deductivo donde, en el capítulo 2 se hará una breve introducción teórica a la estimación de la PSD para señales deterministas de energía finita para posteriormente dar el salto a señales de potencia como son los procesos aleatorios estacionarios, donde se encontrará un primer estimador para la PSD, el periodograma. A continuación, en el capítulo 3, se hará un recorrido por las principales técnicas de estimación derivadas del periodograma, conocidas como métodos no paramétricos donde se hará un análisis cualitativo de las principales características que estos ofrecen. En el capítulo 4 se dará paso al análisis espectral de las modulaciones digitales lineales donde se verá que estas pertenecen a una nueva categoría de procesos aleatorios denominados cicloestaciona- rios (WSCS) para la cual, la esperanza y autocorrelación estadísticas presentan una distribución periódica con periodo denominado periodo cíclico. cómo se estudiará en este capítulo, las técnicas 1 2 Capítulo 1. Introducción de estimación derivadas del periodograma serán del todo válidas para estimar la PSD de este tipo de procesos. Debido a las propiedades cicloestacionarias, surge una nueva visión del concepto de distribución de potencia en el espectro puesto que, existirán componentes espectrales correlacionados separados por múltiplos de la frecuencia de ciclo fundamental (inversa del periodo cíclico) que mostrarán distribuciones de potencia distintas de cero. Esta función de potencia espectral recibe el nombre de espectro cíclico o función de correlación espectral (SCF). En el caso de los procesos aleatorios WSS, estas correlaciones son nulas y, por tanto, la SCF es la propia PSD. De la misma forma, tomando una diferencia de frecuencias nula, es decir, un múltiplo de cero en la frecuencia de ciclo, se obtendrá la PSD del proceso WSCS. Con todo esto, para finalizar este capítulo se analizará el periodograma cíclico, así como dos métodos derivados de este capaces de estimar la SCF. Además, se verá que se mantiene la generalidad respecto a la SCF con la PSD donde al tomar nula la frecuencia de ciclo en el periodograma cíclico, este convergerá al periodograma visto en el capítulo 3. En capítulo 5 se dará paso a la implementación en el lenguaje de programación Python de los métodos de estimación estudiados para finalmente en el capítulo 6 hacer un supuesto experimental donde se pondrán en práctica estas técnicas para estimar la PSD y la SCF de una modulación digital lineal de tipo PAM. Como añadido, al final de este capítulo se realizarán una seria de aclaraciones y generalizaciones respecto a los resultados obtenidos además de nuevos análisis donde se añadirá ruido al sistema o se propondrá una nueva modulación. 2 Estimación de la densidad espectral: Fundamento teórico A lo largo del siguiente capítulo, se hará una introducción a la estimación espectral pasando primeramente por la densidad espectral de energía hasta encontrar el estimador periodograma para la densidad espectral de potencia de procesos aleatorios [15, 17]. 2.1 Estimación de la densidad espectral de energía Se va a considerar una señal determinista en tiempo continuo x(t) de energía finita la cual puede obtenerse como: E = ∫ ∞ −∞ |x(t)|2dt < ∞ (2.1) Además, se supondrá que su transformada de Fourier X( f ) existe. Según el teorema de Parseval [1], la energía de x(t) puede describirse a través de su transformada de Fourier. E = ∫ ∞ −∞ |x(t)|2dt = ∫ ∞ −∞ |X( f )|2d f (2.2) Al termino |X( f )|2 se le denomina densidad espectral de energía de x(t) (ESD) puesto que representa la distribución energética de esta a lo largo de todo el espectro de frecuencias. Sx( f ) = |X( f )|2 (2.3) Esta función espectral se puede obtener, a partir de su correspondiente función temporal aplicando la transformada de Fourier inversa. Dicha función temporal representa la autocorrelación de la señal x(t) y se define como: Rx(τ) = ∫ ∞ −∞ x∗(t)x(t + τ)dt (2.4) Según lo expuesto, existen dos vías para obtener la ESD de x(t). Una de ellas es calcular primera- mente la autocorrelación de x(t) para posteriormente hallar la transformada de Fourier de esta, lo que se conoce como método indirecto. Y la segunda consiste en aplicar la ecuación (2.3) calculando la transformada de Fourier de x(t) de manera directa para posteriormente obtener el módulo de esta al cuadrado. Si bien, ambos caminos implican funciones continuas que no pueden ser manejadas en softwares de cálculo y, por tanto, impiden obtener técnicas de estimación realizables de manera practica 3 4 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico sobre funciones reales las cuales son discretas y de longitud finita. En un primer acercamiento para solventar esta problemática, se realizará un muestreo periódico sobre la señal x(t) a una frecuencia de muestreo Fm la cual se supondrá, cumple con el criterio de Nyquist (Fs > 2B). Esta versión muestreada de la señalx(t) es una secuencia discreta que se denotará como x(n), −∞ < n < ∞. En este caso, para obtener el espectro en frecuencia de x(n), se debe recurrir a la transformada de Fourier en tiempo discreto (DTFT) definida como: X(F) = ∞ ∑ n =−∞ x(n)e− j2πFn (2.5) Donde F = f/Fs. Análogamente al estudio en tiempo continuo, la autocorrelación de x(n) se puede computar recurriendo a la definición de la operación de convolución discreta. rx(m) = ∞ ∑ n =−∞ x∗(n)x(n+m) (2.6) Al igual que ocurría en el caso de la señal continua x(t), se puede demostrar, según el teorema de Wiener-Khinchin [5], que la DTFT de rx(m) es la ESD definida en el dominio F de x(n). Sx(F) = ∞ ∑ m =−∞ rx(m)e− j2πFm (2.7) Sustituyendo la ecuación (2.6) en la ecuación anterior, la ESD se puede expresar de manera directa a través de la DTFT de x(n). Sx(F) = |X(F)|2 (2.8) A pesar de obtener una expresión para ESD de x(t) a través de su versión muestreada x(n), sigue existiendo el problema de la infinitud de las muestras. De esta forma y para terminar de asimilar el supuesto a un caso real, se supondrá un truncamiento finito de N muestras de x(n). Esto se puede expresar matemáticamente como el producto de la señal x(n) de infinitas muestras, por una señal rectangular de N muestras unitarias w(n) (ventana). A este procedimiento se le conoce como enventanado, de tal forma que, la relación entre x(n) y la señal enventanada x̃(n) es x̃(n) = x(n)w(n) = { x(n), 0 ≤ n ≤ N −1 0, e.o.c (2.9) Si ahora se pretende obtener el espectro de la señal truncada, es fácilmente notable que el resultado será la convolución del espectro de la señal x(n) con el espectro de la ventana w(n). X̃(F) = ∫ 1/2 −1/2 X(α)W (F −α)dα (2.10) Al final de este capítulo se dedicará una sección a los efectos del enventanado, como adelanto, decir que enventanar una señal provoca una distorsión o deformación del espectro de la señal real el cual depende de manera directa de las características de la ventana. Aparece un fenómeno conocido como fuga espectral donde el espectro se expande hacia frecuencias donde el espectro real debería ser cero. Este fenómeno se muestra a través de la aparición de lóbulos los cuales tanto su ancho como altura y número dependen de la ventana seleccionada. Además, como se ha adelantado ya, existen multitud de ventanas diferentes que se adecuan a cada caso en cuestión ofreciendo diferentes posibilidades en cuanto a resultados obtenidos. De esta discusión se concluye que, puesto que la señal enventanada x̃(n) ofrece un espectro aproximado al de la señal real x(n) que depende principalmente de la ventana, la densidad espectral 2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 5 de energía resultante heredará también estas propiedades, puesto que, según la ecuación (2.8) la ESD de una ruta de muestras finitas x̃(n) será: Sx̃(F) = |X̃(F)|2 = ∣∣∣∣∣ N−1∑n = 0 x̃(n)e− j2πFn ∣∣∣∣∣ 2 (2.11) lo cual mantiene los efectos del enventanado y, por esto, la ESD así obtenida será una versión aproximada de la ESD real. La expresión dada en (2.11) puede ser computada de manera numérica recurriendo al transformada de Fourier discreta (DFT). Esta transformada es una versión discreta de la DTFT puesto que esta, a pesar de estar definida a través de una señal discreta, el dominio F que resulta sigue siendo continuo y, por esto, no puede ser calculado numéricamente. Para ello, la DFT plantea un muestreo en un periodo de la función Sx̃(F) de N frecuencias equiespaciadas. Existe un algoritmo altamente eficiente conocido como FFT (transformada rápida de Fourier) que permite implementar la DFT de cualquier señal discreta. Matemáticamente, esta operación se puede expresar como Sx̃ ( F = k N ) = ∣∣∣∣∣ N−1∑n = 0 x̃(n)e− j 2πkN n ∣∣∣∣∣ 2 = Sx̃(k) (2.12) Notar que, este resultado es aún más si cabe, una versión aproximada del espectro real Sx( f ). 2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma Hasta ahora se han considerado señales deterministas de energía finita las cuales poseen transformada de Fourier y pueden ser caracterizadas a través de su densidad espectral de energía. Además de este tipo de señales, existen multitud de casos en las que las señales involucradas no pueden ser modeladas de esta manera puesto que no son deterministas o poseen energía infinita. Como ejemplo de esto, el caso de las modulaciones digitales es claramente representativo de este tipo de señales ya que, desde un punto de vista general no son deterministas puesto que dependen de la información enviada en cada momento y, por tanto, para una correcta descripción de estas señales, se acude al campo de la estadística, en concreto al ámbito de los procesos estocásticos o aleatorios. Siguiendo pues este enfoque la señal a estudiar será un proceso aleatorio [16] del tipo X(t,ν) y, por consiguiente, dependerá no solo de la variable temporal t, sino también de una variable aleatoria ν que modele el comportamiento estadístico. La característica principal de este tipo de funciones es que, si se fija el valor de la variable aleatoria ν0, se obtiene una señal determinista variable en el tiempo x(t) a la que se le denomina realización del proceso aleatoria o muestra del proceso aleatorio. De igual forma, fijar un instante temporal t0 implica obtener una variable aleatoria que se denotará como X(t0). Puesto que este proceso aleatorio posee dos dimensiones, una estadística y otra temporal, exis- tirán dos enfoques distintos de caracterizarlo. Uno determinista basado en las propiedades de las realizaciones de este y otro de tipo estadístico que arroje las características de la variable aleatoria en cuestión. Aplicando pues el enfoque estadístico, se pueden obtener dos propiedades que serán de interés a lo largo de este estudio. la esperanza o media estadística que se define como mX(t) = E[X(t)] = ∫ ∞ −∞ x fX(t)(x) dx (2.13) y la autocorrelación estadística 6 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico γX(t1,t2) = γX(t,t + τ) = E[X∗(t)X(t + τ)] = ∫ ∞ −∞ ∫ ∞ −∞ x1x2 fXt ,Xt+τ (x1,x2; t,t + τ) dx1 dx2 (2.14) Ambas expresiones operan sobre la dimensión estadística del proceso y, por ello, en general serán funciones del tiempo. Existe un caso donde esta dependencia de la variable determinista no ocurre y se dice que el proceso aleatorio en cuestión es estacionario. Cuando esto sucede únicamente en la esperanza y la autocorrelación se dice que el proceso aleatorio es estacionario en sentido amplio (WSS) o también conocido como estacionaridad débil. De esta forma, la esperanza estadística será constante mX(t) = E[X(t)] = mX (2.15) y la autocorrelación dependerá exclusivamente de la diferencia entre los instantes donde esta se aplica (τ), de modo que, es independiente del instante t1 de partida γX(t,t + τ) = E[X∗(t)X(t + τ)] = γX(τ) (2.16) Según el teorema de Wiener-Khinchin [5, pág Potencia], la densidad espectral de potencia (PSD) de un proceso aleatorio estacionario es la transformada de Fourier de su función de autocorrelación, es decir ΓX( f ) = ∫ ∞ −∞ γX(τ)e− j2π f τ dτ (2.17) Para entender un poco más esta definición, se tomará el siguiente procedimiento. En primer lugar, se calculará la densidad espectral de potencia de una realización de dicho proceso. Para ello se toma un valor fijo de la variable estadística, es decir, una realización cuyo resultado, como se vio anteriormente, es una señal determinista dependiente del tiempo xν0(t) de energía infinita, cuya potencia se define como Pxν0 = lı́mT→∞ 1 T ∫ T/2 −T/2 |xν0(t)| 2 dt = lı́m T→∞ 1 T ∫ ∞ −∞ |xν0T (t)| 2 dt = lı́m T→∞ 1 T Rxν0T (0) = ⟨|xν0T (t)| 2⟩ (2.18) donde xν0T (t) = { xν0(t), −T/2 ≤ t ≤ T/2 0, e.o.c y que, según el teorema de Parseval, Pxν0 = lı́mT→∞ 1 T ∫ ∞ −∞ |xν0T (t)| 2 dt = lı́m T→∞ 1 T ∫ ∞ −∞ |Xν0T ( f )| 2 d f (2.19) De esta ecuación se concluye que, la PSD de una realización cualquiera del proceso aleatorio estacionario X(t,ν) viene dada por Sxν0 ( f ) = lı́mT→∞1 T |Xν0T ( f )| 2 (2.20) Ahora bien, esta PSD obtenida, es a su vez un proceso aleatorio SX( f ,ν0), puesto que depende del valor tomado para ν . Por tanto, es lógico pensar que, tomando el promedio estadístico del nuevo proceso obtenido, se obtendrá (ahora sí) la PSD del proceso aleatorio al completo. ΓX( f ) = E [ lı́m T→∞ 1 T |XT ( f ,ν)|2 ] = lı́m T→∞ E [ 1 T |XT ( f ,ν)|2 ] (2.21) 2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 7 Por último, para conectar completamente con la ecuación (2.17), se puede operar a través de la ecuación anterior, expresando esta en función del proceso aleatorio en el dominio del tiempo, es decir ΓX( f ) = lı́mT→∞ E [ 1 T |XT ( f ,ν)|2 ] = lı́m T→∞ E [ 1 T XT ( f ,ν)X∗T ( f ,ν) ] = lı́m T→∞ E [ 1 T F{XT (t,ν)} ·F{X∗T (−t,ν)} ] = lı́m T→∞ E [ 1 T F{XT (t,ν)∗X∗T (−t,ν)} ] = F { lı́m T→∞ E [ 1 T XT (t,ν)∗X∗T (−t,ν) ]} = F { lı́m T→∞ E [ 1 T ∫ ∞ −∞ XT (t + τ,ν)X∗T (t,ν) dt ]} = F { lı́m T→∞ E [ 1 T ∫ T/2 −T/2 X(t + τ,ν)X∗(t,ν) dt ]} = F { lı́m T→∞ 1 T ∫ T/2 −T/2 E [X(t + τ,ν)X∗(t,ν)] dt } = F { lı́m T→∞ 1 T ∫ T/2 −T/2 γX(τ) dt } = ∫ ∞ −∞ γX(τ)e− j2π f τ dτ En un caso real, no se puede disponer del proceso aleatorio al completo ya que, por propia definición, al depender este de una variable aleatoria, se necesitarían infinitas realizaciones de este. De lo que si se pude disponer es de una o más realizaciones del proceso sobre las cuales se pueden estimar su media y autocorrelación, por ejemplo, para el caso de una muestra: mx = lı́mT→∞ 1 T ∫ T/2 −T/2 x(t) dt (2.22) Rx(τ) = lı́mT→∞ 1 T ∫ T/2 −T/2 x∗(t)x(t + τ) dt (2.23) Puesto que la realización (función muestra) de la que se dispondrá ser finitas, se puede suponer que, para cuando la duración de esta (T0) sea suficientemente grande, se puede hacer la siguiente aproximación: mx ≈ 1 T0 ∫ T0/2 −T0/2 x(t) dt (2.24) Rx(τ)≈ 1 T0 ∫ T0/2 −T0/2 x∗(t)x(t + τ) dt (2.25) En este punto se puede plantear la pregunta, ¿De qué forma se pueden obtener datos estadísticos referentes al proceso aleatorio con tan solo realizaciones de este? En respuesta a esto, se debe pensar que, puesto que el proceso aleatorio bajo estudio es estacionario y, por tanto, su esperanza estadística es constante y su autocorrelación no dependen del tiempo es lógico suponer que, teniendo una realización del proceso de duración infinita, todos los posibles valores que aporta la variable estadística del proceso aleatorio, han ocurrido y promediar esta en el tiempo sería equivalente a calcular la esperanza estadística del proceso aleatorio que la generó. De igual forma ocurriría con la autocorrelación que, convergería a la autocorrelación estadística. A esta propiedad se la denomina ergodicidad [18], y es la conexión básica entre la teoría de procesos aleatorios y el estudio experimental de estos. Matemáticamente,para el caso de lo momentos de primer y segundo orden, se puede expresar como: mX = lı́mT0→∞ mx = lı́mT0→∞ 1 T0 ∫ T0/2 −T0/2 x∗(t) dt (2.26) 8 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico γX(τ) = lı́mT0→∞ Rx(τ) = lı́mT0→∞ 1 T0 ∫ T0/2 −T0/2 x∗(t)x(t + τ) dt (2.27) A las funciones que aparecen dentro de límite se les denomina estimadores [11] y forman parte de una categoría a la que en teoría estadística se le conoce como estadísticos. Estas funciones, como bien indica su nombre, se utilizan para estimar propiedades estadísticas que en este caso son la esperanza y la autocorrelación. De tal forma que, al evaluar estas funciones para una determinada longitud de la muestra del proceso, se obtendrá una estimación de la función o del valor al que pretenden estimar. El alcance de un estimador viene descrito a través de una serie de propiedades como son el sesgo, la eficiencia, la robustez, la consistencia, la suficiencia y la invarianza. En este estudio, se tomará como condición suficiente para dar por válido un estimador si cumple con el criterio de consistencia, el cual exige que: 1. La esperanza estadística del estimador debe converger a la función que pretende estimar a medida que la duración de la muestra tiende a infinito. E[ f̂ (x)]→ f (x) cuando T0 → ∞, siendo T0 la duración de la muestra. (2.28) 2. La varianza estadística del estimador debe tender a cero a medida que la duración de la muestra tiende a infinito. Var[ f̂ (x)]→ 0 cuando T0 → ∞, siendo T0 la duración de la muestra. (2.29) En el caso de contar con más de un estimador para una misma propiedad estadística, se tomará aquel con menor varianza. Esto se conoce como eficiencia del estimador. Siguiendo este análisis, la ecuación (2.25) es un candidato a estimador de la autocorrelación del proceso aleatorio estacionario y, según lo visto, se tendría que comprobar la validez de este para que dicha estimación sea correcta. Nuevamente se encuentra la misma tesitura que para el caso de señales deterministas de energía. Si se pretenden realizar estimaciones sobre señales reales, debemos plantear estimadores basados en señales discretas y finitas. Para ello se tomarán N muestras de la realización x(t) del proceso aleatorio a una frecuencia de muestreo Fm > 2B donde B es la máxima frecuencia de la señal. Esta nueva señal obtenida que se denotará como x(n) es un conjunto de N muestras de una realización del proceso aleatorio estacionario, la cual es discreto, finita y hereda directamente las propiedades de ergodicidad de su versión continua. Siguiendo el mismo razonamiento que en el caso continuo, tendría sentido plantear un estimador de la autocorrelación estadística (en tiempo discreto) del proceso aleatorio mediante la autocorrelación discreta de x(n). Dicha función se puede expresar como rx(m) = 1 N −m N−m−1 ∑ n=0 x∗(n)x(n+m) m = 0,1,...,N −1 rx(m) = 1 N −|m| N−1 ∑ n=|m| x∗(n)x(n+m) m =−1,−2,...,1−N (2.30) Aplicando el primer criterio de consistencia de estimadores enunciado anteriormente, se cumple que E[γ̂X(m)] = E[rx(m)] = 1 N −|m| N−m−1 ∑ n=0 E[x∗(n)x(n+m)] = γX(m) (2.31) 2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 9 Como se ve, no ha sido necesario tomar el límite de muestras a infinito. Cuando esto sucede se dice que el estimador es insesgado o centrado. Respecto al segundo criterio, la varianza del estimador se puede aproximar como Var[γ̂X(m)] =Var[rx(m)]≈ N (N −|m|)2 ∞ ∑ n=−∞ [|γX(n)|2 + γ∗X(n−m)γX(n+m)] (2.32) donde al tomar el límite cuando las muestras tienden a infinito se cumple claramente que lı́m N→∞ Var[γ̂X(m)] = 0 (2.33) lo cual demuestra que el estimador para la autocorrelación estadística del proceso aleatorio es consistente. Si bien, la expresión encontrada para la varianza del estimador crece a medida que se tienen valores mayores del parámetro m (para un número de muestras dada), esto motiva el intento de encontrar un nuevo estimador que mejore las prestaciones respecto a la varianza y, por tanto, según las propiedades de los estimadores, sea más eficiente. Para ello se da una expresión alternativa para la autocorrelación media de la señal x(n) que será el nuevo candidato a estimador. r′x(m) = 1 N N−|m|−1 ∑ n=0 x∗(n)x(n+m) m = 1−N,..,−1,0,1,...,N −1 (2.34) La esperanza de dicho estimador resulta E[γ̂X(m)] = E[r′x(m)] = 1 N N−|m|−1 ∑ n=0 E[x∗(n)x(n+m)] = ( 1− |m| N ) γX(m) (2.35) En este caso, el nuevo estimador no es insesgado, pero cumple con el primer criterio de consis- tencia puesto que, al tomar el límite de muestras infinitas sobre la función anterior converge a la función de autocorrelación estadística. Se dice pues que el estimador es asintóticamente insesgado. Respecto a la varianza, se puede demostrar que Var[γ̂X(m)] =Var[r′x(m)]≈ 1 N ∞ ∑ n=−∞ [|γX(n)|2 + γ∗X(n−m)γX(n+m)] (2.36) Es fácilmente observable que esta varianza es inferior a medida que el retraso en la autocorrelación de la señal x(n) crece Var[rx(m)] Var[r′x(m)] = N (N−|m|)2 1 N = N2 (N −|m|)2 ≥ 1 −→ Var[r′x(m)]≤Var[rx(m)] y por consiguiente el estimadorr′x(m) es más eficaz que el estimador primeramente propuesto. Además, se sigue cumpliendo el segundo criterio de consistencia lo cual hace más interesante utilizar este nuevo estimador para este estudio. Por comodidad en la notación, se eliminará el superíndice prima de r′x(m) de la expresión (2.34) ya que a partir de aquí se trabajará solo con este estimador. Una vez se ha encontrado un estimador consistente para obtener de manera experimental la autocorrelación estadística del proceso aleatorio estacionario a través de muestras de una realización del este, es lógico pensar que, si se computa la DTFT del estimador encontrado se obtendría un estimador de la densidad espectral de potencia en el dominio de F del mismo. Px(F) = N−1 ∑ m=1−N rx(m)e− j2πFm (2.37) 10 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico Desarrollando esta ecuación, sobre el termino rx(m), se encuentra una forma alternativa de expresar el estimador Px(F) Px(F) = 1 N ∣∣∣∣∣N−1∑n=0 x(n)e− j2πFn ∣∣∣∣∣ 2 = 1 N |X(F)|2 (2.38) Donde X(F) es la DTFT de la señal x(n). A la función Px(F) se le conoce con el nombre de pe- riodograma la cual fue introducida por Schuster en el año 1898 para detectar y medir periodicidades ocultas en muestras de señales. La obtención de dicha función viene descrita mediante dos formas, que no son más que un método directo a través de la DTFT de la señal x(n) y un método indirecto computándose primeramente la autocorrelación de la señal x(n) para posteriormente hallar su DTFT. Estos métodos recuerdan a las ecuaciones (2.7) y (2.8) y de hecho, comparando la ecuación (2.38) y (2.8) se puede ver la relación fundamental entre potencia y energía. Px( f ) = lı́mT→∞ SxT ( f ) T (2.39) donde SxT es la densidad espectral de energía de una señal determinista x(t) truncada entre −T/2 y T/2 y ΓX( f ) es la densidad espectral de potencia de la señal x(t). Si se supone que esta señal x(t) proviene de la realización de un proceso aleatorio estacionario, y que es muestreada a una frecuencia Fm, se obtiene la señal xN(n) y, por ello, la ecuación (2.39) PxN (F) = lı́mN→∞ SxN (F) N (2.40) Donde TmN = T . Si se toma un número de muestras suficientemente grande, la expresión anterior se puede aproximar como PxN (F)≈ SxN (F) N = |XN(F)| 2 N (2.41) donde la señal xN(n) es idéntica a la señal x(n) introducida en esta sección. Finalizando aquí este breve inciso sobre la relación existente entre estimación de la PSD de procesos aleatorios estacionarios y ESD de señales deterministas de energía finita, queda por comprobar la consistencia del estimadorperiodograma. En primer lugar, la esperanza estadística de dicho estimador resulta E[Px(F)] = E [ N−1 ∑ m=1−N rx(m)e− j2πFm ] = N−1 ∑ m=1−N E [rx(m)]e− j2πFm = N−1 ∑ m=1−N ( 1− |m| N ) γX(m)e− j2πFm (2.42) la cual se puede interpretar como la DTFT del enventanado de la autocorrelación E[Px(F)] = DT FT {γ̃X(m)}= DT FT {( 1− |m| N ) γX(m) } (2.43) donde al termino ( 1− |m|N ) es una ventana de tipo Bartlett o triangular debida al sesgo del estimador. Por tanto, una forma alternativa de expresar este resultado es a través de la convolución de la DTFT de la autocorrelación ΓX(F), por la DTFT de la ventana E[Px(F)] = ∞ ∑ m=−∞ γ̃X(m)e− j2πFm = ∫ 1/2 −1/2 ΓX(υ)WB(F −υ) dυ (2.44) 2.2 Estimación de la densidad espectral de potencia de procesos aleatorios WSS: Periodograma 11 donde WB(F) es el espectro en frecuencia normalizada de la ventana Bartlett. Esta relación ofrece un resultado bastante ilustrativo del resultado esperado al utilizar el periodograma como estimador de la PSD de un proceso aleatorio estacionario. La consecuencia de esto es que la esperanza de dicho estimador ofrece una versión distorsionada de la verdadera PSD ΓX(F) acorde con las propiedades de la ventana. Este resultado de hecho es similar al problema que se planteó al inicio del estudio, donde se analizaba la estimación de la ESD de una señal determinista la cual, también resultaba una versión distorsionada del verdadero espectro. Al igual que ocurría en este caso, se puede demostrar que, a medida que el número de muestras N crece, los efectos del enventanado desaparecen y la esperanza del periodograma converge a la verdadera PSD del proceso. Se dice pues, que dicho estimador es asintóticamente insesgado lı́m N→∞ E[Px(F)] = lı́mN→∞ E [ N−1 ∑ m=1−N rx(m)e− j2πFm ] = lı́m N→∞ N−1 ∑ m=1−N ( 1− |m| N ) γX(m)e− j2πFm = ∞ ∑ m=−∞ γX(m)e− j2πFm = ΓX(F) (2.45) Si embargo, el problema se tiene al aplicar el segundo criterio de consistencia sobre este estimador que, como se verá a continuación, no se cumple puesto que la varianza de este no decae a cero a medida que las muestras tomadas N tienden a infinito. Tomando como ejemplo, un proceso aleatorio estacionario de tipo gaussiano, la varianza del periodograma es Var[Px(F)] = Γ2X(F) [ 1+ ( sen(2πFN) N sen(2πF) )2] (2.46) la cual, cuando se toma el límite cuando N → ∞, tiende a lı́m N→∞ Var[Px(F)] = Γ2X(F) (2.47) En resumen, si bien el estimador de la autocorrelación estadística del proceso rx(m) dado por la ecuación (2.34) es consistente, su transformada de Fourier, es decir, el estimador denominado periodograma Px(F) no lo es. Dicho estimador contiene un sesgo cuando se tiene una duración finita de N muestras que como se ve en la ecuación (2.44), se traduce en una distorsión de la PSD real causa del enventanado. Por tanto, esto limita, entre otras cosas, la capacidad de resolución de aquellos espectros que tengan fuertes componentes espectrales estrechamente espaciadas. Además de esto, el periodograma presenta una varianza no nula cuando se tiene un número de muestras infinito, lo que lo hace del todo inconsistente. A pesar de estos problemas y debido a la fácil implementación de dicho estimador que, como se ve en la ecuación (2.38), basta con aplicar el algoritmo de FFT sobre las muestras del proceso y elevar el módulo de este resultado al cuadrado, motiva el estudio de técnicas que, aun asumiendo estos problemas inherentes a la propia definición del estimador, mejoren los resultados de este y aprovechando así la fácil implementación. Estas técnicas se agrupan en dos categorías principales denominadas métodos no paramétricos o clásicos y métodos paramétricos. Los métodos no paramétricos no hacen suposiciones sobre el origen de los datos y se centran en encontrar un estimador consistente basado en el periodograma o en su defecto, que mejore las prestaciones de este aumentando la capacidad de resolución y disminuyendo la varianza. Los métodos paramétricos se construyen a partir de modelos basados en el origen de los datos y que, por lo general, proporcionan una resolución significativamente mayor que los métodos clásicos. 12 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico Además de estas dos categorías, existen algunas técnicas más modernas como son el método de Capon basado en reducir la varianza de la estimación, el método de Pisarenko de descomposición harmónica o el método música. En las siguientes secciones de este estudio, se analizarán los métodos paramétricos y cómo estos se comportan a la hora de estimar señales típicas del mundo de las comunicaciones. 2.3 Efectos de enventanado Como se ha visto en los capítulos anteriores, para estimar el espectro de potencia o energía, es necesario tomar un numero finito de muestras N de una realización del proceso aleatorio. Esto se traduce en lo que se conoce como enventanado [10] y está presente a lo largo de todo este estudio y, por este motivo, es conveniente detenerse y analizar cómo influye esto en el espectro en frecuencia. Si bien ya se han mencionado algunos de estos efectos como son la fuga espectral, existen otros como la resolución espectral. Para ilustrar esto en primer lugar, se supondrá que se tiene una señal dada por la siguiente ecuación: x(t) = cos(2π f0t) (2.48) El espectro de dicha función se puede obtener de manera directa como X( f ) = 1 2 δ ( f − f0)+ 1 2 δ ( f + f0) (2.49) Si ahorase quisiera computar numéricamente su espectro, se tendría que muestrear dicha señal a una frecuencia Fm > F0 de tal forma que se eliminen los efectos del aliasing. x(nTm) = cos(2π f0nTm)−→ x(n) = cos(2πF0n) (2.50) Y también, será necesaria trucar la señal a un número finito de muestras N de tal forma que n = 0,1,...,N −1. Esto, como ya se ha visto, se puede expresar como el producto de la señal x(n) por una ventana que tome valores distintos de cero en el intervalo [0,N −1]. En un primer análisis se tomará una ventana rectangular x̃(n) = x(n)w(n) = x(n), n = 0,1,...,N −1 (2.51) La señal x̃(n) es la señal muestreada y truncada para N muestras de x(t) cuyo espectro, se puede determinar a través de la DTFT de x̃(n).Esto a su vez se puede expresar a través de la convolución del espectro de x(n) por el espectro de la ventana tal como se vio en la ecuación (2.10) X̃(F) = 1 2 W (F −F0)+ 1 2 W (F +F0), F = [−0.5, 0.5] (2.52) Siendo W (F) la transformada discreta de Fourier de la ventana w(n) W (F) = sin(2πFN/2) sin(2πF/2) e− j2πF(N−1)/2 (2.53) A continuación, se representa la magnitud del espectro de la señal (2.51) para un valor de F0 = 0.2: Como se ve el espectro resultante difiere en gran medida del espectro ideal dado por (2.49). En primer lugar, se observa el fenómeno de fuga espectral donde la potencia que en principio debería de concentrarse únicamente en la frecuencia F0, se "derrama" a lo largo del espectro en forma de lóbulos secundarios. Dichos lóbulos pasan por 0 en frecuencias múltiplos de 1/N de tal forma que 2.3 Efectos de enventanado 13 Figura 2.1 Espectro de la señal x̃(n) con ventana rectangular, N = 10 y F0 = 0.2. Figura 2.2 Espectro de la señal x̃(n) con ventana rectangular, N = 30 y F0 = 0.2. el ancho del lóbulo principal viene dado por 1/N. Se puede observar que, si se aumenta el número de puntos tomados en el muestreo, el ancho del lóbulo principal decrece y aparecen más lóbulos secundarios, más estrechos y de menor potencia. De hecho, cuando N → ∞, el espectro converge a una delta centrada en F0 el cual sí representa el espectro ideal de x(t). Hasta el momento, solo se ha tenido en cuenta un enventanado de tipo de rectangular, pero en la práctica, existen multitud de ventanas con diferentes propiedades que ofrecen distintas posibilidades para adecuarse a las necesidades de cada caso. Un ejemplo de estas ventanas es la ventana de Bartlett la cual está presente en la definición del periodograma de un proceso aleatorio estacionario. Esta ventana tiene la forma WB(F) = 1 M ( sin(πFM) sin(πF) )2 (2.54) donde M = (N +1)/2 y, aplicando esta ventana a la señal x(n), se tiene X̃(F) = 1 2 WB(F −F0)+ 1 2 WB(F +F0), F = [−0.5, 0.5] (2.55) cuyo espectro resultante se muestra en la figura a continuación. Como se ve, las características respecto al número de lóbulos cambia, es decir, el ancho de los lóbulos aumenta pero la magnitud de los lóbulos secundarios es inferior y, en consecuencia, la 14 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico Figura 2.3 Espectro de la señal x̃(n) con ventana de Bartlett, N = 10 y F0 = 0.2. Figura 2.4 Espectro de la señal x̃(n) con ventana de Bartlett, N = 30 y F0 = 0.2. potencia fugada es notablemente menor. Otro aspecto fundamental a la hora de enventanar señales es la resolución espectral. Esta carac- terística mide la mínima separación de frecuencias que se puede distinguir en el espectro, de tal forma que a medida que este parámetro sea menor, la resolución espectral será mejor puesto que se pueden identificar más frecuencias fundamentales en el espectro. Para ver esto, se puede suponer una nueva señal x(n) dada por x(n) = cos(2πF1t)+ cos(2πF2t) (2.56) donde ∆F = F2 −F1. Aplicando el mismo procedimiento anterior, donde se utilizaba una ventana rectangular, el nuevo espectro de x̃(n) resulta X̃(F) = 1 2 [W (F −F1)+W (F −F2)+W (F +F1)+W (F +F2)] , F = [−0.5, 0.5] (2.57) Siguiendo el mismo razonamiento anterior, se puede intuir el hecho de que para ciertos valores de N los lóbulos principales de W (F ±F1) y W (F ±F2) podrán solaparse de tal forma que no se puedan distinguir visualmente y es por esto por lo que surge el concepto de resolución espectral. Para resolver este problema, se puede recurrir a una regla práctica que defina una condición para el número de muestras N que permita distinguir dos componentes de frecuencias separados una 2.3 Efectos de enventanado 15 cierta cantidad ∆F . De manera aproximada se puede decir que, cuando ∆F es mayor o igual que el ancho del lóbulo principal tomado cuando este reduce 3 dB respecto al valor máximo, serán distinguibles y, por tanto, queda definido la resolución espectral máxima (separación de frecuencias mínima distinguible) como: ∆F = β N (2.58) Siendo β un factor que depende exclusivamente del tipo de ventana y también del criterio seleccionado. En este caso se optado por un criterio poco restrictivo que toma como ancho del lóbulo principal una reducción de 3 dB de referencia, pero hay algunos libros que optan por 6 dB. Una idea cualitativa de la resolución espectral que ofrecen las principales ventanas se recoge la tabla 2.1. Tabla 2.1 Resolución espectral máxima para diferentes tipos de ventanas de igual longitud N [10]. Ventana Resolución 3dB (∆F) Rectangular 0.89/N Bartlett 1.28/N Hanning 1.44/N Hamming 1.30/N Blackman 0.89/N Figura 2.5 Espectro de la señal x(n) definida en (2.56) con enventanado rectangular para N = 10, F1 = 0.20 y F2 = 0.23. Por lo tanto, según este criterio, se puede justificar la diferencia en el ancho del lóbulo principal entre la ventana rectangular y de Bartlett. Tomando por ejemplo el caso donde N = 50, se representa en la figura 2.7 el espectro de la señal x(n) definida en (2.48) con enventanado rectangular y de Bartlett respectivamente en dB. Si se mide el ancho del lóbulo principal para ambos caso, se ve que casa perfectamente con los valores de resolución espectral máxima dados en la tabla 2.1. Respecto a cómo afecta todo esto al estimador periodograma es fácil ver que, según la propia definición del estimador, ecuación (2.38), los efectos se manifiestan de manera directa y es por esto que a la hora de realizar estimaciones de la PSD habrá que tener presente los efectos de fuga y resolución espectral. 16 Capítulo 2. Estimación de la densidad espectral: Fundamento teórico Figura 2.6 Espectro de la señal x(n) definida en (2.56) con enventanado rectangular para N = 50, F1 = 0.20 y F1 = 0.23. (a) Enventanado rectangular. (b) Enventanado de Bartlett. Figura 2.7 Espectro de la señal x(n) definida en (2.48) en dB con enventanado rectangular y de Bartlett, N = 50 y F0 = 0.2. 2.4 Zero padding El zero padding [13] es una técnica utilizada en el cálculo de espectros a través del algoritmo FFT. Esta consiste en añadir valores nulos al final de la señal muestreada para mejorar las cualidades de su espectro. Es muy importante tener claro que esta técnica no ofrece mejores resultados del espectro en cuanto a resolución espectral se refiera. Lo que se consigue con esto en realidad es mejorar las cualidades de la representación en cuanto a interpolación de los puntos. Para ilustrar con mayor claridad esto, se aplicará esta técnica al estimador periodograma. Para ello se puede partir de la ecuación (2.38) donde dicho estimador queda definido a partir de la DTFT de N muestras de la realización del proceso aleatorio x(n). Como se vio ya en la sección 2.1, el resultado de la DTFT está definido en una variable continua F y, por tanto, será necesario muestrear este dominio para una serie de frecuencias determinadas. Para esto se recurre al algoritmo FFT el cual, si se tienen N puntos de la señal x(n), calcula N frecuencias equiespaciadas pertenecientes a un periodo de la DTFT. Aplicando esto a la ecuación (2.38), se obtendrá el periodograma evaluado en las frecuencias F = k/N con k = 0,1,...,N −1. 2.4 Zero padding 17 Px(k/N) = 1 N ∣∣∣∣∣N−1∑n=0 x(n)e− j 2πkN n ∣∣∣∣∣ 2 k = 0,1,...,N −1 (2.59) Como se ve, dicho algoritmoevalúa únicamente N frecuencias del espectro continuo de x(n) lo cual implica una pérdida de información y en muchos casos no proporciona una buena representación del espectro estimado. Una solución simple pero eficaz para esto, consiste en rellenar la señal x(n) hasta L muestras añadiendo ceros (zero padding) de tal forma que el computo de periodograma quedaría. Px(k/L) = 1 N ∣∣∣∣∣N−1∑n=0 x(n)e− j 2πkL n ∣∣∣∣∣ 2 k = 0,1,...,L−1 (2.60) Esto implica que, cuando se le aplique el algoritmo a la nueva señal rellenada de ceros, se obtendrán L puntos de la PSD estimada. Si bien, este método no mejora la resolución espectral de la señal, únicamente ofrece mejoras en la interpolación de aquellos puntos que pertenecen al espectro real y, por tanto, mejorando los resultados en cuanto a la representación pero no en cuanto a la resolución espectral se refiere. 3 Periodograma: métodos no paramétricos A continuación, se dará paso al estudio y análisis de los principales métodos clásicos denominados no paramétricos utilizados para estimar la densidad espectral de potencia de procesos aleatorios estacionarios [15, 17]. Todas estas técnicas implementan en última instancia la DTFT de la señal discreta de N puntos resultantes de la realización del proceso y no hacen suposiciones sobre el origen de dichas muestras. Las principales diferencias de estos métodos se dan en cómo es tratada esta cadena de información previa a ser transformada. Dado que las estimaciones se basan completamente en un registro finito de datos, la resolución espectral cómo se ha visto en la sección 2.3, dependerá del tipo de ventana utilizada y del número de muestras tomadas. Además, se podrá comprobar que cuando se encuentren mejoras respecto a la varianza inherente de dicho estimador, la resolución espectral se verá repercutida negativamente. Al final de este capítulo se realizará una comparación cualitativa referido a la resolución espectral y al coeficiente de Pearson ofrecido por los diferentes métodos. 3.1 Método de Bartlett El método Bartlett consigue una reducción en la varianza del periodograma mediante tres pasos. Primeramente, se divide la señal de información x(n) en K segmentos de longitud M siendo M = N/K de tal forma que no existe solapamiento entre estos. xi(n) = x(n+ iM) i = 0,1,...,K −1 n = 0,1,...,M−1 (3.1) En segundo lugar, se computa el periodograma de los K segmentos. Pix(F) = 1 M ∣∣∣∣∣M−1∑n=0 xi(n)e− j2πFn ∣∣∣∣∣ 2 i = 0,1,...,K −1 (3.2) Por último, se obtiene el periodograma completo a través de la media uniforme de estas K funciones. PBx (F) = 1 K K−1 ∑ i=0 Pix(F) (3.3) 19 20 Capítulo 3. Periodograma: métodos no paramétricos El súper índice B denota que este estimador periodograma implementa el método Bartlett. Sus propiedades estadísticas se pueden obtener de manera sencilla en función de las propiedades del periodograma clásico. La esperanza estadística se puede expresar como E[PBx (F)] = E [ 1 K K−1 ∑ i=0 Pix(F) ] = 1 K K−1 ∑ i=0 E[Pix(F)] = E[Pix(F)] (3.4) y utilizando la ecuación (2.42) y (2.44) se obtiene que E[Pix(F)] = M−1 ∑ m=1−M ( 1− |m| M ) γX(m)e− j2πFm = = ∫ 1/2 −1/2 ΓX(υ)Wb(F −υ) dυ (3.5) donde WB(F) = 1 M ( sen(πFM) sen(πF) )2 (3.6) es la respuesta en frecuencia de la ventana de Bartlett. De este resultado se puede extraer que, la esperanza del periodograma de Bartlett es la convolución en frecuencia de la verdadera densidad espectral de potencia del proceso por la ventana de Bartlett de parámetro M. A diferencia del resultado obtenido por en la ecuación (2.42) donde, en este caso, la ventana tenía una longitud de 2N −1 puntos, ahora el ancho de muestras de la ventana se ha reducido a M = N/K, o lo que es lo mismo, el ancho en frecuencia de la ventana ha aumentado por un factor K. Esto se traduce en una mayor pérdida de resolución espectral. Para darle consistencia a este resultado, se puede demostrar que este nuevo estimador es, al igual que el periodograma básico, asintóticamente insesgado ya que, manteniendo un valor de K constante, cuando N → ∞, M → ∞ y, por tanto lı́m N→∞ E[Pix(F)] = ΓX(F) (3.7) Respecto a la varianza estadística se tiene que Var[PBx (F)] =Var [ 1 K K−1 ∑ i=0 Pix(F) ] = 1 K2 K−1 ∑ i=0 Var [ Pix(F) ] = 1 K Var [ Pix(F) ] (3.8) y, de igual forma que se hizo para obtener la esperanza estadística de Pix(F), se toma la ecuación (2.46) y se llega al siguiente resultado Var[PBx (F)] = 1 K Γ2X(F) [ 1+ ( sen(2πFM) M sen(2πF) )2] (3.9) Si ahora, se toma el límite para un número de muestras infinitas se obtiene una reducción en la varianza respecto al periodograma básico en un factor K. lı́m N→∞ Var[PBx (F)] = 1 K Γ2X(F) (3.10) En resumen, el método de Bartlett consiste en promediar K periodogramas de segmentos no solapadas de la realización del proceso aleatorio. Este método genera un nuevo estimador para la densidad espectral de potencia del proceso denominado periodograma de Bartlett PBx (F) que, al 3.2 Método de Welch 21 igual que el periodograma básico, es asintóticamente insesgado, pero presenta una varianza k veces menor. Como contrapartida, se sacrifica resolución espectral. 3.2 Método de Welch El método de estimación de Welch toma como punto de partida el método de Bartlett al cual se le aplican una serie de modificaciones en sus pasos previos a la obtención del estimador final. Estas modificaciones se resumen en dos. En primer lugar, se tomarán en este caso L segmentos de longitud M de la realización del proceso aleatorio de tal forma que haya solapamiento. xi(n) = x(n+ iD) i = 0,1,...,L−1 n = 0,1,...,M−1 (3.11) iD es la muestra de inicio del segmento i que, para que exista solapamiento, tendrá que ser menor que la longitud de cada uno de ellos. La segunda modificación añade en el cómputo del periodograma de cada segmento Pix(F), un enventanado a cada uno de ellos. Esto se puede expresar como P̃ix(F) = 1 MU ∣∣∣∣∣M−1∑n=0 xi(n)w(n)e− j2πFn ∣∣∣∣∣ 2 i = 0,1,...,L−1 (3.12) donde U es un factor de normalización utilizado para eliminar la contribución energética de la ventana y, por tanto, se define como U = 1 M M−1 ∑ n=0 w2(n) (3.13) Finalmente, igual que para el método de Bartlett, el periodograma de Welch es el promediado de los periodograma modificados de los segmentos, es decir PWx (F) = 1 L L−1 ∑ i=0 P̃ix(F) (3.14) La esperanza estadística de este estimador es E[PWx (F)] = E [ 1 L L−1 ∑ i=0 P̃ix(F) ] = 1 L L−1 ∑ i=0 E[P̃ix(F)] = E[P̃ix(F)] (3.15) y la esperanza estadística del periodograma modificado del segmento i es E[P̃ix(F)] = 1 MU M−1 ∑ n=0 M−1 ∑ m=0 w(n)w(m)E[xi(n)x∗i (m)]e − j2πF(n−m) = 1 MU M−1 ∑ n=0 M−1 ∑ m=0 w(n)w(m)γX(n−m)e− j2πF(n−m) (3.16) Sabiendo que γX(n) = ∫ 1/2 −1/2 ΓX(ν) dν (3.17) 22 Capítulo 3. Periodograma: métodos no paramétricos se puede sustituir esta expresión en la ecuación (3.14) y se obtiene E[P̃ix(F)] = 1 MU ∫ 1/2 −1/2 ΓX(ν) [ M−1 ∑ n=0 M−1 ∑ m=0 w(n)w(m)e− j2π( f−ν)(n−m) ] dν = ∫ 1/2 −1/2 ΓX(ν)W ( f −ν) dν (3.18) donde W ( f ) = 1 MU ∣∣∣∣∣M−1∑n=0 w(n)e− j2πFn ∣∣∣∣∣ 2 (3.19) se puede comprobar que, este estimador modificado es asintóticamente insesgado ya que, cuando el límite de muestras M tiende a infinito, la ventana se hace infinitamente ancha y, por tanto, su respuesta en frecuencia tiende a una delta. De esta forma, la convolución en frecuencia de la ecuación (3.16) daría como resultado la verdadera densidad espectral de potencia del proceso. lı́m N→∞ E[Pix(F)] = ΓX(F) (3.20) Respecto a la varianza del estimador de Welch, se tiene (aplicando directamente la definición de varianza estadística) Var[PWx (F)] = 1 L2 L−1 ∑ i=0 L−1 ∑ j=0 E[P̃ix(F)P̃ j x (F)]−E2[PWx (F)] (3.21) Es lógico pensar que, suponiendo que no haya solapamiento (L = K), es decir que se esté en el supuesto del método de Bartlett, se deberían obtener los mismos resultados. Var[PWx (F)] = 1 L Var[P̃ix(F)] (3.22) de tal forma que, cuando N → ∞ y M → ∞ Var[PWx (F)]≈ 1 L Γ2X(F) (3.23) Suponiendo un caso más propio de estanueva técnica donde si exista solapamiento, por ejemplo, el caso que utilizó Welch para su estudio donde suponía un 50% de solapamiento (L = 2K) se tiene un resultado para la varianza de Var[PWx (F)]≈ 9 8L Γ2X(F) = 0.5625 · 1 K Γ2X(F) (3.24) En resumen, el método de Welch redefine el estimador de Bartlett de manera que los segmentos presentan solapamientos entre ellos. Este efecto mantiene las propiedades de estimador insesgado y reduce la varianza de este. Cabe decir que, el valor de la varianza dependerá del porcentaje de solapamiento elegido, así como de la ventana utilizada en el periodograma de los segmentos. 3.3 Método de Blackman y Tukey El método de Blackman y Tukey toma la ecuación (2.37) añadiendo un enventanado a la correlación rx(m). La justificación de hacer esto es que, para grandes retrasos, las estimaciones son menos fiables ya que para valores de m que se acercan a N, la varianza de estas estimaciones es muy alta, 3.3 Método de Blackman y Tukey 23 y por lo tanto se les debe dar un peso menor en la formación de la estimación. El estimador de Blackman-Tukey se define como PBTx (F) = M−1 ∑ m=1−M rx(m)w(m)e− j2πFm (3.25) donde la ventana w(m) tendrá un ancho de 2M−1 muestras y es cero para |m| ≥M. Este resultado se puede expresar de manera alternativa a través de la convolución del espectro de la ventana por el espectro de autocorrelación, es decir el periodograma. PBTx (F) = ∫ 1/2 −1/2 Px(u)W (F −u) du (3.26) Por tanto, como era de esperar, esta propuesta ofrece una versión suavizada del periodograma básico. Además, se pueden intuir algunas propiedades que debe cumplir la ventana, como son paridad para asegurar que la estimación es real y debe ser no negativa para |F | ≤ 1/2 puesto que la PSD debe ser positiva. La esperanza estadística de este estimador es E[PBTx (F)] = ∫ 1/2 −1/2 E[Px(u)]W (F −u) du (3.27) donde, según la ecuación (2.44) E[Px(u)] = ∫ 1/2 −1/2 ΓX(v)WB(u− v) dv (3.28) añadiendo el resultado de esta expresión a la ecuación (3.27) se obtiene E[PBTx (F)] = ∫ 1/2 −1/2 ∫ 1/2 −1/2 ΓX(v)WB(u− v)W (F −u) dudv (3.29) Equivalente a esto, se puede analizar la esperanza estadística trabajando en el dominio del tiempo E[PBTx (F)] = M−1 ∑ m=1−M E[rx(m)]w(m)e− j2πFm = M−1 ∑ m=1−M γX(m)wB(m)w(m)e− j2πFm (3.30) siendo wB(m) la ventana de Bartlett en el domino temporal wB(m) = 1− |m| N , |m|< N 0, e.o.c (3.31) Si se elige una longitud para la ventana w(m) tal que M << N, provocará que esta sea más estrecha que WB(m) y entonces se cumple la siguiente aproximación:∫ 1/2 −1/2 WB(u− v)W (F −u) du ≈W (F − v) (3.32) que si se aplica a la ecuación (3.29), queda 24 Capítulo 3. Periodograma: métodos no paramétricos E[PBTx (F)]≈ ∫ 1/2 −1/2 ΓX(v)W (F − v) dv (3.33) y análogamente en el dominio del tiempo E[PBTx (F)]≈ M−1 ∑ m=1−M γX(m)w(m)e− j2πFm (3.34) Respecto a la varianza del estimador de Blackman-Tukey, aplicando directamente la definición se tiene Var[PBTx (F)] = E[[P̃BTx (F)]2]−E2[PBTx (F)] (3.35) El primer sumando de esta expresión es el momento de orden dos del estimador que se puede analizar a través de la ecuación (3.27) como E[[P̃BTx (F)]2] = ∫ 1/2 −1/2 ∫ 1/2 −1/2 E[Px(u)Px(v)]W (F −u)W (F − v) dudv (3.36) El término E[Px(u)Px(v)] se puede desarrollar resolviendo la ecuación (2.44) E[Px(u)Px(v)] = ΓX(u)ΓX(v) [ 1+ [ sen(π(v+u)N) N sen(π(v+u)) ]2 + [ sen(π(v−u)N) N sen(π(v−u)) ]2] (3.37) y sustituyendo este resultado en la ecuación (3.36) E[[P̃BTx (F)]2] = [∫ 1/2 −1/2 ΓX(v)W (F − v) dv ]2 + ∫ 1/2 −1/2 ∫ 1/2 −1/2 ΓX(u)ΓX(v)W (F −u)W (F − v) · [[ sen(π(v+u)N) N sen(π(v+u)) ]2 + [ sen(π(v−u)N) N sen(π(v−u)) ]2] dudv (3.38) Analizando ahora el segundo sumando de la varianza en la ecuación (3.35) es fácil ver que, dicho término se puede expresar como E2[PBTx (F)] = [∫ 1/2 −1/2 ΓX(v)W (F − v) dv ]2 (3.39) y que junto con el resultado expuesto en la ecuación (3.38) ofrece un resultado para la varianza de Var[PBTx (F)] = ∫ 1/2 −1/2 ∫ 1/2 −1/2 ΓX(u)ΓX(v)W (F −u)W (F − v) · [[ sen(π(v+u)N) N sen(π(v+u)) ]2 + [ sen(π(v−u)N) N sen(π(v−u)) ]2] dudv (3.40) En el caso en el que N >> M, la función sen(π(v+u)N)N sen(π(v+u)) y sen(π(v−u)N) N sen(π(v−u)) son relativamente estrechas comparadas con W (F) en las cercanías donde v=−u y v= u y, por tanto, se puede hacer la siguiente aproximación: 3.4 Comparación de prestaciones 25 ∫ 1/2 −1/2 ΓX(v)W (F − v) [[ sen(π(v+u)N) N sen(π(v+u)) ]2 + [ sen(π(v−u)N) N sen(π(v−u)) ]2] dv ≈ ΓX(−u)W (F +u)+ΓX(u)W (F −u) N (3.41) Aplicando esto a la ecuación (3.40) se obtiene Var[PBTx (F)]≈ 1 N ∫ 1/2 −1/2 ΓX(u)W (F −u)[ΓX(−u)W (F +u)+ΓX(u)W (F −u)] du (3.42) y nuevamente, se puede hacer otra aproximación aplicando los mismos razonamientos expuestos anteriormente ∫ 1/2 −1/2 ΓX(u)ΓX(−u)W (F −u)W (F +u) du ≈ 0 (3.43) Finalmente, la varianza se convierte en Var[PBTx (F)]≈ 1 N ∫ 1/2 −1/2 Γ2X(u)W 2(F −u) du (3.44) Este resultado puede aproximarse aún más suponiendo el caso donde W (F) sea más estrecha que ΓX(F). Asumiendo este hecho, la ecuación (3.44) queda Var[PBTx (F)]≈ Γ2X(F) [ 1 N ∫ 1/2 −1/2 W 2(v) dv ] ≈ Γ2X(F) [ 1 N M−1 ∑ m=1−M w2(m) ] (3.45) En conclusión, el método de estimación de Blackman y Tukey utiliza el método indirecto de obtención del periodograma para obtener un nuevo estimador de la densidad espectral de potencia. Para esto, realiza un enventanado previo del estimador de la autocorrelación del proceso con un ancho de muestras 2M−1 tal que M << N siendo N la longitud de muestras de la realización del proceso. 3.4 Comparación de prestaciones Una vez se han sido presentados los diferentes métodos no paramétricos de estimación espectral de potencia, es de gran interés definir algún tipo de factor de calidad o figura de mérito que permita comparar de cierta forma estos métodos. Como medida de calidad se puede recurrir al denominado coeficiente de variación de Pearson [3], el cual ofrece de manera porcentual una medida de la desviación típica de la estimación respecto a la media, o lo que es lo mismo, para cada método nos dará información de cuan mucho o poco se desviarán los resultados obtenidos respecto al valor esperado. Dicho coeficiente se define como rA = σ [PAx (F)] E[PAx (F)] = √ Var[PAx (F)] E2[PAx (F)] (3.46) Donde A = B (Bartlett), W (Welch), BT (Blackman-Tukey). Puesto que este coeficiente es adi- mensional, las propiedades comparativas del mismo son más que evidentes. Puesto que se ha hecho 26 Capítulo 3. Periodograma: métodos no paramétricos hincapié en encontrar una expresión para la varianza de los diferentes métodos y no de la desviación típica, será más conveniente utilizar el cuadrado del coeficiente de Pearson para así expresarlo en función de la varianza. r2A = Var[PAx (F)] E2[PAx (F)] (3.47) Otro detalle comparativo importante es la resolución espectral máxima ofrecida entendida (según lo visto en la sección 2.3) como la mínima separación de frecuencias que se puede distinguir en la estimación. Esta propiedad vendrá dada por la ventana utilizada en cada método, (ver tabla 2.1). Tomando como referencia el periodograma estándar, ecuación (2.38), se tiene que Px(F) = 1 N ∣∣∣∣∣N−1∑n=0 x(n)e− j2πFn ∣∣∣∣∣ 2 = 1 N |X(F)|2 (3.48) Donde se encontró que, cuando N → ∞ 1. Esperanza: E[Px(F)]→ ΓX(F) (3.49) 2. Varianza: Var[Px(F)]→ Γ2X(F) (3.50) y, por tanto, el cuadrado del coeficiente de Pearson queda r2 = Γ2X(F) Γ2X(F) = 1 (3.51) Este resultado muestra que, si los diferentes métodos de estimación mejoran el periodograma básico reduciendo la varianza del estimador, se cumplirá que r2A < 1 (3.52) Siendo un estimador de desviación nula o convergencia perfecta aquel que presenta r = 0. En lo referido a la resolución espectral, en el estudio del periodograma se vio que la esperanza de dicho estimador posee un sesgo dado por la ventana de Bartlett lo cual, según la ecuación (2.44), es un enventanamiento de la verdadera PSD y ofrece una resolución de: ∆F = 0.89 N (3.53) 3.4.1 Estimador PSD de Bartlett Elmétodo de Bartlett consiste en un promediado de periodogramas de K segmentos de longitud M pertenecientes a la ruta de muestras de la realización del proceso aleatorio de longitud N. Puesto que estos segmentos carecen de solapamiento se tendrá que K = N/M. Por tanto, retomando la definición para el periodograma de Bartlett vista en la ecuación (3.3) se tiene que: PBx (F) = 1 K K−1 ∑ i=0 Pix(F) (3.54) Siendo la esperanza y la varianza de este cuando N → ∞ y M → ∞, con K fijado 1. Esperanza: E[PBx (F)]→ Γ2X(F) (3.55) 3.4 Comparación de prestaciones 27 2. Varianza: Var[PBx (F)]→ 1 K Γ2X(F) (3.56) y, por consiguiente, el coeficiente de Pearson al cuadrado para el periodograma de Bartlett es r2B = 1 K Γ 2 X(F) Γ2X(F) = 1 K = M N (3.57) En lo referido a la resolución espectral, la esperanza del periodograma de Bartlett es, para una longitud de la muestra N fijada (ecuaciones (3.4) y (3.5)): E[PBx (F)] = E[Pix(F)] = ΓX(F)∗Wb(F) (3.58) Donde WB(F) es la ventana de Bartlett de longitud M, lo que ofrece una resolución espectral de ∆F = 0.89 K = 0.89 M N (3.59) 3.4.2 Estimador PSD de Welch El método de Welch es una modificación del método de Bartlett donde se tienen L segmentos de longitud M que en este caso presentan solapamiento entre ellos. Además, a la hora del cálculo del periodograma de cada segmento, se realiza un enventanado de la misma longitud que estos, pero dando la posibilidad de usar ventanas diferentes a la rectangular. En la sección 3.2 se definió el periodograma de Welch como PWx (F) = 1 L L−1 ∑ i=0 P̃ix(F) = 1 L L−1 ∑ i=0 1MU ∣∣∣∣∣M−1∑n=0 xi(n)w(n)e− j2πFn ∣∣∣∣∣ 2 (3.60) para el cual, cuando N → ∞ fijando L y para un solapamiento de un 50% entre muestras, se obtiene: • Esperanza: E[PWx (F)] = E[Pix(F)]→ ΓX(F) (3.61) • varianza: Var[PWx (F)]→ 1 L Γ2X(F) (3.62) lo que arroja un coeficiente de Pearson al cuadrado de r2W = 9 8L Γ 2 X(F) Γ2X(F) = 9 8L (3.63) En lo referido a la resolución espectral, teniendo en cuenta las ecuaciones (3.15) y (3.18), la esperanza estadística del periodograma de Welch para un número de muestras N finito es E[PWx (F)] = E[Pix(F)] = ΓX(F)∗W (F) (3.64) y, por tanto, la resolución espectral vendrá determinada por el tipo de ventana seleccionada que, en el caso por ejemplo de la ventana de Bartlett, se tendría ∆F = 1.28 M (3.65) 28 Capítulo 3. Periodograma: métodos no paramétricos 3.4.3 Estimador PSD de Blackman-Tukey El método de estimación de Blackman y Tukey se basa en la obtención del periodograma mediante un enfoque indirecto, es decir, en primer lugar, se estima la autocorrelación del proceso y posterior- mente, a través del teorema de Wiener-Khinchin, se obtiene el periodograma como la DTFT de la autocorrelación. Previo a este paso, se realiza un enventanado del estimador de autocorrelación que mejora las prestaciones de la estimación final. Retomando la definición del periodograma Blackman-Tukey dada por la ecuación (3.25): PBTx (F) = M−1 ∑ m=1−M rx(m)w(m)e− j2πFm = Px(F)∗W (F) (3.66) Cuando N → ∞ y M → ∞, hacen converger la esperanza y la varianza a • Esperanza: E[PBTx (F)]→ ΓX(F) (3.67) • varianza para una ventana de Bartlett: Var[PBTx (F)]≈ Γ2X(F) [ 1 N M−1 ∑ m=1−M w2(m) ] → Γ2X(F) 2M 3N (3.68) El coeficiente de Pearson al cuadrado es r2W = 2M 3N Γ 2 X(F) Γ2X(F) = 2M 3N ≈ 0.7M N (3.69) Puesto que la ventana utilizada tiene longitud 2M − 1, la resolución espectral en el caso, por ejemplo, de usar una ventana de Bartlett será: ∆F = 1.28 2M−1 ≈ 0.64 M (3.70) Para concluir con esta sección, es interesante ver que las dos figuras de mérito encontradas para los diferentes métodos de estimación (resolución espectral y coeficiente de Pearson) se pueden relacionar a través de los parámetros longitud de muestras N y de segmentos M. En la tabla 3.1, se recogen estas relaciones, en concreto, se ha introducido el coeficiente de Pearson al cuadrado en función de la resolución espectral. Tabla 3.1 Coeficiente de Pearson al cuadrado en función de la resolución espectral máxima para el periodograma de Bartlett, el periodograma de Welch con ventana de Bartlett y 50% de overlap y periodograma de Blackman-Tukey de ventana de Bartlett. Método no paramétrico Coeficiente de Pearsonal cuadrado (r2A) Resolución espectral (∆F) r2A = f (∆F) Bartlett M/N 0.89/M r2B = 0.89/N∆F Welch 9M/16N 1.28/M r2W = 0.72/N∆F Blackman-Tukey 0.6M/N 0.64/M r2BT = 0.43/N∆F De estas relaciones se puede ver que, el coeficiente de Pearson al cuadrado es inversamente proporcional a la resolución espectral y, por tanto, es imposible para cualquier longitud de muestras N tener un coeficiente de Pearson y una resolución espectral de valor cero. Es por esto por lo que 3.4 Comparación de prestaciones 29 será necesario llegar a un punto de equilibrio que se adapte a las necesidades de nuestro proceso aleatorio de estudio. Si por ejemplo se da la mínima de ∆F necesaria (la resolución espectral requerida), se puede ajustar el número de muestras tomadas para obtener una determinada relación entre varianza y esperanza de la estimación. De igual forma, si se tiene un número de muestras dado se deberá, o sacrificar resolución espectral en favor de tener menor desviación en la estimación, o por lo contrario, aumentar la desviación en favor de mejorar la resolución espectral. 4 Estimación espectral de procesos cicloestacionarios Hasta el momento, el estudio de estimadores para la densidad espectral de potencia, parte de la condición que el proceso aleatorio a estimar sea de tipo estacionario en sentido amplio (WSS), lo que implica que el proceso en cuestión deba cumplir la condición (2.15) y (2.16). Esto se puede ver teniendo en cuenta los estimadores definidos para la media y autocorrelación dados en (2.24) y (2.25) los cuales cumplen ambas condiciones. No obstante, el objetivo de este trabajo es encontrar estimadores para señales implicadas en comunicaciones digitales, es decir, modulaciones digitales. Este tipo de señales se modelan a través de procesos aleatorios que en general no son estacionarios y, por tanto, se podría pensar que los estimadores definidos hasta el momento no serían válidos para este tipo de situaciones. A pesar de esto, se verá a continuación que, si lo son y que, de hecho, los estimadores vistos en el capítulo 3 serían una particularidad de un caso más general. En primera instancia, se deben analizar qué características desde el punto de vista estadístico, poseen los procesos aleatorios que modelan este tipo de señales. Para esto, se supondrá un caso sencillo de modulación digital de tipo lineal en banda base con tasa de bit Rb y formada por un pulso conformador p(t) de energía unidad. El proceso aleatorio que modela dicha modulación [2] tiene la siguiente forma: X(t) = ∞ ∑ n=−∞ An p(t −nTs) (4.1) Donde An es un proceso aleatorio discreto estacionario en sentido débil (WSS) que depende, para cada n del símbolo que se transmitirá. En general, An podrá tomar valores reales o complejos dependiendo del tipo de modulación tomada. La esperanza estadística de dicho proceso es mX(t) =E[X(t)] = E [ ∞ ∑ n=−∞ An p(t −nTs) ] = ∞ ∑ n=−∞ E[An]p(t −nTs) =mA ∞ ∑ n=−∞ p(t −nTs) (4.2) Como se puede ver, no se cumple la condición (2.15) puesto que la expresión encontrada para la esperanza depende del tiempo de manera periódica con periodo TS y, por esto, se cumple que mX(t) = mX(t +λTs), λ ∈Z (4.3) Respecto a la autocorrelación del proceso, se tiene que 31 32 Capítulo 4. Estimación espectral de procesos cicloestacionarios γX(t1,t2) =E[X(t1)X∗(t2)] = E [ ∞ ∑ n=−∞ ∞ ∑ m=−∞ AnA∗m p(t1 −nTs)p∗(t2 −mTs) ] = ∞ ∑ n=−∞ ∞ ∑ m=−∞ E[AnA∗m]p(t1 −nTs)p∗(t2 −mTs) (4.4) Tomando el cambio de variable k = n−m y sabiendo que An es un proceso WSS se obtiene γX(t1,t2) =E[X(t1)X∗(t2)] = ∞ ∑ k=−∞ ∞ ∑ m=−∞ E[Am+kA∗m]p(t1 − (m+ k)Ts)p∗(t2 −mTs) = ∞ ∑ k=−∞ γA(k) [ ∞ ∑ m=−∞ p(t1 − (m+ k)Ts)p∗(t2 −mTs) ] (4.5) Nuevamente, se observa que no se cumple la condición de estacionaridad (2.16) parala auto- correlación puesto que esta depende de los instantes t1 y t2 y no únicamente de la diferencia entre estos tiempos. A pesar de esto, como se observa con la esperanza estadística, se tiene un resultado periódico de periodo Ts puesto que γX(t1,t2) = γX(t1 +λTs, t2 +λTs), λ ∈Z (4.6) Los procesos aleatorios que cumplen estas dos condiciones de periodicidad temporal tanto para la esperanza estadística como para la correlación se denominan procesos aleatorios cicloestacionarios en sentido amplio (WSCS) [7, 9]. Este cambio en las propiedades fundamentales del proceso incurre en ciertos cambios en la metodología para encontrar la densidad espectral de potencia. De esta forma, si por ejemplo se quisiera aplicar el teorema de Wiener-Khinchin tal como se vio en la sección 2.2, surgiría un problema. La autocorrelación para un proceso aleatorio WSCS no depende únicamente de la variable τ puesto que depende del instante de referencia donde esta se tome. Por lo que, aplicando este teorema de manera directa se obtendrán infinitas PSD para cada instante de tiempo tomado. Una solución posible sería promediar la autocorrelación en el tiempo previamente a ser transformada al dominio de la frecuencia y de esta manera se obtendría la densidad espectral de potencia promediada en el tiempo. Esta solución es del todo válida, pero conlleva la perdida de información de ciertas propiedades de la distribución de potencia del proceso en el dominio de la frecuencia. Para tener una visión más amplia del espectro de potencia de un proceso cicloestacionario [14, 6], se debe comenzar reescribiendo la función de autocorrelación del proceso a través de su serie de Fourier, lo cual es posible puesto que esta es periódica. γX(t,t + τ) = ∞ ∑ n=−∞ γ n/T0 x (τ)e j2π nT0 t (4.7) El termino γn/T0X (τ) son los coeficientes complejos de la serie de Fourier y en este caso recibe el nombre de función de autocorrelación cíclica que puede expresarse como γ n/T0 X (τ) = 1 T0 ∫ T0/2 −T0/2 γX(t,t + τ)e − j2π nT0 t dt (4.8) Las frecuencias n/T0 se denominan frecuencias cíclicas y muestran aquellas frecuencias para las cuales la función de autocorrelación es distinta de cero. La frecuencia 1/T0 se denomina frecuencia cíclica fundamental. Es fácil ver que, para procesos puramente estacionarios (WSS), el termino 33 γ n/T0 X (τ) solo es distinto de cero en el caso γ0X(τ) ya que no posee frecuencias cíclicas. De este hecho se deduce la generalidad de esta nueva función de autocorrelación cíclica la cual engloba a la función de autocorrelación para procesos WSS dada por la ecuación (2.14) cuando n = 0. El espectro de esta nueva función de autocorrelación se denomina espectro cíclico o función de correlación espectral (SCF) [8]. Esta relación se engloba dentro del teorema de Wiener-Khinchin. Γ n/T0 X ( f ) = ∫ ∞ −∞ γ n/T0 X (τ)e − j2π f τ dτ (4.9) El espectro encontrado muestra la correlación entre componentes espectrales del proceso se- parados por múltiplos de 1/T0. Al igual que ocurre con la función de autocorrelación cíclica, particularizando para n = 0, se obtiene en este caso la densidad espectral de potencia Γ0X( f ) = ∫ ∞ −∞ γ0X(τ)e − j2π f τ dτ = ∫ ∞ −∞ < γX(t,t + τ)>t e− j2π f τ dτ = ΓX( f ) (4.10) De este análisis se concluye como afecta la periodicidad temporal a los procesos aleatorios generando una nueva dimensión formada por las frecuencias cíclicas del mismo. Es por esto por lo que hablar de densidad espectral de potencia de un proceso cicloestacionario, no es más que promediar el espectro en su dimensión temporal o lo que es lo mismo, tomar como frecuencia de ciclo el valor nulo. Asumiendo este hecho, el análisis de la PSD de un proceso cicloestacionario y de un proceso estacionario es idéntico. En este punto, se puede obtener la función de autocorrelación cíclica del proceso WSCS descrito por (4.4), sustituyendo la ecuación (4.5) en (4.8). Suponiendo además que el proceso An es de media cero (lo cual es común en la mayoría de las modulaciones digitales lineales), se tiene que γ n/Ts X (τ) = 1 Ts ∫ Ts/2 −Ts/2 γA(0) [ ∞ ∑ m=−∞ p(t + τ −mTs)p∗(t −mTs) ] e− j2π n Ts t dt = γA(0) Ts ∫ ∞ −∞ p(t + τ)p∗(t)e− j2π n Ts t dt (4.11) Sustituyendo esto en la ecuación (4.9), se obtiene la función de correlación espectral teórica del proceso Γ n/Ts X ( f ) = ∫ ∞ −∞ γA(0) Ts ∫ ∞ −∞ p(t + τ)p∗(t)e− j2π n Ts t dte− j2π f τ dτ = γA(0) Ts ∫ ∞ −∞ ∫ ∞ −∞ p(t + τ)e− j2π f τ dτ p∗(t)e− j2π n Ts t dt = γA(0) Ts P( f ) ∫ ∞ −∞ p∗(t)e− j2π n Ts te j2π f t dt = γA(0) Ts P( f )P∗( f + n Ts ) (4.12) La densidad espectral de potencia de este proceso se puede obtener de manera directa aplicando el resultado visto en (4.10) Γ0X( f ) = γA(0) Ts P( f )P∗( f ) = γA(0) Ts |P( f )|2 = ΓX( f ) (4.13) 34 Capítulo 4. Estimación espectral de procesos cicloestacionarios 4.1 Periodograma cíclico Como se ha visto, el espectro cíclico de un proceso WSCS incluye la PSD cuando se toma en (4.9) la frecuencia de ciclo igual a cero. Es por esto por lo que encontrar un estimador para la SCF del proceso debe conducir de alguna manera al periodograma clásico o en su defecto, a un estimador alternativo para la PSD. En cualquier caso, el procedimiento a seguir para encontrar este estimador, será similar al que se utilizó para encontrar el periodograma. Para poder introducir cualquier estimador para un proceso aleatorio, es necesario que este posee propiedades ergódicas. En el caso de los procesos WSCS el concepto es un poco más complejo puesto que la ruta de muestras infinitas de la realización del proceso debe poder contener las propiedades de periodicidad que representan a este. Esta suposición no es descabellada y de hecho los procesos aleatorios de interés para este trabajo (modulaciones lineales) lo cumplen y, por tanto, tiene sentido expresar la autocorrelación cíclica del proceso a través de la autocorrelación cíclica de la realización de este. Matemáticamente, el estimador planteado se puede expresar como Rn/T0x (τ) = 1 T ∫ T/2 −T/2 x(t + τ)x∗(t)e− j2π n T0 t dt (4.14) Al suponer que el proceso cicloestacionario posee la propiedad cicloergodicidad o también llamada periódicamente ergódica, se cumple que γ n/T0 X (τ) = lı́mT→∞ E[Rn/T0x (τ)] (4.15) Al igual que se hizo con la función de autocorrelación cíclica para obtener la función de correlación espectral, se recurrirá a la relación cíclica de Wiener-Khinchin dada por la ecuación (4.9) para obtener a través del estimador planteando en (4.14) un candidato a estimador para la SCF. Pn/T0x ( f ) =F { 1 T ∫ T/2 −T/2 x(t + τ)x∗(t)e− j2π n T0 t dt } = 1 T F {∫ ∞ −∞ xT (t + τ)x∗T (t)e − j2π nT0 t dt } = 1 T F { xT (τ)∗ ( xT (−τ)e − j2π nT0 τ )∗} = 1 T XT ( f )X∗T ( f −n/T0) (4.16) Este estimador se denomina periodograma cíclico [4, 14] y será el punto de partida para encontrar de manera experimental las propiedades del espectro de potencia de un proceso WSCS. Un detalle de este estimador es que carece de simetría en el espectro, lo cual a la hora de su representación es limitante para poder observar espectros con altas frecuencias de ciclo. Para solventar esto, se puede expresar el periodograma cíclico de manera simétrica como 4.1 Periodograma cíclico 35 Pn/T0x ( f ) =F { 1 T ∫ T/2 −T/2 x(t + τ)x∗(t)e− j2π n 2T0 te− j2π n 2T0 t dt } = 1 T F {∫ ∞ −∞ xT (t + τ)e − j2π n2T0 (t+τ)x∗T (t)e − j2π n2T0 t dte j2π n 2T0 τ } = 1 T F {[ xT (τ)e − j2π n2T0 τ ∗ ( xT (−τ)e − j2π n2T0 τ )∗] e j2π n 2T0 τ } = 1 T [ XT ( f + n 2T0 ) X∗T ( f − n 2T0 )] ∗δ ( f − n 2T0 ) =Pn/T0x,sym( f )∗δ ( f − n 2T0 ) (4.17) El termino Pn/T0x,sym( f ) es la versión simétrica del periodograma cíclico. De la misma forma, se puede obtener la versión simétrica del estimador de la autocorrelación cíclica a partir de la relación de Wiener–Khinchin como Rn/T0x (τ) = F−1 { Pn/T0x ( f ) } = F−1 { Pn/T0x,sym( f )∗δ ( f − n 2T0 )} = Rn/T0x,sym(τ)e jπ nT0 τ (4.18) Donde Rn/T0x,sym(τ) es la versión simétrica del estimador
Compartir