Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN UNIDAD PROFESIONAL “ADOLFO LÓPEZ MATEOS “ ANÁLISIS DE RECONSTRUCCIÓN DE PROCESOS GAUSSIANOS CON PÉRDIDA DE MUESTRAS TESIS: QUE, COMO TRABAJO ESCRITO PARA SUSTENTAR EL EXAMEN PROFESIONAL Y OBTENER EL TÍÍTULO DE MAESTRO EN CIENCIAS EN INGENIERÍA DE TELECOMUNICACIONES PRESENTA: ING. IGNACIO GODINEZ GONZÁLEZ ASESORES: DR. VLADIMIR KAZAKOV DR. DANIEL RODRÍGUEZ SALDAÑA Ciudad de México 2016 RESUMEN Los medios de transmisión o de almacenamiento introducen errores en las señales que puede reflejarse en la pérdida de información o principalmente en la pérdida de muestras en los sistemas digitales. Por lo tanto, se hace difícil o a veces imposible la reconstrucción de las señales en el receptor. En este trabajo, se presenta una propuesta para la estimación de las muestras pérdidas a la entrada de un receptor de comunicaciones digitales utilizando como método de estimación la regla de la esperanza matemática condicional. Esta metodología depende principalmente de la función de covarianza como característica estadística de las señales. De aquí, que se tenga que estimar primeramente la función de covarianza a partir de la señal con pérdida de muestras y posteriormente se optimice adaptivamente la estimación al añadir las muestras recuperadas. Una de las ventajas de esta metodología es que la estimación se puede aplicar tanto para procesos Gaussianos limitados en banda, así como en procesos no limitados en banda. Esta propiedad se detecta mediante la densidad espectral de potencia del proceso, la cual está estrechamente relacionada con la función de covarianza. ABSTRACT The transmission channels or storage media introduce some errors on the signals that can produce loss of data in digital systems or communication systems. Therefore, it becomes difficult or sometimes impossible to reconstruct the signals at the receiver. In this work, we propose a methodology to estimate lost samples at the input of a digital communications receiver. The proposed technique is based on the conditional mean rule. This methodology depends mainly on the covariance function as statistical characteristic of signals. Hence, it is first necessary to estimate the covariance function from the signal with lost samples and then it tends to become an adaptive function when the recovered samples are added. One advantage of this approach is the estimation for bandlimited and non-bandlimited Gaussian processes. This feature is given by the power spectral density of the processes, which is closely related to the covariance function. I II 1) 2) 3) 4) 5) 1) 2) III 3) 4) AGRADECIMIENTOS Primeramente deseo agradecer a mis Padres quienes son las personas más importantes y que más amo en la vida y a quien les debo todo lo que soy y he logrado, por su infinito amor, por su apoyo, su confianza, su comprensión, su guía, sus ánimos, su dedicación y que con gran sacrificio me han ayudado e impulsado a salir adelante ante cualquier reto y prueba en la vida, así como a luchar por mis ideales y lograr mis metas. A mi Mamá, por su gran corazón y entrega, por creer en mí, por apoyarme y brindarme su amor, por enseñarme como vivir y enfrentar la vida sin temor, además de la libertad para vivirla; a ella que supo ser madre y padre al mismo tiempo, por el gran esfuerzo y sacrificio que ha hecho a lo largo de su vida para darnos la educación que recibimos; a ti te dedico todos mis logros pues también son tuyos y te prometo que nunca te decepcionare. Mi eterno agradecimiento a ti Papá, por haberme enseñado el sentido y significado de superación, sobre la importancia de la familia, del trabajo honrado y la honestidad; y aunque físicamente te has ido, sé muy bien que siempre estarás a mi lado en todo momento brindándome tu guía y tu ayuda incondicional, tu siempre vivirás dentro de mi corazón y ten por seguro que me esforzare por seguir tus pasos y que jamás te olvidare. También a mis Asesores, el Dr. Daniel Rodriguez Saldaña y el Dr. Vladimir Kazakov, por el valiosísimo tiempo que invirtieron en ayudarme a terminar este trabajo, por creer en mí y darme la oportunidad de trabajar a su lado. Voy a estarles siempre agradecido por brindarme su apoyo, su confianza, sus consejos, sus observaciones y por enseñarme a trabajar con dedicación y esfuerzo. A mi casa el IPN, que me ha formado desde la licenciatura y hasta el día de hoy en la maestría; así que puedo decir que soy “Orgullosamente Politécnico”. IV Finalmente le agradezco a Dios por la maravillosa familia que poseo así como el proyecto de vida que ha tenido para mí; que como todos en el mundo ha estado llena de difíciles pruebas y tragos amargos, pero de igual forma llena de grandes dichas y bendiciones. MUCHAS GRACIAS. OBJETIVO Describir el procedimiento de muestreo y reconstrucción de procesos Gaussianos no restringidos en banda. Objetivos Particulares: Estimar la función de covarianza de señales discretas con pérdida de muestras. Estimar la reconstrucción de procesos Gaussianos con pérdida de muestras. Calcular el error de reconstrucción de procesos Gaussianos cuando presenta pérdida de muestras. V JUSTIFICACIÓN La recuperación de las muestras perdidas en la entrada de un receptor de comunicaciones digitales es de gran interés y es un área de investigación importante en los últimos años. En la literatura es posible encontrar algunos métodos que presentan una solución al problema de pérdida de datos. Sin embargo, gran parte de las investigaciones dedicadas a la restauración de muestras en señales aleatorias consideran principalmente procesos restringidos en banda. La mayoría de estos métodos solo asumen la banda de frecuencias máxima de las señales y no las características estadísticas de los procesos debido a que la mayoría de ellos están basados en el teorema de Balakrishnan, el cual presentan algunos inconvenientes, por ejemplo: 6) La función de densidad de probabilidad de los procesos no está definida. 7) La función de reconstrucción depende principalmente del valor de la frecuencia máxima del proceso. 8) El espectro de potencia de los procesos está restringido en banda. 9) Considera un número infinito de muestras. 10) No proporciona información sobre la estimación del error de reconstrucción. La metodología que utilizamos en este trabajo es conocida como la regla de la esperanza matemática condicional, el cual es un algoritmo óptimo que describe la reconstrucción de los procesos Gaussianos. Al aplicar esta propuesta es posible explorar nuevos aspectos del problema. Principalmente, podemos investigar algunos casos donde: 5) La función de densidad de probabilidad Gaussiana caracteriza al proceso aleatorio. 6) El proceso aleatorio está caracterizado por su función de covarianza, su valor medio y su varianza. 7) El espectro de potencia de los procesos puede estar limitado o no limitado en VI banda. 8) El número de muestras a considerar es arbitrario, es decir, se puede tomar un número finito o infinito de muestras. 9) La función de la varianza condicional nos permite estimar el error de reconstrucción del proceso aleatorio. ÍNDICE RESUMEN ............................................................................................................................................4 ABSTRACT ............................................................................................................................................ 5 CAPITULO 1. INTRODUCCIÓN .............................................................................................................. 7 1.1 INTRODUCCIÓN .................................................................................................................. 7 1.2 TEOREMA DE MUESTREO ................................................................................................... 8 1.3 INTERPOLACIÓN ..................................................................................................................... 10 1.3.1 Planteamiento general .................................................................................................... 10 1.3.2 Elección de la interpolación más adecuada .................................................................... 11 1.3.3 Interpolación lineal.......................................................................................................... 11 1.3.4 Interpolación polinomial ................................................................................................. 12 1.4 GENERALIZACIÓN PRESENTADA POR BALAKRISHNAN ......................................................... 14 CAPITULO 2. MARCO TEÓRICO.......................................................................................................... 16 2.1 PROCESOS ALEATORIOS ................................................................................................... 16 2.2 CONCEPTOS............................................................................................................................. 16 2.2.1 Variable aleatoria ............................................................................................................ 17 2.2.2 Momentos........................................................................................................................ 17 2.2.3 Medias estadísticas para una variable aleatoria ............................................................ 17 2.2.4 Función de distribución y de densidad para procesos estocásticos .............................. 18 2.2.5 Medidas estadísticas para procesos estocásticos .......................................................... 19 2.2.6 Funciones de correlación ................................................................................................. 20 2.3 PROCESOS ALEATORIOS ......................................................................................................... 20 2.3.1 Proceso estacionario ....................................................................................................... 21 2.3.2 Autocorrelación ............................................................................................................... 22 2.3.3 Autocovarianza ................................................................................................................ 22 2.3.4 Densidad espectral de potencia ...................................................................................... 23 2.4 PROCESO ERGÓDICO .............................................................................................................. 24 2.5 PROCESOS ESTACIONARIOS A TRAVÉS DE UN SISTEMA LINEAL ........................................... 25 2.6 PROCESOS DE MARKOV ......................................................................................................... 28 2.7 PROCESOS GAUSSIANOS ........................................................................................................ 28 2.7.1 Propiedades ..................................................................................................................... 29 CAPITULO 3. METODOLOGÍA ............................................................................................................ 30 3.1 METODOLOGÍA ....................................................................................................................... 30 3.2 REGLA DE LA ESPERANZA MATEMÁTICA CONDICIONAL ...................................................... 31 3.3 FUNCIONES DE COVARIANZA ................................................................................................. 33 3.4 ERROR DE RECONSTRUCCIÓN ................................................................................................ 35 CAPITULO 4. RECONSTRUCCIÓN CON PÉRDIDA DE MUESTRAS ....................................................... 39 4.1 RECONSTRUCCIÓN CON PÉRDIDAS .................................................................................. 39 4.2 DESCRIPCIÓN DE RECONSTRUCCIÓN CON PÉRDIDA DE MUESTRAS .................................... 39 4.3 RESULTADOS ........................................................................................................................... 42 4.3.1 Simulación de realizaciones de procesos aleatorios ...................................................... 43 4.3.2 Resultados ....................................................................................................................... 47 4.4 CALCULO DEL ERROR Y TIEMPO ............................................................................................. 50 4.4.1 Función de error de reconstrucción ................................................................................ 53 CAPITULO 5. CONLUSIONES .............................................................................................................. 55 CONCLUSIONES ............................................................................................................................. 55 ANEXOS ............................................................................................................................................. 57 REFERENCIAS ..................................................................................................................................... 66 7 CAPITULO 1. INTRODUCCIÓN 1.1 INTRODUCCIÓN La reconstrucción de procesos estocásticos es un problema muy común en las comunicaciones. Por lo que este trabajo muestra el interés de un método basado en filtros RC y su función de covarianza para recuperar la falta de muestras de señales. Este problema se produce cada vez más con la aparición de los diferentes enlaces, red de acceso fijo (PSTN), la red de acceso móvil (GSM / GPRS y futuras UMTS) o por la interfaz de satélite, que participan en diversas aplicaciones y que son susceptibles de inducir errores en los datos transmitidos. Las pérdidas pueden ocurrir en cualquier momento y en cualquier lugar (de acuerdo a la disponibilidad de canales, desbordamientos de memoria, los protocolos, etc.) durante un proceso de transmisión. Por tanto, la recuperación de las muestras en señales es de gran interés. El método utilizado en este trabajo se basa en un modelo de la función de covarianza para filtros RC de segunda y tercera etapa. Los resultados muestran que este método representa una técnica muy adecuada para la reconstrucción de la señal en una posible transmisión dañada. A lo largo del estudio de las comunicaciones, se han utilizado diferentes métodos para aproximar una función a la señal original de información. Uno de los métodos más conocidos fue propuesto en 1948, por C. E. Shannon [1-2], llamado Teorema de Muestreo y posteriormente tuvo una generalización hecha por A. V. Balakrishnan en 1957 [3]. La recuperación de las muestras perdidas en la entrada de un receptor de comunicaciones digitales es de gran interés y es un área de investigación importante en los últimos años. En la literatura es posible encontrar algunos métodos que presentan una solución al problema de pérdida de datos. Sin embargo, gran parte de las investigaciones dedicadas a la restauración de muestras en señales aleatorias consideran principalmente procesos8 restringidos en banda. La mayoría de estos métodos [4-12] solo asumen la banda de frecuencias máxima de las señales y no las características estadísticas de los procesos debido a que la mayoría de ellos están basados en el teorema de Balakrishnan, el cual presentan algunos inconvenientes, por ejemplo: 1) La función de densidad de probabilidad de los procesos no está definida. 2) La función de reconstrucción depende principalmente del valor de la frecuencia máxima del proceso. 3) El espectro de potencia de los procesos está restringido en banda. 4) Considera un número infinito de muestras. 5) No proporciona información sobre la estimación del error de reconstrucción. Estos métodos de interpolación han evolucionado, para que las funciones se aproximen lo más posible a la función original. En principio el Teorema de Muestro, es un método de interpolación que parece puede ser aplicado a cualquier tipo de proceso, ya sea aleatorio o determinístico. Sin embargo, este método presenta algunos inconvenientes: 1. Requiere de un número infinito de muestras. 2. Dichas muestras necesitan estar periódicamente distribuidas a lo largo del tiempo. 3. El periodo de muestreo está definido por el criterio de Nyquist. 4. Este periodo no puede ser alterado entre muestras, ya que si es alterado se presenta el fenómeno conocido como aliasing. El término de aliasing se refiere a un efecto de traslape de las réplicas periódicas del espectro de la señal original ocasionando que la señal original no pueda ser reconstruida de forma unívoca a partir de la señal digital. Este fenómeno de superposición periódica sucesiva es lo que se conoce como aliasing o Efecto Nyquist. Si , entonces los espectros repetidos no están solapados, y el espectro original puede regenerarse aplicando un filtro pasabajas ideal que tenga una frecuencia de corte de fc = fs/2. 1.2 TEOREMA DE MUESTREO Este teorema demuestra que una señal cuyo espectro está limitando en banda con B [Hz] [Y(ω)=0- para |ω| πB, puede ser reconstruida exactamente (con algunos errores) a partir de sus muestras tomadas de manera uniforme a una tasa R>2B [Hz] ( muestras por segundo). En otras palabras, la frecuencia mínima de muestreo es = , - [13]. Como se mencionó anteriormente, el teorema de muestreo, considera una señal cuyo espectro está limitado en banda B [Hz]. Para mayor conveniencia, los espectros se muestran como funciones de ω, así como de f (Hz). El muestreo de y(t) a una tasa de 9 (Hz) ( muestras por segundo) puede lograrse multiplicando y(t) por un tren de impulsos ( ) que consiste en la repetición de impulsos unitarios periódicamente cada segundos, donde = . El resultado se denota como ӯ(t). La señal muestreada se compone de impulsos espaciados cada segundos (intervalo de muestreo). Entonces: ( ) = ( ) ( ) = ∑ ( ) ( ) (1.1) Como el tren de impulsos ( ) es una señal periódica, este puede ser expresado mediante la serie trigonométrica de Fourier. Por tanto: ( ) = ( ) ( ) = , ( ) ( ) ( ) ( ) (1.2) Para encontrar (ω), realizamos la transformada de Fourier de ( ), término a término, en donde la transformada del primer término es Y(ω); la transformada del segundo término ( ) es Y(ω )+Y(ω+ ) y así sucesivamente. Esto significa que el espectro de (ω) se compone de Y(ω) repetida periódicamente con = radianes, o = Por tanto: ( ) = ∑ ( ) (1.3) También, el intervalo de muestreo = Entonces: (1.4) El número de muestras por segundo son llamadas frecuencia de muestreo o tasa de muestreo y depende de la más alta componente de frecuencia que se presente en la señal analógica. La relación de la frecuencia de muestreo y la más alta componente de frecuencia de la señal para ser muestreada es regida por el Teorema de Nyquist [14]: “Si la frecuencia de muestreo, , es superior a dos veces la frecuencia más alta de la componente de la señal analógica, B, la señal analógica original es completamente descrito por éstas muestras por sí sola instantánea, es decir, .” Shannon, en 1948, utilizó el teorema de muestreo para demostrar que una señal aleatoria limitada en banda era equivalente a la serie de sus muestras tomadas a una distancia definida por el intervalo de Nyquist. Él fue consciente del trabajo de Whittaker a quién citó. Posteriormente, se establecieron algunas pruebas al teorema que es hoy conocido como el teorema de muestreo de Whittaker-Kotel’nikov-Shannon (o WKS), el cual dice: “Toda función de una señal f(t) definida en IR está limitada en banda dentro de un intervalo [ ](donde 0) puede ser completamente reconstruida con respecto a 10 toda t ϵ IR partiendo de sus valores muestreados . / que son tomados en los puntos . / (donde k ϵ Z) igualmente espaciados sobre el eje real IR en términos de: ( ) = ∑ . / ( ) “ (1.5) El proceso de reconstrucción de una señal continua en el tiempo y(t), para ésta señal, es conocida como interpolación. Una señal y(t) limitada en banda para B(Hz) puede ser reconstruida (interpolada) exactamente por éstas muestras, esto es, pasando la señal muestreada a través de un filtro pasa-bajas ideal de ancho de banda B(Hz). 1.3 INTERPOLACIÓN En numerosos fenómenos de la naturaleza observamos una cierta regularidad en la forma en que estos se producen, esto nos permite sacar conclusiones de la marcha de un fenómeno en situaciones que no hemos medido directamente [15]. Una función de interpolación es aquella que pasa a través de puntos dados como datos, los cuales se muestran comúnmente por medio de una tabla de valores o se toman directamente de una función dada. La interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores de los extremos. Los datos obtenidos mediante una medición pueden interpolarse, pero en la mayoría de los casos no es recomendable una interpolación directa debido a los errores aleatorios implicados en la medición. 1.3.1 Planteamiento general El problema general de la interpolación se nos presenta cuando nos dan una función de la cual solo conocemos una serie de puntos discretos de la misma: ( )( ) ( ) (1.6) y se pide hallar un punto x (intermedio de ) de esta función. Se desea, por tanto encontrar una función cuya gráfica pase por esos puntos y nos sirva para estimar los valores deseados. La interpolación de los datos puede hacerse mediante un polinomio, mediante funciones spline, una función racional o la serie de Fourier entre otras posibles formas [16]. La interpolación polinomial (ajusta un polinomio a los puntos dados) es un tema de gran importancia, ya que un gran número de modelos se basan en la interpolación polinomial. 11 1.3.2 Elección de la interpolación más adecuada Consideremos una función de la cual sólo conocemos una serie de puntos de la misma ( )( ) ( ) (1.7) Deseamos encontrar la expresión analítica de dicha función para poder estudiarla en esos puntos. Ahora bien, por n+1 puntos pasan infinitas funciones, ¿con cuál de ellas nos quedamos? Lo más lógico es recurrir a la más sencilla. La familia de las funciones más sencillas es la de los polinomios, por tanto buscaremos el polinomio de menor grado que pase por los n+1 puntos dados. La función polinómica de menor grado que pasa por los puntos (1.7) es en principio de grado n: = (1.8) Y se obtiene resolviendoel sistema de n+1 ecuaciones con n+1 incógnitas (sistema que tiene solución única ya que la determinante de la matriz de los coeficientes es de Vandermonde y por lo tanto distinto de cero). Se le llama polinomio interpolador correspondiente a estos puntos. Una vez obtenida su expresión dando valores en él se pueden encontrar nuevos puntos de la función. Los resultados obtenidos son naturalmente estimaciones aproximadas. La interpolación será lineal cuando sólo se tomen dos puntos y cuadrática cuando se tomen tres. 1.3.3 Interpolación lineal Cuando las variaciones de la función son proporcionales (o casi proporcionales) a los de la variable independiente se puede admitir que dicha función es lineal y usar para la estimación de los valores la interpolación lineal ver Figura 1.1. Figura 1.1. Ejemplo gráfico de Interpolación Lineal. 12 Sean dos puntos ( )( ) la interpolación lineal consiste en hallar una estimación del valor y, para un valor x tal que . Teniendo en cuenta que la ecuación de la recta que pasa por esos dos puntos es: = ( ) (1.9) Obtenemos la fórmula de la interpolación lineal: = ( ) (1.10) 1.3.4 Interpolación polinomial ¿Pueden ajustarse tres o cuatro datos por medio de una curva? Uno de los métodos fundamentales para encontrar una función que pase a través de datos es el de usar un polinomio Figura 1.2. Figura 1.2. Ejemplo gráfico de Interpolación Polinomial. La interpolación polinomial se puede expresar en varias formas alternativas que pueden transformarse entre sí. Entre éstas se encuentran las series de potencia, la interpolación de Lagrange y la interpolación de Newton hacia atrás y hacia adelante. Un polinomio de orden N que pasa a través de N+1 puntos es único. Esto significa que, independientemente de la forma de interpolación, todas las interpolaciones polinomiales que se ajustan a los mismos datos son matemáticamente idénticas. En la Tabla 1.1 se observa que todos los métodos presentados tienen como común denominador el uso de un polinomio que se utiliza para realizar la aproximación. 13 Tabla 1.1. Comparación entre los diferentes métodos de Interpolación. Esquema de interpolación Formula de interpolación Interpolación de Lagrange ( ) = ∑ ( ) ( ) Donde: = ∏ ( ) ( ) Interpolación de Newton ( ) = ∑ ∏( ) Interpolación de Hermite = ∑ ( ) ( ) ∑ ( ) ( ) Donde ( ) = , ( ) ( )- ( )- Y ( ) = ( ) ( ) Spline cubico ( ) = { ( ) , - ( ) , - , - Donde ( ) es un polinomio cubico Teorema de muestreo ( ) = ∑ ( ) ( ) En la Tabla 1.2 se describen las principales ventajas y desventajas de diversos métodos de interpolación. La utilización de uno u otro depende principalmente del objetivo a alcanzar, de este modo siempre existirá un método que se ajuste a nuestras necesidades. 14 Tabla 1.2. Ventajas y desventajas de los métodos de Interpolación. Esquema de interpolación Ventajas Desventajas Interpolación de Lagrange Forma conveniente. Fácil de programar. Difícil de manejar para cálculos manuales. Interpolación de Newton El orden del polinomio puede cambiarse sin problemas. La evaluación de errores es fácil. Se debe de preparar una tabla de diferencias o de diferencias divididas. Interpolación de Lagrange mediante puntos de Chebyshev Los errores se distribuyen más uniformemente que en la malla que presenta igual separación. Los puntos de la malla no están distribuidos de manera uniforme. Interpolación de Hermite Alta precisión debido a que el binomio se ajusta también a las derivadas. Necesita valores de las derivadas. Spline cúbico Aplicable a cualquier número de datos. Se necesitan resolver ecuaciones simultáneas. Teorema de Muestreo Alta precisión debido a su función básica. No considera las propiedades estadísticas del proceso. 1.4 GENERALIZACIÓN PRESENTADA POR BALAKRISHNAN En resumen Balakrishnan en su artículo de 1957 “A note on the sampling principle for continuous signals”, realiza un análisis para procesos continuos de parámetros estocásticos utilizando dos métodos de muestreo basados en interpolación. El método en este caso que será comprobado y del cual se presentará una generalización será el Teorema de Muestreo desarrollado por Shannon. El punto de partida para el análisis presentado por Balakrishnan se presenta en el siguiente teorema: “Sea x(t); -∞<t<∞ un proceso estocástico evaluado real o complejo, estacionario en el “sentido amplio” y que posee una densidad espectral, la cual desaparece fuera del intervalo de la frecuencia angular , -. Entonces x(t) tiene la representación: ( ) = ∑ ( ) ( ) ( ) (1.11) Para cada t, donde lim simboliza el límite en el sentido cuadrático medio. Más explícitamente, esto significa 15 {, ( ) ∑ ( ) ( ) ( ) - } = 0 ” (1.12) Donde se asume que todos los procesos tienen sus varianzas y sus promedios finitos. Es aquí entonces donde se puede ver la primera diferencia con respecto al Teorema de Shannon ya que se le da un carácter finito a ciertas características del proceso. Ahora bien, en el análisis continúa con lo siguiente: “Notamos primeramente que sin tener en cuenta la teoría estadística de si es Gaussiano o no, la mejor estimación cuadrática media de x(t) a partir de = ( ) es lineal. ( ) = ∑ ( ) ( ) “ (1.13) El límite se considera al realizar el promedio estadístico de segundo orden. Además, como se mostró en [10] el error cuadrático medio es cero. Ahora bien, este teorema ha sido aceptado y retomado en diversos estudios, pero a su vez contiene algunas inconsistencias que hay que recalcar: Sabemos que si se toma un número infinito de muestras el error será cero, pero si en determinado momento utilizamos solo unas cuantas, entonces la forma que tomará la reconstrucción no será la óptima. Por otro lado, este teorema está sujeto a la condición de que el espectro de potencia sea limitado no mencionando que sucede cuando esta condición no se cumple. Otro aspecto que hay que hacer notar es que no se menciona cómo debe ser la función de densidad de probabilidad del proceso por lo que puede entonces pensarse que este método puede utilizarse arbitrariamente en cualquier proceso que se quiera reconstruir. 16 CAPITULO 2. MARCO TEÓRICO 2.1 PROCESOS ALEATORIOS Los “procesos aleatorios” son importantes porque en casi todos los aspectos de la vida se presentan este tipo de situaciones en donde el comportamiento de un fenómeno o evento no puede ser predicho, por tal motivo, solo puede especularse acerca de los posibles efectos que tendrá. A continuación, se describen las principales características de estos procesos. La mayoría de los procesos son dependientes al tiempo, por tal motivo, una señal aleatoria es una función del tiempo, y debido a esto, aquellas funciones que presentan esta dependencia son llamados: “procesos aleatorios”. En el presente capítulo se habla de los principales conceptos que describen el comportamiento de los procesos aleatorios, así como sus principales características. 2.2 CONCEPTOS Antes de comenzar a describir las principales características de los procesos aleatorios, es importante conocer algunos conceptos que serán mencionados a lo largo del capítulo.17 2.2.1 Variable aleatoria Se denomina variable aleatoria discreta como aquella variable aleatoria que puede tomar únicamente un número contable de números reales. Si la variable aleatoria puede tomar cualquier valor de un intervalo es una variable aleatoria continua. 2.2.2 Momentos Para un proceso estocástico, los momentos que se definen para una sola variable aleatoria son muy similares, la diferencia radica en que ahora son funciones dependientes del tiempo. Por lo que el k-ésimo momento de X(t , ), está dado por: ( ) = , ( )- = ∫ ( ) . (2.1) La principal diferencia entre un proceso estocástico y las variables aleatorias es que ahora se tiene una forma de onda completamente diferente. La salida experimental determina una completa forma de onda X(t, ), no solo un número. 2.2.3 Medias estadísticas para una variable aleatoria Ahora, se define el operador esperanza matemática para una función de variable aleatoria g(X) por la ecuación (2.3). Este es un operador lineal [17]. , ( )- = ∫ ( ) ( ) - (2.2) Primeramente, se define el momento de orden n de la distribución de probabilidad de una variable aleatoria X por la ecuación (2.4) [17]. , - = ∫ ( ) (2.3) Los momentos más importantes son los dos primeros. Cuando n=1 se tiene el valor medio, media o valor esperado de una variable aleatoria X que viene dado por la ecuación (2.5). La media se puede entender gráficamente como el centro de gravedad de la función de densidad de probabilidad. = , - = ∫ ( ) (2.4) En el caso de que n=2 tenemos el valor cuadrático medio de la variable aleatoria X dado por la ecuación (2.6). , - = ∫ ( ) (2.5) 18 Por otra parte, se define el momento centrado de orden n de la distribución de probabilidad de una variable aleatoria X por la ecuación (2.7). ,( ) - = ∫ ( ) ( ) (2.6) Para n=1 el momento centrado es cero. El momento centrado más importante es cuando n=2 que se denomina varianza de la variable aleatoria y viene dada por la ecuación (2.7) [17]. = , - = ,( ) - = ∫ ( ) ( ) (2.7) La raíz cuadrada de la varianza, , se denomina desviación estándar de la variable aleatoria. La varianza nos da una medida del ancho efectivo de la función de densidad de probabilidad en torno a la media. La media y la varianza nos dan una descripción de la distribución de la probabilidad. La varianza y el valor cuadrático medio están relacionados según la ecuación (2.8) [17]. = , - = , - , - = , - (2.8) Solo en el caso de que la media sea cero, la varianza y el valor cuadrático medio coinciden, según la ecuación (2.10). = , - = 0 (2.9) 2.2.4 Función de distribución y de densidad para procesos estocásticos Para los procesos estocásticos, las funciones de distribución y de densidad están definidas de una forma distinta a las de las variables aleatorias. ( ) = , ( ) ( ) -. (2.10) ( ) = ( ). (2.11) Estas fórmulas conectan los valores de dos procesos estocásticos en dos tiempos distintos. Cuando se trate de tiempo discretos, se maneja la nomenclatura de en lugar de . 19 2.2.5 Medidas estadísticas para procesos estocásticos La media, la autocorrelación y la autocovarianza son parámetros que también se utilizan para dar una descripción de un proceso estocástico, ya que es muy difícil o casi imposible determinar la función de densidad de probabilidad ( ). Comenzaremos por definir la media ( ) como una función determinística del tiempo expresada de la siguiente forma: ( ) = , ( )- (2.12) donde es un instante de tiempo cualquiera. Si se considera que la función de densidad de probabilidad de ( ) es ( )( ), entonces se puede calcular la media de la siguiente forma: ( ) = ∫ ( ) . (2.13) Así mismo, se define la función de autocorrelación ( ) como una función de dos variables del proceso estocástico en los tiempos expresada por: ( ) = , ( ) ( )- = ∫ ∫ ( ) ( ) ( ( ) ( )) ( ) ( ). (2.14) Si = , entonces se tiene el valor cuadrático medio del proceso estocástico de ( ), tal como se muestra a continuación: ( ) = , ( ) ( )- = , ( )- = ∫ ( ) . (2.15) Por otra parte, la función de autocovarianza ( ) del proceso estocástico de ( ) como función de dos variables temporales , se expresa de la siguiente forma: ( ) = [( ( ) ( ))( ( ) ( ))] = ∫ ∫ ( ( ) ( )) ( ( ) ( )) ( ( ) ( )) ( ) ( ) (2.16) Ahora, si = , se obtiene como resultado la varianza del proceso estocástico ( ), como se demuestra a continuación: ( ) = [( ( ) ( ))( ( ) ( ))] = 0( ( ) ( )) 1 = , ( )- = ( ) = ∫ ( ( ) ( )) ( ( )) ( ). (2.17) 20 2.2.6 Funciones de correlación Las funciones de correlación ayudan a saber y cuantificar la similitud entre dos diferentes señales, además de que permite estimar el valor de una forma de onda en cualquier tiempo basándose en un tiempo dado. Dentro de los procesos aleatorios, existen dos clases de correlación: 1. La función de correlación cruzada (crosscorrelation function CCF) de dos procesos aleatorios X(t) y Y(t) está definida como la correlación promedio de dos procesos: ( ) , ( ) ( )- = ( ) ( ). (2.18) 2. La función de auto correlación (autocorrelation function ACF) de un proceso aleatorio X(t) está definido por la autor relación promedio del proceso: ( ) , ( ) ( )- = ( ) ( ). (2.19) Estas funciones de correlación no son variables, son un conjunto equivalente a las que se aplican a los procesos determinísticos. 2.3 PROCESOS ALEATORIOS Cuando una señal aleatoria es una función dependiente del tiempo, se dice que se trata de un proceso aleatorio o un proceso estocástico. Un proceso estocástico X(t , ) es una función de dos variables, t y , donde es un elemento del espacio de muestras. Además, para cualquier tiempo fijo t, la función X(t , ), debe satisfacer la definición de variable aleatoria. Existe una gran cantidad de procesos aleatorios, cada uno con diferentes características. Se dice que un proceso aleatorio puede ser: Continuo si X( ) para muchos tiempos fijos es una variable aleatoria continua. Discreto si X( ) para muchos es una variable aleatoria discreta. Mixto si no es necesariamente continuo o discreto. Estacionario si tampoco su auto correlación depende de la elección del tiempo de inicio, esto es, si: E[X(t)] no depende de t, y ( ) = ( ) = ( ) = . (2.20) 21 para cada , esto es, que la auto correlación depende solo de la diferencia de los tiempos. No estacionario si no es estacionario. Estrictamente estacionario. Ergódico. El concepto de estacionaridad en los procesos aleatorios es similar al estado fijo de los procesos determinísticos; las características de los procesos son tiempo invariante incluso pensando que el proceso en sí mismo es variable en el tiempo.Figura 2.1 Diferentes realizaciones de un proceso aleatorio ( ). 2.3.1 Proceso estacionario Un proceso estocástico es llamado estrictamente estacionario si sus propiedades estadísticas no cambian con el tiempo de origen, lo cual implica que la media, la varianza y la FDP (Función de Densidad de Probabilidad) de primer orden para ( ), son las mismas para ( ), para todo . Esto quiere decir que la estadística determinada para ( ), es igual para ( ), para todo valor de ε, pero solo corresponde al primer orden de estacionaridad, por lo que es necesario mencionar otras definiciones. Un proceso estocástico es estacionario de orden k si ( ) = ( ). (2.21) De esta igualdad es posible darse cuenta que la función correspondiente al orden uno debe ser independiente de t y se define por: 22 ( ) = ( ). (2.22) De forma similar ( ) = ( ) es independiente de ε para todo ε. Por eso se puede llegar a la conclusión de que: ( ) = ( ) = . (2.23) 2.3.2 Autocorrelación La autocorrelación probabilística de un proceso aleatorio X, en dos tiempos se refiere a la correlación de dos señales aleatorias X( ) y X( ) y se denota por: , ( ) ( )- ( ( ) ( )). (2.24) La función de autocorrelación en el caso de estacionaridad en sentido amplio tiene las siguientes propiedades: El valor cuadrático medio del proceso estocástico es una constante que no depende del instante considerado y se puede obtener a partir del valor de la autocorrelación en el origen según la ecuación (2.25). Es equivalente a la potencia media de la señal. (0) = , - . (2.25) La autocorrelación es una función par según la ecuación (2.26) ( ) = ( ). (2.26) La autocorrelación está acotada por el valor en el origen, según la ecuación (2.27) (0) ( ). (2.27) 2.3.3 Autocovarianza Análogamente a la autocorrelación, la autocovarianza de un proceso aleatorio X en dos tiempos está dado por: *, ( ) ( )-, ( ) ( )-+ ( ). (2.28) 23 La función de autocovarianza en el caso de estacionariedad en sentido amplio tiene las siguientes propiedades: La varianza del proceso estocástico es una constante que no depende del instante considerado y se puede obtener a partir del valor de la autocovarianza en el origen según la ecuación (2.29). Es equivalente a la potencia media de corriente alterna de la señal. (0) = . (2.29) La autocovarianza es una función par de τ según la ecuación (2.30). ( ) = ( ). (2.30) La autocovarianza está acotada por el valor en el origen, según la ecuación (2.31). (0) ( ). (2.31) 2.3.4 Densidad espectral de potencia Se denomina como Densidad Espectral de Potencia, también llamado Espectro de Densidad de Potencia o simplemente Espectro de Potencia, a la transformada de Fourier de la función de autocovarianza, siempre y cuando el proceso estocástico sea estacionario en el sentido amplio. A está relación se le conoce como el Teorema de Wiener-Kintchine o Teorema de Einstein-Wiener-Kintchine debido a estudios previos. En otras palabras, es posible calcular la Densidad Espectral de Potencia ( ) si se conoce la función de covarianza, como se muestra a continuación: [18] ( ) = ∫ ( ) = ∫ ( ) . (2.32) De manera inversa, tenemos: ( ) = ∫ ( ) = ∫ ( ) . (2.33) Algunas propiedades, que podemos encontrar con relación a la densidad espectral de potencia son las siguientes: [18] Cuando en la Densidad Espectral de Potencia ( ), = 0, esta es equivalente al área bajo la curva de la función de autocovarianza, como se muestra a continuación: ( = 0) = ∫ ( ) ( ) = ∫ ( ) . (2.34) 24 Cuando en la función de autocovarianza ( ), = 0, se obtiene el valor de la varianza del proceso estocástico, el cual también es representado por el área bajo la curva de la Densidad Espectral de Potencia, como es demostrado a continuación: ( = 0) = , - = ∫ ( ) ( ) = ∫ ( ) . (2.35) La Densidad Espectral de Potencia es una función par. ( ) = ( ). (2.36) La Densidad Espectral de Potencia es una función no negativa. ( ) 0. (2.37) 2.4 PROCESO ERGÓDICO La idea de ergodicidad surge si se tiene una sola función muestra de un proceso estocástico en lugar del conjunto entero. Esta función muestra nos puede dar poca información de la estadística del proceso. Pero si el proceso es ergódico, toda la información estadística puede ser derivada de esta sola función muestra. Por lo tanto, “un proceso ergódico” es aquel donde los promedios estadísticos son iguales a los temporales. Cuando un proceso es ergódico, una sola función muestra representa el proceso entero. Por lo tanto, la ergodicidad implica al mismo tiempo estacionaridad, y así como hay grados de estacionaridad, también los hay de ergodicidad. A continuación, solo se presentan los niveles de media y correlación. Nivel 1: Un proceso es ergódico si la media ( )̅̅ ̅̅ ̅̅ = ∫ ( ) = , ( )- . (2.38) La ergodicidad de la media implica estacionaridad de la misma. Pero la estacionaridad de la media no implica su ergodicidad. Nivel 2: Un proceso es ergódico con respecto a la autocovarianza si ( ) = ̇( ) ̇( ) ∫ ̇( ) ̇( ) = [ ̇( ) ̇( )] = ( ) (2.39) La variable q representa la función de tiempo de autocovarianza mientras que Q indica la función estadística de autocovarianza. 25 2.5 PROCESOS ESTACIONARIOS A TRAVÉS DE UN SISTEMA LINEAL Sea un proceso estocástico x(t) que pasa a través de un sistema lineal e invariante en el tiempo, que tiene una respuesta al impulso y obtiene otro proceso estocástico a la salida de dicho sistema en general no es posible conocer la función de distribución del proceso a la salida del sistema, incluso cuando se conozca la función de distribución del proceso de entrada, lo que se pretende es determinar la media y la autocovarianza del proceso de salida a partir de la media y la autocovarianza del proceso de entrada. Figura 2.2. Representación de un sistema lineal e invariante en el tiempo. ( ) = ∫ ( ) ( ) . (2.40) La media se puede calcular de la siguiente manera: ( ) = , ( )- = [∫ ( ) ( ) ]. (2.41) Si la media del proceso de entrada es finita para toda t y el sistema es estable entones la esperanza matemática y la integral se puede intercambiar sin afectar el resultado de la operación ( ) = ∫ ( ) , ( )- = ∫ ( ) ( ) = ( ) ( ). (2.42) Si el proceso aleatorio de entrada es estacionario en el sentido amplio, entonces la media de los procesos no depende del tiempo si no que son constantes y se obtiene lo siguiente: = ∫ ( ) = ∫ ( ) = (0). (2.43) Para la función de autocorrelación se pueden encontrar de manera similar considerando dos instantes de tiempo: 𝐻(𝜔) 𝑦(𝑡) 𝑥(𝑡) (𝑡) 𝐻(𝜔) 26 ( ) = , ( ) ( )- = [ ∫ ( ) ( ) ∫ ( ) ( ) ] = ∫ ( ) ∫ ( ) , ( ) ()- = ∫ ( ) ∫ ( ) ( ) = ( ) ( ) ( ). (2.44) Si el proceso es estacionario en el sentido amplio entonces la función de autocorrelación solo depende de la diferencia de tiempos = y la función de correlación quedaría de la siguiente forma: ( ) = ∫ ( ) ∫ ( ) ( ( )) = ∫ ( ) ∫ ( ) ( ) = ( ) ( ) ( ). (2.45) En el caso en que = se puede encontrar el valor cuadrático medio de salida como se muestra a continuación: ( ) = , ( )- = ∫ ( ) ∫ ( ) ( ) . (2.46) Si valor de = 0 entonces el valor cuadrático medio es una constante, y se expresa de la siguiente manera: , - = ∫ ( ) ∫ ( ) ( ) . (2.47) Para la función de autocovarianza se tiene para un proceso de salida lo siguiente: ( ) = ∫ ( ) ∫ ( ) ( ) = ( ) ( ) ( ). (2.48) Para el caso en que un proceso es estacionario en el sentido amplio, la función de autocovarianza solo depende de la diferencia de tiempos = . 27 ( ) = ∫ ( ) ∫ ( ) ( ) = ( ) ( ) ( ). (2.49) En el caso en que = , tenemos: ( ) = = , ( )- = ∫ ( ) ∫ ( ) ( ) . (2.50) Si = 0, entonces: = , - = ∫ ( ) ∫ ( ) ( ) . (2.51) Para la densidad espectral de potencia a la salida, se tiene lo siguiente: ( ) = ∫ ( ) = ∫ [∫ ( ) ∫ ( ) ( ) ] . (2.52) Realizando un cambio de variable, con = . Despejando tenemos; = . Finalmente también tenemos = Ahora si sustituimos en la ecuación anterior, obtenemos lo siguiente: ( ) = ∫ [∫ ( )∫ ( ) ( ) ] ( ) = ∫ ( ) ( ) ∫ ( ) ( ) ∫ ( ) ( ) = ( ) ( ) ( ) = | ( )| ( ). (2.53) Para el valor cuadrático medio a la salida depende de la densidad espectral de potencia a la entrada x. , - = (0) = ∫ ( ) = ∫ | ( )| ( ) . (2.54) 28 2.6 PROCESOS DE MARKOV Un proceso de Markov es un proceso con la propiedad de que si conocemos el valor de X(t), el valor de X(s), s > t no depende del valor de X(u), u < t. Dicho de otra manera, si conocemos el presente, el futuro es independiente del pasado. La definición formal es la siguiente: Un proceso {X(t), t ϵ T} es un proceso de Markov si para cualquier colección finita de puntos en T se tiene que para cualquier x [19]. ( ( ) | ( ) ( )) = ( ( ) | ( )) (2.55) 2.7 PROCESOS GAUSSIANOS Una variable aleatoria X tiene distribución Gaussiana o normal con parámetros m y si su transformada de Fourier es: [19] ( ) = ( ) = * +. (2.56) y en este caso usaremos la notación X ∼ N(m, ). Cuando m = 0 y = 1 decimos que X tiene una distribución Gaussiana típica o estándar o que esta variable está normalizada como se puede ver en la figura 2.3. En este caso su densidad y su función de distribución son: [19] ( ) = √ ⁄ (2.57) ( ) = ∫ ( ) . (2.58) Figura 2.3. Aspecto de la función densidad de probabilidad de una variable aleatoria Gaussiana con media cero y varianza unidad. 29 2.7.1 Propiedades Si X(t) es un proceso Gaussiano aplicado a la entrada de un sistema lineal invariante en el tiempo, la salida también es un proceso aleatorio Gaussiano Y(t). Si un proceso aleatorio X(t), es gaussiano, entonces las funciones muestra generadas por X(t) son conjuntamente Gaussianas, para cualquier n, siendo n, el orden del proceso aleatorio. Si el proceso Gaussiano es estacionario, entonces el proceso es estrictamente estacionario. Si las variables aleatorias ( ) ( ) ( ) son obtenidas de un proceso Gaussiano X(t) en los tiempos y son no correlacionados, entonces las variables aleatorias son estadísticamente independientes. 30 CAPITULO 3. METODOLOGÍA 3.1 METODOLOGÍA Este trabajo está enfocado a la recuperación de muestras perdidas de señales aleatorias y como metodología se aplica la regla de la esperanza matemática condicional, la cual nos permite describir el procedimiento de Muestreo−Reconstrucción de procesos Gaussianos. En este Capítulo, se describen las principales características de la regla de la esperanza matemática condicional para posteriormente, en el Capítulo 4, adaptarlo al problema de pérdida de muestras discretas. La regla de la esperanza matemática condicional es un algoritmo óptimo que describe la reconstrucción de los procesos Gaussianos. Al aplicar esta propuesta es posible explorar nuevos aspectos del problema. Principalmente, podemos investigar algunos casos donde: 1) La función de densidad de probabilidad Gaussiana caracteriza al proceso aleatorio. 2) El proceso aleatorio está caracterizado por su función de covarianza, su valor medio y su varianza. 3) El espectro de potencia de los procesos puede estar limitado o no limitado en banda. 4) El número de muestras a considerar es arbitrario, es decir, se puede tomar un número finito o infinito de muestras. 5) La función de la varianza condicional nos permite estimar el error de reconstrucción del proceso aleatorio. La regla de la esperanza matemática condicional proporciona el mínimo error cuadrático medio para la estimación de reconstrucción de procesos aleatorios. Siguiendo esta regla podemos aplicar la función de la media condicional como función de reconstrucción y la 31 calidad de reconstrucción es evaluada por la función de la varianza condicional, la cual es utilizada como función de error de reconstrucción. 3.2 REGLA DE LA ESPERANZA MATEMÁTICA CONDICIONAL Cuando un proceso estocástico es discretizado en ciertos instantes de tiempo T = {T1, T2, ..., TN}, se tiene un conjunto de muestras X(T) donde el número de muestras N y los tiempos de ocurrencia T son arbitrarios. En este caso, se obtiene un nuevo proceso donde las densidades y las funciones de probabilidad de los momentos iniciales y centrales son condicionales y depende del valor de cada muestra. Hay una aproximación estadística conocida como la “regla de la esperanza matemática condicional”. Con este criterio, se garantiza el mínimo error de la estimación de variables aleatorias con función de densidad de probabilidad arbitraria (fdp) [21]. ( ( )| ) = ( ( )| ( ) ( ) ( )) (3.1) Siguiendo esta regla, podemos usar la función de la media matemática condicional ̃( ) = 〈 ( )| 〉 como función de reconstrucción de un proceso aleatorio. Para procesos Gaussianos, esta regla esta principalmente descrita por la función de covarianza Kx(τ) del proceso x(t) considerado. Si consideramos el caso de un proceso Gaussiano estacionario x(t) el cual es descrito por el valor esperado m(t), la varianza σ2(t) y la función de covarianza Kx(τ) y fijamos un conjuntos de muestras X={x(T1), x(T2),…, x(TN)}, entonces la función de densidad de probabilidad es también Gaussiana. Por lo tanto, las expresiones que definen a la regla de la esperanza matemática condicional son las siguientes: [22] ̃( ) = ( ) ∑ ∑ ( )[ ( ) ( )] , (3.2) ̃ ( ) = ( ) ∑ ∑ ( ) ( ) (3.3) donde m(t) es la esperanza matemática no-condicional, σ2(t) es la varianza no- condicional del proceso inicial x(t). El proceso Gaussiano condicional está totalmente descrito en [21,22]. ( ) = [ ( ) ( ) ( ) ( ) ( ) ( ) ] . (3.4) El término aij representa a cada elemento de la matriz de covarianza inversa: 32 = [ ( ) ( ) ( ) ( ) ] (3.5) Si consideramos procesos estacionarios con valor medio igual a cero, ( ) = = 0, entonces la función de la esperanza matemática condicional se simplifica de la siguiente manera: ̃( ) = ∑∑ ( ) [ ( )] ( ) Y si consideramos σ2(t)=σ²=1, tenemos: ̃ ( ) = ∑ ∑ ( ) ( ) (3.7) La ecuación (3.6) y (3.7) depende del número actual j de la muestra, del número total de muestras N, del conjunto de instantes de muestreo Ti arbitrario, del momento de covarianza entre secciones del proceso en los instantes Ti y Tj y del momento de covarianza (t , Ti) entre las secciones actuales del tiempo t. Debido a que se están considerando principalmente procesos Gaussianos, sabemos que con solo los momentos de primer y segundo orden son suficientes para caracterizar este tipo de procesos. De aquí, que es necesario considerar también la función de covarianza de los procesos, que es un parámetro que nos proporciona información sobre la estructura en el tiempo de un proceso estocástico. La función de covarianza es un parámetro muy importante a considerar en esta metodología, que como sabemos está relacionada con la densidad espectral de potencia mediante la transformada de Fourier, tal como se vio en el Teorema de Wiener-Khintchine. Durante el desarrollo de este trabajo tratamos con funciones de covarianza normalizadas y con el parámetro del tiempo de covarianza τc igual a la unidad, con el fin de comparar los resultados que se obtienen entre diferentes funciones de covarianza que caracterizan a los procesos aleatorios. La función de covarianza normalizada ( ), es la relación estadística de dos valores de una señal en dos instantes de tiempo, esto quiere decir que indica la rapidez de cambio y se puede expresar de la siguiente forma: ( ) = ( ) (0) = ( ) ( ) donde = . 33 x(t) 𝐾𝑥(𝜏) 𝑆𝑥(𝜔) = y(t) 𝐾𝑦(𝜏) = 𝜋 ∫ 𝑆𝑦(𝜔)𝑒 𝑗𝜔𝜏𝑑𝜔 𝑆𝑦(𝜔) = 𝐻(𝑗𝜔)𝐻 (𝑗𝜔)𝑆𝑥(𝜔) H(jω) h(t) El tiempo de covarianza es un parámetro que nos indica el tiempo máximo en donde todavía existe interdependencia entre dos variables aleatorias, cabe resaltar que cuando el proceso es caótico se tiene un tiempo de covarianza pequeño y cuando se presenta un proceso con cambios suaves se tiene un tiempo de covarianza mayor. Para determinar este parámetro se utiliza la siguiente ecuación: = ∫ | ( )| ( ) 3.3 FUNCIONES DE COVARIANZA Como se mencionó anteriormente, la función de covarianza es un parámetro muy importante a considerar en esta metodología. Figura 3.1 Relación entre variables de entrada y salida de un proceso lineal. Figura 3.2 Circuito que caracteriza al filtro RC de una etapa para ser analizado en el esquema de la Figura 3.1. Si analizamos la respuesta de un filtro RC pasa-bajas de una etapa, tal como se muestra en la Figura 3.1 y Figura 3.2, entonces la función de transferencia del sistema lineal está dada por la siguiente relación: ( ) = ( ) ( ) (3.10) 34 Donde la señal de salida ( ) está descrita por: ( ) = ( ) (3.11) Y la señal de entrada ( ) está determinada por: ( ) = ( ) ( ) = ( ) ( ) (3.12) Por lo tanto, al sustituir (3.11) y (3.12) en (3.10) la función de transferencia ( ) es: ( ) = ( ) ( ) ( ) = Si consideramos que = , donde es el parámetro que caracteriza al filtro RC, entonces: ( ) = = Tabla 3.1 Función de covarianza normalizada ( ) y función de densidad espectral de potencia ( ) a la salida de diferentes tipos de filtros [23]. Función de Covarianza Normalizada Función de Densidad Espectral Filtro RC | | = Filtro RC de dos etapas ( | |) | | ( ) Filtro RC de tres etapas ( | | ) | | ( ) Filtro ideal | | 0 | | ( ) = ∫ ( ) ( ) = ∫ ( ) 35 Del resultado anterior, es posible determinar la densidad espectral ( ) del proceso a la salida del sistema lineal, ya que este depende de la función de transferencia ( ), tal como se muestra a continuación: ( ) = | ( )| ( ) Por lo tanto, al sustituir los resultados anteriores la densidad espectral ( ) esta dada por: ( ) = = Si aplicamos la transformada inversa de Fourier a la densidad espectral ( ), tal como lo sugiere el teorema de Wiener-Khintchine, entonces obtenemos la función de covarianza ( ) del proceso a la salida del filtro RC de una etapa: ( ) = ∫ ( ) = | | Con respecto a la expresión (3.8), necesitamos trabajar principalmente con la función de covarianza normalizada y para ello calculamos primeramente (0): ( = 0) = ∫ = ∫ = [ ] = 0 01 = Por lo tanto, la función de covarianza normalizada ( ) a la salida del filtro RC de una etapa está definido por la siguiente expresión: ( ) = | | Este mismo análisis se puede hacer para los filtros RC de dos y tres etapas en serie e incluso para el filtro ideal. En la Tabla 3.1 se muestran las funciones de covarianza normalizadas de estos filtros. 3.4 ERROR DE RECONSTRUCCIÓN Con este procedimiento es posible estimar el error de reconstrucción obtenido con las diferentes funciones de covarianza normalizadas ( ) de los procesos que se presentan a la salida de los filtros definido en la Tabla 3.1. La función de error de reconstrucción está descrita por la expresión (3.7). Por ejemplo, si consideramos la función de covarianza del 36 filtro RC de una etapa se tiene la siguiente expresión para la función de error de reconstrucción: ̃ ( ) = ∑ ∑ | | | | . (3.13) Si consideramos un proceso aleatorio con N=9 muestras espaciadas por un intervalo de muestreo T=Ti+1 Ti =0.5 y aplicamos la expresión (3.13), entonces se obtiene la gráfica del error de reconstrucción descrita en la Figura 3.3., del cual se observa que el máximo error de reconstrucción está ubicado a la mitad de cada intervalo de muestreo y su valor es el mismo en cada intervalo debido al que este proceso presenta características Markovianas. Figura 3.3. Gráfica del error de reconstrucción de un proceso a la salida del filtro RC de una etapa con N=9 y T=0.5. Por otro lado, si consideramos la función de covarianza del filtro RC de dos etapas se tiene la siguiente expresión para la función de error de reconstrucción: ̃ ( ) = ∑ ∑ ( | |) | | ( | |) | | . (3.14) Si consideramosun proceso aleatorio con N=9 muestras espaciadas por un intervalo de muestreo T=Ti+1 Ti =0.5 y aplicamos la expresión (3.14), entonces se obtiene la gráfica del error de reconstrucción descrita en la Figura 3.4. 37 Figura 3.4. Gráfica del error de reconstrucción de un proceso a la salida del filtro RC dos etapas con N=9 y T=0.5. Figura 3.5. Gráfica del error de reconstrucción de un proceso a la salida del filtro RC tres etapas con N=9 y T=0.5. De la misma manera si consideramos la función de covarianza del filtro RC de tres etapas se tiene la siguiente expresión para la función de error de reconstrucción. 38 ̃ ( ) = ∑ ∑ . | | ( ) / | | . | | ( ) / | | (3.15) Si consideramos un proceso aleatorio con N=9 muestras espaciadas por un intervalo de muestreo T=Ti+1 Ti = 0.5 y aplicamos la expresión (3.15), entonces se obtiene la gráfica del error de reconstrucción descrita en la Figura 3.5. Tanto para el filtro RC de dos etapas y de tres etapas, se observa que el error de reconstrucción es mayor a la mitad de los intervalos que se ubican en los extremos y el error máximo disminuye en los intervalos centrales. Lo anterior es debido a que estos procesos son no Markovianos y cada intervalo presenta una mayor influencia de sus muestras adyacentes. Como puede apreciarse en las Figuras 3.3, 3.4 y 3.5, los errores máximos de reconstrucción van disminuyendo, respectivamente, para cada función de covarianza del filtro en cuestión. 39 CAPITULO 4. RECONSTRUCCIÓ N CON PÉRDIDA DE MUESTRAS 4.1 RECONSTRUCCIÓN CON PÉRDIDAS En el Capítulo 3, se describen las características de la regla de la esperanza matemática condicional, ya que ésta es aplicada en este capítulo como metodología para la reconstrucción de procesos con pérdida de muestras. Por lo tanto, en este capítulo se describe como se adapta la regla de la esperanza matemática condicional al problema de reconstrucción de señales con pérdidas de muestras y se presentan algunos resultados. Este problema aparece principalmente cuando la señal llega al receptor después de ser transmitida por algún medio de comunicación o cuando la señal es extraída de un medio de almacenamiento con pérdidas. 4.2 DESCRIPCIÓN DE RECONSTRUCCIÓN CON PÉRDIDA DE MUESTRAS En la Figura 4.1 se presenta un conjunto de muestras de una señal, donde algunos de sus valores están perdidos en ciertos instantes de muestreo. Las muestras perdidas dejan 40 algunos huecos sobre las muestras adyacentes conocidas xc(Tj) que conjuntamente formaban una secuencia de datos original X(T) de longitud N. Figura 4.1. Secuencia de muestras con pérdidas, quedando solo ciertas muestras conocidas a la entrada de un receptor digital. Los valores de las muestras perdidas dependen ahora del valor de cada muestra conocida y a partir de estás aplicamos la función de la media condicional definida en (3.2) quedando ahora expresada de la siguiente manera: ̃( ) = ( ) ∑ ∑ ( ) ( ) [ ( ) ( )] (4.1) donde Tp representa la posición de las muestras pérdidas para p=1, 2, …, P, Ti y Tj representan indistintamente la posición de las muestras conocidas, C es la cantidad de muestras conocidas y P es la cantidad de muestras perdidas. De aquí que los elementos de la matriz de covarianza aij deben depender de los momentos de covarianza que existe entre los instantes de las muestras conocidas. Por simplicidad, si consideramos que la señal recibida es un proceso estacionario con valor medio igual a cero (m(t)=m=0) entonces la función de la media condicional queda especificada de la siguiente forma: ̃( ) = ∑ ∑ ( ) ( ) ( ) (4.2) La regla de la esperanza matemática condicional depende esencialmente de la función de covarianza Kx(τ) de la señal recibida, pero esta función es desconocida. Por lo tanto, debe ser estimada a partir de las muestras conocidas xc(Tj) tomando en cuenta la siguiente función de covarianza normalizada: 41 ( ) = ∑ [ ( ) ] [ ( ) ] (4.3) donde σ2 es la varianza no-condicional de la señal recibida e i es el índice que relaciona a las diferentes secciones que se forman entre los instantes de las muestras conocidas Tj. Pero, debido a que el valor medio es cero (m=0), entonces (4.3) queda simplificada: ( ) = ∑ [ ( )] [ ( )] (4.4) Si sustituimos la función de covarianza Kx(τ) por la función de covarianza normalizada de las muestras conocidas Rc(τ i), es decir (4.4) en (4.2), entonces se tiene la función para estimar las muestras perdidas de manera inicial: ̃( )( ) = ∑ ∑ ( ) ( ) ( ) (4.5) Debido a que ahora estamos aplicando la función de covarianza normalizada de la señal recibida a partir de las muestras conocidas Rc(τ i), es claro que la matriz inversa de covarianza también debe quedar expresada con respecto a esta función. Por lo tanto, en lugar de (3.5) tenemos la siguiente matriz: ( ) = [ ( ) ( ) ( ) ( ) ] = [ ( ) ( ) ( ) ( ) ] (4.6) Es de suponer que la función de covarianza Rc(τ i) estimada a partir de solo las muestras conocidas no va a ser exactamente igual a la función de covarianza de la señal original Rx(τN ), debido a las muestras perdidas. Sin embargo, se obtiene una buena estimación que podría mejorarse si las muestras estimadas inicialmente ̃( )( ) se complementan con las muestras conocidas xc(Tj) para formar un nuevo vector de muestras x(1)(TN) con la misma longitud N que el conjunto de muestras originales y a partir de este nuevo vector estimar una nueva función de covarianza normalizada R(1)(τN ) y con ella una nueva estimación de valores de las muestras perdidas. Estas dos funciones quedan actualizadas de la siguiente manera: ( )( ) = ∑ [ ( )( )] [ ( )( )] (4.7) ̃( )( ) = ∑ ∑ ( )( ) ( ) ( ) (4.8) donde los elementos de la matriz de covarianza aij deben de estar en términos de la nueva función de covarianza normalizada R(1)(τN ): 42 ( ) = [ ( ) ( ) ( ) ( ) ] = [ ( )( ) ( )( ) ( )( ) ( )( ) ] (4.9) Debido a que el tamaño del vector x(1)(TN) y de la función de covarianza actualizada R(1)(τN) son de la misma longitud y de valores aproximados que las que corresponden a la señal original, entonces con estos parámetros se obtiene una muy buena estimación de las muestras perdidas. Es posible reducir estas diferencias si el método se vuelve iterativo hasta un determinado valor de costo tomando en cuenta el error cuadrático medio entre las funciones de covarianza normalizadas actualizadas. Si se desea realizar este proceso hasta un número k, entonces las funciones se deben de actualizar, quedando de la siguiente manera: ( )( ) = ∑ [ ( )( )] [ ( )( )] (4.10) ̃( )( ) = ∑ ∑ ( )( ) ( ) (4.11) para valores de k>2. Donde x(k)(Tn) se va formando al agregar ̃( )( ) a las muestras conocidas xc(Tj) y la matriz inversa de covarianza también se va actualizando a partir de función de covarianza normalizada R(k)(τn): ( ) = [ ( )( ) ( )( ) ( )( ) ( )( ) ] (4.12) Sin embargo, con un númeropequeño de iteraciones se obtiene una buena aproximación de los valores de las muestras perdidas. 4.3 RESULTADOS Para la obtención de los resultados, primeramente, se generaron algunas señales aleatorias no limitadas en banda, con características no Markovianas con valor medio m=0 y definidas por la función de densidad de probabilidad Gaussiana. Las siguientes expresiones son utilizadas para generar algunas realizaciones de procesos aleatorios. Algunas de estas realizaciones son muestreadas y a partir de las muestras obtenidas, algunas de ellas son seleccionadas al azar para simular la pérdida de muestras y así trabajar en la estimación de las muestras perdidas y posteriormente en la reconstrucción de dichas realizaciones. [24] ( ) = ( ) 43 ( ) = ( )( ) ( ) Donde; = √ = = = = ( ) = 4.3.1 Simulación de realizaciones de procesos aleatorios Mediante el programa de Matlab se generaron ciertas simulaciones para poder crear algunas realizaciones de procesos aleatorios y con ello poder trabajar la reconstrucción de estas señales. La señal x(t) muestra un proceso aleatorio caótico, mientras y(t) es un proceso más suave en cuanto a su comportamiento, como se puede apreciar en la Figura 4.2, 4.3, 4.4 y 4.5 donde se tienen dos realizaciones completamente distintas. Estos son dos ejemplos de señales utilizadas para la obtención de los resultados. Figura 4.2. Ejemplo de una realización x(t) caótica 44 Figura 4.3. Ejemplo de una realización x(t) caótica Figura 4.4. Ejemplo de una realización y(t) suave t 45 Figura 4.5. Ejemplo de una realización y(t) suave Por otra parte, a las realizaciones generadas se le quitaron algunas muestras para poder aplicar el método propuesto para la estimación de las muestras perdidas. En las figuras 4.6 y 4.7 se puede apreciar una realización y dicha realización discretizada con sus muestras originales, respectivamente, y en la figura 4.8 se aprecia la realización discretizada pero con ciertas muestras ya perdidas, y esta pérdida de muestras es arbitraria. Figura 4.6. Realización en el tiempo continúo sin perdidas 46 Figura 4.7. Realización en el tiempo discreto sin pérdidas Figura 4.8. Realización en el tiempo discreto con pérdidas 47 Figura 4.9. Comparación de la Realización en el tiempo discreto entre la señal original con respecto a la señal con pérdidas. 4.3.2 Resultados A partir de dichas señales se definieron los instantes de muestreo Tn para formar las secuencias de las muestras originales de longitud N y posteriormente se especificaron las posiciones de las muestras perdidas Tp para detectar las posiciones de las muestras conocidas Tj, tal como se observa en la Figura 4.10. Una vez que se detectan las muestras conocidas xc(Tj) se utilizan éstas en (4.4) para la estimación de la función de covarianza normalizada Rc(τ i). 48 Figura 4.10. Comparación entre las funciones de covarianza de las muestras originales, de las muestras conocidas y de las muestras complementadas después de evaluar la primera estimación de las muestras perdidas. Se distingue en la Figura 4.10 que la forma de la función de covarianza estimada a partir de las muestras conocidas Rc(τ i) no es igual a la función de covarianza de la señal original Rx(τn), debido a la pérdida de información que se presenta en el proceso de transmisión de la señal. Sin embargo, con la ayuda de Rc(τ i) se logra una primera estimación para los valores de las muestras perdidas ̃( )( ) al aplicar (4.5). Valores que se aproximan o tienden a seguir a las amplitudes de las muestras originales x(Tn) en los instantes de tiempo Tp, tal como se observa en la Figura 4.11. Figura 4.11. Resultados de la primera estimación de las muestras perdidas descrita por (4.5) y la segunda estimación definida por (4.8). 49 Si conjuntamos las muestras estimadas ̃( )( ) con las muestras conocidas xc(Tj) se define un nuevo vector de muestras representado por x(1)(Tn), el cual tiene la misma longitud que el conjunto de muestras originales X(T). Con la ayuda de este nuevo vector se estima nuevamente la función de covarianza normalizada y los valores de las muestras perdidas, aplicando ahora las expresiones (4.7) y (4.8), respectivamente. La función de covarianza normalizada R(1)(τn) obtenida a partir del nuevo vector tiene prácticamente la misma forma que la función de covarianza de las muestra originales Rx(τn), tal como se observa en la Figura 4.10. Si utilizamos esta función de covarianza para obtener una segunda estimación de las muestras perdidas ̃( )( ), se observa en la Figura 4.11 que los nuevos valores de las muestras perdidas se ajustan hacia los valores de las muestras originales X(T). Si se desea ajustar cada vez más estos valores, se aplican entonces las expresiones (4.10) y (4.11) iterativamente. Figura 4.12. Estimación de las funciones de covarianza para las muestras originales, las muestras conocidas y las muestras del nuevo vector que incluyen los valores de la primera estimación de las muestras pérdidas para una segunda señal. Como segundo ejemplo se propone una segunda señal. Se aprecia en la Figura 4.12 que la función de covarianza de las muestras conocidas Rc(τi) es diferente a la función de covarianza de las muestras originales Rx(τn). Sin embargo, la función de covarianza R(1)(τn) obtenida con el nuevo vector, el cual considera los valores de la primera 50 estimación de las muestras perdidas tiene prácticamente la misma forma que la función de covarianza de las muestra originales Rc(τ i). Figura 4.13. Resultados de la primera estimación de las muestras perdidas obtenidas con (4.5) y la segunda estimación definida por (4.8) para una segunda señal. Por otra parte, en la Figura 4.13 se muestra, nuevamente, que con la primera estimación de las muestras perdidas ̃( )( ), en base a la función de covarianza de las muestras conocidas Rc(τ i), se obtiene una buena aproximación de los valores de las muestras perdidas con respecto a las muestras originales x(Tn). Además, con la ayuda de la función de covarianza normalizada del nuevo vector R(1)(τn) se mejoran las amplitudes de las muestras faltantes al evaluar la segunda estimación de las muestras perdidas ̃( )( ). 4.4 CALCULO DEL ERROR Y TIEMPO Como sabemos debemos tener un índice en el cual nos muestra que tan cercano estamos a una reconstrucción óptima, al igual que se debe tener en cuenta el tiempo que tarda el sistema en hacer la reconstrucción. Es posible calcular el error de reconstrucción de cada muestra aplicando el error cuadrático medio. Este cálculo es prácticamente hipotético ya que como sabemos en un receptor de comunicaciones no se tiene conocimiento de la señal original. = ( ̃( )( ) ( )) 51 Donde; ̃( )( ) es el valor de la muestra estimada y es el valor de la muestra original. Los resultados que a continuación se muestras son realizados a partir del segundo ejemplo (figura 4.14), como se sabe entre más pequeño sea el error para la reconstrucción tendremos resultados satisfactorios. En la Figura 4.14 podemos apreciar el error que existe entre la primera estimación y la señal original, se puede observar que la primera estimación se acerca a los valores originales, pero aún existen algunas variaciones. Figura 4.14. Comparación entre la señal original, la señal con muestras conocidas, primera estimación y el cálculo del error entre la primera estimación y la señal original. En la Figura 4.15 se muestra la comparación entre la señal original con una segunda estimación, y se aprecia que el error disminuye en comparación a la Figura 4.14. 52 Figura 4.15. Comparación entre
Compartir