Logo Studenta

Analisis-de-reconstruccion-de-procesos-gaussianos

¡Este material tiene más páginas!

Vista previa del material en texto

INSTITUTO POLITÉCNICO NACIONAL 
ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA 
SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN 
UNIDAD PROFESIONAL “ADOLFO LÓPEZ MATEOS “ 
 
 
 
ANÁLISIS DE RECONSTRUCCIÓN DE PROCESOS GAUSSIANOS 
CON PÉRDIDA DE MUESTRAS 
 
 
 
TESIS: 
 
QUE, COMO TRABAJO ESCRITO PARA SUSTENTAR EL EXAMEN 
PROFESIONAL Y OBTENER EL TÍÍTULO DE MAESTRO EN CIENCIAS EN 
INGENIERÍA DE TELECOMUNICACIONES 
 
 
PRESENTA: 
 
ING. IGNACIO GODINEZ GONZÁLEZ 
 
 
 
 
ASESORES: 
 
 
 
DR. VLADIMIR KAZAKOV DR. DANIEL RODRÍGUEZ SALDAÑA 
 
 
 
 
Ciudad de México 2016 
 
 
 
 
 
 
 
RESUMEN 
 
Los medios de transmisión o de almacenamiento introducen errores en las señales que 
puede reflejarse en la pérdida de información o principalmente en la pérdida de muestras 
en los sistemas digitales. Por lo tanto, se hace difícil o a veces imposible la reconstrucción 
de las señales en el receptor. 
En este trabajo, se presenta una propuesta para la estimación de las muestras pérdidas a 
la entrada de un receptor de comunicaciones digitales utilizando como método de 
estimación la regla de la esperanza matemática condicional. 
Esta metodología depende principalmente de la función de covarianza como característica 
estadística de las señales. De aquí, que se tenga que estimar primeramente la función de 
covarianza a partir de la señal con pérdida de muestras y posteriormente se optimice 
adaptivamente la estimación al añadir las muestras recuperadas. 
Una de las ventajas de esta metodología es que la estimación se puede aplicar tanto para 
procesos Gaussianos limitados en banda, así como en procesos no limitados en banda. 
Esta propiedad se detecta mediante la densidad espectral de potencia del proceso, la cual 
está estrechamente relacionada con la función de covarianza. 
 
 
 
 
 
 
 
 
 
 
 
 
 
ABSTRACT 
 
The transmission channels or storage media introduce some errors on the signals that can 
produce loss of data in digital systems or communication systems. Therefore, it becomes 
difficult or sometimes impossible to reconstruct the signals at the receiver. 
In this work, we propose a methodology to estimate lost samples at the input of a digital 
communications receiver. The proposed technique is based on the conditional mean rule. 
This methodology depends mainly on the covariance function as statistical characteristic 
of signals. Hence, it is first necessary to estimate the covariance function from the signal 
with lost samples and then it tends to become an adaptive function when the recovered 
samples are added. 
One advantage of this approach is the estimation for bandlimited and non-bandlimited 
Gaussian processes. This feature is given by the power spectral density of the processes, 
which is closely related to the covariance function. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
I 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
II 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1) 
2) 
3) 
4) 
5) 
 
 
1) 
2) 
III 
 
3) 
4) 
 
 
 
 
 
AGRADECIMIENTOS 
 
Primeramente deseo agradecer a mis Padres quienes son las personas más importantes y 
que más amo en la vida y a quien les debo todo lo que soy y he logrado, por su infinito 
amor, por su apoyo, su confianza, su comprensión, su guía, sus ánimos, su dedicación y 
que con gran sacrificio me han ayudado e impulsado a salir adelante ante cualquier reto y 
prueba en la vida, así como a luchar por mis ideales y lograr mis metas. 
A mi Mamá, por su gran corazón y entrega, por creer en mí, por apoyarme y brindarme su 
amor, por enseñarme como vivir y enfrentar la vida sin temor, además de la libertad para 
vivirla; a ella que supo ser madre y padre al mismo tiempo, por el gran esfuerzo y sacrificio 
que ha hecho a lo largo de su vida para darnos la educación que recibimos; a ti te dedico 
todos mis logros pues también son tuyos y te prometo que nunca te decepcionare. 
Mi eterno agradecimiento a ti Papá, por haberme enseñado el sentido y significado de 
superación, sobre la importancia de la familia, del trabajo honrado y la honestidad; y 
aunque físicamente te has ido, sé muy bien que siempre estarás a mi lado en todo 
momento brindándome tu guía y tu ayuda incondicional, tu siempre vivirás dentro de mi 
corazón y ten por seguro que me esforzare por seguir tus pasos y que jamás te olvidare. 
También a mis Asesores, el Dr. Daniel Rodriguez Saldaña y el Dr. Vladimir Kazakov, por el 
valiosísimo tiempo que invirtieron en ayudarme a terminar este trabajo, por creer en mí y 
darme la oportunidad de trabajar a su lado. Voy a estarles siempre agradecido por 
brindarme su apoyo, su confianza, sus consejos, sus observaciones y por enseñarme a 
trabajar con dedicación y esfuerzo. 
A mi casa el IPN, que me ha formado desde la licenciatura y hasta el día de hoy en la 
maestría; así que puedo decir que soy “Orgullosamente Politécnico”. 
IV 
 
Finalmente le agradezco a Dios por la maravillosa familia que poseo así como el proyecto 
de vida que ha tenido para mí; que como todos en el mundo ha estado llena de difíciles 
pruebas y tragos amargos, pero de igual forma llena de grandes dichas y bendiciones. 
 
 
MUCHAS GRACIAS. 
 
 
OBJETIVO 
 
Describir el procedimiento de muestreo y reconstrucción de procesos Gaussianos no 
restringidos en banda. 
 
Objetivos Particulares: 
 Estimar la función de covarianza de señales discretas con pérdida de muestras. 
 Estimar la reconstrucción de procesos Gaussianos con pérdida de muestras. 
 Calcular el error de reconstrucción de procesos Gaussianos cuando presenta 
pérdida de muestras. 
 
 
 
 
 
 
 
 
V 
 
 
 
 
 
 
 
 
JUSTIFICACIÓN 
 
La recuperación de las muestras perdidas en la entrada de un receptor de comunicaciones 
digitales es de gran interés y es un área de investigación importante en los últimos años. 
En la literatura es posible encontrar algunos métodos que presentan una solución al 
problema de pérdida de datos. Sin embargo, gran parte de las investigaciones dedicadas a 
la restauración de muestras en señales aleatorias consideran principalmente procesos 
restringidos en banda. La mayoría de estos métodos solo asumen la banda de frecuencias 
máxima de las señales y no las características estadísticas de los procesos debido a que la 
mayoría de ellos están basados en el teorema de Balakrishnan, el cual presentan algunos 
inconvenientes, por ejemplo: 
6) La función de densidad de probabilidad de los procesos no está definida. 
7) La función de reconstrucción depende principalmente del valor de la frecuencia 
máxima del proceso. 
8) El espectro de potencia de los procesos está restringido en banda. 
9) Considera un número infinito de muestras. 
10) No proporciona información sobre la estimación del error de reconstrucción. 
La metodología que utilizamos en este trabajo es conocida como la regla de la esperanza 
matemática condicional, el cual es un algoritmo óptimo que describe la reconstrucción de 
los procesos Gaussianos. Al aplicar esta propuesta es posible explorar nuevos aspectos del 
problema. Principalmente, podemos investigar algunos casos donde: 
 
5) La función de densidad de probabilidad Gaussiana caracteriza al proceso aleatorio. 
6) El proceso aleatorio está caracterizado por su función de covarianza, su valor 
medio y su varianza. 
7) El espectro de potencia de los procesos puede estar limitado o no limitado en 
VI 
 
banda. 
8) El número de muestras a considerar es arbitrario, es decir, se puede tomar un 
número finito o infinito de muestras. 
9) La función de la varianza condicional nos permite estimar el error de 
reconstrucción del proceso aleatorio. 
 
ÍNDICE 
 
RESUMEN ............................................................................................................................................4 
ABSTRACT ............................................................................................................................................ 5 
CAPITULO 1. INTRODUCCIÓN .............................................................................................................. 7 
1.1 INTRODUCCIÓN .................................................................................................................. 7 
1.2 TEOREMA DE MUESTREO ................................................................................................... 8 
1.3 INTERPOLACIÓN ..................................................................................................................... 10 
1.3.1 Planteamiento general .................................................................................................... 10 
1.3.2 Elección de la interpolación más adecuada .................................................................... 11 
1.3.3 Interpolación lineal.......................................................................................................... 11 
1.3.4 Interpolación polinomial ................................................................................................. 12 
1.4 GENERALIZACIÓN PRESENTADA POR BALAKRISHNAN ......................................................... 14 
CAPITULO 2. MARCO TEÓRICO.......................................................................................................... 16 
2.1 PROCESOS ALEATORIOS ................................................................................................... 16 
2.2 CONCEPTOS............................................................................................................................. 16 
2.2.1 Variable aleatoria ............................................................................................................ 17 
2.2.2 Momentos........................................................................................................................ 17 
2.2.3 Medias estadísticas para una variable aleatoria ............................................................ 17 
2.2.4 Función de distribución y de densidad para procesos estocásticos .............................. 18 
2.2.5 Medidas estadísticas para procesos estocásticos .......................................................... 19 
2.2.6 Funciones de correlación ................................................................................................. 20 
2.3 PROCESOS ALEATORIOS ......................................................................................................... 20 
2.3.1 Proceso estacionario ....................................................................................................... 21 
2.3.2 Autocorrelación ............................................................................................................... 22 
2.3.3 Autocovarianza ................................................................................................................ 22 
2.3.4 Densidad espectral de potencia ...................................................................................... 23 
2.4 PROCESO ERGÓDICO .............................................................................................................. 24 
2.5 PROCESOS ESTACIONARIOS A TRAVÉS DE UN SISTEMA LINEAL ........................................... 25 
2.6 PROCESOS DE MARKOV ......................................................................................................... 28 
 
2.7 PROCESOS GAUSSIANOS ........................................................................................................ 28 
2.7.1 Propiedades ..................................................................................................................... 29 
CAPITULO 3. METODOLOGÍA ............................................................................................................ 30 
3.1 METODOLOGÍA ....................................................................................................................... 30 
3.2 REGLA DE LA ESPERANZA MATEMÁTICA CONDICIONAL ...................................................... 31 
3.3 FUNCIONES DE COVARIANZA ................................................................................................. 33 
3.4 ERROR DE RECONSTRUCCIÓN ................................................................................................ 35 
CAPITULO 4. RECONSTRUCCIÓN CON PÉRDIDA DE MUESTRAS ....................................................... 39 
4.1 RECONSTRUCCIÓN CON PÉRDIDAS .................................................................................. 39 
4.2 DESCRIPCIÓN DE RECONSTRUCCIÓN CON PÉRDIDA DE MUESTRAS .................................... 39 
4.3 RESULTADOS ........................................................................................................................... 42 
4.3.1 Simulación de realizaciones de procesos aleatorios ...................................................... 43 
4.3.2 Resultados ....................................................................................................................... 47 
4.4 CALCULO DEL ERROR Y TIEMPO ............................................................................................. 50 
4.4.1 Función de error de reconstrucción ................................................................................ 53 
CAPITULO 5. CONLUSIONES .............................................................................................................. 55 
CONCLUSIONES ............................................................................................................................. 55 
ANEXOS ............................................................................................................................................. 57 
REFERENCIAS ..................................................................................................................................... 66 
 
 
 
 
 
 
 
 
7 
 
CAPITULO 1. 
INTRODUCCIÓN 
 
1.1 INTRODUCCIÓN 
La reconstrucción de procesos estocásticos es un problema muy común en las 
comunicaciones. Por lo que este trabajo muestra el interés de un método basado en filtros 
RC y su función de covarianza para recuperar la falta de muestras de señales. Este 
problema se produce cada vez más con la aparición de los diferentes enlaces, red de 
acceso fijo (PSTN), la red de acceso móvil (GSM / GPRS y futuras UMTS) o por la interfaz 
de satélite, que participan en diversas aplicaciones y que son susceptibles de inducir 
errores en los datos transmitidos. 
Las pérdidas pueden ocurrir en cualquier momento y en cualquier lugar (de acuerdo a la 
disponibilidad de canales, desbordamientos de memoria, los protocolos, etc.) durante un 
proceso de transmisión. Por tanto, la recuperación de las muestras en señales es de gran 
interés. El método utilizado en este trabajo se basa en un modelo de la función de 
covarianza para filtros RC de segunda y tercera etapa. Los resultados muestran que este 
método representa una técnica muy adecuada para la reconstrucción de la señal en una 
posible transmisión dañada. 
A lo largo del estudio de las comunicaciones, se han utilizado diferentes métodos para 
aproximar una función a la señal original de información. Uno de los métodos más 
conocidos fue propuesto en 1948, por C. E. Shannon [1-2], llamado Teorema de Muestreo 
y posteriormente tuvo una generalización hecha por A. V. Balakrishnan en 1957 [3]. 
La recuperación de las muestras perdidas en la entrada de un receptor de comunicaciones 
digitales es de gran interés y es un área de investigación importante en los últimos años. 
En la literatura es posible encontrar algunos métodos que presentan una solución al 
problema de pérdida de datos. Sin embargo, gran parte de las investigaciones dedicadas a 
la restauración de muestras en señales aleatorias consideran principalmente procesos8 
 
restringidos en banda. La mayoría de estos métodos [4-12] solo asumen la banda de 
frecuencias máxima de las señales y no las características estadísticas de los procesos 
debido a que la mayoría de ellos están basados en el teorema de Balakrishnan, el cual 
presentan algunos inconvenientes, por ejemplo: 
1) La función de densidad de probabilidad de los procesos no está definida. 
2) La función de reconstrucción depende principalmente del valor de la frecuencia 
máxima del proceso. 
3) El espectro de potencia de los procesos está restringido en banda. 
4) Considera un número infinito de muestras. 
5) No proporciona información sobre la estimación del error de reconstrucción. 
Estos métodos de interpolación han evolucionado, para que las funciones se aproximen lo 
más posible a la función original. 
En principio el Teorema de Muestro, es un método de interpolación que parece puede ser 
aplicado a cualquier tipo de proceso, ya sea aleatorio o determinístico. Sin embargo, este 
método presenta algunos inconvenientes: 
1. Requiere de un número infinito de muestras. 
2. Dichas muestras necesitan estar periódicamente distribuidas a lo largo del tiempo. 
3. El periodo de muestreo está definido por el criterio de Nyquist. 
4. Este periodo no puede ser alterado entre muestras, ya que si es alterado se 
presenta el fenómeno conocido como aliasing. 
El término de aliasing se refiere a un efecto de traslape de las réplicas periódicas del 
espectro de la señal original ocasionando que la señal original no pueda ser reconstruida 
de forma unívoca a partir de la señal digital. Este fenómeno de superposición periódica 
sucesiva es lo que se conoce como aliasing o Efecto Nyquist. 
Si , entonces los espectros repetidos no están solapados, y el espectro original 
puede regenerarse aplicando un filtro pasabajas ideal que tenga una frecuencia de corte 
de fc = fs/2. 
 
1.2 TEOREMA DE MUESTREO 
Este teorema demuestra que una señal cuyo espectro está limitando en banda con B [Hz] 
[Y(ω)=0- para |ω| πB, puede ser reconstruida exactamente (con algunos errores) a 
partir de sus muestras tomadas de manera uniforme a una tasa R>2B [Hz] ( muestras 
por segundo). En otras palabras, la frecuencia mínima de muestreo es = , - [13]. 
Como se mencionó anteriormente, el teorema de muestreo, considera una señal cuyo 
espectro está limitado en banda B [Hz]. Para mayor conveniencia, los espectros se 
muestran como funciones de ω, así como de f (Hz). El muestreo de y(t) a una tasa de 
9 
 
(Hz) ( muestras por segundo) puede lograrse multiplicando y(t) por un tren de 
impulsos ( ) que consiste en la repetición de impulsos unitarios periódicamente cada 
 segundos, donde =
 
 
. El resultado se denota como ӯ(t). La señal muestreada se 
compone de impulsos espaciados cada segundos (intervalo de muestreo). Entonces: 
 ( ) = ( ) ( ) = ∑ ( ) ( ) (1.1) 
Como el tren de impulsos ( ) es una señal periódica, este puede ser expresado 
mediante la serie trigonométrica de Fourier. 
Por tanto: 
 ( ) = ( ) ( ) =
 
 
, ( ) ( ) ( ) ( ) (1.2) 
Para encontrar (ω), realizamos la transformada de Fourier de ( ), término a término, en 
donde la transformada del primer término es Y(ω); la transformada del segundo término 
 ( ) es Y(ω )+Y(ω+ ) y así sucesivamente. Esto significa que el espectro de 
 (ω) se compone de Y(ω) repetida periódicamente con =
 
 
 radianes, o =
 
 
 
Por tanto: 
 ( ) =
 
 
∑ ( )
 
 (1.3) 
También, el intervalo de muestreo =
 
 
 Entonces: 
 
 
 
 (1.4) 
El número de muestras por segundo son llamadas frecuencia de muestreo o tasa de 
muestreo y depende de la más alta componente de frecuencia que se presente en la señal 
analógica. La relación de la frecuencia de muestreo y la más alta componente de 
frecuencia de la señal para ser muestreada es regida por el Teorema de Nyquist [14]: 
“Si la frecuencia de muestreo, , es superior a dos veces la frecuencia más alta de la 
componente de la señal analógica, B, la señal analógica original es completamente 
descrito por éstas muestras por sí sola instantánea, es decir, .” 
Shannon, en 1948, utilizó el teorema de muestreo para demostrar que una señal aleatoria 
limitada en banda era equivalente a la serie de sus muestras tomadas a una distancia 
definida por el intervalo de Nyquist. Él fue consciente del trabajo de Whittaker a quién 
citó. Posteriormente, se establecieron algunas pruebas al teorema que es hoy conocido 
como el teorema de muestreo de Whittaker-Kotel’nikov-Shannon (o WKS), el cual dice: 
“Toda función de una señal f(t) definida en IR está limitada en banda dentro de un 
intervalo [ ](donde 0) puede ser completamente reconstruida con respecto a 
10 
 
toda t ϵ IR partiendo de sus valores muestreados .
 
 
/ que son tomados en los puntos 
.
 
 
/ (donde k ϵ Z) igualmente espaciados sobre el eje real IR en términos de: 
 ( ) = ∑ .
 
 
/
 ( )
 
 
 “ (1.5) 
El proceso de reconstrucción de una señal continua en el tiempo y(t), para ésta señal, es 
conocida como interpolación. Una señal y(t) limitada en banda para B(Hz) puede ser 
reconstruida (interpolada) exactamente por éstas muestras, esto es, pasando la señal 
muestreada a través de un filtro pasa-bajas ideal de ancho de banda B(Hz). 
 
1.3 INTERPOLACIÓN 
En numerosos fenómenos de la naturaleza observamos una cierta regularidad en la forma 
en que estos se producen, esto nos permite sacar conclusiones de la marcha de un 
fenómeno en situaciones que no hemos medido directamente [15]. 
Una función de interpolación es aquella que pasa a través de puntos dados como datos, 
los cuales se muestran comúnmente por medio de una tabla de valores o se toman 
directamente de una función dada. 
La interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los 
valores de los extremos. 
Los datos obtenidos mediante una medición pueden interpolarse, pero en la mayoría de 
los casos no es recomendable una interpolación directa debido a los errores aleatorios 
implicados en la medición. 
 
1.3.1 Planteamiento general 
El problema general de la interpolación se nos presenta cuando nos dan una función de la 
cual solo conocemos una serie de puntos discretos de la misma: 
( )( ) ( ) (1.6) 
y se pide hallar un punto x (intermedio de ) de esta función. 
Se desea, por tanto encontrar una función cuya gráfica pase por esos puntos y nos sirva 
para estimar los valores deseados. 
La interpolación de los datos puede hacerse mediante un polinomio, mediante funciones 
spline, una función racional o la serie de Fourier entre otras posibles formas [16]. La 
interpolación polinomial (ajusta un polinomio a los puntos dados) es un tema de gran 
importancia, ya que un gran número de modelos se basan en la interpolación polinomial. 
11 
 
1.3.2 Elección de la interpolación más adecuada 
Consideremos una función de la cual sólo conocemos una serie de puntos de la misma 
( )( ) ( ) (1.7) 
Deseamos encontrar la expresión analítica de dicha función para poder estudiarla en esos 
puntos. 
Ahora bien, por n+1 puntos pasan infinitas funciones, ¿con cuál de ellas nos quedamos? 
Lo más lógico es recurrir a la más sencilla. La familia de las funciones más sencillas es la de 
los polinomios, por tanto buscaremos el polinomio de menor grado que pase por los n+1 
puntos dados. 
La función polinómica de menor grado que pasa por los puntos (1.7) es en principio de 
grado n: 
 = 
 (1.8) 
Y se obtiene resolviendoel sistema de n+1 ecuaciones con n+1 incógnitas (sistema que 
tiene solución única ya que la determinante de la matriz de los coeficientes es de 
Vandermonde y por lo tanto distinto de cero). 
Se le llama polinomio interpolador correspondiente a estos puntos. Una vez obtenida su 
expresión dando valores en él se pueden encontrar nuevos puntos de la función. Los 
resultados obtenidos son naturalmente estimaciones aproximadas. 
La interpolación será lineal cuando sólo se tomen dos puntos y cuadrática cuando se 
tomen tres. 
 
1.3.3 Interpolación lineal 
Cuando las variaciones de la función son proporcionales (o casi proporcionales) a los de la 
variable independiente se puede admitir que dicha función es lineal y usar para la 
estimación de los valores la interpolación lineal ver Figura 1.1. 
 
 
 
 
 
 
Figura 1.1. Ejemplo gráfico de Interpolación Lineal. 
12 
 
Sean dos puntos ( )( ) la interpolación lineal consiste en hallar una estimación del 
valor y, para un valor x tal que . 
Teniendo en cuenta que la ecuación de la recta que pasa por esos dos puntos es: 
 =
 
 
( ) (1.9) 
Obtenemos la fórmula de la interpolación lineal: 
 = 
 
 
( ) (1.10) 
 
1.3.4 Interpolación polinomial 
¿Pueden ajustarse tres o cuatro datos por medio de una curva? Uno de los métodos 
fundamentales para encontrar una función que pase a través de datos es el de usar un 
polinomio Figura 1.2. 
 
 
 
 
 
 
 
 
Figura 1.2. Ejemplo gráfico de Interpolación Polinomial. 
 
La interpolación polinomial se puede expresar en varias formas alternativas que pueden 
transformarse entre sí. Entre éstas se encuentran las series de potencia, la interpolación 
de Lagrange y la interpolación de Newton hacia atrás y hacia adelante. 
Un polinomio de orden N que pasa a través de N+1 puntos es único. Esto significa que, 
independientemente de la forma de interpolación, todas las interpolaciones polinomiales 
que se ajustan a los mismos datos son matemáticamente idénticas. 
En la Tabla 1.1 se observa que todos los métodos presentados tienen como común 
denominador el uso de un polinomio que se utiliza para realizar la aproximación. 
 
13 
 
Tabla 1.1. Comparación entre los diferentes métodos de Interpolación. 
Esquema de interpolación Formula de interpolación 
Interpolación de Lagrange 
 ( ) = ∑ ( ) ( )
 
 
 
 
Donde: 
 
 = ∏
( )
( )
 
 
 
 
Interpolación de Newton 
 ( ) = ∑ ∏( 
 
 
)
 
 
 
Interpolación de Hermite 
 = ∑ ( ) ( )
 
 
 ∑ ( ) ( )
 
 
 
 
Donde 
 
 ( ) = , ( 
 ) ( )- 
 ( )- 
Y 
 ( ) = ( ) 
 ( ) 
Spline cubico 
 ( ) =
{
 
 
 
 
 ( ) , -
 ( ) , -
 
 
 
 , -
 
Donde 
 ( ) es un polinomio cubico 
Teorema de muestreo 
 ( ) = ∑ (
 
 
)
 ( )
 
 
 
 
 
En la Tabla 1.2 se describen las principales ventajas y desventajas de diversos métodos de 
interpolación. La utilización de uno u otro depende principalmente del objetivo a alcanzar, 
de este modo siempre existirá un método que se ajuste a nuestras necesidades. 
14 
 
Tabla 1.2. Ventajas y desventajas de los métodos de Interpolación. 
Esquema de interpolación Ventajas Desventajas 
Interpolación de Lagrange Forma conveniente. 
Fácil de programar. 
Difícil de manejar para 
cálculos manuales. 
Interpolación de Newton El orden del polinomio 
puede cambiarse sin 
problemas. 
La evaluación de errores es 
fácil. 
Se debe de preparar una 
tabla de diferencias o de 
diferencias divididas. 
Interpolación de Lagrange 
mediante puntos de 
Chebyshev 
Los errores se distribuyen 
más uniformemente que en 
la malla que presenta igual 
separación. 
Los puntos de la malla no 
están distribuidos de 
manera uniforme. 
Interpolación de Hermite Alta precisión debido a que 
el binomio se ajusta 
también a las derivadas. 
 
Necesita valores de las 
derivadas. 
 
Spline cúbico Aplicable a cualquier 
número de datos. 
Se necesitan resolver 
ecuaciones simultáneas. 
 
Teorema de Muestreo Alta precisión debido a su 
función básica. 
No considera las 
propiedades estadísticas 
del proceso. 
 
1.4 GENERALIZACIÓN PRESENTADA POR BALAKRISHNAN 
En resumen Balakrishnan en su artículo de 1957 “A note on the sampling principle for 
continuous signals”, realiza un análisis para procesos continuos de parámetros 
estocásticos utilizando dos métodos de muestreo basados en interpolación. El método en 
este caso que será comprobado y del cual se presentará una generalización será el 
Teorema de Muestreo desarrollado por Shannon. El punto de partida para el análisis 
presentado por Balakrishnan se presenta en el siguiente teorema: 
“Sea x(t); -∞<t<∞ un proceso estocástico evaluado real o complejo, estacionario en el 
“sentido amplio” y que posee una densidad espectral, la cual desaparece fuera del 
intervalo de la frecuencia angular , -. Entonces x(t) tiene la representación: 
 ( ) = ∑ (
 
 
)
 ( )
 ( )
 
 (1.11) 
Para cada t, donde lim simboliza el límite en el sentido cuadrático medio. 
Más explícitamente, esto significa 
15 
 
 {, ( ) ∑ (
 
 
)
 ( )
 ( )
- 
 
} = 0 ” (1.12) 
Donde se asume que todos los procesos tienen sus varianzas y sus promedios finitos. Es 
aquí entonces donde se puede ver la primera diferencia con respecto al Teorema de 
Shannon ya que se le da un carácter finito a ciertas características del proceso. 
Ahora bien, en el análisis continúa con lo siguiente: 
“Notamos primeramente que sin tener en cuenta la teoría estadística de si es Gaussiano o 
no, la mejor estimación cuadrática media de x(t) a partir de = ( ) es lineal. 
 ( ) = ∑ 
 ( )
 ( )
 
 “ (1.13) 
El límite se considera al realizar el promedio estadístico de segundo orden. Además, como 
se mostró en [10] el error cuadrático medio es cero. 
Ahora bien, este teorema ha sido aceptado y retomado en diversos estudios, pero a su vez 
contiene algunas inconsistencias que hay que recalcar: 
Sabemos que si se toma un número infinito de muestras el error será cero, pero si en 
determinado momento utilizamos solo unas cuantas, entonces la forma que tomará la 
reconstrucción no será la óptima. 
Por otro lado, este teorema está sujeto a la condición de que el espectro de potencia sea 
limitado no mencionando que sucede cuando esta condición no se cumple. 
Otro aspecto que hay que hacer notar es que no se menciona cómo debe ser la función de 
densidad de probabilidad del proceso por lo que puede entonces pensarse que este 
método puede utilizarse arbitrariamente en cualquier proceso que se quiera reconstruir. 
 
 
 
 
 
 
 
 
 
 
 
16 
 
CAPITULO 2. 
MARCO 
TEÓRICO 
 
2.1 PROCESOS ALEATORIOS 
Los “procesos aleatorios” son importantes porque en casi todos los aspectos de la vida se 
presentan este tipo de situaciones en donde el comportamiento de un fenómeno o 
evento no puede ser predicho, por tal motivo, solo puede especularse acerca de los 
posibles efectos que tendrá. 
A continuación, se describen las principales características de estos procesos. La mayoría 
de los procesos son dependientes al tiempo, por tal motivo, una señal aleatoria es una 
función del tiempo, y debido a esto, aquellas funciones que presentan esta dependencia 
son llamados: “procesos aleatorios”. En el presente capítulo se habla de los principales 
conceptos que describen el comportamiento de los procesos aleatorios, así como sus 
principales características. 
 
2.2 CONCEPTOS 
Antes de comenzar a describir las principales características de los procesos aleatorios, es 
importante conocer algunos conceptos que serán mencionados a lo largo del capítulo.17 
 
2.2.1 Variable aleatoria 
Se denomina variable aleatoria discreta como aquella variable aleatoria que puede tomar 
únicamente un número contable de números reales. Si la variable aleatoria puede tomar 
cualquier valor de un intervalo es una variable aleatoria continua. 
 
2.2.2 Momentos 
Para un proceso estocástico, los momentos que se definen para una sola variable aleatoria 
son muy similares, la diferencia radica en que ahora son funciones dependientes del 
tiempo. Por lo que el k-ésimo momento de X(t , ), está dado por: 
 
 ( ) = , 
 ( )- = ∫ ( ) 
 
 
. (2.1) 
La principal diferencia entre un proceso estocástico y las variables aleatorias es que ahora 
se tiene una forma de onda completamente diferente. La salida experimental determina 
una completa forma de onda X(t, ), no solo un número. 
 
2.2.3 Medias estadísticas para una variable aleatoria 
Ahora, se define el operador esperanza matemática para una función de variable 
aleatoria g(X) por la ecuación (2.3). Este es un operador lineal [17]. 
 , ( )- = ∫ ( ) ( ) 
 
 
- (2.2) 
Primeramente, se define el momento de orden n de la distribución de probabilidad de 
una variable aleatoria X por la ecuación (2.4) [17]. 
 , - = ∫ ( ) 
 
 
 (2.3) 
Los momentos más importantes son los dos primeros. Cuando n=1 se tiene el valor 
medio, media o valor esperado de una variable aleatoria X que viene dado por la 
ecuación (2.5). La media se puede entender gráficamente como el centro de gravedad de 
la función de densidad de probabilidad. 
 = , - = ∫ ( ) 
 
 
 (2.4) 
En el caso de que n=2 tenemos el valor cuadrático medio de la variable aleatoria X dado 
por la ecuación (2.6). 
 , - = ∫ ( ) 
 
 
 (2.5) 
18 
 
Por otra parte, se define el momento centrado de orden n de la distribución de 
probabilidad de una variable aleatoria X por la ecuación (2.7). 
 ,( )
 - = ∫ ( )
 ( ) 
 
 
 (2.6) 
Para n=1 el momento centrado es cero. El momento centrado más importante es cuando 
n=2 que se denomina varianza de la variable aleatoria y viene dada por la ecuación (2.7) 
[17]. 
 = , - = ,( )
 - = ∫ ( )
 ( ) 
 
 
 (2.7) 
La raíz cuadrada de la varianza, , se denomina desviación estándar de la variable 
aleatoria. 
La varianza nos da una medida del ancho efectivo de la función de densidad de 
probabilidad en torno a la media. 
La media y la varianza nos dan una descripción de la distribución de la probabilidad. 
La varianza y el valor cuadrático medio están relacionados según la ecuación (2.8) [17]. 
 = , 
 - 
= , - , - 
 
= , - 
 (2.8) 
Solo en el caso de que la media sea cero, la varianza y el valor cuadrático medio coinciden, 
según la ecuación (2.10). 
 = , - = 0 (2.9) 
 
2.2.4 Función de distribución y de densidad para procesos estocásticos 
Para los procesos estocásticos, las funciones de distribución y de densidad están definidas 
de una forma distinta a las de las variables aleatorias. 
 ( ) = , ( ) ( ) -. (2.10) 
 ( ) =
 
 
 ( ). (2.11) 
Estas fórmulas conectan los valores de dos procesos estocásticos en dos tiempos distintos. 
Cuando se trate de tiempo discretos, se maneja la nomenclatura de en lugar de . 
 
19 
 
2.2.5 Medidas estadísticas para procesos estocásticos 
La media, la autocorrelación y la autocovarianza son parámetros que también se utilizan 
para dar una descripción de un proceso estocástico, ya que es muy difícil o casi imposible 
determinar la función de densidad de probabilidad ( ). 
Comenzaremos por definir la media ( ) como una función determinística del tiempo 
expresada de la siguiente forma: 
 ( ) = , ( )- (2.12) 
donde es un instante de tiempo cualquiera. Si se considera que la función de densidad 
de probabilidad de ( ) es ( )( ), entonces se puede calcular la media de la siguiente 
forma: 
 ( ) = ∫ 
 
 
 ( ) . (2.13) 
Así mismo, se define la función de autocorrelación ( ) como una función de dos 
variables del proceso estocástico en los tiempos expresada por: 
 ( ) = , ( ) ( )- = ∫ ∫ ( ) ( )
 
 
 
 
 ( ( ) ( )) ( ) ( ). (2.14) 
Si = , entonces se tiene el valor cuadrático medio del proceso estocástico de ( ), 
tal como se muestra a continuación: 
 ( ) = , ( ) ( )- = , 
 ( )- = ∫ 
 
 
 ( ) . (2.15) 
Por otra parte, la función de autocovarianza ( ) del proceso estocástico de ( ) 
como función de dos variables temporales , se expresa de la siguiente forma: 
 
 ( ) = [( ( ) ( ))( ( ) ( ))] = ∫ ∫ ( ( ) ( ))
 
 
( ( ) 
 
 
 ( )) ( ( ) ( )) ( ) ( ) (2.16) 
 
Ahora, si = , se obtiene como resultado la varianza del proceso estocástico ( ), 
como se demuestra a continuación: 
 ( ) = [( ( ) ( ))( ( ) ( ))] = 0( ( ) ( ))
 
1 
 = , ( )- = 
 ( ) = ∫ ( ( ) ( ))
 
 
 ( ( )) ( ). (2.17) 
 
20 
 
2.2.6 Funciones de correlación 
Las funciones de correlación ayudan a saber y cuantificar la similitud entre dos diferentes 
señales, además de que permite estimar el valor de una forma de onda en cualquier 
tiempo basándose en un tiempo dado. 
Dentro de los procesos aleatorios, existen dos clases de correlación: 
1. La función de correlación cruzada (crosscorrelation function CCF) de dos procesos 
aleatorios X(t) y Y(t) está definida como la correlación promedio de dos procesos: 
 
 ( ) , ( ) ( )- = ( ) ( ). (2.18) 
 
2. La función de auto correlación (autocorrelation function ACF) de un proceso 
aleatorio X(t) está definido por la autor relación promedio del proceso: 
 
 ( ) , ( ) ( )- = ( ) ( ). (2.19) 
 
Estas funciones de correlación no son variables, son un conjunto equivalente a las que se 
aplican a los procesos determinísticos. 
 
2.3 PROCESOS ALEATORIOS 
Cuando una señal aleatoria es una función dependiente del tiempo, se dice que se trata 
de un proceso aleatorio o un proceso estocástico. 
Un proceso estocástico X(t , ) es una función de dos variables, t y , donde es un 
elemento del espacio de muestras. Además, para cualquier tiempo fijo t, la función X(t , ), 
debe satisfacer la definición de variable aleatoria. 
Existe una gran cantidad de procesos aleatorios, cada uno con diferentes características. 
Se dice que un proceso aleatorio puede ser: 
 Continuo si X( ) para muchos tiempos fijos es una variable aleatoria continua. 
 Discreto si X( ) para muchos es una variable aleatoria discreta. 
 Mixto si no es necesariamente continuo o discreto. 
 Estacionario si tampoco su auto correlación depende de la elección del tiempo de 
inicio, esto es, si: 
E[X(t)] no depende de t, y 
 
 ( ) = ( ) = ( ) = . (2.20) 
 
21 
 
para cada , esto es, que la auto correlación depende solo de la diferencia de 
los tiempos. 
 No estacionario si no es estacionario. 
 Estrictamente estacionario. 
 Ergódico. 
El concepto de estacionaridad en los procesos aleatorios es similar al estado fijo de los 
procesos determinísticos; las características de los procesos son tiempo invariante incluso 
pensando que el proceso en sí mismo es variable en el tiempo.Figura 2.1 Diferentes realizaciones de un proceso aleatorio ( ). 
 
 
2.3.1 Proceso estacionario 
Un proceso estocástico es llamado estrictamente estacionario si sus propiedades 
estadísticas no cambian con el tiempo de origen, lo cual implica que la media, la varianza y 
la FDP (Función de Densidad de Probabilidad) de primer orden para ( ), son las 
mismas para ( ), para todo . Esto quiere decir que la estadística determinada 
para ( ), es igual para ( ), para todo valor de ε, pero solo corresponde al 
primer orden de estacionaridad, por lo que es necesario mencionar otras definiciones. 
Un proceso estocástico es estacionario de orden k si 
 ( ) = ( ). (2.21) 
De esta igualdad es posible darse cuenta que la función correspondiente al orden uno 
debe ser independiente de t y se define por: 
22 
 
 ( ) = ( ). (2.22) 
De forma similar ( ) = ( ) es independiente de ε para 
todo ε. Por eso se puede llegar a la conclusión de que: 
 ( ) = ( ) = . (2.23) 
 
 
2.3.2 Autocorrelación 
La autocorrelación probabilística de un proceso aleatorio X, en dos tiempos se 
refiere a la correlación de dos señales aleatorias X( ) y X( ) y se denota por: 
 
 , ( ) ( )- ( ( ) ( )). (2.24) 
 
La función de autocorrelación en el caso de estacionaridad en sentido amplio tiene las 
siguientes propiedades: 
 El valor cuadrático medio del proceso estocástico es una constante que no 
depende del instante considerado y se puede obtener a partir del valor de la 
autocorrelación en el origen según la ecuación (2.25). Es equivalente a la potencia 
media de la señal. 
 
 (0) = , 
 - . (2.25) 
 
 La autocorrelación es una función par según la ecuación (2.26) 
 
 ( ) = ( ). (2.26) 
 
 La autocorrelación está acotada por el valor en el origen, según la ecuación (2.27) 
 
 (0) ( ). (2.27) 
 
 
2.3.3 Autocovarianza 
Análogamente a la autocorrelación, la autocovarianza de un proceso aleatorio X en dos 
tiempos está dado por: 
 
 *, ( ) ( )-, ( ) ( )-+ ( ). (2.28) 
 
23 
 
La función de autocovarianza en el caso de estacionariedad en sentido amplio tiene las 
siguientes propiedades: 
 La varianza del proceso estocástico es una constante que no depende del instante 
considerado y se puede obtener a partir del valor de la autocovarianza en el origen 
según la ecuación (2.29). Es equivalente a la potencia media de corriente alterna de 
la señal. 
 
 (0) = 
 . (2.29) 
 
 La autocovarianza es una función par de τ según la ecuación (2.30). 
 
 ( ) = ( ). (2.30) 
 
 La autocovarianza está acotada por el valor en el origen, según la ecuación (2.31). 
 
 (0) ( ). (2.31) 
 
 
2.3.4 Densidad espectral de potencia 
Se denomina como Densidad Espectral de Potencia, también llamado Espectro de 
Densidad de Potencia o simplemente Espectro de Potencia, a la transformada de Fourier 
de la función de autocovarianza, siempre y cuando el proceso estocástico sea estacionario 
en el sentido amplio. A está relación se le conoce como el Teorema de Wiener-Kintchine o 
Teorema de Einstein-Wiener-Kintchine debido a estudios previos. 
 
En otras palabras, es posible calcular la Densidad Espectral de Potencia ( ) si se conoce 
la función de covarianza, como se muestra a continuación: [18] 
 ( ) = ∫ ( ) 
 
 
 
= ∫ ( ) 
 
 
 
. (2.32) 
De manera inversa, tenemos: 
 ( ) = ∫ ( ) 
 
 
 
=
 
 
∫ ( ) 
 
 
 
. (2.33) 
Algunas propiedades, que podemos encontrar con relación a la densidad espectral de 
potencia son las siguientes: [18] 
 Cuando en la Densidad Espectral de Potencia ( ), = 0, esta es equivalente al 
área bajo la curva de la función de autocovarianza, como se muestra a 
continuación: 
 ( = 0) = ∫ ( ) 
 ( ) 
 
 
= ∫ ( ) 
 
 
. (2.34) 
24 
 
 Cuando en la función de autocovarianza ( ), = 0, se obtiene el valor de la 
varianza del proceso estocástico, el cual también es representado por el área bajo 
la curva de la Densidad Espectral de Potencia, como es demostrado a continuación: 
 ( = 0) = , 
 - = ∫ ( ) 
 ( ) 
 
 
= ∫ ( ) 
 
 
. (2.35) 
 La Densidad Espectral de Potencia es una función par. 
 ( ) = ( ). (2.36) 
 La Densidad Espectral de Potencia es una función no negativa. 
 ( ) 0. (2.37) 
2.4 PROCESO ERGÓDICO 
La idea de ergodicidad surge si se tiene una sola función muestra de un proceso 
estocástico en lugar del conjunto entero. Esta función muestra nos puede dar poca 
información de la estadística del proceso. Pero si el proceso es ergódico, toda la 
información estadística puede ser derivada de esta sola función muestra. 
Por lo tanto, “un proceso ergódico” es aquel donde los promedios estadísticos son iguales 
a los temporales. 
Cuando un proceso es ergódico, una sola función muestra representa el proceso entero. 
Por lo tanto, la ergodicidad implica al mismo tiempo estacionaridad, y así como hay grados 
de estacionaridad, también los hay de ergodicidad. A continuación, solo se presentan los 
niveles de media y correlación. 
Nivel 1: Un proceso es ergódico si la media 
 
 ( )̅̅ ̅̅ ̅̅ = 
 
 
∫ ( ) = , ( )-
 
 
. (2.38) 
 
La ergodicidad de la media implica estacionaridad de la misma. Pero la estacionaridad de 
la media no implica su ergodicidad. 
Nivel 2: Un proceso es ergódico con respecto a la autocovarianza si 
 
 ( ) = ̇( ) ̇( ) 
 
 
∫ ̇( ) ̇( ) = [ ̇( ) ̇( )] = ( )
 
 
 (2.39) 
 
La variable q representa la función de tiempo de autocovarianza mientras que Q indica la 
función estadística de autocovarianza. 
 
 
25 
 
2.5 PROCESOS ESTACIONARIOS A TRAVÉS DE UN SISTEMA LINEAL 
Sea un proceso estocástico x(t) que pasa a través de un sistema lineal e invariante en el 
tiempo, que tiene una respuesta al impulso y obtiene otro proceso estocástico a la salida 
de dicho sistema en general no es posible conocer la función de distribución del proceso a 
la salida del sistema, incluso cuando se conozca la función de distribución del proceso de 
entrada, lo que se pretende es determinar la media y la autocovarianza del proceso de 
salida a partir de la media y la autocovarianza del proceso de entrada. 
 
Figura 2.2. Representación de un sistema lineal e invariante en el tiempo. 
 
 ( ) = ∫ ( ) ( ) 
 
 
. (2.40) 
La media se puede calcular de la siguiente manera: 
 ( ) = , ( )- = [∫ ( ) ( ) 
 
 
]. (2.41) 
Si la media del proceso de entrada es finita para toda t y el sistema es estable entones la 
esperanza matemática y la integral se puede intercambiar sin afectar el resultado de la 
operación 
 ( ) = ∫ ( ) , ( )- 
 
 
= ∫ ( ) ( ) =
 
 
 ( ) ( ). (2.42) 
Si el proceso aleatorio de entrada es estacionario en el sentido amplio, entonces la media 
de los procesos no depende del tiempo si no que son constantes y se obtiene lo siguiente: 
 = ∫ ( ) =
 
 
 ∫ ( ) =
 
 
 (0). (2.43) 
Para la función de autocorrelación se pueden encontrar de manera similar considerando 
dos instantes de tiempo: 
𝐻(𝜔) 
𝑦(𝑡) 𝑥(𝑡) 
 (𝑡) 
𝐻(𝜔) 
26 
 
 ( ) = , ( ) ( )- = [ ∫ ( ) ( ) 
 
 
∫ ( ) ( ) 
 
 
]
= ∫ ( )
 
 
∫ ( ) , ( ) ()- 
 
 
= ∫ ( )
 
 
∫ ( ) ( ) 
 
 
 
= ( ) ( ) ( ). (2.44) 
Si el proceso es estacionario en el sentido amplio entonces la función de autocorrelación 
solo depende de la diferencia de tiempos = y la función de correlación quedaría 
de la siguiente forma: 
 
 ( ) = ∫ ( )
 
 
∫ ( ) ( ( )) 
 
 
 
= ∫ ( )
 
 
∫ ( ) ( ) 
 
 
 
= ( ) ( ) ( ). (2.45) 
En el caso en que = se puede encontrar el valor cuadrático medio de salida como se 
muestra a continuación: 
 ( ) = , 
 ( )- = ∫ ( )
 
 
∫ ( ) ( ) 
 
 
. (2.46) 
Si valor de = 0 entonces el valor cuadrático medio es una constante, y se expresa de la 
siguiente manera: 
 , - = ∫ ( )
 
 
∫ ( ) ( ) 
 
 
. (2.47) 
Para la función de autocovarianza se tiene para un proceso de salida lo siguiente: 
 ( ) = ∫ ( )
 
 
∫ ( ) ( ) 
 
 
 
= ( ) ( ) ( ). (2.48) 
Para el caso en que un proceso es estacionario en el sentido amplio, la función de 
autocovarianza solo depende de la diferencia de tiempos = . 
 
27 
 
 ( ) = ∫ ( )
 
 
∫ ( ) ( ) 
 
 
 
 
= ( ) ( ) ( ). (2.49) 
 
En el caso en que = , tenemos: 
 
 ( ) = 
 = , ( )- = ∫ ( )
 
 
∫ ( ) ( ) 
 
 
. (2.50) 
Si = 0, entonces: 
 
 
 = , - = ∫ ( )
 
 
∫ ( ) ( ) 
 
 
. (2.51) 
 
Para la densidad espectral de potencia a la salida, se tiene lo siguiente: 
 
 ( ) = ∫ ( ) 
 
 
 
 
= ∫ [∫ ( ) ∫ ( ) ( ) 
 
 
 
 
] 
 
 
. (2.52) 
 
Realizando un cambio de variable, con = . 
 
Despejando tenemos; = . 
 
Finalmente también tenemos = Ahora si sustituimos en la ecuación anterior, 
obtenemos lo siguiente: 
 
 ( ) = ∫ [∫ ( )∫ ( ) ( ) 
 
 
 
 
] ( ) 
 
 
 
 
= ∫ ( ) 
 ( ) 
 
 
∫ ( ) 
 ( ) 
 
 
∫ ( ) 
 ( ) 
 
 
 
 
= ( ) ( ) ( ) = | ( )|
 ( ). (2.53) 
 
Para el valor cuadrático medio a la salida depende de la densidad espectral de potencia 
a la entrada x. 
 
 , - = (0) = ∫ ( ) 
 
 
= ∫ | ( )| ( ) 
 
 
. (2.54) 
 
28 
 
2.6 PROCESOS DE MARKOV 
Un proceso de Markov es un proceso con la propiedad de que si conocemos el valor de 
X(t), el valor de X(s), s > t no depende del valor de X(u), u < t. Dicho de otra manera, si 
conocemos el presente, el futuro es independiente del pasado. La definición formal es la 
siguiente: 
Un proceso {X(t), t ϵ T} es un proceso de Markov si para cualquier colección finita 
 de puntos en T se tiene que para cualquier x [19]. 
 ( ( ) | ( ) ( )) = ( ( ) | ( )) (2.55) 
 
2.7 PROCESOS GAUSSIANOS 
Una variable aleatoria X tiene distribución Gaussiana o normal con parámetros m y si 
su transformada de Fourier es: [19] 
 
 ( ) = ( ) = * 
 
 
 +. (2.56) 
 
y en este caso usaremos la notación X ∼ N(m, ). Cuando m = 0 y = 1 decimos que X 
tiene una distribución Gaussiana típica o estándar o que esta variable está normalizada 
como se puede ver en la figura 2.3. En este caso su densidad y su función de distribución 
son: [19] 
 ( ) =
 
√ 
 
 ⁄ (2.57) 
 ( ) = ∫ ( ) 
 
 
. (2.58) 
 
 
Figura 2.3. Aspecto de la función densidad de probabilidad de una variable aleatoria 
Gaussiana con media cero y varianza unidad. 
29 
 
2.7.1 Propiedades 
 Si X(t) es un proceso Gaussiano aplicado a la entrada de un sistema lineal 
invariante en el tiempo, la salida también es un proceso aleatorio Gaussiano Y(t). 
 Si un proceso aleatorio X(t), es gaussiano, entonces las funciones muestra 
generadas por X(t) son conjuntamente Gaussianas, para cualquier n, siendo n, el 
orden del proceso aleatorio. 
 Si el proceso Gaussiano es estacionario, entonces el proceso es estrictamente 
estacionario. 
 Si las variables aleatorias ( ) ( ) ( ) son obtenidas de un proceso 
Gaussiano X(t) en los tiempos y son no correlacionados, entonces las 
variables aleatorias son estadísticamente independientes. 
 
 
 
 
 
 
 
 
 
30 
 
CAPITULO 3. 
METODOLOGÍA 
 
3.1 METODOLOGÍA 
Este trabajo está enfocado a la recuperación de muestras perdidas de señales aleatorias y 
como metodología se aplica la regla de la esperanza matemática condicional, la cual nos 
permite describir el procedimiento de Muestreo−Reconstrucción de procesos Gaussianos. 
En este Capítulo, se describen las principales características de la regla de la esperanza 
matemática condicional para posteriormente, en el Capítulo 4, adaptarlo al problema de 
pérdida de muestras discretas. 
La regla de la esperanza matemática condicional es un algoritmo óptimo que describe la 
reconstrucción de los procesos Gaussianos. Al aplicar esta propuesta es posible explorar 
nuevos aspectos del problema. Principalmente, podemos investigar algunos casos donde: 
 
1) La función de densidad de probabilidad Gaussiana caracteriza al proceso aleatorio. 
2) El proceso aleatorio está caracterizado por su función de covarianza, su valor 
medio y su varianza. 
3) El espectro de potencia de los procesos puede estar limitado o no limitado en 
banda. 
4) El número de muestras a considerar es arbitrario, es decir, se puede tomar un 
número finito o infinito de muestras. 
5) La función de la varianza condicional nos permite estimar el error de 
reconstrucción del proceso aleatorio. 
 
La regla de la esperanza matemática condicional proporciona el mínimo error cuadrático 
medio para la estimación de reconstrucción de procesos aleatorios. Siguiendo esta regla 
podemos aplicar la función de la media condicional como función de reconstrucción y la 
31 
 
calidad de reconstrucción es evaluada por la función de la varianza condicional, la cual es 
utilizada como función de error de reconstrucción. 
 
3.2 REGLA DE LA ESPERANZA MATEMÁTICA CONDICIONAL 
Cuando un proceso estocástico es discretizado en ciertos instantes de tiempo 
T = {T1, T2, ..., TN}, se tiene un conjunto de muestras X(T) donde el número de muestras 
N y los tiempos de ocurrencia T son arbitrarios. En este caso, se obtiene un nuevo proceso 
donde las densidades y las funciones de probabilidad de los momentos iniciales y 
centrales son condicionales y depende del valor de cada muestra. Hay una aproximación 
estadística conocida como la “regla de la esperanza matemática condicional”. Con este 
criterio, se garantiza el mínimo error de la estimación de variables aleatorias con función 
de densidad de probabilidad arbitraria (fdp) [21]. 
 ( ( )| ) = ( ( )| ( ) ( ) ( )) (3.1) 
Siguiendo esta regla, podemos usar la función de la media matemática condicional 
 ̃( ) = 〈 ( )| 〉 como función de reconstrucción de un proceso aleatorio. Para 
procesos Gaussianos, esta regla esta principalmente descrita por la función de covarianza 
Kx(τ) del proceso x(t) considerado. 
Si consideramos el caso de un proceso Gaussiano estacionario x(t) el cual es descrito por 
el valor esperado m(t), la varianza σ2(t) y la función de covarianza Kx(τ) y fijamos un 
conjuntos de muestras X={x(T1), x(T2),…, x(TN)}, entonces la función de densidad de 
probabilidad es también Gaussiana. Por lo tanto, las expresiones que definen a la regla de 
la esperanza matemática condicional son las siguientes: [22] 
 ̃( ) = ( ) ∑ ∑ ( )[ ( ) ( )]
 
 
 
 , (3.2) 
 ̃ ( ) = ( ) ∑ ∑ ( ) ( ) 
 
 
 
 (3.3) 
donde m(t) es la esperanza matemática no-condicional, σ2(t) es la varianza no-
condicional del proceso inicial x(t). El proceso Gaussiano condicional está totalmente 
descrito en [21,22]. 
 ( ) = [
 ( ) ( ) ( )
 
 ( ) ( ) ( )
] . (3.4) 
El término aij representa a cada elemento de la matriz de covarianza inversa: 
32 
 
 = [
 ( ) ( )
 
 ( ) ( )
]
 
 (3.5) 
Si consideramos procesos estacionarios con valor medio igual a cero, ( ) = = 0, 
entonces la función de la esperanza matemática condicional se simplifica de la siguiente 
manera: 
 ̃( ) = ∑∑ ( ) [ ( )]
 
 
 
 
 ( ) 
Y si consideramos σ2(t)=σ²=1, tenemos: 
 ̃ ( ) = ∑ ∑ ( ) ( )
 
 
 
 (3.7) 
La ecuación (3.6) y (3.7) depende del número actual j de la muestra, del número total de 
muestras N, del conjunto de instantes de muestreo Ti arbitrario, del momento de 
covarianza entre secciones del proceso en los instantes Ti y Tj y del momento de 
covarianza (t , Ti) entre las secciones actuales del tiempo t. 
Debido a que se están considerando principalmente procesos Gaussianos, sabemos que 
con solo los momentos de primer y segundo orden son suficientes para caracterizar este 
tipo de procesos. De aquí, que es necesario considerar también la función de covarianza 
de los procesos, que es un parámetro que nos proporciona información sobre la 
estructura en el tiempo de un proceso estocástico. La función de covarianza es un 
parámetro muy importante a considerar en esta metodología, que como sabemos está 
relacionada con la densidad espectral de potencia mediante la transformada de Fourier, 
tal como se vio en el Teorema de Wiener-Khintchine. 
Durante el desarrollo de este trabajo tratamos con funciones de covarianza normalizadas 
y con el parámetro del tiempo de covarianza τc igual a la unidad, con el fin de comparar 
los resultados que se obtienen entre diferentes funciones de covarianza que caracterizan 
a los procesos aleatorios. 
La función de covarianza normalizada ( ), es la relación estadística de dos valores de 
una señal en dos instantes de tiempo, esto quiere decir que indica la rapidez de cambio y 
se puede expresar de la siguiente forma: 
 ( ) =
 ( )
 (0)
=
 ( )
 
 ( ) 
donde = . 
33 
 
x(t) 
 
𝐾𝑥(𝜏) 
𝑆𝑥(𝜔) = 
 y(t) 
 
𝐾𝑦(𝜏) =
 
 𝜋
∫ 𝑆𝑦(𝜔)𝑒
𝑗𝜔𝜏𝑑𝜔
 
 
 
𝑆𝑦(𝜔) = 𝐻(𝑗𝜔)𝐻
 (𝑗𝜔)𝑆𝑥(𝜔) 
H(jω) 
h(t) 
El tiempo de covarianza es un parámetro que nos indica el tiempo máximo en donde 
todavía existe interdependencia entre dos variables aleatorias, cabe resaltar que cuando 
el proceso es caótico se tiene un tiempo de covarianza pequeño y cuando se presenta un 
proceso con cambios suaves se tiene un tiempo de covarianza mayor. Para determinar 
este parámetro se utiliza la siguiente ecuación: 
 = ∫ | ( )| 
 
 
 ( ) 
 
3.3 FUNCIONES DE COVARIANZA 
Como se mencionó anteriormente, la función de covarianza es un parámetro muy 
importante a considerar en esta metodología. 
 
 
 
 
 
Figura 3.1 Relación entre variables de entrada y salida de un proceso lineal. 
 
 
Figura 3.2 Circuito que caracteriza al filtro RC de una etapa para ser analizado en el 
esquema de la Figura 3.1. 
 
Si analizamos la respuesta de un filtro RC pasa-bajas de una etapa, tal como se muestra en 
la Figura 3.1 y Figura 3.2, entonces la función de transferencia del sistema lineal está dada 
por la siguiente relación: 
 ( ) =
 ( )
 ( )
 (3.10) 
34 
 
Donde la señal de salida ( ) está descrita por: 
 ( ) =
 ( )
 
 (3.11) 
Y la señal de entrada ( ) está determinada por: 
 ( ) = ( ) 
 ( )
 
=
( ) ( )
 
 (3.12) 
Por lo tanto, al sustituir (3.11) y (3.12) en (3.10) la función de transferencia ( ) es: 
 ( ) =
 ( )
 
( ) ( )
 
=
 
 
 
Si consideramos que =
 
 
 , donde es el parámetro que caracteriza al filtro RC, 
entonces: 
 ( ) =
 
 
=
 
 
 
 
Tabla 3.1 Función de covarianza normalizada ( ) y función de densidad espectral de 
potencia ( ) a la salida de diferentes tipos de filtros [23]. 
 Función de Covarianza 
Normalizada 
Función de Densidad 
Espectral 
Filtro RC | | 
 
 
 =
 
 
 
Filtro RC de 
dos etapas 
( | |) | | 
 
( ) 
 
Filtro RC de 
tres etapas ( | | 
 
 
) | | 
 
( ) 
 
Filtro ideal 
 
 
 
 
 
 | | 
0 | | 
 
 
 ( ) =
 
 
∫ ( ) 
 
 
 ( ) = ∫ ( ) 
 
 
 
 
 
35 
 
Del resultado anterior, es posible determinar la densidad espectral ( ) del proceso a la 
salida del sistema lineal, ya que este depende de la función de transferencia ( ), tal 
como se muestra a continuación: 
 ( ) = | ( )|
 ( ) 
Por lo tanto, al sustituir los resultados anteriores la densidad espectral ( ) esta dada 
por: 
 ( ) =
 
 
 
 
 
 =
 
 
 
Si aplicamos la transformada inversa de Fourier a la densidad espectral ( ), tal como lo 
sugiere el teorema de Wiener-Khintchine, entonces obtenemos la función de covarianza 
 ( ) del proceso a la salida del filtro RC de una etapa: 
 ( ) =
 
 
∫ ( ) 
 = 
 
 
 
 
 | | 
Con respecto a la expresión (3.8), necesitamos trabajar principalmente con la función de 
covarianza normalizada y para ello calculamos primeramente (0): 
 ( = 0) =
 
 
∫
 
 
 
 
 
=
 
 
∫
 
 
=
 
 
[
 
 
 
 
 
]
 
 
=
 
 
0
 
 
 01 =
 
 
 
 
 
Por lo tanto, la función de covarianza normalizada ( ) a la salida del filtro RC de una 
etapa está definido por la siguiente expresión: 
 ( ) = | | 
Este mismo análisis se puede hacer para los filtros RC de dos y tres etapas en serie e 
incluso para el filtro ideal. En la Tabla 3.1 se muestran las funciones de covarianza 
normalizadas de estos filtros. 
 
3.4 ERROR DE RECONSTRUCCIÓN 
Con este procedimiento es posible estimar el error de reconstrucción obtenido con las 
diferentes funciones de covarianza normalizadas ( ) de los procesos que se presentan 
a la salida de los filtros definido en la Tabla 3.1. La función de error de reconstrucción está 
descrita por la expresión (3.7). Por ejemplo, si consideramos la función de covarianza del 
36 
 
filtro RC de una etapa se tiene la siguiente expresión para la función de error de 
reconstrucción: 
 ̃ ( ) = ∑ ∑ | | 
 | | 
 
 
 . (3.13) 
Si consideramos un proceso aleatorio con N=9 muestras espaciadas por un intervalo de 
muestreo T=Ti+1 Ti =0.5 y aplicamos la expresión (3.13), entonces se obtiene la gráfica 
del error de reconstrucción descrita en la Figura 3.3., del cual se observa que el máximo 
error de reconstrucción está ubicado a la mitad de cada intervalo de muestreo y su valor 
es el mismo en cada intervalo debido al que este proceso presenta características 
Markovianas. 
 
 
Figura 3.3. Gráfica del error de reconstrucción de un proceso a la salida del filtro RC de 
una etapa con N=9 y T=0.5. 
 
Por otro lado, si consideramos la función de covarianza del filtro RC de dos etapas se tiene 
la siguiente expresión para la función de error de reconstrucción: 
 ̃ ( ) = ∑ ∑ ( | |) 
 | | ( | |) 
 | | 
 
 
 . (3.14) 
Si consideramosun proceso aleatorio con N=9 muestras espaciadas por un intervalo de 
muestreo T=Ti+1 Ti =0.5 y aplicamos la expresión (3.14), entonces se obtiene la gráfica 
del error de reconstrucción descrita en la Figura 3.4. 
 
37 
 
 
Figura 3.4. Gráfica del error de reconstrucción de un proceso a la salida del filtro RC dos 
etapas con N=9 y T=0.5. 
 
 
Figura 3.5. Gráfica del error de reconstrucción de un proceso a la salida del filtro RC tres 
etapas con N=9 y T=0.5. 
 
De la misma manera si consideramos la función de covarianza del filtro RC de tres etapas 
se tiene la siguiente expresión para la función de error de reconstrucción. 
38 
 
 ̃ ( ) = ∑ ∑ . | | 
 ( )
 
 
/ | | . | | 
 
 
 
 
 ( )
 
 
/ | | (3.15) 
Si consideramos un proceso aleatorio con N=9 muestras espaciadas por un intervalo de 
muestreo T=Ti+1 Ti = 0.5 y aplicamos la expresión (3.15), entonces se obtiene la gráfica 
del error de reconstrucción descrita en la Figura 3.5. Tanto para el filtro RC de dos etapas 
y de tres etapas, se observa que el error de reconstrucción es mayor a la mitad de los 
intervalos que se ubican en los extremos y el error máximo disminuye en los intervalos 
centrales. Lo anterior es debido a que estos procesos son no Markovianos y cada intervalo 
presenta una mayor influencia de sus muestras adyacentes. 
Como puede apreciarse en las Figuras 3.3, 3.4 y 3.5, los errores máximos de 
reconstrucción van disminuyendo, respectivamente, para cada función de covarianza del 
filtro en cuestión. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
39 
 
CAPITULO 4. 
RECONSTRUCCIÓ
N CON PÉRDIDA 
DE MUESTRAS 
 
4.1 RECONSTRUCCIÓN CON PÉRDIDAS 
En el Capítulo 3, se describen las características de la regla de la esperanza matemática 
condicional, ya que ésta es aplicada en este capítulo como metodología para la 
reconstrucción de procesos con pérdida de muestras. Por lo tanto, en este capítulo se 
describe como se adapta la regla de la esperanza matemática condicional al problema de 
reconstrucción de señales con pérdidas de muestras y se presentan algunos resultados. 
Este problema aparece principalmente cuando la señal llega al receptor después de ser 
transmitida por algún medio de comunicación o cuando la señal es extraída de un medio 
de almacenamiento con pérdidas. 
 
4.2 DESCRIPCIÓN DE RECONSTRUCCIÓN CON PÉRDIDA DE MUESTRAS 
En la Figura 4.1 se presenta un conjunto de muestras de una señal, donde algunos de sus 
valores están perdidos en ciertos instantes de muestreo. Las muestras perdidas dejan 
40 
 
algunos huecos sobre las muestras adyacentes conocidas xc(Tj) que conjuntamente 
formaban una secuencia de datos original X(T) de longitud N. 
 
 
 
 
 
 
 
 
Figura 4.1. Secuencia de muestras con pérdidas, quedando solo ciertas muestras 
conocidas a la entrada de un receptor digital. 
 
Los valores de las muestras perdidas dependen ahora del valor de cada muestra conocida 
y a partir de estás aplicamos la función de la media condicional definida en (3.2) quedando 
ahora expresada de la siguiente manera: 
 ̃( ) = ( ) ∑ ∑ ( ) 
( )
[ ( ) ( )]
 
 
 
 (4.1) 
donde Tp representa la posición de las muestras pérdidas para p=1, 2, …, P, Ti y Tj 
representan indistintamente la posición de las muestras conocidas, C es la cantidad de 
muestras conocidas y P es la cantidad de muestras perdidas. De aquí que los elementos de 
la matriz de covarianza aij deben depender de los momentos de covarianza que existe 
entre los instantes de las muestras conocidas. 
Por simplicidad, si consideramos que la señal recibida es un proceso estacionario con valor 
medio igual a cero (m(t)=m=0) entonces la función de la media condicional queda 
especificada de la siguiente forma: 
 ̃( ) = ∑ ∑ ( ) 
( )
 ( )
 
 
 
 (4.2) 
La regla de la esperanza matemática condicional depende esencialmente de la función de 
covarianza Kx(τ) de la señal recibida, pero esta función es desconocida. Por lo tanto, debe 
ser estimada a partir de las muestras conocidas xc(Tj) tomando en cuenta la siguiente 
función de covarianza normalizada: 
41 
 
 ( ) =
 
 
 
 
∑ [ ( ) ]
 
 [ ( ) ] (4.3) 
donde σ2 es la varianza no-condicional de la señal recibida e i es el índice que relaciona a 
las diferentes secciones que se forman entre los instantes de las muestras conocidas Tj. 
Pero, debido a que el valor medio es cero (m=0), entonces (4.3) queda simplificada: 
 ( ) =
 
 
 
 
∑ [ ( )]
 
 [ ( )] (4.4) 
Si sustituimos la función de covarianza Kx(τ) por la función de covarianza normalizada de 
las muestras conocidas Rc(τ i), es decir (4.4) en (4.2), entonces se tiene la función para 
estimar las muestras perdidas de manera inicial: 
 ̃( )( ) = ∑ ∑ ( ) 
( )
 ( )
 
 
 
 (4.5) 
Debido a que ahora estamos aplicando la función de covarianza normalizada de la señal 
recibida a partir de las muestras conocidas Rc(τ i), es claro que la matriz inversa de 
covarianza también debe quedar expresada con respecto a esta función. Por lo tanto, 
en lugar de (3.5) tenemos la siguiente matriz: 
 ( ) = [
 
( )
 
( )
 
 
( )
 
( )
] = [
 ( ) ( )
 
 ( ) ( )
]
 
 (4.6) 
Es de suponer que la función de covarianza Rc(τ i) estimada a partir de solo las muestras 
conocidas no va a ser exactamente igual a la función de covarianza de la señal original 
Rx(τN ), debido a las muestras perdidas. Sin embargo, se obtiene una buena estimación 
que podría mejorarse si las muestras estimadas inicialmente ̃( )( ) se complementan 
con las muestras conocidas xc(Tj) para formar un nuevo vector de muestras x(1)(TN) con 
la misma longitud N que el conjunto de muestras originales y a partir de este nuevo vector 
estimar una nueva función de covarianza normalizada R(1)(τN ) y con ella una nueva 
estimación de valores de las muestras perdidas. Estas dos funciones quedan actualizadas 
de la siguiente manera: 
 ( )( ) =
 
 
 
 
∑ [ ( )( )]
 
 [ 
( )( )] (4.7) 
 ̃( )( ) = ∑ ∑ 
( )( ) 
( )
 ( )
 
 
 
 (4.8) 
donde los elementos de la matriz de covarianza aij deben de estar en términos de la nueva 
función de covarianza normalizada R(1)(τN ): 
42 
 
 ( ) = [
 
( )
 
( )
 
 
( )
 
( )
] = [
 ( )( ) 
( )( )
 
 ( )( ) 
( )( )
]
 
 (4.9) 
Debido a que el tamaño del vector x(1)(TN) y de la función de covarianza actualizada 
R(1)(τN) son de la misma longitud y de valores aproximados que las que corresponden a la 
señal original, entonces con estos parámetros se obtiene una muy buena estimación de 
las muestras perdidas. 
Es posible reducir estas diferencias si el método se vuelve iterativo hasta un determinado 
valor de costo tomando en cuenta el error cuadrático medio entre las funciones de 
covarianza normalizadas actualizadas. Si se desea realizar este proceso hasta un número 
k, entonces las funciones se deben de actualizar, quedando de la siguiente manera: 
 ( )( ) =
 
 
 
 
∑ [ ( )( )]
 
 [ 
( )( )] (4.10) 
 ̃( )( ) = ∑ ∑ 
( )( ) ( )
 
 
 
 (4.11) 
para valores de k>2. Donde x(k)(Tn) se va formando al agregar ̃( )( ) a las muestras 
conocidas xc(Tj) y la matriz inversa de covarianza también se va actualizando a partir de 
función de covarianza normalizada R(k)(τn): 
 ( ) = [
 ( )( ) 
( )( )
 
 ( )( ) 
( )( )
]
 
 (4.12) 
Sin embargo, con un númeropequeño de iteraciones se obtiene una buena aproximación 
de los valores de las muestras perdidas. 
 
4.3 RESULTADOS 
Para la obtención de los resultados, primeramente, se generaron algunas señales 
aleatorias no limitadas en banda, con características no Markovianas con valor medio 
m=0 y definidas por la función de densidad de probabilidad Gaussiana. 
Las siguientes expresiones son utilizadas para generar algunas realizaciones de procesos 
aleatorios. Algunas de estas realizaciones son muestreadas y a partir de las muestras 
obtenidas, algunas de ellas son seleccionadas al azar para simular la pérdida de muestras y 
así trabajar en la estimación de las muestras perdidas y posteriormente en la 
reconstrucción de dichas realizaciones. [24] 
 ( ) = ( ) 
43 
 
 ( ) = ( )( ) ( ) 
Donde; 
 = √ = = 
 = 
 
 
 = ( 
 
 
 ) 
 
 = 
 
 
4.3.1 Simulación de realizaciones de procesos aleatorios 
 
Mediante el programa de Matlab se generaron ciertas simulaciones para poder crear 
algunas realizaciones de procesos aleatorios y con ello poder trabajar la reconstrucción de 
estas señales. 
La señal x(t) muestra un proceso aleatorio caótico, mientras y(t) es un proceso más suave 
en cuanto a su comportamiento, como se puede apreciar en la Figura 4.2, 4.3, 4.4 y 4.5 
donde se tienen dos realizaciones completamente distintas. Estos son dos ejemplos de 
señales utilizadas para la obtención de los resultados. 
 
 
Figura 4.2. Ejemplo de una realización x(t) caótica 
 
44 
 
 
Figura 4.3. Ejemplo de una realización x(t) caótica 
 
 
Figura 4.4. Ejemplo de una realización y(t) suave 
 
t 
45 
 
 
Figura 4.5. Ejemplo de una realización y(t) suave 
 
Por otra parte, a las realizaciones generadas se le quitaron algunas muestras para poder 
aplicar el método propuesto para la estimación de las muestras perdidas. En las figuras 4.6 
y 4.7 se puede apreciar una realización y dicha realización discretizada con sus muestras 
originales, respectivamente, y en la figura 4.8 se aprecia la realización discretizada pero 
con ciertas muestras ya perdidas, y esta pérdida de muestras es arbitraria. 
Figura 4.6. Realización en el tiempo continúo sin perdidas 
46 
 
 
Figura 4.7. Realización en el tiempo discreto sin pérdidas 
 
 
 
Figura 4.8. Realización en el tiempo discreto con pérdidas 
 
 
47 
 
 
Figura 4.9. Comparación de la Realización en el tiempo discreto entre la señal original con 
respecto a la señal con pérdidas. 
 
4.3.2 Resultados 
 
A partir de dichas señales se definieron los instantes de muestreo Tn para formar las 
secuencias de las muestras originales de longitud N y posteriormente se especificaron las 
posiciones de las muestras perdidas Tp para detectar las posiciones de las muestras 
conocidas Tj, tal como se observa en la Figura 4.10. 
Una vez que se detectan las muestras conocidas xc(Tj) se utilizan éstas en (4.4) para la 
estimación de la función de covarianza normalizada Rc(τ i). 
48 
 
Figura 4.10. Comparación entre las funciones de covarianza de las muestras 
originales, de las muestras conocidas y de las muestras complementadas 
después de evaluar la primera estimación de las muestras perdidas. 
 
Se distingue en la Figura 4.10 que la forma de la función de covarianza estimada a partir 
de las muestras conocidas Rc(τ i) no es igual a la función de covarianza de la señal original 
Rx(τn), debido a la pérdida de información que se presenta en el proceso de transmisión 
de la señal. Sin embargo, con la ayuda de Rc(τ i) se logra una primera estimación para los 
valores de las muestras perdidas ̃( )( ) al aplicar (4.5). Valores que se aproximan o 
tienden a seguir a las amplitudes de las muestras originales x(Tn) en los instantes de 
tiempo Tp, tal como se observa en la Figura 4.11. 
 
Figura 4.11. Resultados de la primera estimación de las muestras perdidas descrita por 
(4.5) y la segunda estimación definida por (4.8). 
49 
 
Si conjuntamos las muestras estimadas ̃( )( ) con las muestras conocidas xc(Tj) se 
define un nuevo vector de muestras representado por x(1)(Tn), el cual tiene la misma 
longitud que el conjunto de muestras originales X(T). Con la ayuda de este nuevo vector 
se estima nuevamente la función de covarianza normalizada y los valores de las muestras 
perdidas, aplicando ahora las expresiones (4.7) y (4.8), respectivamente. 
La función de covarianza normalizada R(1)(τn) obtenida a partir del nuevo vector tiene 
prácticamente la misma forma que la función de covarianza de las muestra originales 
Rx(τn), tal como se observa en la Figura 4.10. Si utilizamos esta función de covarianza 
para obtener una segunda estimación de las muestras perdidas ̃( )( ), se observa en la 
Figura 4.11 que los nuevos valores de las muestras perdidas se ajustan hacia los valores de 
las muestras originales X(T). 
Si se desea ajustar cada vez más estos valores, se aplican entonces las expresiones (4.10) y 
(4.11) iterativamente. 
 
 
Figura 4.12. Estimación de las funciones de covarianza para las muestras originales, las 
muestras conocidas y las muestras del nuevo vector que incluyen los valores de la primera 
estimación de las muestras pérdidas para una segunda señal. 
 
Como segundo ejemplo se propone una segunda señal. Se aprecia en la Figura 4.12 que la 
función de covarianza de las muestras conocidas Rc(τi) es diferente a la función de 
covarianza de las muestras originales Rx(τn). Sin embargo, la función de covarianza 
R(1)(τn) obtenida con el nuevo vector, el cual considera los valores de la primera 
50 
 
estimación de las muestras perdidas tiene prácticamente la misma forma que la función 
de covarianza de las muestra originales Rc(τ i). 
 
 
Figura 4.13. Resultados de la primera estimación de las muestras perdidas obtenidas con 
(4.5) y la segunda estimación definida por (4.8) para una segunda señal. 
 
Por otra parte, en la Figura 4.13 se muestra, nuevamente, que con la primera estimación 
de las muestras perdidas ̃( )( ), en base a la función de covarianza de las muestras 
conocidas Rc(τ i), se obtiene una buena aproximación de los valores de las muestras 
perdidas con respecto a las muestras originales x(Tn). Además, con la ayuda de la función 
de covarianza normalizada del nuevo vector R(1)(τn) se mejoran las amplitudes de las 
muestras faltantes al evaluar la segunda estimación de las muestras perdidas ̃( )( ). 
 
4.4 CALCULO DEL ERROR Y TIEMPO 
Como sabemos debemos tener un índice en el cual nos muestra que tan cercano estamos 
a una reconstrucción óptima, al igual que se debe tener en cuenta el tiempo que tarda el 
sistema en hacer la reconstrucción. 
Es posible calcular el error de reconstrucción de cada muestra aplicando el error 
cuadrático medio. Este cálculo es prácticamente hipotético ya que como sabemos en un 
receptor de comunicaciones no se tiene conocimiento de la señal original. 
 
 = ( ̃( )( ) ( ))
 
 
51 
 
Donde; ̃( )( ) es el valor de la muestra estimada y es el valor de la muestra original. 
Los resultados que a continuación se muestras son realizados a partir del segundo ejemplo 
(figura 4.14), como se sabe entre más pequeño sea el error para la reconstrucción 
tendremos resultados satisfactorios. 
En la Figura 4.14 podemos apreciar el error que existe entre la primera estimación y la 
señal original, se puede observar que la primera estimación se acerca a los valores 
originales, pero aún existen algunas variaciones. 
 
Figura 4.14. Comparación entre la señal original, la señal con muestras conocidas, primera 
estimación y el cálculo del error entre la primera estimación y la señal original. 
 
En la Figura 4.15 se muestra la comparación entre la señal original con una segunda 
estimación, y se aprecia que el error disminuye en comparación a la Figura 4.14. 
52 
 
 
Figura 4.15. Comparación entre

Otros materiales