Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
IPN UNIDAD PROFESIONAL INTERDISCIPLINARIA EN INGENIERÍA Y TECNOLOGÍAS AVANZADAS ACADEMIA DE TELEMÁTICA CURSO INTERSEMESTRAL: Aplicaciones de la Teoría de Probabilidades a Comunicaciones Instructor: Prof. Fernando Téllez A. Enero de 2005 Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 2 CURSO: Aplicaciones de la Teoría de Probabilidades a Comunicaciones Objetivo: Proporcionar al participante (alumno o profesor de Ciencias Básicas) un panorama general sobre el uso de la Teoría de Probabilidades y de Procesos Estocásticos en el área de las Telecomunicaciones, a través de una revisión de los conceptos de la probabilidad requeridos en las Comunicaciones, así como de la solución de problemas específicos de aplicación en las Telecomunicaciones, para ello se auxiliarán en el uso de software de computadora. Justificación: Actualmente existe una brecha práctica en la impartición de la materia de Probabilidad y Procesos Estocásticos dirigida a alumnos de tronco común de Ingeniería, específicamente aquellas ingenierías que involucran el uso de las Comunicaciones que es un área que hace uso intensivo y extensivo de la Teoría de la Probabilidad. Esto ocurre debido a que en el curso de Probabilidad no se tiene contemplado el cubrir aspectos de aplicación dirigidos a éstas carreras con la profundidad que sería deseable. Es por lo anterior que se ha desarrollado el curso de Aplicaciones de la Teoría de Probabilidades a Comunicaciones, dirigido a profesores del área de Matemáticas y a estudiantes de alguna ingeniería relacionada a las Comunicaciones. Pre-requisitos: Toda persona que desee tomar el curso deberá tener conocimientos sólidos en Álgebra, Cálculo y Probabilidad, así como conceptos básicos de Procesos Estocásticos. Así como poseer experiencia en algún lenguaje de programación, y es deseable que utilice algún software de matemáticas (Matlab, Mathematica, Maple, etc.) y/o de simulación, mas no es estrictamente necesario. Metodología: Para cubrir el material del curso se recurrirá a una exposición por tema, tanto en pizarrón como usando multimedios, para pasar después a la parte de resolución de problemas de aplicación, tanto en pizarrón como en computadora. Evaluación: El curso tendrá dos evaluaciones al final del curso, una teórica y una práctica mediante el uso de la computadora. Materiales necesarios: Para la impartición del curso se requiere de un espacio con una capacidad mínima de 15 personas, con una computadora asignada a cada lugar con las siguientes características: - Procesador Pentium 4 o superior. - Velocidad de 1 GHz o superior. - Un mínimo de 256 MB de RAM. - Software de matemáticas: Matlab, Mathematica o Maple. - Un lenguaje de programación, preferentemente C++. - Espacio disponible en disco duro de al menos 50 MB. También se requerirá de un cañón electrónico y una computadora para la presentación al grupo. PROGRAMA (tiempo total: 37:40) I. LA VARIABLE ALEATORIA (4:30) Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 3 I.1 Interpretación de una variable aleatoria (0:30). I.2 La simulación como herramienta (0:30). I.3 La fdp y la fda de una variable (0:30). I.4 Transformaciones de variables aleatorias (2:00). I.5 Generadores de números aleatorios (1:00). II. LA SEÑAL ESTOCÁSTICA (11:35) II.1 La definición de señal. (0:30) II.2 La información como una señal analógica y su modelamiento como proceso estocástico continuo. (0:30) II.3 Clasificación. (0:30) II.4 Interpretación de la Transformada de Fourier en Comunicaciones (0:30) II.5 Caracterización: Los momentos centrados y no centrados, espaciales y temporales. - Media estadística y media temporal (Valor medio o de cd) (0:10) - Momentos estadísticos: La CCF (Potencia y potencia de ca) (0:10) - Correlación y covarianza (0:20) - Autocorrelación, autocovarianza, croscorrelación y croscovarianza (0:20) II.6 La función generadora de momentos y la función característica (1:00) II.7 Los momentos de la señal en el dominio de la frecuencia. - La densidad espectral de potencia (0:20) - El ancho de banda de la señal (1:00) - El poliespectro y las estadísticas de alto orden (0:15) II.8 Estacionaridad: en sentido amplio y en sentido estricto (0:30) II.9 Cicloestacionaridad, cuasiestacionaridad y estacionaridad de tiempo corto (0:40) II.10 Ergodicidad (1:20) II.11 Ruido analógico - Ruido gaussiano aditivo (1:00) - Ruido no gaussiano (0:30) II.12 La señal estocástica digital - señal binaria cuadrada (0:15) - señal binaria de coseno alzado (0:15) - señal multinivel (0:15) II.13 Ejemplos y simulaciones. - Ruido gaussiano (0:30) - Ruido blanco y ruido rosa (0:15) - Ruido con diferentes distribuciones de probabilidad (0:30) - Ejemplos de ruido coloreado en MATLAB y cálculo de sus parámetros (1:00) III. EL SISTEMA DE COMUNICACIONES ANALÓGICO (5:00) III.1 El esquema general de un sistema de comunicaciones analógico (1:00) III.2 El concepto de filtro y el medio de comunicación como un filtro (2:00) III.3 La relación señal a ruido (1:00) III.4 Filtraje de ruido (1:00) IV. EL SISTEMA DE COMUNICACIONES DIGITALES (10:30) IV.1 El esquema general de un sistema de comunicaciones digital (1:00) IV.2 La fuente - Codificación de fuente (1:00) - La fuente de información digital como un proceso estocástico discreto (0:30) - Fuentes con memoria y cadenas de Markov (1:00) Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 4 - Entropía (0:45) - El primer teorema de Shannon (codificación de fuente) (0:30) - Codificación de canal (0:30) IV.3 El canal digital - El canal digital como una matriz (0:45) - El canal digital con memoria (0:45) IV.4 El receptor. - Detección (0:45) - El concepto de probabilidad de error (2:00) - La función de máxima verosimilitud (1:00) V. TELETRÁFICO (4:35) V.1 La red de comunicaciones y su tráfico como proceso estocástico (0:20) V.2 Procesos de nacimiento y muerte (1:00) - Solo nacimientos (0:30) - Solo muertes (0:30) V.3 Nacimientos y muertes con población infinita: La ec. B de Erlang (0:45) V.4 Nacimientos y muertes con población finita: La ec. C de Erlang (0:30) V.5 Aplicaciones en redes telefónicas y redes de datos (0:45) V.6 Procesos de nacimiento y muerte multidimensionales (0:30) V.7 Colas en tándem: Manejo del tráfico en redes de datos (0:45) VI. APLICACIONES AVANZADAS (1:30) VI.1 Algunos problemas avanzados en Procesamiento Digital de Señales (0:30) VI.2 El problema del receptor digital óptimo (0:30) VI.3 Los Sistemas de Comunicaciones Multiusuario (0:30) Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 5 I. LA VARIABLE ALEATORIA I.1 Interpretación de una variable aleatoria En ingeniería se puede utilizar una variable aleatoria para designar el valor desconocido de un parámetro en una cierta realización o experimento. Por ejemplo, consideremos un enlace digital de comunicaciones en el que un transmisor emite una señal a un receptor a través de un canal ruidoso, el receptor por tanto recibirá lo que envió en transmisor, pero contaminado por ruido; Uno de los sistemas más elementales puede ser incluso un circuito lógicoen el que a la salida de una compuerta lógica se dispone de un nivel de voltaje (que es una variable aleatoria X) que se transmite por un cable hacia un receptor, que puede ser la entrada de otra compuerta lógica, el voltaje que se reciba en la entrada de la compuerta receptora Y no será el voltaje de salida de la compuerta del transmisor X, sino éste más un nivel de voltaje de ruido contaminante, es decir Y=X+N. Consideremos el sistema: Figura I.1. Sistema básico de comunicación digital. sabemos claramente que el funcionamiento de las compuertas depende de los niveles lógicos entre sus terminales de entrada: si el voltaje Y se encuentra entre 4 Vcd y 5 Vcd* la compuerta lo interpretará como un nivel lógico 1 (bit 1), mientras que si se encuentra entre 0 Vcd y 0.5 Vcd la compuerta lo interpretará como un nivel lógico 0 (bit 0), si Y se encuentra fuera de esos dos intervalos entonces el comportamiento del receptor será impredecible. Si X es un valor conocido, entonces el problema se reduce a analizar el comportamiento estadístico de Y, que en muchos casos se puede considerar como una variable gaussiana, cuyos parámetros estarán mayormente determinados por la longitud y el tipo de cable que se use. Algunas preguntas de interés serán por ejemplo - ¿cuál es la probabilidad de que el receptor registre un bit erróneo? - ¿a qué nivel de voltaje deberá incrementarse X para reducir la probabilidad de error a un umbral determinado? I.2 La simulación como herramienta Muchas veces es más sencillo obtener resultados preliminares en un problema para aproximar su solución cuando se pueden realizar simulaciones del mismo, la probabilidad no es una excepción. Y para el alumno la manera más sencilla es mediante la simulación de eventos de Montecarlo y utilizando la aproximación de frecuencia relativa a la probabilidad de un evento. En la computadora se pueden simular varias realizaciones de una variable aleatoria utilizando el generador de números aleatorios de la misma, donde se pueden cambiar algunos parámetros de inicialización del algoritmo para obtener más de una variable, de manera que se logre independencia estadística en las realizaciones. * Los niveles de voltaje dependen del tipo de compuerta y del fabricante de la misma. Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 6 Ejemplo I.1: (Cálculo de la probabilidad por simulación de Montecarlo) Para el caso del sistema de la sección anterior, supongamos que X=4.5 Vcd. Se desea encontrar la probabilidad de que en recepción se interprete correctamente el bit 1. Supongamos que el ruido contaminante se puede modelar como una variable gaussiana con media 0 y una potencia de N2=500 mW. Si N es un voltaje gaussiano normal, entonces se puede mostrar que: 2exp1)( nnf N 25.4exp1)( nyfY Si el evento de detección correcta del bit es B, entonces B={4Y5} y se puede mostrar que PB=0.52 (si la potencia del ruido aumenta a 1 W entonces PB=0.383). La solución al problema anterior se puede obtener por simulación, generando un conjunto de realizaciones de la variable N y verificando cuántas de éstas nos conducen a éxitos (4Y5) del total. Usando el código MATLAB siguiente: function graf t=[[10:10:1e3], [1.1e3:100:100e3]]; pp=zeros(size(t)); for k=1:length(t) pp(k)=proba(t(k)); end sprintf(‘media=%f’,mean(pp)); return function p=proba(n) y=sqrt(.5)*randn(n,1)+4.5; exi=sum((y>=4)&(y<=5)); p=exi/n; return En la variable pp se encuentran las probabilidades de éxito. Los resultados para la aproximación a PB se muestran en la siguiente figura. Figura I.2. Probabilidad de éxito en función del número de intentos. Se puede observar que conforme el número de intentos aumenta, la curva de la probabilidad se ajusta más al valor medio. Se puede calcular la media sobre el gráfico anterior y se obtiene PB=0.52. De ejemplo anterior se puede apreciar que la simulación puede resultar de gran utilidad, aunque en éste ejemplo particular puede ser bastante complejo (computacionalmente), en ocasiones puede ser de gran ayuda. I.3 La fdp y la fda de una variable Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 7 En muchos casos es bastante útil el aproximar una función a la fdp de una variable, cuando se conoce exclusivamente un número limitado de realizaciones de la misma. Para ello hagamos una aproximación discreta a la integral de normalización de la fdp, es decir, si sabemos que para una variable aleatoria X: 1 dxxf X Ahora, si suponemos que conocemos un conjunto finito de muestras discretas uniformemente espaciadas de fX(x), es decir {xj} j=1, 2, ..., n, entonces, si aproximamos la integral de normalización por el método de la suma de áreas de rectángulos, entonces: xfxfxfdxxf nX 121 ... o también: 1 1 1 n j jfx donde x=xj-xj-1 es el espaciamiento entre muestras. Si tenemos ahora un conjunto de m realizaciones de la variable aleatoria Y, {yj} j=1, 2, ..., m, y dividimos todo su dominio en k subintervalos uniformes y consecutivos {[y’j, y’j+1)}j=1, 2, ..., m-1, con centros en {y’’j}j=1, 2, ..., m-1, podemos obtener el histograma de dichas muestras, que serían barras con alturas {hj} j=1, 2, ..., m-1 correspondientes a cada centro de subintervalo; h1 sería entonces el número de realizaciones de la variable que se encuentran dentro del subintervalo [y’1, y’2), es decir, y’1,y0 y’2, cuyo centro es y’’1=( y’1+y’2)/2. Si suponemos que cada punto del mismo es un valor muestra que puede aproximar la fdp de la variable, entonces podemos encontrar un factor que normalice dicha curva. El área bajo la curva del histograma, tomando en cuenta sólo los puntos discretos (y’’j, hj), sería: yhyhyhdyyh n 121 ... Multiplicando por el factor de normalización : 1... 1 121 ynhyyhyhyh m j jn por lo que el factor es: yn 1 Ejemplo I.2: (Ajuste de la fdp de una variable, 1) Supongamos que se generan 100 realizaciones de una variable aleatoria X, los valores se muestran el siguiente gráfico. Si realizamos un histograma de los anteriores, tomando en cuenta 10 subintervalos, tomando en cuenta el rango dinámico de los valores, los centros de los intervalos quedan como: y’’ = [-1.953, -1.517, -1.082, -0.647, -0.211, 0.224, 0.659, 1.095, 1.53, 1.965] Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 8 0 10 20 30 40 50 60 70 80 90 100 -3 -2 -1 0 1 2 3 Figura I.3. 100 realizaciones de una variable aleatoria X. por lo que y=y’’j-y’’j-1=0.43538; mientras que los valores del histograma serán: h = [2, 6, 9, 10, 19, 18, 21, 10, 4, 1] Un gráfico del histograma se puede ver en la gráfica de la izquierda de la figura 1.4. Ahora, si tomamos éste gráfico como una aproximación a la fdp de la variable, el factor de normalización será: 02296.0 10043538.0 11 yn entonces multiplicamos las alturas de las barras por el factor anterior, el resultado se puede apreciar en los puntos que se encuentran en el gráfico de la derecha de la figura 1.4, la curva que se muestra es una fdp normal con la misma media (0.04793) y la misma varianza (0.07543) que las realizaciones de X. Se puede apreciar que, para éste caso particular, X tieneun comportamiento aproximadamente gaussiano. -3 -2 -1 0 1 2 3 0 5 10 15 20 25 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 0 0.1 0.2 0.3 0.4 0.5 Figura I.4. Histograma (izquierda) y los puntos del histograma normalizado (derecha), la curva es una gaussiana con la misma media y varianza que los datos. I.4 Transformación de variables aleatorias En varios tipos de sistemas se involucran variables que resulta útil caracterizar, como el caso de ruidos introducidos por algunos bloques de procesamiento de señal; mientras que, una vez que se tiene caracterizada una variable, es útil conocer el desarrollo para caracterizar una segunda variable que se encuentra en función de la primera. Un caso común es cuando se desea diseñar un cuantificador para un convertidor analógico-digital, ADC; éste dispone de un conjunto finito y pequeño de bits para designar Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 9 valores específicos, por ello se deben distribuir de manera que minimicen el error introducido por el ADC en la representación digital. El diagrama genérico a bloques de un DAC se muestra en la siguiente figura: muestreo cuantificación codificación x(t) x(n) x'(n) y(n) Figura I.5 Diagrama a bloques de un ADC. Consideremos el caso en el que se desea digitalizar una señal senoidal x(t)=A sen(2ft), donde A es su amplitud en volts (V) y f es su frecuencia en hertz (Hz). Esta señal se muestrea en tiempos específicos uniformemente espaciados tn=nT donde T es el intervalo de muestreo, de manera que la señal muestreada será x(n)=x(tn)=x(nT). T deberá elegirse de manera que la señal original x(n) se pueda recuperar íntegra, sin distorsión. Si usamos un DAC uniforme de 3 bits (las palabras de código serán de 3 bits, desde la 000 hasta la 111), entonces a la salida del mismo tendremos 23=8 diferentes niveles de amplitud para asignar. Como el rango dinámico (máxima abertura en amplitud de la señal) de la señal es de 2A, entonces la separación entre niveles será de 2A/8, ello considerando un cuantificador uniforme adaptado al rango de la señal. Figura I.6. Señales para el ADC, la entrada analógica x(t), la señal muestreada x(n) y la señal muestreada y cuantificada uniformemente a 8 niveles, 3 bits, x’(n). De acuerdo al teorema del muestreo de Shannon, la señal x(t) se puede recuperar a partir de las muestras x(n) sin distorsión alguna, pero no así de las muestras cuantificadas x’(n); la distorsión introducida por el proceso de cuantificación se puede controlar y reducir si se aumenta el número de bits del ADC (lo que implicaría que la representación digital de la señal requerirá una mayor cantidad de almacenamiento en memoria o una mayor capacidad del canal de comunicación), o distribuyendo de manera no uniforme los valores del cuantificador. Pero entonces surge la pregunta: ¿De qué manera se pueden distribuir los niveles de cuantificación de manera que pueda reducir la distorsión de la representación digital? Una de las posibles respuestas es analizando el comportamiento estadístico de la variable aleatoria x(n) y asignando una mayor resolución a las regiones en las que las amplitudes sean más probables, y una menor resolución a aquellas regiones donde las amplitudes sean menos probables. Para proceder como se mencionó, requerimos de un modelo del comportamiento estadístico de la amplitud de la señal senoidal. Si suponemos que tenemos una variable aleatoria distribuida Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 10 uniformemente en [-,], y obtenemos una segunda variable aleatoria X=sen(), entonces, se puede mostrar que la fdp de X, fX(x), será la misma que la fdp de x(n). Una manera de aproximar el comportamiento de fX(x) es tomando el histograma normalizado de un conjunto de realizaciones de la variable, mientras mayor sea el número de subintervalos que se toman, mejor será la aproximación (pero para no degradar la resolución en el eje vertical se requiere un número grande de realizaciones). En la siguiente figura se muestran los histogramas normalizados de la amplitud de la senoide, generados de dos maneras diferentes. Figura I.7. Histogramas normalizados para aproximar el comportamiento de la fdp de la variable X, el primero es de tomar directamente el histograma de las amplitudes de la senoide, mientras que el segundo se obtuvo generando un vector de realizaciones de , para ambos casos se tomaron 36,700 muestras. Se podrían generar mejores aproximaciones si se ajusta una curva a los histogramas anteriores y se normaliza después. Se podrá observar que la aproximación directamente de las muestras de la senoide nos da un comportamiento más uniforme al centro que la aproximación obtenida por las realizaciones de la variable aleatoria . Si se desea obtener el comportamiento exacto para fX(x) se requiere obtener a partir de la fdp de y sabiendo de antemano la relación funcional entre ambas. Para encontrar fX(x) primero procedemos a encontrar la fda de X, FX(x). Como sabemos de antemano que FX(x)=P{Xx}. De la figura siguiente: Figura I.8. Curva de transformación de la variable a la variable X. podremos ver que se puede separar el contradominio en 4 regiones disjuntas o eventos: i) X-1 ii) -1X0 iii) 0X1 iv) 1X Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 11 ahora, para el evento i, si trazamos una recta horizontal en la figura de manera que X-1, se puede observar no existe tal que se cumpla la condición, por lo tanto P(i)=P{X-1}=0. Para el evento ii, en la siguiente figura se podrá ver que el evento {-1X0} es equivalente al evento {ab}, de manera que P(ii)=P{-1X0}=P{ab}. Figura I.9. Partición del intervalo [-,] para los eventos ii y iii respectivamente. Debido a que está distribuida uniformemente, entonces: )arcsen( 2 12 )arcsen( 1 2 1 2 2 1 )arcsen( 2/2/ x x dddbaPiiP xbb a podemos observar que: 0 )1arcsen( 2 1 1 x iiP 2 1)0arcsen( 2 1 0 x iiP Ahora, para el evento iii: dcPdcPiiiP 1 por simetría y tomando en cuenta el resultado del evento anterior: )arcsen( 2 1)arcsen( 2 1 11 xx dcPiiiP y finalmente, se puede ver que P(iv)=1. Reuniendo los resultados anteriores, se puede ver que: 1 1 1 )arcsen( 2 1 1 0 x x x x xFX Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 12 y derivando, finalmente obtenemos: 1 1 1 1 0 2 x x x dx xdF xf XX que es la fdp de la amplitud de la senoide. Se puede mostrar que la anterior tiene área unitaria. Figura I.10. fda y fdp para la amplitud de la senoide. Se puede ver en la figura anterior que las amplitudes ubicadas hacia los valores extremos son más probables que las bajas amplitudes. Esta información la podemos usar para el diseño de la curva de respuesta del cuantificador, una primera aproximación es la de tratar que el cuantificadorse comporte a la salida como una fuente discreta de información con entropía máxima, es decir, con símbolos equiprobables, ello equivale a subdividir la curva fX(x) en subintervalos de áreas iguales; como el cuantificador es de 3 bits, requiere de 8 subintervalos de 1/8 de área cada uno. Si la partición es {-1, x1, x2, x3, x4, x5, x6, x7, 1}, entonces: 1 1 7 7 6 6 5 5 4 4 3 3 2 1 x X x x X x x X x x X x x X x x X x X dxxfdxxfdxxfdxxfdxxfdxxfdxxf Como la distribución es simétrica, entonces x1=-x7, x2=-x6, x3=-x5 y x4=0; el problema se reduce a 3 variables. La ecuación de la que partimos es: 8 1 2 1 0 1 1 55 0 2 0 55 xFFxFdx x dxxf XXX xx X y recurriendo a la expresión de la fda que ya encontramos: 8 1)arcsen( 5 x cuya solución es x5=0.382. Procediendo de la misma forma podemos encontrar que x6=0.7071 y x7=0.9234. Por tanto x1=-0.9234, x2=-0.7071 y x3=-0.382; por lo que las fronteras son: Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 13 x={-1, -0.9234, -0.7071, -0.382, 0, 0.382, 0.7071, 0.9234, 1} Ya que encontramos la partición para el cuantificador, resta encontrar los niveles de amplitud de cuantificación que serán asignados {x’1, x’2, x’3, x’4, x’5, x’6, x’7, x’8}, éstos deberán ser los centroides de cada uno de su respectivo subintervalo. Por ejemplo, para el primer subintervalo positivo: 382.0 0 2 0 0 0 555 1 800 5 5 5 dx x x dxxf dxxfx dxxXxfxxXXEx x X x Xx X Figura I.11. Ubicación de las fronteras de los subintervalos de cuantificación y de los niveles de cuantificación (variables primadas) respecto a la fda, se puede observar que las divisiones en el eje vertical son uniformes. De la integral resulta x’5=0.1931. De igual manera se obtienen x’6=0.5527, x’7=0.8232 y x’8=0.9774; por lo que los centroides son: x’={ -0.9774, -0.8232, -0.5527, -0.1931, 0.1931, 0.5527, 0.8232, 0.9774 } Se puede mostrar que todos los resultados anteriores se pueden obtener gráficamente a partir de la fda, como se muestra en la figura 1.11. Para visualizar mejor los resultados, en la figura 1.12 se muestran las curvas de respuesta de los cuantificadores uniforme y no uniforme. Figura I.12. Curva de respuesta de un cuantificador uniforme y no uniforme para una senoide de amplitud 10. Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 14 I.5 Generadores de números aleatorios Una de las herramientas básicas para simulación de sistemas es la de disponer de generadores de números aleatorios con alguna fdp específica e incluso, en ocasiones, con alguna función de autocorrelación determinada, algunos ejemplos lo son los generadores de ruido para determinado tipo de canales de comunicaciones o para fuentes de información de determinadas características estadísticas. En la actualidad hay software de simulación que ya dispone de generadores de números aleatorios con las características deseadas, pero éstos son caros y lentos, mientras que todos los lenguajes de programación (que, por el contrario, son baratos y rápidos, que es lo deseable) disponen de un generador de aleatorios, aunque generalmente se limitan a una fdp uniforme en [0,1] y sólo proporcionan una opción para cambiar la semilla del algoritmo de generación de aleatorios, por ello resulta de utilidad que el alumno pueda desarrollar un algoritmo para obtener un generador de números aleatorios con una distribución específica a partir de un conjunto de números aleatorios uniformes, y para ello se aplica una transformación de variables aleatorias. El problema a resolver entonces es, encontrar una transformación Y=g(X) tal que Y tenga una fdp deseada, sabiendo de antemano que X es una variable uniforme en [0,1], como se muestra en la figura 1.13. Figura I.13. Dependencia de las variables aleatorias. Si y0=g(x0), entonces los eventos {Xx0} y {Yy0} son equiprobables (véase la figura 1.11 donde x=x0 y y=y0), por lo tanto: xFxXPyFyYP XY Si sabemos que X es uniforme, entonces FX(x)=x para x[0,1], y por lo tanto: xyFY y resolviendo para y: xFxgy Y 1 Ejemplo I.3: (Generador de números aleatorios exponenciales para sistemas de cola de espera) En el problema de simular en una PC un sistema de un servidor con una cola de espera, que atiende a una población de usuarios (puede representar un conmutador telefónico, un host que atiende a un conjunto de PC’s cliente en red, ó un hilo servidor en una PC host que atiende a varios hilos cliente para un servicio en específico como el de impresión o el de acceso a archivos) aparece muy frecuentemente una variable exponencial para el tiempo entre el arribo de un cliente y el arribo siguiente de otro cliente. Si Y es el tiempo interarribo exponencial, entonces: )(yueayf ayY y su fda: Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 15 )(1 yueyF ayY donde el parámetro a es el inverso del tiempo interarribo medio, o frecuencia interarribo media (en s- 1). Evaluando la inversa de la fda: a x y 1ln Por lo tanto: a X Y 1ln En la figura 1.14 se muestran los histogramas de un conjunto de 10,000 realizaciones de X y el histograma correspondiente para Y con un valor medio de 10 usuarios/s para el sistema, se puede notar claramente como Y se aproxima a una variable exponencial con media a-1=0.1. 0 0.2 0.4 0.6 0.8 1 0 50 100 150 200 250 0 0.2 0.4 0.6 0.8 1 0 500 1000 1500 2000 Figura I.14. Histogramas para 10,000 realizaciones de X e Y con a=10. Ejemplo I.4: (Generador de números aleatorios gaussianos para simular AWGN) Como ya se ha mencionado, en un sistema de comunicaciones es muy común encontrarse ruido blanco gaussiano aditivo (AWGN), y una de las maneras de simularlo es usando un generador de números aleatorios con distribución gaussiana; en el ejemplo 1.1 se partió de que la plataforma de software (Matlab) ya disponía de dicho generador, pero de no ser así, se requerirá de uno a partir de un generador uniforme. Si continuamos con el procedimiento ya visto, sabemos que la pdf y la pda gaussianas están dadas por: 2 exp 2 1 )( 2y yfY y Y dz z yF 2 exp 2 1 )( 2 pero, para encontrar F-1(y) no se dispone de alguna expresión para la integral, por ello el procedimiento no es aplicable. En 1967 Dillar* prepuso un método para encontrar una variable gaussiana a partir de una variable Rayleigh, R, usando: cosRY donde es una variable uniforme en [0,2). La variable Rayleigh está caracterizada por: * Generating Random Numbers Having Probability Distributions Ocurring in Signal Detection Problems. IEEE Transactions on Information Theory, vol. 13, no. 4. Octubre de 1967. Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 16 ru r rrf R 2 exp 2 ru r rFR 2 exp1 2 por lo tanto: xru r 2 exp1 2 y resolviendo para r: xr 1ln2 por tanto: XR 1ln2 por lo que la variable gaussiana es: cos1ln2 XY un dato extra es que X y deben ser estadísticamente independientes. Para obtener a partir de otra variable uniforme en [0,1]simplemente aplicamos la transformación =2X’ donde X’ es una variable uniforme en [0,1] y estadísticamente independiente a X. Por tanto: '2cos1ln2 XXY Programando las fórmulas anteriores, en la parte superior de la siguiente figura se muestran los histogramas normalizados de 10,000 realizaciones de X y X’, mientras que en la parte inferior se muestran los correspondientes a las variables R e Y respectivamente. Se podrá observar que R e Y tienen un comportamiento más exacto que X y X’ a sus respectivas fdp’s. Se puede mostrar que con el procedimiento anterior, se puede generar una nueva variable Y’ como: sen' RY y ésta será estadísticamente independiente a Y. Ahora que ya se dispone de un generador gaussiano, para que éste sea útil finalmente se requiere que pueda simular AWGN de cualquier valor de potencia, ello requiere que los números aleatorios generados tengan una varianza deseada. Si proponemos ahora una nueva variable aleatoria dada por: baYZ de las propiedades del operador de valor medio sabremos que: bbYaEbaYEZEZ 22222222 aaYaEbbaYEZZE YZ Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 17 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 1.2 0 1 2 3 4 0 0.2 0.4 0.6 0.8 -4 -2 0 2 4 0 0.1 0.2 0.3 0.4 0.5 Figura I.15. Histogramas normalizados y fdp’s para las variables X, X’, R e Y, respectivamente. por lo que, si deseamos simular ruido AWGN con una media de 0 Vcd y una potencia de 300 mW la transformación debe ser: YYZ 5477.03.0 Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 18 II. LA SEÑAL ESTOCÁSTICA II.1. La definición de señal Señal: Es el comportamiento de cualquier parámetro de un sistema en función del tiempo. En un circuito el comportamiento del voltaje o la corriente en un dispositivo es una señal, en un sistema mecánico la velocidad, posición fuerza o presión en función del tiempo son también ejemplos de una señal. En términos matemáticos, una señal puede representarse mediante una función, pero no al revés, ya que existen algunas funciones de determinadas características que no pueden ser señales (principalmente debido a que no pueden ser generadas por ningún sistema físico). Como por ejemplo la función f(x)=tan(x) no puede representar una señal ya ningún parámetro físico puede tener variaciones infinitas. En Ingeniería es muy común encontrarse con sistemas que producen señales. En las siguientes figuras se muestran algunos ejemplos de algunas señales físicas que se pueden encontrar en comunicaciones y que resultan de interés. Figura II.1. Tres ejemplos de un EEG de rata tomado del hipocampo. Figura II.2. Mediciones discretas de la temperatura promedio en el mes de Enero de 1900 a 1994. Figura II.3. Dos ejemplos de una señal digital, multinivel en banda base y binivel modulada. Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 19 Figura II.4. Una realización de ruido gaussiano aditivo (tomada de un osciloscopio digital). Figura II.5. La señal de voz de un segmento de 2 s de duración (parte superior), abajo se muestran dos segmentos silábicos de los fonemas “a” y “s” de 30 ms de duración cada uno, tomados de la señal de arriba. Figura II.6. Dos ejemplos de una señal bidimensional. II.2. La Transformada de Fourier (TdF) en Comunicaciones Sabemos que el par de Fourier, o TdF, X() de una señal x(t) se define como: Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 20 dtetxdtetxX ftjtj 2)()()( dfefXdeXtx ftjtj 2)()( 2 1 )( de hecho en Comunicaciones es más común utilizar la frecuencia lineal f en Hz que la frecuencia angular en rad/s. X(f) tiene una interpretación sumamente útil en el área, y nos indica la distribución del contenido de la señal x(t) en un nuevo dominio. Si observamos la expresión de la TdF, si x(t) tiene unidades de volts (V), considerando que el factor ejt es adimensional, entonces X() tiene como unidades Vs=V/Hz; es decir, es una distribución de voltaje por unidad de frecuencia, y describe la manera en la cual, el voltaje relativo de la señal se distribuye en la frecuencia. La frecuencia tiene una interpretación física bastante sencilla, y es precisamente debido a la universalidad de la base de Fourier: las funciones senoidales {sen(2ft)} y cosenoidales {cos(2ft)}. El hecho de que dichas funciones tengan como TdF funciones impulsivas significa que éste tipo de funciones están constituidas de una única frecuencia f (y de que éste tipo de funciones se puedan implementar con relativa facilidad en laboratorio con generadores electrónicos sencillos; actualmente cualquier laboratorio cuenta con generadores de forma senoidal y cualquier estudiante de Ingeniería puede construir un generador con un circuito electrónico con 1 UJT y algunos resistores, alimentado con una pila). Otra de las razones de ello es debido a la simplificación en el análisis de sistemas en Ingeniería, entre éstos se encuentran los filtros, moduladores, modelos de canales de comunicación, etc. Es tan común el análisis de Fourier que generalmente en un laboratorio se cuenta con un conjunto de instrumentos de medición que ya realizan análisis de Fourier (analizadores de redes, analizadores de espectro, osciloscopios digitales con análisis espectral, medidores de distorsión armónica, etc) y se usan ampliamente en Telecomunicaciones. Consideremos el ejemplo de una señal periódica, para comenzar. Sea el circuito RC serie que se muestra en la figura II.7a, que es un circuito que prácticamente cualquier alumno puede armar en el Laboratorio de Electrónica, y alimentarlo con un generador de señales (si no dispone de uno puede usar un amplificador operacional en una cierta configuración para obtenerlo). Figura II.7. Circuito RC serie y la forma de onda del voltaje que se usa para alimentarlo. La señal de voltaje que alimenta el circuito se muestra en la figura II.7b, se podrá observar que es una forma de onda sencilla dada por: Tt T A T tA tv 2 2 0 )( con v(t)=v(t+T) tR Se puede obtener su correspondiente Serie de Fourier (SF) dada por: Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 21 k tfj k ectv 02)( pd d tfjktfjk k dtetv p etvc 2 22 00 )( 2 1 ),( donde 2p es el periodo de la señal y f0 es la frecuencia fundamental de la misma. Si evaluamos los coeficientes de la SdF obtenemos: k T T tfjk T tfjk k k jA dtAe T dtAe T c )1(1 11 2/ 2 2/ 0 2 00 donde c0=0 (componente de cd del voltaje), por lo que la SdF (compleja y trigonométrica)del voltaje de alimentación es: ... 5 )10(sen 3 )6(sen )2(sen 4)1(1 )( 000 2 0 tftf tf A e k jA tv tfjk k k Una interpretación directa de la expresión anterior es la de representar la fuente de voltaje de señal cuadrada por una serie infinita de fuentes senoidales conectadas en serie; cada fuente tendrá una frecuencia (kf0), una amplitud (4A/k en éste caso) y una fase específicas (para éste caso todas se encuentran en fase). La TdF de la misma señal es: )( )1(1)1(1 )()( 0 2 0 kff k jA e k jA FtvFfV k k tfjk k k se podrá observar que la función anterior es una serie de funciones de Dirac en puntos específicos en el dominio de la frecuencia. Si graficamos por separado su magnitud y su fase obtendremos: Figura II.8. Espectro de amplitud (arriba) y de fase (abajo) para la señal cuadrada de voltaje (con A=1). Se puede observar que la señal tiene la mayor parte de su potencia concentrada en las componentes de baja frecuencia, por lo tanto, la fuente de voltaje se puede aproximar por una suma de un número finito de fuentes senoidales, lo que hace que el análisis sea de utilidad, ya que la señal se puede sintetizar a partir de un número finito de fuentes, este principio se usa bastante en los actuales Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 22 sintetizadores de música, en los que se puede generar una señal cualquiera (como puede ser una nota de un violín o de un piano) siempre que se conozca su espectro (el grado de fidelidad de la señal sintetizada depende del número de armónicas que se tomen en la síntesis). Continuando con al análisis del circuito, sabemos que la ecuación integral para la corriente es: 0 0 )( 1 )( 1 )()( dxxi C dxxi C tiRtv t donde el tercer sumando del miembro derecho representa el voltaje inicial del capacitor (generalmente se asume que el circuito se enciende en t=0 y que el voltaje inicial del capacitor es 0). Tomando la TdF de la ecuación anterior (asumiendo voltaje inicial nulo en el capacitor): fC fI jfIRfV 2 )( )()( por lo que: fC jR fV fI 2 1 )( )( al término (2fC)-1 se le conoce como reactancia capacitiva y al denominador de la anterior se le conoce como impedancia compleja del circuito. Si deseamos la caída de voltaje en el capacitor, ésta será, en el dominio de Fourier (usando un divisor de voltaje): )( 21 1 )( 2 1 2 1 )( fV fRCj fV fC jR fC j fVC donde al primer factor del segundo miembro de la anterior se le conoce como la función de transferencia del circuito: fRCjfV fV fH C 21 1 )( )( )( y ésta es de bastante utilidad de Ingeniería, es la caracterización de un sistema lineal en el dominio de la frecuencia. En la siguiente figura se muestra un gráfico con la amplitud y la fase de la función de transferencia (mejor conocidos como diagramas de Bode). La respuesta anterior nos muestra claramente que el circuito se comportará como un filtro pasa- bajas, es decir, las señales que tengan componentes de baja frecuencia pasarán sin gran distorsión por el circuito a la salida (el filtro tiene una ganancia unitaria para frecuencias bajas), pero aquellas que tengan componentes en alta frecuencia, se verán distorsionadas, ya que se puede observar que el filtro atenuará las componentes de alta frecuencia. Ahora, supongamos que la señal de voltaje de entrada v(t) al circuito tiene un periodo de T=100 ms, entonces la componente fundamental (la delta más alta del espectro de la figura 1.23) se encuentra a f=1/T=10 Hz, por lo tanto la escala horizontal de la misma figura es por 10 Hz. Para las condiciones anteriores, para obtener la señal de salida del filtro (el voltaje en el capacitor) primero procedemos a encontrar la respuesta del filtro a la k-esimo armónico, esto es: Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 23 Figura II.9. Respuesta en frecuencia (gráficas de Bode) para el circuito (para R=1 K y C=50F). RCfkj kfH 0 0 21 1 )( por lo tanto, el k-ésimo armónico saldrá con su amplitud modificada por un factor |H(kf0)| y con un corrimiento de fase arg[H(kf0)]. De lo anterior, el voltaje de salida es: RCfkj e k jA tv tfjk k k C 0 2 21 )1(1 )( 0 desarrollando la serie anterior: ... 1015 2 613 2 21 2 0 21 2 613 2 1015 2 ... )( 0 10 0 6 0 2 0 2 0 6 0 10 000 000 RCfj e RCfj e RCfj e RCfj e RCfj e RCfj e jA tv tfjtfjtfj tfjtfjtfj C y obteniendo común denominador por pares y agrupando para sustituir por sus equivalentes funciones trigonométricas obtenemos: 2 0 000 2 0 000 2 0 000 21 2cos222sen2 61 6cos626sen2 3 1 101 10cos10210sen2 5 1 ... 2 )( RCf tfRCfjtfj RCf tfRCfjtfj RCf tfRCfjtfj Aj tvC que finalmente se puede expresar de manera compacta como: Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 24 impar 2 0 000 21 2cos22sen4 )( k C RCfkk tfkRCfktfkA tv en la siguiente figura se muestra la señal de salida del circuito (el voltaje en el capacitor): Figura II.10. Señal de salida del circuito (la línea interrumpida es la entrada) para T=1 s y para T=0.1 s. Si bien existen otras técnicas en Ingeniería a las que se puede recurrir para resolver el problema anterior (como puede ser la Transformada de Laplace), la anterior es bastante ilustrativa en comunicaciones debido a la interpretación física de la frecuencia lineal f. II.3. La información como señal analógica y su modelamiento Las anteriores pueden considerarse como señales generadas por una fuente de información, y se desea transmitirlas desde un punto a otro lejano mediante un sistema de comunicaciones. Un transmisor será el encargado de filtrar y procesar la señal de información para acondicionarla de manera que pueda ser transmitida por un medio hacia un receptor, que a su vez deberá realizar el procedimiento inverso con el fin de recuperar la señal de información para el destinatario. ¿De qué manera se puede caracterizar una señal de información para su estudio y análisis con el fin de analizar los parámetros del sistema de comunicaciones? Debido a la característica aleatoria de la información (originalmente de acuerdo a Boltzmann y después a Shannon), las señales de información son realizaciones (o funciones miembro) de un proceso estocástico. Aunque en un sentido estricto no se dispone de una caracterización completa de una señal de algún parámetro físico como un proceso estocástico, se ha observado que cumplen con muchas de sus características, de manera que se puede asumir que se trata de un proceso estocástico de ciertas propiedades o de cierto tipo sin mucha pérdida de certeza. Ejemplo: La señal elemental de voltaje. La señal de voltaje es la forma más sencilla con la que un alumno puede llegar a familiarizarse. Si se analiza un circuito electrónico y se mide el voltaje en un punto del mismo (una terminal de algún resistor, el emisor de un transistor en un amplificadorde audio, la terminal de salida de un oscilador Colpitts, el pin de transmisión de un conector DB-9 a la salida del puerto serial de comunicaciones de una PC, etc.) usando un osciloscopio, lo que el alumno verá es una señal X(t) variante en el tiempo, ésta se puede considerar como la salida de una fuente de información. Como en comunicaciones se desconoce por completo la información que emite la fuente, X(t) tiene un comportamiento aleatorio, por tanto si se toma una muestra de voltaje con un voltmetro en un instante de tiempo t0, el valor de la amplitud del voltaje medido X(t0) será una variable aleatoria, de la misma forma lo serán las muestras X(t1), X(t2), ...; si se observa el comportamiento en el tiempo de la señal en un osciloscopio, la señal observada será una de las múltiples posibilidades que se Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 25 puede encontrar a la salida de la fuente (si la información hubiese sido diferente, entonces la señal medida también hubiera sido diferente) por ello la señal medida x1(t) es sólo una realización de lo que se puede considerar como el proceso de información X(t), habiendo otras posibilidades x2(t), x3(t), ..., etc. Es por esto que dicho proceso se modela como un proceso estocástico, y en general se ha observado que los resultados de analizar la información con dicho modelo se acercan mucho a lo que sucede en la realidad. II.4. Clasificación de los procesos estocásticos 1. Por su amplitud: - Continuos: aquellos para los cuales X(t)R tR. Ejemplos: ruido blanco y ruido rosa (en canales continuos). - Discretos: aquellos para los que X(t)={xj}j=1, 2, …, n tR, es decir, su amplitud sólo puede tomar un valor de un conjunto discreto (finito o infinito numerable) de posibles valores. Ejemplos: sistemas con cola de espera (telefónicos, redes de cómputo, etc.). 2. Por tiempo: - Continuos: aquellos que están definidos en todo tiempo, X(t) tR Ejemplos: ruido (de amplitud continua o discreta), solicitudes de servicio a sistemas con cola de espera. - Discretos: aquellos que están definidos sólo en tiempos discretos, X(t) t{tj}j=1, 2, …, n, donde generalmente los instantes tj se encuentran uniformemente espaciados, es decir tk=kT, donde T es una constante. Ejemplos: señales digitales de información (cuantizadas, binarias y multinivel). 3. Por la forma de sus funciones muestra: - Determinísticos: aquellos para los cuales todo el comportamiento de una función muestra del mismo está determinado por valores pasados del mismo. Ejemplos: generadores de forma de onda. - No determinísticos: aquellos para los cuales no se puede predecir su comportamiento a partir de sus valores pasados. Ejemplos: ruido (en canales discretos o continuos). 4. Por sus características temporales: - Estacionarios: aquellos cuyas características estadísticas [los momentos de la variable aleatoria X(t0)] no cambian con el tiempo. Ejemplos: ruido blanco y ruido rosa, señales digitales sin memoria. - No estacionarios: aquellos cuyas características estadísticas cambian con el tiempo. Ejemplos: desvanecimientos en canales móviles, tráfico telefónico de desborde, señales de audio y video (en banda base y moduladas). - Cuasiestacionarios: aquellos cuyas características estadísticas cambian muy lentamente con el tiempo. Ejemplos: señales analógicas de voz y video. - Cicloestacionarios: aquellos cuyas características estadísticas cambian de manera periodica. Ejemplos: la señal PAM binaria. 5. Por sus características espaciales: - Ergódicos: aquellos para los que sus momentos estadísticos son iguales a sus momentos temporales. Ejemplos: señales digitales bipolares sin memoria. - No ergódicos: aquellos para los que sus momentos estadísticos son diferentes a sus momentos temporales. Ejemplos: señales de audio y video. 6. Por sus características espectrales: - Pasabajos: aquellos para los cuales su densidad espectral es de soporte compacto alrededor del origen, es decir SXX()=0 ||>B, donde B es una constante positiva conocida como ancho de banda absoluto del proceso. Ejemplos: señales en banda base (audio y video, analógico y digital). Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 26 - Pasabanda: aquellos para los que su densidad espectral está definida sólo para un pequeño intervalo fuera del origen, es decir SXX()=0 |0|>B, con 0R+ 0>B/2 (aunque generalmente es >>B/2). Ejemplo: señales con madulación analógica. 7. Por su naturaleza: - Reales: aquellos para los que X(t)R. Ejemplos: los anteriores. - Complejos: aquellos para los que X(t)C. Ejemplos: envolventes de señales pasabanda, representaciones en banda base de señales moduladas (analógicas y digitales). II.5. Caracterización Si consideramos una variable aleatoria X como una muestra de la señal en un instante tk, sus momentos no centrados están dados por: 00 )( n X n n n X n X nn n d d j d Md dxxfxXEm R donde X es la variable muestra del proceso en un instante determinado, fX(x) es su fdp, MX() es su función generadora de momentos y X() es su función característica, éstas se definen como: R dxexfeEM xX X X )( R dxexfeE xjX Xj X )( Se podrá observar que fX(x) y X() forman un par de Fourier, se puede mostrar que m0=1 [es el área bajo fX(x)] y Xm 1 (es el valor medio de X). Los momentos centrados serán: nn XXE Algunas identidades útiles son: 10 01 2 12 2 2 mmX 3 12133 3 mmm Una manera común de caracterizar a las señales en Ingeniería es mediante sus momentos, en la siguiente tabla se muestran algunas métricas de la señal que son bastante comunes de medir en laboratorio (suponiendo que la señal es de voltaje): Parámetro Variable momento Componente de cd Vcd m1 Potencia P m2 Potencia de ca Pca 2 Si la señal es no estacionaria, entonces sus momentos serán función del tiempo, y en ese caso los parámetros se les denominará instantáneos, es decir, una señal tendrá componente de cd instantánea, m1(t), potencia de cd instantánea, m2(t) y potencia de ca instantánea 2(t). Si bien, una señal es sólo una de las múltiples realizaciones del proceso estocástico, lo anterior se toma como válido. Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 27 II.5.1. La media estadística y la media temporal Se define la media estadística de un proceso como: )()()(1 tXEtXtm mientras que la media temporal se define de manera análoga al valor medio de una función x(t), mediante el operador A{}: T T T dttx T tx )( 2 1 lim)(A debido a la naturaleza de la anterior, se aplica sólo a funciones miembro de un proceso, por lo anterior, existe la posibilidad de que cada función miembro del proceso tenga una media temporal diferente. II.5.2 Momentos estadísticos: La función de correlación cruzada (CCF) y la función de covarianza cruzada Sabemos que la CCF entre dos procesos estocásticos se define como: 1*111 ),( tYtXEttRXY y resulta bastante útil en Comunicaciones, se utiliza como una medida de la relación estadística que tienen las variaciones de una señal aleatoria en instante determinado con respecto a las variaciones de otra señal aleatoria en otro instante de tiempo diferente. Adicionalmente, otra función de bastanteutilidad es la función de covarianza cruzada que se define como: 1*111*111111 ),(),( tYtXttRtYtYtXtXEttK XYXY II.6 Estacionaridad Como sabemos, un proceso estocástico es estacionario de orden n si sus n primeros momentos son independientes del tiempo. Si n=2 el proceso es estacionario en sentido amplio (WSS), mientras que si todos los momentos son independientes de t entonces el proceso es estacionario en sentido estricto (SSS). Por ejemplo, en la figura II.4 se muestra una función muestra de ruido blanco y en la figura II.5 se muestra una función muestra de la voz humana. Se puede apreciar en la figura como en ambas señales el valor de la componente de cd (media) es constante en el tiempo, por lo que se podría inferir que ambos son casos de procesos estacionarios de orden 1. A diferencia de la media, se podrá observar que la potencia instantánea es variable en el tiempo para el caso de la señal de voz, mientras que el ruido blanco mantiene su potencia instantánea constante, por lo que éste es un proceso WSS, mientras que la voz humana no lo es. Si a lo anterior le agregamos que el ruido blanco es el resultante de la suma de múltiples tipos de variaciones de voltaje debidas a dispositivos, por el teorema del límite central, la suma de todos éstos efectos tenderá a tener un comportamiento gaussiano, por esto y debido a que un proceso gaussiano queda completamente determinado por su media y su función de autocorrelación [si consideramos que la variable aleatoria X(t1) es estadísticamente independiente de la variable X(t2) para t1t2 (para cuando t1=t2 se trata de la potencia instantánea de la señal) el ruido es puramente blanco, si hay un cierto grado de dependencia entre ambas variables se trata de ruido coloreado], entonces el AWGN es un proceso SSS (los momentos de alto orden del proceso son nulos). Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 28 Ejemplo. Sonido de una cuerda: Consideremos la siguiente señal muestra: Figura II.12. Señal muestra del sonido de la cuerda (superior azul), su media (superior rojo) y su varianza (inferior) instantáneas. La anterior es el sonido que produce una cuerda en una guitarra, se obtuvo un estimado de su media y su varianza en función del tiempo (usando una ventana deslizante de 300 muestras de longitud). Se podrá observar que la media es prácticamente 0*; otro punto importante es como la varianza instantánea es función altamente dependiente del tiempo. Por lo anterior, se podría decir que el sonido de la cuerda es un proceso estacionario de orden 1, pero no es WSS†. Ejemplo. Un generador senoidal: Ahora analicemos el problema de un generador de señal senoidal, en la siguiente figura se muestra un ensamble de tan sólo 5 posibles funciones de las múltiples posibles, se podrá observar claramente que la diferencia entre ellas es la fase inicial de la misma, ello dependerá en general del instante en el que se enciende el generador y a las características mismas de los circuitos que se utilizan para su generación. El proceso se puede modelar con la siguiente expresión: tAtX cos)( donde A es la amplitud de la señal, =2f es la frecuencia angular de la misma, f es la frecuencia lineal y es una variable aleatoria que representa la fase inicial de la señal, podemos suponer que ésta está distribuida uniformemente en (-,]. Se podrá observar de la expresión que el proceso es determinístico. * Conforme se aumente la longitud de la ventana la media tenderá a 0. † El sonido producido por una cuerda de manera sostenida se aproxima más a un proceso WSS. Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 29 Figura II.12. Ensamble de 5 de las posibles señales de salida del generador. La media estadística del proceso es: 0sencos2 2 2 sen 2 cos2 2 sensen 2 sen 22 cos cos)()(1 t A ttttA tt A t A d t AtAEtXEtm que es algo que se esperaba dado el comportamiento de las gráficas de {xk(t)}. Ahora, la función de autocorrelación del proceso es: 2 cos 2 22sen22sen 42 cos 2 22sen 42 cos 2 22cos 22 cos 22coscos 2 cos 2 1 cos 2 1 coscos coscos)()(, 222 22 22 2 2 2 * AttAA tAA d tAA tE A ttttEA ttEA tAtAEtXtXEttRXX Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 30 donde se puede ver que es independiente de t, es decir, RXX(t,t+)=RXX(), por lo tanto, de los dos resultados anteriores podemos concluir que el proceso X(t) es WSS. II.7. Ergodicidad Un proceso se dice que es ergódico cuando sus momentos temporales son iguales a sus momentos estadísticos. Una manera de interpretar lo anterior es mediante lo siguiente: Si se tiene una fuente de información , y esta emite señales que se modelan como un proceso estocático X(t) (WSS al menos). Un posible evento de información de la fuente sería x1(t), y lo mismo serían {xk(t)}kZ; en la práctica generalmente es imposible analizar todo el conjunto de señales {xk(t)}kZ, pero si X(t) es ergódico, entonces los momentos estadísticos: XtXEtX )()( )(),( XXtXtX RtXtXEttR serán iguales a los momentos temporales: )(txkA )()( txtx kkA serán iguales*. Por lo tanto no sería necesario analizar cada una de las señales {xk(t)}kZ, ya que sus momentos serían iguales a los de una sola de ellas. En laboratorio ello implica mucho, ya que se puede utilizar un generador y obtener una sola realización del proceso (una señal en un tiempo finito considerable) y analizar sus momentos temporales (en el tiempo y en la frecuencia), y con ello los resultados serían representativos del proceso completo X(t). En una señal de voz, la ergodicidad se puede apreciar considerando la voz de una persona como una señal muestra del proceso, por tanto dos personas proporcionan señales diferentes; se podrá observar que la media temporal de cada señal es nula, así como la media estadística para las muestras de las señales en un instante de tiempo determinado, por ello se puede inferir que la señal de voz en un proceso estocástico ergódico de orden 1 (pero no es ergódico de orden 2 ya que la potencia instantánea de la señal es variante en el tiempo). Ejemplo. El generador senoidal (cont.): Analicemos nuevamente el problema de un generador de señal senoidal; obtengamos la media temporal del proceso: T TTT A T TT A T t A dttA T tAtX T T T T T T T T 2 sencoscossensencoscossen lim 2 sensen lim 2 sen lim cos 2 1 limcos)( AA * Si ambos momentos son iguiales el proceso sería al menos ergódico en el sentido amplio (WSE). Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. FernandoTéllez A. _________________________________________________________________________ 31 0 sen limcos 2 cos2sen lim 2 sencoscossensencoscossen lim)( T T A T T A T TTTT AtX TT T A ya que =2f y f=1/T. Por lo que el proceso es ergódico de orden 1, ya que E{X(t)}=A{X(t)}. Ahora, si evaluamos el momento temporal de orden 2: 22cos 22 cos 22coscos 2 cos 2 1 cos 2 1 coscos coscos)()( 22 2 2 2 * t AA t A ttttA ttA tAtAtXtX A A A A AA Usando un desarrollo parecido al realizado con la media temporal, se puede mostrar que el segundo sumando de la anterior es 0, por tanto: 2 cos )()( 2 * A tXtXA por lo que el proceso es WSE, lo cual implica en general que, se obtendrán los mismos resultados si se analizan n señales de salida de un solo generador, a que si se analizaran las salidas de n generadores de las mismas características. II.8. Cicloestacionaridad Un proceso cicloestacionario X(t) es aquel para el que la pdf cumple con: nn ntXtXtXntXtXtX tttn TtTtTtftttf nn RZ ...,,, ...,,,...,,, 21 21)()...()(21)()...()( 2121 también se contemplan los casos particulares de procesos cicloestacionarios en el sentido amplio (WSCS) y cicloestacionarios en el sentido estricto (SSCS). Un ejemplo particular de procesos cicloestacionarios es la señal PAM binaria*, que es la que generalmente se utiliza para transmisiones de información digital en banda base, ésta se define como: Nn n nTthatX )()( * Probability, Random Variables and Stochastic Processes. A. Papoulis, 4ª ed, McGraw Hill, 2002. Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 32 donde an es una secuencia de realizaciones de una variable aleatoria binaria, T es el periodo de símbolo* y h(t) es la respuesta al impulso del conocido como filtro formador de pulso (es una función deterministica). Si tomamos la media estadística de la anterior: NNN n n n n n n nTthaEnTthaEnTthaEtXEtm )()()()()(1 que es dependiente del tiempo [X(t) es no estacionario], el momento de segundo orden es: N NN N NN n m aa n m mn m m n nXX mTthnTthmnRmTthnTthaaE mTthanTthaEtXtXEttR )()()()()( )()()()(),( *** *** En las anteriores se puede mostrar que m1(t)=m1(t+kT) y RXX(t,t+)=RXX(t+kT,t+kT+) para kZ, es decir, ambos momentos son periódicos con periodo T, por ello la señal PAM es un proceso cicloestacionario. Dado que la autocorrelación de la señal PAM es variante en el tiempo, en Ingeniería es más práctico trabajar con su media temporal, es decir: T XXXXXX dtttR T ttRR 0 ),( 1 ),()( A pero más útil es su densidad espectral promedio, que se definirá más tarde. Dos casos muy conocidos de señales PAM son: a) an={+5,0} Vcd para una señal PAM TTL (como la mayor parte de los circuitos digitales con los que trabajan los alumnos), y b) an={-25,+25} Vcd para el caso de una señal PAM RS-232 (puerto serial de una PC, aunque trabaja con lógica negativa). II.9. Momentos en la frecuencia: Análisis espectral Como ya se analizó en una sección previa, el análisis espectral es de vital importancia en comunicaciones. Sabemos que si x1(t) es una función muestra de un proceso X(t), entonces x1(t) tiene TdF X1(f), es decir, X1(f) es el espectro de x1(t) en la frecuencia. Pero {Xk(f)}kZ es un ensamble de funciones muestra de otro proceso estocástico X(f) definido por: dtetXf ftj2)()(X donde la integral anterior existe en el sentido Riemann cuadrático medio [o que el proceso X(t) sea continuo en el sentido cuadrático medio*]. Evidentemente no es conveniente atacar el análisis espectral * Si la variable a no es una variable binaria, entonces la transmisión es multinivel y los símbolos son de más de un bit (generalmente el universo de a tiene una cardinalidad de una potencia entera de 2 si la transmisión es binaria). Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 33 vía X(f), en primer lugar debido a que alguna (o para la mayoría) de las TdF {Xk(f)}kZ puede no existir†, y también debido a la complejidad de los tópicos necesarios, pero se puede optar por hacerlo vía los momentos de X(t) en el dominio de la frecuencia. II.9.1. La Densidad Espectral de Potencia Para un proceso aleatorio X(t), sea xT(t) definida como la porción de una función muestra x(t) que exista entre - T y T (intervalo que denominaremos I); esto es caso otro 0 TtTtx txT Lo anterior siempre y cuando T sea finito, suponemos que xT(t) tiene sus valores limitados, y safisface: T T T dttx )( y su TdF XT(ω) es: T T tj T T tj TT dtetxdtetxX )()()( La energía contenida en x(t) en I es‡: T T T T Tx dttxdttxE 22 Puesto que XT(ω) es la TdF de xT(t), sus energías se deben relacionar con XT(ω) por el teorema de Parseval, es decir: dXdttxE T T T Tx 22 )( 2 1 Dividiendo las anteriores por 2T, obtenemos la potencia media Px en x(t) sobre I: d T X dttx TT E P T T T T x x 2 )( 2 1 2 1 2 2 2 En este punto observamos que |XT(ω)|2/2T es la densidad espectral de potencia de xT(t). En general al dejar que T llegue a ser arbitrariamente grande para incluir toda la energía en el segmento del conjunto, para * El proceso X(t) es continuo, en el sentido cuadrático medio, para cualquier tiempo t(0,T), si 12)()( aCtXtXE donde C y a son constantes positivas y t, t+ (0,T). † Los problemas se complican aún más si se considera la Transformada de Laplace. ‡ Asumimos un proceso verdadero X(t) e interpretamos x(t) como el voltaje o la corriente a través de una impedancia de 1Ω en un circuito. Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 34 ello está claro que debemos aplicar a la forma el límite cuando T y tomar el valor esperado para obtener una densidad espectral de energía para el proceso estocástico, es decir: d T XE dttXE T P T T T T T X 2 )( lim 2 1 2 1 lim 2 2 Si sustituimos por el operador A{}, la media temporal, en el primer miembro de la anterior, la anterior se puede expresar como: )( 2 1 lim 22 tXEdttXE T P T T T X A Para un proceso WSS, 22 )( XtXE es una constante, y 2XPX . Segundo PX se puede obtener por una integración del dominio de la frecuencia. Si definimos la densidad espectral de potencia para el proceso estocástico: T XE S T T XX 2 lim 2 Entonces: dSP XXX 2 1 Ejemplo. Consideremosel proceso estocástico: )cos()( 00 tAtX Donde A0 y ω0 son constantes reales y Θ es una variable aleatoria uniformemente distribuida en el intervalo (0, π/2). Encontremos la potencia media PX en X(t) encontrando la media estadística: )2sin( 2 )22cos( 2 22 22cos 22 22cos 22 cos 0 2 0 2 0 2 0 0 2 0 2 0 0 2 0 2 0 0 2 0 2 0 0 22 0 2 t AA dt AA tE AA t AA EtAEtXE Se podrá observar que X(t) no es estacionario, ya que E{X2(t)} es variable en el tiempo. El promedio temporal de la anterior es: Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 35 22 lim 4 cos 4 cos 22 1 lim)2cos( 22 1 lim )2(sen 2 1 lim)2(sen 22 1 lim 2 0 2 0 0 2 02 00 0 2 02 0 0 2 02 00 2 0 2 02 A T TA T T T T A TA T t A TA T dtt A TA T dtt AA T tXE T T T T T T T T T T T APx Ahora, reconsideramos el proceso para encontrar PX(ω) y la potencia media PX evaluando directamente la TdF. Para XT(ω): T T e T T eTA dteedtee A dtetAX jj T T tjj T T tjj T T tj T 0 0 0 0 0 )()(0 00 sensen 2 )cos( 00 Ahora determinamos |XT()|2=XT()X * T() y encontramos después su valor esperado. Después de una reducción algebraica simple obtenemos. 2 0 0 2 02 0 22 0 0 2 2 0 22 0 0 2 0022 0 222 0 0 2 22 0 22 0 0 2 0 0 0 022 22 0 0 2 22 0 2 sen 2cos2cos 2cossen sen sensen 2cos2sen sensensensen T TT T A T T TT TT T TA T T T T T T ee T T TAX jjT y tomando el valor esperado: 20 0 2 2 02 0 2 02 02 0 0 2 2 0 2 0 0 2 02 0 22 0 0 2 2 0 2 sen 2cos 2cos2cossen sen 2cos2cos 2cossen T AE TT A T A T TT T EAXE T pero: 0 0sensen2sen2 2cos2cos 2 0 2 0 dE por lo tanto: Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 36 2 0 0 2 2 0 0 2 2 0 2 sensen TT AXE T si la anterior es la densidad de energía media en la frecuencia, la densidad de potencia correspondiente es: 2 0 0 2 2 0 0 22 0 2 0 0 2 2 0 0 22 0 2 sensen 2 lim sensen 2 lim 2 lim T TT T TTA TT T A T XE S T T T T XX Pero sabemos que: )( )sin( lim 2 T TT T por tanto: )()( 2 )( 00 2 0 A S XX Finalmente, utilizando la anterior podemos encontrar la potencia del proceso: 2 )()( 22 1 2 1 2 0 00 2 0 Ad A dSP XXX que es lo que ya habíamos encontrado previamente en el dominio del tiempo. II.9.2. Propiedades de la Densidad Espectral de Potencia La densidad espectral de potencia de un proceso X(t) real tiene algunas propiedades interesantes, a continuación se muestran las más importantes: i) 0XXS ii) XXXX SS iii) RSXX iv) )()( 2 1 2 tXEAdSXX v) XXXX SS 2 vi) XX F XX SR De las anteriores, la última es de las más importantes (también conocida como el Teorema de Wiener- Khinchine), establece que la función de autocorrelación y la densidad espectral de potencia de un proceso estocástico forman un par de Fourier. Ésta es precisamente la forma que se utiliza para caracterizar a los procesos en el dominio de la frecuencia, aún cuando sus funciones miembro no tengan TdF, la única condición es que deben ser procesos WSS (para que la función de autocorrelación esté definida). Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 37 Si el proceso no es WSS, entonces se utiliza la propiedad iv, ésta establece que se debe tomar la media temporal de la función de autocorrelación, por lo que el par de Fourier quedaría: ),()( 2 1 ttRdeS XX tj XX A dettRS jXXXX ),()( A II.9.3. El ancho de banda Si asumimos que X(t) es un proceso real pasabajas*, es decir, que sus componentes espectrales se concentran alrededor de =0 y decrecen en magnitud conforme aumenta la frecuencia. Si analizamos la propiedad i de la sección anterior, podríamos pensar que SXX() se comporta como la fdp de una cierta variable aleatoria†, a excepción de que la integral de SXX() no es la unidad, pero esto se puede salvar normalizándola. Si recordamos, la desviación estándar de una variable es una medida de la dispersión media en los valores de una variable aleatoria; y si consideramos que la variable es la frecuencia que presenta el proceso, entonces la desviación estándar sería una medida de que tanto se desvía ésta de una valor central (=0 para éste caso), a éste valor también se le conoce como el ancho de banda rms del proceso, W. De la varianza del proceso WSS, W será: dS dS W XX XX )( )(2 2 Si el proceso no es pasabajas, entonces primero se requiere encontrar cual es la frecuencia media 0 del mismo: dS dS XX XX )( )( 0 0 De la anterior, la densidad espectral de potencia estará concentrada alrededor de las frecuencias 0 y 0 , y su ancho de banda rms será: 0 0 2 0 2 )( )(4 dS dS W XX XX * A éste tipo de procesos también se les conoce como procesos en banda base, ya que son los que generalmente se encuentran en las señales de información que aún no se encuentran moduladas. † Si analizamos que su dominio es la frecuencia angular, podríamos pensar que dicha variable es la frecuencia instantánea del proceso X(t). Aplicaciones de la Teoría de Probabilidades a Comunicaciones ___________________________________________ Prof. Fernando Téllez A. _________________________________________________________________________ 38 Ejemplo. Dada la densidad espectral de potencia de un proceso X(t): 22)10/(1 10 )( XXS que corresponde a una función de autocorrelación dada por: 10125 10eRXX en la siguiente figura se muestran sus gráficas correspondientes: Figura II.13. Densidad espectral de potencia y función de autocorrelación para el ejemplo. Donde el ancho de banda a 6 dB es de 10 rad/s. Obtengamos el ancho de banda rms W.
Compartir