Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – Ingeniería en Sistemas de Información Página 1 de 8 1 Introducción En la formación de la teoría, encontramos una magnitud que cumple con las especificaciones que se le imponen a la medida de la información y que por tener una expresión formal mente idéntica a la que posee la magnitud termodinámica conocida como “entropía”, se la conoce con el mismo nombre. 1.2 Entropía, Fuente y Canal 1.2.1 Modelos aleatorios univariados El modelo aleatorio univariado es un modelo probabilístico del comportamiento de una fuente de información o de un receptor de la misma. Nuestro universo de sucesos elementales estará constituido por símbolos de la fuente, xi (binario, etc.). De acuerdo a las características de los símbolos se le asigna a cada uno su probabilidad de ocurrencia. Tenemos así una caracterización univariada, esto es unidimensional, de la fuente. Su representación es: Función que provea una magnitud que represente la cantidad de información asociada al suceso que representa la aparición de un símbolo de la fuente. Se propone: donde: I(xi) es la cantidad de información asociada al suceso xj p(xi) es la probabilidad de ocurrencia del suceso xi. Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – Ingeniería en Sistemas de Información Página 2 de 8 Para una caracterización univariada denominamos “entropía” – y la notamos H(x) – a la esperanza matemática de la información por símbolo de la fuente, esto es: La función entropía tiene su máximo valor, para un determinado número de símbolos fuente, cuando estos son equiprobables. 1.2.2- Modelos aleatorios bivariados Se puede definir un canal de información como determinado por un alfabeto de salida B = (bj), J = 1, 2, 3, ........, s; y un conjunto de probabilidades condicionales p(bj/ai) siendo esta la probabilidad de recibir a la salida el símbolo bj cuando se envía el símbolo de entrada ai Puede Representarse esquemáticamente: . Un canal de importancia teórica es el binario simétrico (BSC). Este canal posee dos símbolos de entrada (a1 = 0, a2 = 1) y dos de salida (b1 = 0, b2 = 1). Es simétrico por ser iguales las probabilidades de recibir un cero al enviar un uno y viceversa. Esta probabilidad se denomina probabilidad de error (p). Un canal sin memoria queda descripto por medio de la matriz de probabilidades condicionales siguiente: donde Pij = P(bj/ai) Cada fila de la matriz corresponde a una entrada del canal y cada columna a una salida. A un canal se lo denomina transparente cuando no introduce error, esto es si, su matriz de probabilidades condicionales es diagonal. Dato un canal definido por los símbolos de entrada y salida y una matriz de probabilidades condicionales P. Considerando la probabilidades de los símbolos de entrada p(ai), i = 1, 2, ........., r y la matriz de probabilidades condicionales del canal (p), Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – Ingeniería en Sistemas de Información Página 3 de 8 se puede determinar otro conjunto de probabilidades p(bj), j = 1, 2, ........, s que representa la probabilidad de aparición del símbolo bj Cabe destacar que conociendo las probabilidades de salida y la matriz de probabilidades condicionales, en general no pueden calcularse las probabilidades de entrada. a la salida del canal. Se verán las llamadas probabilidades hacia atrás, esto es, p(ai/bj) que significa la probabilidad de que habiéndose dado bj a la salida, provenga de un ai El numerador de la expresión (4), es la probabilidad del suceso (a a la entrada del canal. Según Bayes: i, bj), es decir la probabilidad conjunta de la aparición de ai a la entrada y bj Entonces: a la salida. Se puede luego, obtener una matriz de probabilidades conjunta P(A,B). La caracterización bivariada del sistema, se da: La incertidumbre de aparición en el sistema, la información media al emitir ai y recepcionar bj Se denomina P(a – Se denomina entropía del sistema: i) a la probabilidad a priori de los símbolos de entrada. Y a P(ai/bj) se la denomina probabilidad a posteriori, por ser esta la probabilidad del símbolo, luego de sucedido bj Así la entropía a priori será: . Es posible calcular la entropía del conjunto de símbolos de entrada según ambas probabilidades. y la entropía a posteriori: Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – Ingeniería en Sistemas de Información Página 4 de 8 Como los símbolos a la salida presentan una probabilidad P(bj esto no es más que la entropía de la fuente conociendo la recepción (equivocación de A respecto de B). ) es posible calcular la entropía media a posteriori como Como se conoce la P(bj/ai) que caracteriza al canal, en forma similar se obtiene la entropía del canal (equivocación de B respecto de A). 1.3- Información Mutua. La información mutua es la información transferida desde la fuente al receptor a través del canal, esto es, la información real que llega al receptor en promedio. Analizando la ecuación (3) se observa que ella representa la incertidumbre con respecto a la fuente luego de recepcionar un símbolo bj. Al promediarla a todo el alfabeto de salida (según –9- ) resulta la información promedio (de la fuente) que bloquea el canal. Luego para calcular la información promedio real recepcionada bastará obtener la diferencia entre la entropía a priori y la equivocación de A respecto a B. Una importante propiedad de la información mutua es la simetría con respecto a las variables de entrada y salida, entonces es valido decir que: I(A, B) = I(B, A) = H(B) – H(B/A) ( 12 ) En el caso de canales transparentes: H(A) = H(B) = H(A, B) = I(A, B) H(A/B) = H(B/A) = 0 Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – Ingeniería en Sistemas de Información Página 5 de 8 1.4- Capacidad y eficiencia de Canales. 1.4.1- Capacidad Supuesto un canal de alfabeto de salida B y probabilidades condicionales P(bj/ai ) la información mutua resulta: ya que: Analizando la expresión (13) se nota que I(A, B) depende de la probabilidad de los símbolos de entrada y de las características del canal. Entonces para un canal determinado se estudia la variación de la información mutua en función de las probabilidades de entrada. Con el solo hecho que la probabilidad de entrada de un símbolo sea 1, la información mutua será nula. Es decir que el valor mínimo I(A, B) es creo. Quedaría ahora analizar el valor máximo de la misma, este valor es posible lograrlo sintonizando la fuente que provee los símbolos de entrada al canal. Este valor máximo es lo que se denomina capacidad del canal, simbolizándola con C. (*) Se a introducido dentro de la sumatoria sobre j la expresión de la H(A), esto es posible ya que ella es independiente de ese subíndice. Ahora, si reemplazamos P(ai) por P(ai, bj) la expresión no cambia ya que al sumar sobre todos los símbolos de la salida (cuando se realiza la sumatoria sobre j) resulta P(ai) nuevamente. (**) Es válido ya que P(ai/bj) P(bj) = P(ai, bj). Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – Ingeniería en Sistemas de Información Página 6 de 8 La capacidad de un canal será función exclusivamente de las probabilidades condicionales y no dependerá de la probabilidades de los símbolos de entrada. En loscanales transparentes H(A/B) = 0 y resulta: I(A, B) = H(A) – H(A/B) = H(A) entonces: C = max H(A) Si la fuente resultara equiprobable (caso de máxima entropía) y emitiera un símbolo: H(A) = lg n (bit/simb) C = lg n (bit/simb) Notar que si n aumenta, la capacidad sube, lo cual es lógico ya que el canal no bloquea la información por es transparente. Para una fuente binaria equiprobable: resulta C = lg 2 = 1 bit/simb La capacidad puede expresarse también, en unidades b.p.s. (bit/seg.). Esto proviene de que si cada símbolo dura τ seg., y estamos en el caso binario equiprobable la capacidad C resulta: C = 1/τ FF = I(A, B) / C ( 16 ) Y redundancia de transmisión a: b.p.s. 1.4.2- Eficiencia Se define a eficiencia de transmisión para cada canal y fuente, a: RED = 1 - FF Esta redundancia es la parte no aprovechada de la capacidad portánte de información del canal. Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – Ingeniería en Sistemas de Información Página 7 de 8 1.5- Otros Conceptos Fundamentales 1.5.1- Velocidad de información y señalización Se denomina velocidad o tasa de información (R), a la cantidad de bits en promedio que se transmiten en 1 segundo, esto es, la cantidad de información promedio producida por una fuente en 1 (un) segundo. R = H’(A) Si se considera un canal con ruido, a la salida se tiene una tasa de información de: R = H’(A) - H’(A/B) Se denomina velocidad o tasa de dígitos o binits (r) a la cantidad de dígitos por segundo transmitidos. Como la entropía es la información promedio (o bits por símbolos en promedio -H), resulta: R = r H(A) R y H son dos formas de medir información promedio, una en bits por segundos y otra en bits por símbolo. Se denomina velocidad de señalización (s) a la inversa del tiempo mínimo que dura un pulso. s = 1/τmin 1 /seg. ó baudios 1.5.2- Capacidad de un canal y velocidad de información La capacidad de un canal es su capacidad de transportar información. Se mide en bits/seg. y una fuente con tasa de información promedio R, si R ≤ C existe una codificación tal que la salida de la fuente pude ser transmitida sobre el canal con una frecuencia arbitrariamente pequeña de error, a pesar de la existencia de ruido. S R > C no es posible transmitir sin error. Se supone de duración T compuesto por pulsos de duración τ, resulta r = s, esto es, la cantidad de pulsos por segundo transmitidos es el máximo para un cierto s. Los pulsos pueden tener µ niveles distintos. Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – Ingeniería en Sistemas de Información Página 8 de 8 Es posible preguntarse, ¿Cuál será la cantidad de símbolos distintos que podrán representarse?. Esta cantidad resulta igual a los µ niveles. ¿Pero que cantidad de mensajes distintos pueden transmitirse?. Esta cantidad será igual al número de posibilidades de arreglos con repetición en T segundos. M(T) = µ P(M) = T/τ Si son equiprobables se tiene la máxima cantidad de información, la cual resulta: 1/ R = M(T) luego: I = lg M(T) Para obtener R basta con dividir por T, con ello se halla la tasa de información, R, en bits por segundos. No es necesario calcular la entropía, ya que al ser equiprobables coincide con I. Entonces el calculo de R es: I/T lg M(T) = 1/T lg µT/τ R = 1/τ Si τ = τ lg µ min luego 1/τ = s Si son sucesos equiprobables y τ = τmin, entonces R es máximo y deberá ser C = Rmax Ensayando el canal el ancho de banda resulta aproximadamente igual al valor para el cual la relación entre la salida y la entrada disminuye una determinada cantidad. . Esto es, el canal deberá tener una capacidad al menos igual a R. Si el sistema es binario, la cantidad de niveles será µ, lo que implica una capacidad de canal coincidente con la de señalización. C = s La velocidad de señalización está ligada con una caracteristica del canal que se denomina ancho de banda, B. Este valor resulta: B = s/2 Errores de Canal Página 1 de 4 222...777...--- ERRORES DE CANAL 222...777...111...--- RUIDO BLANCO El Ruido en un canal limita la capacidad de este para transmitir información. El principal ruido de Canal se la conoce con el nombre de Ruido Blanco. Su importancia reside en el hecho de que es imposible de eliminar dado su aleatoriedad. Se conoce como Ruido Blanco aquel que aparece en el canal debido a la asitación molecular y atómica que produce la temperatura. De la figura resulta que la señal con ruido presenta un valor medio (Vm) y una evolución aleatoria alternante en el tiempo. Ahora bien: ¿Qué información nos proporciona la curva normal? En ella podemos hallar la probabilidad que existe de encontrar una señal de ruido superior a un determinado valor o entre dos valores. En la figura la zona sombreada determina la probabiladad de tener una señal de ruido blanco entre Vm(1) y Vm(2) donde: Vr es la amplitud de la señal de salida. Vs es la amplitud de la señal de entrada. Esta relación entre amplitudes, o entre potencias, es muy común expresarla mediante una unidad dimensional denominada decibeles (dB) que no es más que: . 222...777...222...--- ANCHO DE BANDA DE UN CANAL El ancho de banda de un canal resulta una caracteristica del mismo que describe su comportamiento ante señales de distintas frecuencias. Entendiendo por ganancia (o atenuación) de un canal a la relación entre la amplitud de la señal en la recepción y amplitud de la señal en la emisión. Resulta: G[dB] = 10 log G si G es una relación entre amplitud de señales; o A[dB] = 10 log A si A es una relación entre potencias. Se entiende por ancho de banda a la diferencia entre la frecuencia superior de corte (f2), y la frecuencia inferior de corte (f1). Siendo ellas las frecuencias donde la relación entre amplitudes de señales de salida y entrada disminuyen en 3 dB respecto de la ganancia (G) de las frecuencias medias, siendo esta la frecuencia de uso normal de canal. Generalmente cuando la frecuencia inferior de corte es pequeña se puede aproximar el ancho de banda a la frecuencia superior de corte. Errores de Canal Página 2 de 4 222...777...333...--- CAPACIDAD DE UN CANAL CON RUIDO Estudios de Hartley y posteriores trabajos de Shannon prueban que si: La potencia media del ruido blanco es N, entonces, la entropía media del canal o equivocación de Y respecto de X es: H(Y/X) = B . lg (2 . | | . e . N) En, la expresión, B es el ancho de banda del canal, N es la potencia media del ruido y e es el número neperiano. La señal emitida es continua y con distribución mal, la entropía en la recepción para una potencia media S es: H(Y) = B . lg (2 . | | . e . (N + S)) Entonces la capacidad del canal: C = I(X,Y) H(Y) = H(Y/X) B . lg (1 + S/N) [bps] 222...777...444...--- CAUSAS DE ERRORES DE CANAL 222...777...444...111...--- Ruidos Impulsivos: El ruido impulsivo constituye la principal fuente de error dentro de los posibles errores de canal. Los ruidos impulsivos provocan grandes picos en la amplitud de la señal de ruido blanco que llegan a saturar el canal, por lo tanto, llegan a provocar perturbaciones de varios binits constituyendo lo que se denomina ráfaga. En la figura se observa una serie de gráficos donde se visualiza una señal a emitir asociada a una tira de binits que constituyen el dato a emitir, la señal de ruidos blancos con los picos debido a ruido impulsivo, la señal recepcionada que no es másque la suma de la señales anteriores, y finalmente en función de esta ultima la determinación del dato recibido y los binits equivocados (cabe destacar que las amplitudes graficadas no guardan relación con respecto a la realidad, donde la amplitud de la señal de ruido es mucho menor que la de la señal a transmitir). Las causas que producen ruido impulsivo se pueden agrupar en causas externas e internas ( al canal). Se analizan distintas situaciones donde puede presentarse ruidos impulsivos: Dentro de las fuentes externas de ruido impulsivo se tienen: Acoplamientos Capacitivos o inductivos debido a: Acción de canales paralelos. Equipos de conmutación mecánica. Señales de supervisión Fenómenos atmosféricos. Las fuentes internas pueden deberse a: Variaciones en la impedancia debido a conexiones. Señales que sobrecargan los amplificadores. Interferencias debido a armónicas espureas generadas por filtros. Este tipo de errores pueden ser contrarrestados por medio de la utilización de modems (MOdulador – DEModulador) adecuados al canal y al ruido impulsivo que en el se puede presentar. Errores de Canal Página 3 de 4 222...777...444...222...--- Modulaciones Espureas: Otro tipo de errores de canal es debido a modulaciones espureas, se puede presentar bajo tres formas: modulación Cruzada (1), intermodulación (2) y eco (3). (1) Los acoplamientos inductivos o capacitivos entre canales pueden provocar captación de señales de otros canales, este efecto se conoce con el nombre de Modulación Cruzada. Este tipo de captaciones es común que se produzca en canales pares, canales múltiples y antenas de microondas comunes. La forma de tratar esta causa de error es similar al de ruido blanco, su nivel resulta mensurable, y generalmente, no es de fundamental importancia en la transmisión de datos. (2) Variaciones en la linealidad de los amplificadores, en canales multiplex provocan modulaciones espureas conocidas con el nombre de Intermodulación. Este error es debido a que al amplificar las señales en conjunto esta falta de linealidad puede producir armónicas que pueden afectar bandas de otros canales. La intermodulación es común en señales de tipo repetitivo por su alto contenido armónico, señales de tal tipo son las de discado, las de supervisión. La intermodulación puede ser corregida utilizando modems adecuados o reduciendo la amplitud de señales de tipo repetitivo. (3) Variaciones de impedancia del canal; Las variaciones de impedancia del canal puede provocar reflexiones de las señales provocando una modulación espurea denominada Eco, en canales de voz con, fin de eliminar este efecto se utilizan supresores de eco. 222...777...444...333...--- Variaciones de nivel (desvanecimiento): Las variaciones de nivel de la señal también pueden afectar la transmisión de información (datos), en especial si estas variaciones ocurren en forma rapida. Entre las causas que pueden provocar variaciones de nivel encontramos: Fallas en contactos y Fallas en amplificadores. Como así también el enmascaramiento de la señal provocada por fenómenos meteorológicos, como lluvias, que afectan canales de microondas. Este efecto se conoce con el nombre de desvanecimiento. Es posible en emisiones radiales. Este tipo de error hace que se considere a este canal como de pobre resultado para la transmisión de datos. 222...777...444...444...--- Distorsión: Otra causa de error en canales es provocada por distorsiones introducidas por el propio canal. Entre las distorsiones mas comunes encontramos: Atenuación, Distorsión fase/frecuencia, Variación de frecuencia de la portadora y Variación del nivel de muestreo. La ventaja de esta causa de error es el admitir correcciones por medio del diseño, ya que el canal las introduce en forma sistemática (repetitivamente y en forma previsible). Errores de Canal Página 4 de 4 La atenuación es provocada por variaciones en la impedancia del canal con la frecuencia. Se puede graficar la atenuación en función de la frecuencia. En estos gráficos como el de la figura, es posible encontrar canales como el “a” que solo pueden utilizarse en un entorno reducido de la banda y otros, como el “b”, que admiten un mayor ancho de banda. Este ultimo tipo de canales puede llegar a lograrse desde el primero mediante el uso de ecualizadores adecuados. La distorsión fase/frecuencia se debe a que el canal introduce distintos retardos para frecuencias diferentes. Con la cual se varían las velocidades de transmisión para las ondas de distintas frecuencias, esto provoca defasajes entre las distintas armónicas de la señal. Si se desea transmitir una seal, por medio de un componente fundamental y de su tercera armónica (descomposición de Fourier), y no esta presenta la distorsión fase/frecuencia se observaría la forma de onda de la figura: Si en cambio se tuviera un defasaje entre ambas ondas (fundamental y tercera armónica) debido a esta distorsión la señal resultante presentaría el siguiente aspecto: Estos primeros dos tipos de distorsión suelen encontrarse relacionados en el momento de pretender corregirlos, así, si se tratara de corregir la atenuación por medio de cables bifilares (dos conductores) de larga distancia muy cargados se empeoraría la distorsión fase/frecuencia. Para reducir esta última se tendrían cables coaxiles y circuitos de microondas. Otro tipo de distorsión es la variación de frecuencia de la portadora (señal soporte) con respecto a la frecuencia de emisión de la misma. Esta distorsión se puede corregir mediante las transmisiones de una señal sub-portadora de sincronismo en frecuencia. La distorsión por variación del nivel de Umbral de muestreo se produce en el momento de la demodulación o al regenerar los pulsos en repetidoras. Esta distorsión produce una modificación en el ancho de los pulsos de la señal. Así, se puede observar en la figura como variaciones positivas o negativas de este nivel de Umbral provocan alargamientos o acortamientos del ancho de los pulsos que representan al “uno” o al “cero”. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 1 de 21 CCCOOODDDIIIFFFIIICCCAAACCCIIIÓÓÓNNN 4.1 IIINNNTTTRRROOODDDUUUCCCCCCIIIÓÓÓNNN Desde el momento que nos planteamos el problema del manejo de la información (ej.: transmisión, recepción, almacenamiento, etc.); surge la necesidad de representar de alguna manera, esta información, que vendrá dada por eventos o sucesos, para de esta forma poder transmitirlas por un “canal” o línea de comunicación, en forma de señal eléctrica, lumínicas, electromagnéticas, etc. Y de igual modo poder registrar o almacenar esta información, ya sea electrónica, magnética o mecánicamente, etc. Definición: Si denominamos S = (s1; s2; ..........; sq) al conjunto de símbolos de un alfabeto dado; queda definida una codificación al poner en correspondencia todas las secuencias posibles de símbolos de S con secuencia de símbolos de algún otro alfabeto Z = (z1; z2; ...........; zr). Entonces “S” recibe el nombre de alfabeto fuente y “Z” alfabeto código. 4.2 CCCÓÓÓDDDIIIGGGOOO BBBLLLOOOQQQUUUEEE Es aquel que asigna a cada uno de los símbolos del código fuente S una secuencia fija de símbolos del alfabeto código Z. Estas secuencias fijas (secuencias Zj) reciben el nombre de palabras código. S1 Z1 (z11; z12; ..........; z1r) S2 Z2 (z21; z22; ..........; z2r) Sj Zj (zj1; zj2; ............; zjr) 4.3 CCCÓÓÓDDDIIIGGGOOO NNNOOO---SSSIIINNNGGGUUULLLAAARRR Es aquel en que todas sus palabras son distintas: S1 1 S2 11 S3 00 S4 Por Ejemplo 10 4.4 CCCÓÓÓDDDIIIGGGOOOSSS UUUNNNÍÍÍVVVOOOCCCAAAMMMEEENNNTTTEEE DDDEEECCCOOODDDIIIFFFIIICCCAAABBBLLLEEESSS Se dice que un código es unívocamente decodificable si a cualquier secuenciade palabras código, le corresponde una y sólo una secuencia de símbolos de la fuente. S1 1 S2 11 S3 00 S4 10 Si se recepciona: 1100 puede corresponder a S2 y S3 o a S1, S1 y S3. Veamos que este código es no singular al considerar los símbolos individuales, pero es singular considerando alguna secuencia. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 2 de 21 Por lo que podemos dar otra definición de código unívoco: Un código bloque se dice unívocamente decodificado sí y solo sí su extensión de orden n es no singular para cualquier valor finito de n. Consideremos una codificación cuyas palabras código son de igual longitud. En este caso, indudablemente el código es unívoco. (siempre que sea no singular el original). Otro caso son los llamado códigos “coma”; este nombre se debe a que el comienzo o el fin de cada palabra está señalizada por un cero o por un uno. Ejemplo Código A Código B S1 0 1 S2 01 01 S3 011 001 S4 0111 0001 De esta forma se identifica cada palabra. 4.5 CCCÓÓÓDDDIIIGGGOOOSSS IIINNNSSSTTTAAANNNTTTÁÁÁNNNEEEOOOSSS Retomando el ejemplo anterior, donde los códigos A y B eran unívocos. Si estamos recepcionando palabras según el código A no seriamos capaces de decodificarlas instantáneamente según las vamos recibiendo. Por ejemplo, si recibimos la palabra 01, no podemos decir que corresponde a S2 hasta que hayamos recibido el símbolo siguiente. Si el próximo es un 0 (cero) entonces si decimos que correspondía a S2, si es un 1 (uno) debemos esperar el próximo, etc. Si en cambio, utilizamos el código B, podemos decodificar las palabras instantáneamente. Definición: Sea Zi = zi1; zi2; .........; zim una palabra de código. Se denomina prefijo de esta palabra a la secuencia zi1; zi2; .........; zij con j ≤ m. A partir de esto se puede enunciar: “La condición necesaria y suficiente para que un código sea instantáneo es que ninguna palabra del código coincida con el prefijo de otra. 4.6 IIINNNEEECCCUUUAAACCCIIIÓÓÓNNN DDDEEE KKKRRRAAAFFFTTT Si los enteros l Teorema 1; l2; ..........; lq satisfacen la inecuación: Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 3 de 21 Entonces esta es condición suficiente y necesaria para que exista al menos un código instantáneo de r símbolos en su alfabeto y cuyas q palabras códigos tienen las longitudes l1; l2; ..........; lq respectivamente. Nota: el teorema no dice que cualquier código cuyas longitudes cumplan la condición (4.6.1) es un código instantáneo. Ejemplo S1 S 0 2 S 00 3 este código satisface la ec.(4.6.1) sin embargo no es un código, instantáneo. El teorema dice que existe algún código de longitud 1,2,2 que es instantáneo, por ejemplo el: 11 S1 S 0 2 S 10 3 11 4.7 EEECCCUUUAAACCCIIIÓÓÓNNN DDDEEE MMMCCC MMMIIILLLLLLAAANNN Dado que los códigos instantáneos son una sub-clase de los unívocos, la condición suficiente para que exista, al menos un código unívoco, es que las longitudes li ( 4.7.1 ) es decir, si las longitudes l verifiquen la expresión: 1; l2; ...........; lq satisfacen la relación pueden construirse con ellas un código unívoco. La condición necesaria fue demostrada por Mc. Millan. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 4 de 21 4.8 LLLOOONNNGGGIIITTTUUUDDD MMMEEEDDDIIIAAA DDDEEE UUUNNN CCCÓÓÓDDDIIIGGGOOO Hasta ahora hemos visto las condiciones que debe cumplí un código instantáneo. Dado el caso real de una fuente de información que emite símbolos. Codificamos con A y B. Código A Código B S1 00 1 S2 10 10 S3 11 110 Existiendo la probabilidad de crearse otros distintos de los precedentes. Entonces, ¿cuál es el más conveniente desde el punto de vista de la economía? Indudablemente, cabría la pregunta: ¿Qué frecuencia de aparición tienen los símbolos? DDDEEEFFFIIINNNIIICCCIIIOOONNNEEESSS::: Frecuencia Relativa: Ejemplo: la frecuencia relativa de aparición de un evento es la suma de las veces que este aparece dividido por la cantidad total de eventos que componen la muestra. a b c a a c b b a b a a c c a a a b -es una muestra- frecuencia relativa de a = 9/18 = 1/2 Muestra Significativa o representativa: es aquella en que podemos tomar a la frecuencia relativa como probabilidad. Pasamos a codificar a los eventos “a”, “b” y “c”. a - - - - con palabra código de longitud la b - - - - con palabra código de longitud lb c - - - - con palabra código de longitud lc Entonces la longitud de la muestra (4.8.1) con los eventos codificados será LM = la . Na + lb . Nb + lc . Nc donde Ni L (longitud promedio) = es el número de veces que aparece el evento i en la muestra. LM/TM = Na/TM la + Nb/TM lb + Nc/TM lc fa fb fc donde: TM: total de eventos de la muestra. fi: es la frecuencia relativa del suceso i. Si la frecuencia es representativa, la frecuencia relativa coincide con la probabilidad del suceso a. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 5 de 21 Luego: L = P(a) la + P(b) lb + P(c) lc RRREEESSSUUUMMMIIIEEENNNDDDOOO::: Dado un código bloque que asocia los símbolos de una fuente S1; S2; .......; SN con las palabras Z1; Z2; .........; ZN y las probabilidades de los símbolos son P1; P2; .....; PN Desde el punto de vista económico nos interesan aquellos códigos en que la longitud es mínima. . La longitud media del código L se define como: Definición: La mayor probabilidad – menor longitud de palabra dada la fuente S diremos que un código instantáneo aplicado a S es compacto (respecto a S) si su longitud media es igual o menor que la longitud media de todos los códigos instantáneos que puedan aplicarse a la misma fuente y al mismo alfabeto. Es indudable que para obtener una longitud mínima, si el esquema de probabilidades tiene la forma ( I ) el esquema de longitudes deberá ser de la forma ( II ). Si la fuente tiene un esquema equiprobable de símbolos, las longitudes de las palabras códigos se independizan del esquema de probabilidades. Dado que las Pi son ≥ 0 y las li ≥ 0 de (4.8.1) resulta que L ≥ 0. 4.9 CCCOOOTTTAAA IIINNNFFFEEERRRIIIOOORRR DDDEEE LLLAAA LLLOOONNNGGGIIITTTUUUDDD MMMEEEDDDIIIAAA... Dado que a nosotros nos interesa obtener una longitud mínima de la codificación, comenzaremos con una pregunta; ¿Hasta dónde podemos disminuir la longitud media? Teorema: La longitud media de un código es mayor o igual que la entropía de la fuente dividida por el log2 del número de símbolos del alfabeto código. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 6 de 21 H(s)/log r ≤ L (logaritmo base 2 de x: log x) Demostración: Es fácil demostrar que: ln xz-1 (4.9.1) multiplicando (4.9.1) por –1 : ln 1/X ≥ 1-z (4.9.2) Sean Z (z1; z2; ..........; zq) e Y(y1; y2; ..........; yq) dos conjuntos de probabilidades; es decir: zi ≥ 0, yj (4.9.3) podemos escribir, haciendo uso de: log ≥ 0 ∀i,j a z = 1/logb a o sea: Y aplicando la inecuación (4.9.1) a cada término de la ∑ ( I ) obtenemos: Luego: Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemasde Información Página 7 de 21 que será una igualdad, ∀ valor de i si y sólo si zi = yi Consideremos una fuente de memoria de símbolos S1; S2; .........; Sq con sus probabilidades P1; P2; ..........; Pq. Supongamos un código bloque que codifica a la fuente S1 con un alfabeto de r símbolos y li la longitud de la palara que codifica a Si Supongamos además que Q . La entropía valdrá: 1; Q2; ...........; Qq son números tales que Q1 ≥ 0 Luego, de acuerdo a la (4.9.5) podemos escribir: Igualdad para todo i si y sólo Qi = Pi La (4.9.6) es valida para conjunto de números positivos, Qi Luego: , cuya suma sea la unidad. En particular para: Si exigimos que el código sea instantáneo por Kraft; ( II ) es ≤ 1 ⇒ log. ( II ) ≤ 0 Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 8 de 21 - H(s) ≤ log r L – - H(s) / log r ≤ L donde H(s) = bits Pudiendo expresar el cociente H(s) / log r, como la entropía en unidades r-arias quedando: Hr(s) ≤ L (4.9.7) O sea la (4.9.7) expresa que nunca podremos obtener un código cuya longitud media sea menor que la Hr(s) (entropía en unidades r-arias). Por otro lado, hemos puesto en relación dos magnitudes: la Hr(s) con otra, la longitud media, que no depende de H(s). 4.11 FFFUUUEEENNNTTTEEESSS PPPAAARRRTTTIIICCCUUULLLAAARRREEESSS... CCCOOODDDIIIFFFIIICCCAAACCCIIIÓÓÓNNN Nuestro deseo no es solo ver hasta dónde se puede disminuir L sino también de qué forma lograrlo. Entonces, veremos cuando la (4.9.7) es una igualdad. El signo desigualdad se introdujo en dos puntos, primero en la (4.9.6) y luego en la (4.9.6)bis cuando suprimimos el término II. Entonces, la (4.9.6) es una igualdad para la condición Pi = Qi Si se cumple la (4.9.8) y además: ∀i o sea: Entonces, de la (4.9.6)bis obtenemos: H(s) = logr O de otra forma: L Resumiendo, el código mínimo en longitud media, lo obtenemos si se cumplen la (4.9.8) y la (4.9.9) o sea: Un código instantáneo y una fuente de memoria nula L debe ser igual o mayor que Hr(s). Además L será mínima sí y sólo sí pueden elegirse las li iguales a logr (1/Pi); esto se podrá lograr indudablemente si logr (1/Pi) es es un número entero ∀i. Esto significa que L = Hr(s) se logra si las probabilidades de los símbolos Pi son de la forma (1/r)αi Ejemplo: para cada palabra código de cada símbolo. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 9 de 21 Pi Si ½ S1 1/8 S2 1/8 S3 1/8 S4 1/8 S5 Un código podría ser: S1 0 S2 101 S3 100 S4 111 S5 110 Si calculamos la longitud promedio: L = ½ 1 + 1/8 ( 3 x 4) = 2 binit/símb. Que comparándola con la entropía, debe ser igual. H(s) /log 2 = Hr(s) = ½ log 2 + 4 x 1/8 = ½ + 3/2 = 2 bit. O sea, ya que el código es instantáneo, y de longitud media mínima implica que es un código compacto. Nota: 4.12 PPPRRRIIIMMMEEERRR TTTEEEOOORRREEEMMMAAA DDDEEE SSSHHHAAANNNNNNOOONNN En el punto anterior vimos la solución al problema de códigos compactos si log indudablemente esta fuente tenía un esquema de probabilidades muy particular. r (1/Pi) es un número entero. Ahora plantearemos un problema más amplio o general, que es el del vector de probabilidades arbitrarias. Dado que logr 1/Pi no es un número entero, parece lógico tratar de elegir las li iguales al número entero inmediatamente superior. Por lo tanto, hacemos que li cumpla: logr 1/Pi ≤ li ≤ logr 1/Pi + 1 (4.12.1) Primeramente veremos que eligiendo las li de forma tal que cumplan con la (4.12.1), se pueda construir un código instantáneo, esto es, cumplen con la inecuación de Kraft. Aplicando antilogaritmo a la (4.12.1): 1/Pi ≤ r li o bien Pi ≥ r –li (4.12.2) Sumando esta expresión, para todos los i: Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 10 de 21 relación esta que nos dice que este código cumple con la inecuación de Kraft lo que implica que es instantáneo. Multiplicando la (4.12.1) por Pi y haciendo la sumatoria para todo i, se obtiene: Hr(s) ≤ L < Hr(s) + 1 (4.12.3) La (4.12.3) se cumple sí y sólo sí para codificar usamos el criterio enunciado en la (4.12.1). La (4.12.3) es válida para cualquier fuente de memoria nula, en particular, para una extensión de orden n, de la fuente original. Hr(sn) ≤ Ln < Hr(sn) + 1 (4.12.4) Donde Ln es la longitud media de las palabras código correspondientes a los símbolos de la fuente extendida, es decir, si λ i es la longitud de la palabra correspondiente al símbolo σi y P(σi) su probabilidad, Ln La (4.12.4) puede escribirse: n . H será: r(s) ≤ Ln < n . Hr(s) + 1 dividiendo esta por n: Hr(s) ≤ Ln / n < Hr(s) + 1/n (4.12.6) Donde Ln/n es el número medio de símbolos empleados en cada símbolo siempre de S. No debe confundirse L con Ln/n; si bien ambos se refieren al número medio de símbolos del alfabeto código, empleados por símbolos de la fuente, Ln/n indica que con objeto de alcanzar este valor medio de longitud; los símbolos Si de la fuente se han codificado en grupos de n, en lugar de hacerlo independiente. Observando la (4.12.6) vemos que es posible encontrar un valor de Ln/n tan próximo a Hr La ecuación (4.12.6) se conoce como el primer teorema de Shannon o teorema de la codificación sin ruido. La (4.12.7) muestra que el número medio de símbolos con que codificamos un símbolo de la fuente, puede hacerse tan pequeño como lo deseáramos, pero no inferior a la entropía en unidades r-arias. El problema de aumentar el orden de la extensión es la complejidad de la codificación empleada, dado que ahora tenemos q (s) como queramos, sin más que agrandar el valor de la extensión, ya que haciendo límite en la (4.12.6) se obtiene: n símbolos que codificar. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 11 de 21 4.13 MMMÉÉÉTTTOOODDDOOO DDDEEE HHHUUUFFFFFFMMMAAANNN PPPAAARRRAAA LLLAAA CCCOOONNNSSSTTTRRRUUUCCCCCCIIIÓÓÓNNN DDDEEE CCCÓÓÓDDDIIIGGGOOOSSS CCCOOOMMMPPPAAACCCTTTOOOSSS 4.13.1 CCCÓÓÓDDDIIIGGGOOO CCCOOOMMMPPPAAACCCTTTOOO BBBIIINNNAAARRRIIIOOO Veremos un método para crear un código compacto en el caso de un alfabeto binario, para luego generalizar para un alfabeto r-ario. Ambos procedimientos fueron desarrollados por huffman. Consideremos una fuente S de símbolos S1, S2, ........., Sq y probabilidades P1; P2; ..........; Pq. Supongamos ordenarlos de forma que: P1 ≥ P2 ≥ ......... ≥ Pq. Si los dos últimos símbolos los fundimos en uno solo (sumando sus probabilidades), se tiene una nueva fuente de q-1 símbolos. La denominaremos fuente reducida de S. Los nuevos símbolos los ordenamos de igual forma que anteriormente, y realizamos el agrupamiento de los dos últimos. Así sucesivamente hasta llegar a una fuente de dos símbolos. Este es el primer paso. El segundo paso consiste en asignarle un código compacto a la última fuente reducida, que precisamente es 0 y 1. El paso siguiente es retroceder en el procedimiento hasta que, habiendo partido de un código compacto, se obtenga en S1 un código compacto. Ejemplo Al decir retroceder nos referimos a: Sea Sj el código compacto correspondiente a una de las fuentes reducidas, uno de sus símbolos, Sα, estará formado por dos símbolos de la fuente procedente Sj-1 que denominamos Sα0 y Sα1; todos los demás símbolos se identifican conuno solo de Sj-1. Según esto el código compacto (instantáneo) correspondiente a Sj-1 se deduce del Sj de acuerdo a la siguiente regla: Se asigna a cada símbolo de Sj-1 (excepto Sα0 y Sα1) la palabra correspondiente al símbolo de Sj. Las palabras correspondiente a Sα0 y Sα1 se forman añadiendo un 0 y un 1 respectivamente, a la palabra asignada a Sα Se pone en evidencia que en algunas ocasiones resulta innecesario continuar la secuencia de reducciones de la fuente original hasta la fuente de dos símbolos. . Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 12 de 21 Unicamente deberá reducirse hasta llegar hasta una reducción para la cual se pueda encontrar fácilmente un código compacto. Por ejemplo, si el esquema de probabilidades de los símbolos resulta (½)αi. A partir de aquí se vuelve hacia atrás de forma vista. ¿Este código hasta aquí es compacto?, demostramos que si. Supongamos la reducción Sj. Lj = Pj1 l j1 + ............. + P jn l jn Supongamos además que esta reducción está codificada de forma compacta con Cj. La reducción anterior Sj-1 tendrá una Lj-1. Lj-1 = P(j-1, 1) l(j-1, 1) + ....................+ P(j-1, n) l(j-1, n) + P(j-1, n+1) l(j-1, n+1) Donde: P(j-1, 1) = P(j,1) P(j-1, 1) = l(j-1, 1) Además: l(j-1, n) = l(j-1, n+1) = l(j, n) + 1 P(j-1, n) = P(j-1, n+1) = P(j, n) Luego: Lj-1 = Pj1 l j1 + .............. + {( lj,1 +1) ( P(j-1, n) P j-1, n +1)} = = Pj1 l j1 + .............. + ljn Pjn + P(j-1, n) + P (j-1, n+1) Lj Pα0 Pα1 O sea: Lj-1 = Lj + Pα0 + Pα1 (4.13.1.1) Donde Pα0 y Pα1 son las probabilidades de los símbolos Sα0 y Sα1: símbolos que provienen de haber desdoblado el Sα; donde Sα es el símbolo menos probable de la reducción compacta Sj. DDDEEEMMMOOOSSSTTTRRRAAACCCIIIÓÓÓNNN Se desea demostrar que si Cj es compacta, Cj-1 Se hará por reducción al absurdo, queremos demostrar que si L también lo es. j la menor longitud media de un código instantáneo correspondiente a Sj; Lj-1 (dado por la ecuación 4.13.1.1) es también la longitud media mínima para Sj-1 de longitud media Lj-1 Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 13 de 21 y sean X’1,X’2,X’α0,X’α1, las palabras de dicho código de longitudes l’j-1, ........., l’α0, l’α1. Supongamos los subíndices ordenados según el orden decrecientes de las probabilidades de los símbolos respectivos, es decir l’1 < ......... < lα0 < lα1 Ahora construyamos Cj, código correspondiente a Sj, combinando X’α0 y X’α1 y suprimiendo el último binit sin alterar los demás. El resultado es un código instantáneo para Sj; de longitud media L’j; que debe cumplir. L’ = L’j + Pα0 + Pα1 Esta ecuación comparada con la (4.13.1.1) implica que existe un código de longitud media L’j < Lj lo que es absurdo ya que se puso que el Cj Como H era compacto. 4.13.2 CCCÓÓÓDDDIIIGGGOOO CCCOOOMMMPPPAAACCCTTTOOO RRR---AAARRRIIIOOO Por extensión, se puede ver que la obtención de un código compacto r-arios es similar al binario. Salvo que los símbolos se agrupon de a “r”. De esta manera cada fuente reducida tendrá r-1 símbolos menos que la anterior. ¿Pero en la última reducción habrá r símbolos? Esta pregunta es afirmativa si se cumple que, la fuente original esta formada por ω símbolos donde ω = r + α(r -1) siendo α un número entero. Si esto no ocurre se deberá añadir símbolos “falsos”, en número suficiente como para que se cumpla la (4.15.2.1). A los falsos símbolos se les asigna probabilidad nula, de modo que pueden ser ignorados una vez que el código haya sido construido. 4.14 RRREEENNNDDDIIIMMMIIIEEENNNTTTOOO YYY RRREEEDDDUUUNNNDDDAAANNNCCCIIIAAA DDDEEE UUUNNN CCCÓÓÓDDDIIIGGGOOO Se define rendimiento de un código a: r Es interesante graficar el n en función del n° de símbolos del código. Si el alfabeto código tiene r símbolos, y el alfabeto de la fuente tiene un esquema de probabilidades (¼) (s) < L implica ≤ 1 Así mismo puede definirse la redundancia de un código según la expresión: xi ; resulta: Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 14 de 21 4.15 CCCOOONNNFFFIIIAAABBBIIILLLIIIDDDAAADDD (((VVVSSS... EEECCCOOONNNOOOMMMÍÍÍAAA))) La información y codificación de una fuente, cuando se transmite la información por un canal real, el ruido de este cambia la información que se desea transmitir. O sea: Se emite 001 se recepciona 011 Es imprescindible entonces, estudiar la forma de poder detectar u aún más corregir ciertos tipos de errores introducidos en el canal. Se define Ruido Unitario (((aaa))) ip = i al cambio, en una palabra de un binit por su complemento (en codificación binaria). 4.15.1 PPPAAARRRIIIDDDAAADDD Este es un criterio de detección de error que consiste en agregar a la palabra codificada un bimit (ip) más (redundante), de forma tal que éste tome el valor. 1 + i2 + .................. + in si se adapta el criterio de paridad par y (4.15.1.1) (((bbb))) ip = i1 + i2 + .................. + in donde: i + 1 (4.15.1.2) i, con i = 1 ........n, son los binit que conforman la palabra código. ip : binit de paridad (impar o par). ⊕ : función “or exclusive”. n : longitud de la palabra código. Luego la palabra que se transmite será: i1, i2, .............., in, ip Al recepcionar se controla si ip cumple con la (4.15.1.1) si se utiliza paridad par o con la (4.15.1.2) si se utiliza paridad impar. Si en el camino se produjo algún error unitario se altera la paridad de la palabra, siendo posible detectarlo en el destino. Es evidente que también se detectan los cambios de orden K toda vez que K sea impar. Con este tipo de control no solo se puede llegar a detectar sino también a corregir de la siguiente forma: Antes de transmitir se forman grupos de palabras, de forma tal que conformando una matriz de m x n; se completan las filas y las columnas con el binit de paridad de la fila y de la columna obteniéndose una nueva matriz (m +1) x (n +1). Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 15 de 21 De esta forma, si al recepcionar esta matriz; el canal ha introducido un ruido unitario y se alteró, por ejemplo i22, al controlar paridad, el recepcionista verá que no cumplen la regla i2f r i2c, quedando unívocamente identificado el binit alterado. Si el alterado es una de los binit de paridad, es detectado por el incumplimiento de la paridad ipt. ¿ Dónde se pone en evidencia la redundancia, como factor de absorción del ruido? Pensemos: tenemos 3 símbolos en nuestro alfabeto código. Con esto podemos codificar 23 símbolos de una fuente, o sea 8 símbolos. Si ahora agregamos un binit de paridad seguiremos codificando 23 símbolos (ahora con protección). Pero con 4 símbolos en el alfabeto código, se pueden codificar 24 símbolos fuente o sea 16. De esto se deduce que no se utilizan: 24 - 23 Ejemplo: Codificaremos con una longitud constante, l = 5 y peso 3 de unos. Existen un número de palabras que cumplen con este peso igual a: = 3 configuraciones Estas son precisamente las configuraciones que nos absorben el ruido. 4.15.2 PPPOOORRR MMMAAAYYYOOORRRÍÍÍAAA Este método consiste en codificar de forma tal que una palabra haya mayor “peso” de “1s” o de “0s” de forma tal que al recepcionar se controla so se violó esa regla. Nótese que con cinco símbolosen un alfabeto código, se pueden codificar (sin protección) 25 = 32 símbolos fuentes. Este método detecta todos los errores unitarios. En los errores de orden mayor no se puede asegurar su eficacia. 4.15.3 DDDEEE IIIGGGUUUAAALLL PPPEEESSSOOO Es muy similar al de mayoría, salvo que ahora se codifica de forma tal de que el número de “1s” sea igual al número de “0s”. Indudablemente, las palabras códigos resultarán de longitud l, con l par. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 16 de 21 4.16 RRREEEGGGLLLAAA DDDEEE DDDEEECCCIIISSSIIIÓÓÓNNN Hemos visto hasta ahora, que algunos criterios de protección detectan errores pero no los corrigen. En algunas aplicaciones, esto se soluciona pidiendo (en el caso de haber detectado un error) que se retransmita la información. En otras aplicaciones, esto no es posible. En estas aplicaciones entonces, se debe buscar otra solución. Esta puede ser adoptar una Regla de Decisión. Consiste en recibida una palabra que se sabe con equivocación: modificarla según una regla, de manera tal que adopte la forma de una palabra sin equivocación. Es indudable que esto trae asociado una improbabilidad de error (o acierto). De ahí que esta regla de decisión debe ser adoptada de forma tal que proporcione una probabilidad de error, lo más baja posible. Ejemplo: Símbolo Fuente Palabra Código S1 000 S2 111 Si sabemos que el canal tiene una probabilidad relativamente elevado debe provocar cambios unitarios y en mucho menor grado, errores de orden superior. La regla de decisión es evidente: Si se recibe: 001 se decodifica como recibido 000 011 se decodifica como recibido 111 ............................................................... ............................................................... 4.17 HHHAAAMMMMMMIIINNNGGG (((PPPAAARRRIIIDDDAAADDD PPPOOORRR ZZZOOONNNAAASSS))) Este es un método que consiste en controlar la paridad de zonas. Estas zonas son forradas por conjuntos de binits. Veamos en un diagrama de Venn: Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 17 de 21 Acá los binits que transportan información (y por lo tanto juegan libremente) son i0, i1, y i3. Pero se observa que las zonas delimitadas, poseen además otros binits, C1, C2 y C3 que son los binits de control. Se los denomina binits de control, pues estos se acomodan de forma tal que, conjuntamente con los binits de información de su zona, conserven una determinada paridad. C1 = i0 ⊕ i1 ⊕ i2 C2 = i0 ⊕ i2 ⊕ i3 C3 = i0 ⊕ i1 ⊕ i3 Recordar que, C1,C2, C3, i0, i1, i2, i3 pueden adoptar los valores 0 ó 1. Luego: C1 controla a i0, i1, i2 y a C1 (4.17.4) C2 controla a i0, i2, i3 y a C2 (4.17.5) C3 controla a i0, i1, i3 y a C3 (4.17.6) La palabra a ser transmitida ahora tendrá la forma: i0 i1 i2 i3 C1 C2 C3 (4.17.7) Al recepcionar se controla la paridad de las zonas. Por ejemplo: Supongamos que se alteró el valor de i2. Esto trae aparejado que las ecuaciones que no se cumplen son (4.17.1) y la (4.17.2), o en otras palabras se modifico la paridad de las zonas I y II quedando unívocamente determinado el binit cambiado: i2. Si el error proviene de un cambio en un binits de control; esto se pone en evidencia pues la zona modificada es solo una, la correspondiente a dicho binit de control. PPPRRREEEGGGUUUNNNTTTAAA::: si se realiza un código con m dígitos de información. ¿Cuántos dígitos de control se deben agregar? Se deben agregar n dígitos de control. Con n dígitos de control se puede tener 2n configuraciones distintas. Cada una de estas configuraciones, indicará error en un dígito, existiendo m + n dígitos. Pero además deberá existir una configuración que indique la no existencia de error. Luego se deberá cumplir con la relación: Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 18 de 21 2n Notar que las configuraciones de los dígitos de control se repiten pero existen ocho configuraciones (que no son las mostradas en *) que me indican la: ≥ m + n + 1 (4.17.8) En nuestro ejemplo, m = 4, luego m debe valer 3 para que: 23 ≥ 4 + 3 + 1 se verifique Hagamos una parte del problema (((aaa))) equivocación en dígitos de información 4 equivocación en dígitos de control. 3 (((bbb))) La configuración que dice todo O.K. 1 Total 8 Vimos que, chequeando las zonas cuyas paridades se han alterado según sea utilizando el diagrama de Venn, o las tablas (16.5.4) (16.5.5), (16.5.6) se identifica el dígito que proporciona el problema. Este es el método cuando la palabra protegida se envía de la forma mostrada en (16.5.7). Pero existe otro método que, indica como elegir las zonas; y como intercalar, entre los dígitos de información, los dígitos de control; de forma tal que (enumerando la posición de los dígitos en la palabra transmitida), si se produce un error, la configuración que adoptan los dígitos del control, debido a ese error, me indica (en decimal) el n° del dígito que fue alterado. Falta aclarar que la configuración de los dígitos de control se obtiene así. Si la Cj fue alterada, el dígito de control correspondiente se coloca en 1. De lo contrario en cero. O sea zona Cj Alterada Cj = 1 zona Cj no Alterada Cj = 0 Veamos ahora como numeramos e intercalamos los dígitos de control en la palabra codificada. Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 19 de 21 Esta es la palabra y se han numerado los dígitos. Los dígitos de control se intercalan en las posiciones 2n Ejemplo: 3 binits de control 4 binits de información En la palabra las posiciones serán las siguientes: con n ∃ IR (dígitos rayados). Los dígitos que quedan libres, se usan para transportar información. Falta ahora ver como elegimos las zonas. Ya que la elección de esta depende la identificación del dígito alterado, esta elección no puede ser arbitraria. Recordemos ahora lo que deseamos obtener: (((aaa))) Se coloca un “uno” en el dígito de control si al recepcionar, se detecta que en esa zona no se conserva la paridad pre-establecida. (((bbb))) Colocando luego los dígitos de control en orden; el n° formado en decimal, es el número del dígito alterado. Ejemplo: Zona I alterada C1 Zona II alterada C = 1 2 Zona III correcta C = 1 3 = 0 C1 C3 C 0 0 1 3 ⇒ alterado el 3° dígito Diagrama propuesto: 2 Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 20 de 21 Luego: C1 { 1, 3, 5, 7 } C2 { 2, 3, 6, 7 } = (16.5.9) C3 Cada cuadrito, representa, en decimal, el n° del dígito. El 000, lo reservamos para indicar que no hubo ningún error; pues esto, implica C { 4, 5, 6, 7 } Si lo planteamos sobre un diagrama de Karnauch, este debe tener 8 cuadraditos. 1 = 0, C2 = 0, C3 = 0. La reglas prácticas para determinar las zonas que controlan C1, C2, C3 (((aaa))) Se ubican los dígitos de control en sus respectivos lugares. es: (((bbb))) Se observa que a cada dígito de control, por estar en las posiciones 2n ; le corresponde un n° en binario con un solo “1”. (((ccc))) Cada dígito de control, controla aquellos dígitos queen binario, posean un “1” en el binit en el cual dicho dígito de control lo posea. Ejemplo: C2 le corresponde 0 1 0 Luego C2 controla aquellos dígitos que en binario posean un “1” en el binit señalado con una | o sea: 0 1 1 3er dígito ( i0 ) 1 1 1 7° dígito ( i3 ) 0 1 0 2do dígito ( es C2 ) 0 1 1 3er dígito (i0) 1 1 0 6° dígito (i2) Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 Ingeniería en Sistemas de Información Página 21 de 21 Supongamos querer transmitir la palabra: 1 1 0 1 La ubicación será: 1 0 1 0 1 0 1 Ahora deben colocar, con el valor adecuado los dígitos de control. De acuerdo a (16.5.9) C1 = 1 ⊕ 1 ⊕ 1 = 1 (**) C2 = 1 ⊕ 0 ⊕ 1 = 0 C3 = 1 ⊕ 0 ⊕ 1 = 0 Luego la palabra que se transmite es: 1 0 1 0 1 0 1 Supongamos que al recepcionar se obtiene: 1 0 1 0 1 1 1 Se controla la paridad de la zonas nuevamente realizando el cálculo (**) Observando que: zona I no alterada C1 = 0 zona II alterada C2 = 1 zona III alterada C3 = 1 1 1 0 6 6° dígito alterado En este ejemplo, analizándolo en detalle se ve que se puede desechar cualquier dígito cumpliéndose siempre que la probabilidad de error doble no detectado es siempre igual. Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 1 de 9 CCCÓÓÓDDDIIIGGGOOO LLLIIINNNEEEAAALLL 2.5.- CÓDIGO LINEALES 2.5.1.- CÓDIGOS DE BLOQUES Se dice que un código es un código de bloque cuando sus palabras códigos tienen longitud constante, es decir Ii a b = n para todo i. El código bloque admite que se le asocie una estructura algebraica de grupo (donde sus elementos serán vectores en correspondencia con las palabras código) y de espacio vectorial. En nuestro caso (codificación binaria), el cuerpo conmutativo (K, +, .) resulta ser ([0,1],+,.), donde las leyes de composición interna están definidas por: ⊕ suma binaria (módulo dos) * producto binario ⊕ ab * 00 0 00 0 01 1 01 0 10 1 01 0 11 0 11 1 El grupo (V,+) está formado por los vectores asociados a cada palabra código, donde los elementos de cada vector pertenecen al conjunto [0,1] y la ley de composición “+” está definida como la suma binaria de vectores, esto es V1 + V2 = (X1, .............., Xn) + (g1, ........, gn) V1 + V2 = (X1 + g1, .............., Xn + gn ) Ejemplo Consideremos un código bloque con li = 3, la base estará por tres vectores linealmente independientes, por ejemplo: V1 = (0, 0, 1); V2 = (0, 1, 0); V3 = (1, 0, 0) Toda palabra código de este código de bloque se generará a partir de esta base de la siguiente manera Vi = k1 * V1 + k2 * V2 + k3 * V3 ; con ki Es posible confeccionar una tabla para la generación de todo el código: ∈ K k1 k2 k3 Vi 000 000 001 100 010 010 100 001 k1 k2 k3 Vi 101 101 110 011 111 111 Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 2 de 9 En los códigos de bloques define una métrica por medio de la distancia de Hamming, notada como d(u, v) donde “u” y “v” son dos palabras de código. El valor numérico de esta distancia coincide con la cantidad de dígitos que difieren entre u y v. Ejemplo d(10101, 01001) = 3 En caso de estar trabajando con código binario, se formaliza esta operación según: d(u, v) = P(u ⊕ u) donde ⊕ : suma módulo dos. P : peso de unos (cantidad de unos presentes en la palabra) 2.5.2.- CÓDIGOS DE GRUPO Todo subesquema vectorial del espacio vectorial asociado a un código de bloque, constituye un código lineal. Si el código de bloque del cual proviene es binario, entonces a este código lineal se lo llama Código de Grupo. (CdeG) El subespacio mencionado (V) tiene al menos una base generadora. Sean V1 y V2 los vectores de una base G del código de grupo, entonces éste es posible ser generado como combinación lineal de las vectores base. Ejemplo La cantidad de palabras código resulta ser 2m donde “m” es la dimensión del subespacio. En nuestro ejemplo: 22 = 4 Si una fuente emite un símbolo fuente, codificado con la palabra código u (perteneciente a un código de grupo) y debido al ruido se transforma en otra palabra u*; Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 3 de 9 según sea la cantidad de dígitos que se alteran en u, transformándose en u*, esta puede o no seguir perteneciendo al código de grupo. Toda vez que se genere por ruido alguna u que no pertenezca al código de grupo, se podrá detectar el error cometido. Además en ciertas circunstancias es posible también corregir el error, adoptando una regla de decisión para decodificar u*. La regla de decisión es aquella que tiene la máxima probabilidad de acierto. En este caso se adopta la máxima verosimilitud que consiste en decodificar u* asignándole la palabra del código de grupo que esté a menos distancia de Hamming de u*. Ejemplo Se envía V3 111... Se detecta el error por no pertenecer al código de grupo y (111000) y se recibe V*(011000); al recepcionar esta palabra 222... Aplicando la regla de decisión: d(V1, V*) = 2 d(V2, V*) = 5 d(V3, V*) = 1 d(V4, V*) = 4 Se observa que la menor distancia a una palabra valida es “1”, luego V* se decodifica como V3 donde sus filas están constituidas por palabras código que forman la base. La combinación lineal de las filas de esta matriz, forman el código de grupo. . Podemos finalizar diciendo que una palabra recibida no pertenece al código de grupo, cuando la distancia mínima a alguna de las palabras del código es distinta de cero (0). S la distancia mínima entre las palabras código es “µ”, entonces es posible detectar hasta (µ - 1) errores (cambios). Pero solamente es posible corregir hasta el mayor entero menor o igual que (µ - 1) / 2 errores. Un código de grupo queda definido por su matriz generadora G Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 4 de 9 2.5.2.1.- ESPACIO NULO Vamos a generar ahora, el espacio nulo V’ (sus vectores son ortogonales a los del código del grupo V). Lo hacemos de la forma habitual de resolución de sistemas de ecuaciones binarias en las incógnitas xi. • (x1, x2, .........., xn) . GT = 0 (i) De (i) se obtienen m ecuaciones con n incógnitas. Este sistema se resuelve dando valores arbitrarios a n-m de las xi incógnitas y calculando las restantes. Resuelto el sistema de ecuaciones, las n-uplas de xi resultantes -que satisfacen la ecuación (i)-, son los vectores que forman el sub-espacio nulo V’. La dimensión de V’ es complementaria a la de V, esto es, dim V’ = n - m Seleccionamos una base de V’ (n-m palabras código÷ linealmente independientes entre si). Sea esta base, por ejemplo, la compuesta por z1, z2, ........, zn-m A la matriz H –base del sub-espacio de V-, la denominamos matriz de control de paridad. 2.5.2.2.- SÍNDROME Definimos al Síndrome de una palabra código S(v . Una matriz generadora de V’ resulta entonces: j), al producto del vector asociado por la matriz control de paridad transpuesta. S(vj) = vj . HT Entonces S(vj) = 0 ⇔ vj •Hemos supuesto un código cuyas palabras tienen longitud n. ∈ V es decir eñ síndrome de una palabra código es cero, si y solo si pertenece al código de grupo. Si el síndrome de una palabra código es distinto de cero, el mensaje tuvo error y debe decodificarse adoptando una regla de decisión. Adoptaremos la máxima verosimilitud. Para establecer esta regla de decisión, hacemos el siguiente análisis.Supongamos emitida una palabra u (perteneciente al código de grupo). Por error de canal, se convierte en u*. Podemos representar este hecho, a partir de modelar el error (cambio de un dígito). ÷Reconocemos que, haciendo abuso de lenguaje, llamamos indistintamente “palabra código” o “vector”. Evidentemente son entes conceptualmente distintos, pero dada su correspondencia biunívoca en este tema, nos permitimos esta licencia. Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 5 de 9 A modo de ejemplo. El gi El síndrome de esta palabra será S(u*) = u* . H = 00101, modela un error que provocará doble (doble error) en los dígitos primero y tercero. Entonces, un error afectando a la palabra u, puede modelarse como T = (u + gi) . HT = u.HT + gi.HT ⇒ ⇒ S(u*) = gi.HT = S(gi) (ii) La igualdad planteada por la ecuación (ii), expresa que el síndrome de una palabra (u), afectada por un error, coincide con el síndrome de la palabra que modela el error (gi). Por lo tanto, conocido el S(gi) e identificado el gi que afecto la palabra del código del grupo la corrección sería inmediata: u = u* + gi (iii) La función síndrome no es una función inyectiva. Es decir, que a un determinado síndrome S(gi) le corresponden varios gi’s. Para solucionar el problema planteado en el párrafo anterior, esto es, elegir entre varios gi’s, el que se utilizará en la ecuación (iii), se adopta la regla de máxima verosimilitud: Calculado el síndrome, queda determinada una familia de posibles gi’s. Se elegirá el gi que posea el menor número de l’s. Esto indica un error posible con el menor número de cambios afectando la palabra código.≠ Resumiendo, recibida una palabra código, si el síndrome es igual a cero, significa que la palabra pertenece al CdeG≡. Si es distinto de cero, con el síndrome se identifica una familia de posibles gi’s. De entre estos, se elige el que posea menor cantidad de l’s. NNNoootttaaa::: Si hay más de un gi ≠ Recordar que los g con número mínimo de unos, no se puede aplicar la regla de decisión referida. i ≡Esto no necesariamente significa ausencia de error, podría haber ocurrido un error no detectable, es decir un error que convierta una palabra válida (del CdeG) en otra palabra del CdeG. ’s se construían simulando cambios unitarios (errores) con l’s en las posiciones correspondientes. Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 6 de 9 2.5.2.3.- EJEMPLO Analizaremos el CdeG determinado por la matriz: ¿Qué errores detecta?. ¿Qué errores corrige? El código de grupo (V), generado por G es: Longitud de las palabras, n = 5 dim V = m = 3 Cantidad de palabras del CdeG ⇒ 2dimV = 23 = 8 El error no detectable es aquel que, pese que a se un error que afecta a una palabra del CdeG, la transformó en otra palabra cuyo síndrome continua siendo cero (la transformó en otra palabra de CdeG). Dado que el síndrome de una palabra con error (u) coincide con el síndrome de la palabra error (gi), resulta que los errores no detectables son aquellos ocasionados por gi’s con síndrome igual a cero. SI S(gi) = 0 ⇒ (no hay error ó) gi ∈ V Esto es, los gi’s que producen errores no detectables son todos los vectores (palabras) de la Tabla I. (las palabras del CdeG interpretadas como gi’s). Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 7 de 9 Para el análisis de los errores que corrige, comenzamos calculando el subespacio V’. V ⊥ V’ V G V’ H Vi ∈ V Vi ∈ V’ dim V’ = n-m = 5-3 = 2 ⇒ matriz H de 2 x 5 ⇒ longitud de síndrome = 2 ⇒ ⇒ 22 = 4 síndromes. Vi’ ∈ V’ ⇔ Vi . GT = 0 ( 1 ) Vi ∈ V ⇔ Vi . HT de este producto de matrices resultan las m (3) ecuaciones con n (5) incógnitas. = 0 ( 2 ) Por (1): Damos valores arbitrarios a dos variables (x2, x5 Reordenando, se obtiene el Subespacio V’ ) y calculamos las restantes Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 8 de 9 Se eligen n-m = 2 vectores que conformen una base (marcados con *). Matriz H, control de paridad: A continuación se calculan las familias de los síndromes, gi . HT = Sj(gi ) con i = 1, ........., 24 y j = 0, ........., 3 Para (0, 1) Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss Ingeniería en Sistemas de Información Página 9 de 9 Para (1, 0) Para (1, 1) Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss Ingeniería en Sistemas de Información Página 1 de 9 AAASSSIIIGGGNNNAAACCCIIIÓÓÓNNN DDDEEE CCCAAAPPPAAACCCIIIDDDAAADDDEEESSS DDDEEE CCCAAANNNAAALLLEEESSS Enfocaremos el problema de determinar: ¿qué capacidad debe tener cada enlace (bps) para suministrar una determinada performance? Se supone una cierta distribución estadística de tráfico (promedio de longitud de mensajes, frecuencia de ingreso, promedio del número de mensajes entre dos puntos de la red). Se comienza con la asignación de capacidades para luego abordar temas tales como: elección de topología, conexión entre concentradores, ruteo de mensajes, etc. Existen distintos criterios para la asignación de capacidades. Se adopta el criterio debido a L. KLEINROCK, que supone le costo linealmente proporcional a la capacidad. Esto es, el costo equivale a una determinada capacidad total de la red. Luego, se asignarán las capacidades enlace por enlace, con el criterio de tiempo promedio de retardo mínimo. Esto da lugar a la llamada “estrategia de asignación de capacidades de la raíz cuadrada”. En la cual la capacidad de cada enlace es proporcional a la raíz cuadrada del flujo de tráfico a través del enlace. Consideramos el caso más simple, se tienen 7 ciudades, cada una de ellas con un determinado número de terminales de datos (TTY) a conectarse a una computadora central en Rosario. Se adopta la configuración de red, (la topología) estrella. Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss Ingeniería en Sistemas de Información Página 2 de 9 Cada terminal (TTY) se supone que producen un mensaje, en promedio, 30 seg. Cada mensaje se supone con una longitud promedio de 120 bits. El objetivo es determinar las capacidades troncales (Ci), en bps, para cada uno de los siete enlaces. Antes de comenzar analizaremos que sucede en el concentrador en un nodo típico, que se utiliza para combinar los mensajes entrantes y rutearlos, luego, hacia el enlace apropiado (previamente hubo efectuado los procesamientos y almacenamientos necesarios). El modelo más simple supone todos los puestos de entrada explorados instantáneamente, con mensajes en un buffer FIFO (se considera multiplexado estadístico o asincrónico). Luego de un cierto procesamiento los mensajes destinados al enlace i se rutean uno a la vez sobre la línea de salida del concentrador ( en el ejemplo resulta un único buffer debido a que enconfiguración estrella cada concentrador tiene un solo enlace de salida). Para la asignación de capacidades ignoremos detalles de las operaciones de concentración y almacenamiento. Una simplificación importante surge de suponer que el tiempo de procesamiento nodal es despreciable frente al retardo de espera de enlace (línea disponible). El modelo se reducirá a: La frecuencia promedio de mensajes λ i del enlace i es la suma de las frecuencias de los mensajes de todas las líneas entrantes al nodo. Por ejemplo: en la red estrella de la figura cada terminal tiene la misma frecuencia promedio de mensajes (1/30 mensajes/seg.), entonces, λ i en correspondencia con los 10 terminales conectados al concentrador de Mendoza. para el i-esimo enlace es el número de terminales conectados a este por el número de mensajes por segundo. Para el enlace 1 se tiene, en promedio: Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss Ingeniería en Sistemas de Información Página 3 de 9 La teoría de la cola puede aplicarse a este modelo. Se supone para ello, frecuencia de arribo de mensajes Poisson con mensajes de longitud exponencialmente distribuidos con una longitud promedio de mensajes de 1/ηi bits/mensajes donde: µ y un buffer de capacidad infinita, resultando un tiempo de retardo promedio del mensaje de: i es la frecuencia de mensajes por segundo a la salida, no siendo más que la capacidad del canal (Ci) –en bps- al multiplicarla por la longitud promedio en bits en promedio de los mensajes –longitud promedio 1/ηi-, luego: µ i = ηi C luego: Este retardo incluye el tiempo necesario para transmitir un mensaje más el retardo del mensaje en el buffer. Los buffer reales presentan una probabilidad de bloque inferior a 10e i -3, por lo tanto pueden suponerse como buffer infinito. Cuando de la frecuencia de flujo de tráfico es cercana al valor ηi Ci el tiempo de retardo crece sin límites. Es común definir un parámetro de intensidad de tráfico que por tener un único servidor coincide con el factor de utilización → (ui = ρi En términos de este parámetro: ), luego: Para ρi < 1 el retardo será Ti = 1/ηi C i exactamente el tiempo necesario para transmitir el mensaje completo. Para ρ i → 1, T i resulta muy grande. Si λ 1 = 0,33 mens./seg. y 1/λ i = 120 bits por mensaje, y si C1 De este tiempo el necesario para transmitir el mensaje será: = 100 bps se produce un retardo por mensaje transmitido sobre el canal de salida de: Y el tiempo de almacenamiento es: Resulta: Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss Ingeniería en Sistemas de Información Página 4 de 9 El tiempo de retardo sobre el canal Rosario-Buenos Aires con la misma capacidad (100 bps) se tiene: Mientras que entre Corrientes y Rosario será, para la misma capacidad: Incrementando la capacidad del canal a 900 bps, disminuye el tiempo de retardo, resultando: Considerando la red como un conjunto de enlaces (uno por nodo), el buffer asociado con el enlace i-esimo tiene una frecuencia de arribo de λ i y y la longitud promedio de mensaje emitido será 1/η Se considera, que esta forma, la red como una “caja negra”, observando los arribos a la caja, se tienen δ mensajes ingresando a la caja por unidad de tiempo, donde: , se tiene: Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss Ingeniería en Sistemas de Información Página 5 de 9 La caja negra se comporta como una cola para la cual, por el teorema de Little, tenemos: N = δ E[T Sumado sobre todos los buffer de la red y aplicando el teorema de Little a cada uno, nos da: ] = E[n] Para el promedio estadístico se tiene: Con la ecuación para tiempo de retardo, podemos iniciar el manejo del problema de asignación de capacidades de canales en una red (figura anterior). Suponemos el objetivo es minimizar el tiempo de retardo promedio sobre la red completa con una capacidad total supuesta fija. La frecuencia total de la red será: El, retardo promedio de mensajes para la red se puede calcular por medio de la ecuación(*). Donde E[T] presenta el tiempo de retardo “pesado” con los Ti en el rango de 1 a 7. Suponiendo la capacidad total como la suma de las capacidades Ci Este valor se toma constante, debiendo elegirse los C , resulta: i tal que minimicen el valor E[T]. Estos valores se pueden hallar utilizando los multiplicadores de Lagrange: se puede demostrar que el mínimo se puede hallar minimizando E[T] + ∝C. El multiplicador de Lagrange ∝ se elige para asegurar la constancia de C. Minimizando por diferenciación de E[T] + ∝C con respecto a Ci , se encuentra la solución óptima dada por: Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss Ingeniería en Sistemas de Información Página 6 de 9 ρ cumple la función de parámetro intensidad de trafico para toda la red. Con esta relación de capacidades, canal por canal es posible sustituir en la ecuación (* *) y luego hallar Ti para cada canal. Luego se puede calcular la expresión Tmin, siendo: Esta asignación de capacidad se denomina la “regla de asignación de la raíz cuadrada del flujo de información. El Tmin depende inversamente de C (o sea del costo). Siempre es posible disminuir el tiempo de retardo, aumentado el valor de C y con ello el costo. La ecuación de Tmin da el mínimo tiempo de retardo posible para un determinado costo. La ecuación de Ci La primera parte λ opt. Tiene dos partes: i/ηi es es el valor mínimo necesario que puede ser dado a Ci para habilitar el tráfico sobre el canal donde λ i es el promedio de mensajes ha ser manejados y 1/ηi su longitud promedio, luego el cociente representa el promedio de flujo ofrecido sobre el canal i en bps. Debe ser por supuesto menor que Ci . La segunda parte indica la capacidad remanente según la estrategia de la raíz cuadrada. ¿Como se aplica, ahora, la estrategia de la raíz cuadrada al circuito de la figura 1? La inversa de la longitud ηi = η = 1/120 para todos los enlaces. Entonces, y en base a cada λ i Luego, para C = 4500 bps. Como la capacidad total de la red, resulta un ρ = 0,0453. –En la práctica se realizan varias elecciones de C, y cada una corresponde a diferentes costos, se encuentra el valor de tiempo de retardo mínimo para cada una y se grafica el tiempo de retardo vs. el costo. De ello se obtiene la C apropiada para un cierto tiempo mínimo.- Así se obtiene: se halla: Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss Ingeniería en Sistemas de Información Página 7 de 9 Luego, se debe seleccionar valores de capacidad reales. En este caso se seleccionan canales de 450 o 900 bps. El costo de la línea
Compartir