Logo Studenta

comunicaciones TODO - Alberto Medina

¡Este material tiene más páginas!

Vista previa del material en texto

Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – 
Ingeniería en Sistemas de Información 
 
 Página 1 de 8 
1 Introducción 
 
En la formación de la teoría, encontramos una magnitud que cumple con las 
especificaciones que se le imponen a la medida de la información y que por tener una 
expresión formal mente idéntica a la que posee la magnitud termodinámica conocida 
como “entropía”, se la conoce con el mismo nombre. 
 
 
 
1.2 Entropía, Fuente y Canal 
 
1.2.1 Modelos aleatorios univariados 
 El modelo aleatorio univariado es un modelo probabilístico del comportamiento 
de una fuente de información o de un receptor de la misma. 
 Nuestro universo de sucesos elementales estará constituido por símbolos de la 
fuente, xi (binario, etc.). 
 
 De acuerdo a las características de los símbolos se le asigna a cada uno su 
probabilidad de ocurrencia. 
 
 Tenemos así una caracterización univariada, esto es unidimensional, de la 
fuente. 
Su representación es: 
Función que provea una magnitud que represente la cantidad de información 
asociada al suceso que representa la aparición de un símbolo de la fuente. Se propone: 
 
donde: 
 I(xi) es la cantidad de información asociada al suceso xj 
 p(xi) es la probabilidad de ocurrencia del suceso xi. 
 
 
 
Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – 
Ingeniería en Sistemas de Información 
 
 Página 2 de 8 
 Para una caracterización univariada denominamos “entropía” – y la notamos 
H(x) – a la esperanza matemática de la información por símbolo de la fuente, esto es: 
 
La función entropía tiene su máximo valor, para un determinado número de 
símbolos fuente, cuando estos son equiprobables. 
 
 
 
1.2.2- Modelos aleatorios bivariados 
 
 Se puede definir un canal de información como determinado por un alfabeto de 
salida B = (bj), J = 1, 2, 3, ........, s; y un conjunto de probabilidades condicionales 
p(bj/ai) siendo esta la probabilidad de recibir a la salida el símbolo bj cuando se envía el 
símbolo de entrada ai
Puede Representarse esquemáticamente: 
. 
 
 Un canal de importancia teórica es el binario simétrico (BSC). Este canal posee 
dos símbolos de entrada (a1 = 0, a2 = 1) y dos de salida (b1 = 0, b2 = 1). Es simétrico 
por ser iguales las probabilidades de recibir un cero al enviar un uno y viceversa. Esta 
probabilidad se denomina probabilidad de error (p). 
 Un canal sin memoria queda descripto por medio de la matriz de probabilidades 
condicionales siguiente: 
 
donde Pij = P(bj/ai) 
 Cada fila de la matriz corresponde a una entrada del canal y cada columna a una 
salida. 
 A un canal se lo denomina transparente cuando no introduce error, esto es si, su 
matriz de probabilidades condicionales es diagonal. 
 Dato un canal definido por los símbolos de entrada y salida y una matriz de 
probabilidades condicionales P. Considerando la probabilidades de los símbolos de 
entrada p(ai), i = 1, 2, ........., r y la matriz de probabilidades condicionales del canal (p), 
Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – 
Ingeniería en Sistemas de Información 
 
 Página 3 de 8 
se puede determinar otro conjunto de probabilidades p(bj), j = 1, 2, ........, s que 
representa la probabilidad de aparición del símbolo bj
 Cabe destacar que conociendo las probabilidades de salida y la matriz de 
probabilidades condicionales, en general no pueden calcularse las probabilidades de 
entrada. 
 a la salida del canal. 
 Se verán las llamadas probabilidades hacia atrás, esto es, p(ai/bj) que significa la 
probabilidad de que habiéndose dado bj a la salida, provenga de un ai
 El numerador de la expresión (4), es la probabilidad del suceso (a
 a la entrada del 
canal. Según Bayes: 
i, bj), es decir 
la probabilidad conjunta de la aparición de ai a la entrada y bj
 Entonces: 
 a la salida. 
 
 Se puede luego, obtener una matriz de probabilidades conjunta P(A,B). 
 La caracterización bivariada del sistema, se da: 
 La incertidumbre de aparición en el sistema, la información media al emitir ai y 
recepcionar bj
 Se denomina P(a
 – Se denomina entropía del sistema: 
i) a la probabilidad a priori de los símbolos de entrada. Y a 
P(ai/bj) se la denomina probabilidad a posteriori, por ser esta la probabilidad del 
símbolo, luego de sucedido bj
 Así la entropía a priori será: 
. Es posible calcular la entropía del conjunto de símbolos 
de entrada según ambas probabilidades. 
y la entropía a posteriori: 
Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – 
Ingeniería en Sistemas de Información 
 
 Página 4 de 8 
 Como los símbolos a la salida presentan una probabilidad P(bj
 esto no es más que la entropía de la fuente conociendo la recepción 
(equivocación de A respecto de B). 
) es posible 
calcular la entropía media a posteriori como 
 Como se conoce la P(bj/ai) que caracteriza al canal, en forma similar se obtiene 
la entropía del canal (equivocación de B respecto de A). 
 
 
 
1.3- Información Mutua. 
 
La información mutua es la información transferida desde la fuente al receptor a 
través del canal, esto es, la información real que llega al receptor en promedio. 
Analizando la ecuación (3) se observa que ella representa la incertidumbre con 
respecto a la fuente luego de recepcionar un símbolo bj. Al promediarla a todo el 
alfabeto de salida (según –9- ) resulta la información promedio (de la fuente) que 
bloquea el canal. Luego para calcular la información promedio real recepcionada 
bastará obtener la diferencia entre la entropía a priori y la equivocación de A respecto a 
B. 
Una importante propiedad de la información mutua es la simetría con respecto a 
las variables de entrada y salida, entonces es valido decir que: 
 
I(A, B) = I(B, A) = H(B) – H(B/A) ( 12 ) 
 
 
En el caso de canales transparentes: 
 H(A) = H(B) = H(A, B) = I(A, B) 
 H(A/B) = H(B/A) = 0 
 
Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – 
Ingeniería en Sistemas de Información 
 
 Página 5 de 8 
 
1.4- Capacidad y eficiencia de Canales. 
 
1.4.1- Capacidad 
 Supuesto un canal de alfabeto de salida B y probabilidades condicionales 
P(bj/ai
 
 
 
 
 
 
) la información mutua resulta: 
 ya que: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Analizando la expresión (13) se nota que I(A, B) depende de la probabilidad de 
los símbolos de entrada y de las características del canal. Entonces para un canal 
determinado se estudia la variación de la información mutua en función de las 
probabilidades de entrada. 
 
Con el solo hecho que la probabilidad de entrada de un símbolo sea 1, la 
información mutua será nula. Es decir que el valor mínimo I(A, B) es creo. 
Quedaría ahora analizar el valor máximo de la misma, este valor es posible 
lograrlo sintonizando la fuente que provee los símbolos de entrada al canal. Este valor 
máximo es lo que se denomina capacidad del canal, simbolizándola con C. 
 
(*) Se a introducido dentro de la sumatoria sobre j la expresión de la H(A), esto 
es posible ya que ella es independiente de ese subíndice. Ahora, si reemplazamos P(ai) 
por P(ai, bj) la expresión no cambia ya que al sumar sobre todos los símbolos de la 
salida (cuando se realiza la sumatoria sobre j) resulta P(ai) nuevamente. 
 
(**) Es válido ya que P(ai/bj) P(bj) = P(ai, bj). 
 
 
Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – 
Ingeniería en Sistemas de Información 
 
 Página 6 de 8 
La capacidad de un canal será función exclusivamente de las probabilidades 
condicionales y no dependerá de la probabilidades de los símbolos de entrada. 
En loscanales transparentes H(A/B) = 0 y resulta: 
 
 I(A, B) = H(A) – H(A/B) = H(A) 
 
entonces: 
 C = max H(A) 
 
 Si la fuente resultara equiprobable (caso de máxima entropía) y emitiera un 
símbolo: 
 H(A) = lg n (bit/simb) 
 C = lg n (bit/simb) 
 Notar que si n aumenta, la capacidad sube, lo cual es lógico ya que el canal no 
bloquea la información por es transparente. 
 
 Para una fuente binaria equiprobable: 
 
 
 
 
 
 
resulta C = lg 2 = 1 bit/simb 
 La capacidad puede expresarse también, en unidades b.p.s. (bit/seg.). Esto 
proviene de que si cada símbolo dura τ seg., y estamos en el caso binario equiprobable 
la capacidad C resulta: 
 
 C = 1/τ 
 
 FF = I(A, B) / C ( 16 ) 
 
Y redundancia de transmisión a: 
b.p.s. 
 
 
1.4.2- Eficiencia 
 Se define a eficiencia de transmisión para cada canal y fuente, a: 
 
 RED = 1 - FF 
 
 Esta redundancia es la parte no aprovechada de la capacidad portánte de 
información del canal. 
 
 
 
 
 
 
 
Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – 
Ingeniería en Sistemas de Información 
 
 Página 7 de 8 
1.5- Otros Conceptos Fundamentales 
 
1.5.1- Velocidad de información y señalización 
 Se denomina velocidad o tasa de información (R), a la cantidad de bits en 
promedio que se transmiten en 1 segundo, esto es, la cantidad de información promedio 
producida por una fuente en 1 (un) segundo. 
 R = H’(A) 
 
 Si se considera un canal con ruido, a la salida se tiene una tasa de información 
de: 
 
 R = H’(A) - H’(A/B) 
 
 Se denomina velocidad o tasa de dígitos o binits (r) a la cantidad de dígitos por 
segundo transmitidos. 
 Como la entropía es la información promedio (o bits por símbolos en promedio 
-H), resulta: 
 
 R = r H(A) 
 
 R y H son dos formas de medir información promedio, una en bits por segundos 
y otra en bits por símbolo. 
 Se denomina velocidad de señalización (s) a la inversa del tiempo mínimo que 
dura un pulso. 
 s = 1/τmin 1
 
 
 
 
 
 
 
 
 
/seg. ó baudios 
 
 
 
 
1.5.2- Capacidad de un canal y velocidad de información 
La capacidad de un canal es su capacidad de transportar información. Se mide en 
bits/seg. y una fuente con tasa de información promedio R, si R ≤ C existe una 
codificación tal que la salida de la fuente pude ser transmitida sobre el canal con una 
frecuencia arbitrariamente pequeña de error, a pesar de la existencia de ruido. S R > C 
no es posible transmitir sin error. 
 
Se supone de duración T compuesto por pulsos de duración τ, resulta r = s, esto 
es, la cantidad de pulsos por segundo transmitidos es el máximo para un cierto s. Los 
pulsos pueden tener µ niveles distintos. 
Comunicaciones - IIInnnfffooorrrmmmaaaccciiióóónnn,,, CCCooodddiiifffiiicccaaaccciiióóónnn yyy CCCaaannnaaallleeesss – 
Ingeniería en Sistemas de Información 
 
 Página 8 de 8 
 Es posible preguntarse, ¿Cuál será la cantidad de símbolos distintos que podrán 
representarse?. Esta cantidad resulta igual a los µ niveles. ¿Pero que cantidad de 
mensajes distintos pueden transmitirse?. Esta cantidad será igual al número de 
posibilidades de arreglos con repetición en T segundos. 
 
 M(T) = µ
 
 P(M) = 
T/τ 
 
 Si son equiprobables se tiene la máxima cantidad de información, la cual resulta: 
1/
 
 R = 
M(T) 
luego: 
 I = lg M(T) 
 
 Para obtener R basta con dividir por T, con ello se halla la tasa de información, 
R, en bits por segundos. No es necesario calcular la entropía, ya que al ser 
equiprobables coincide con I. 
Entonces el calculo de R es: 
I/T lg M(T) = 1/T lg µT/τ 
 
 R = 1/τ
 
Si τ = τ
 lg µ 
 
min luego 1/τ = s 
 
 Si son sucesos equiprobables y τ = τmin, entonces R es máximo y deberá ser C 
= Rmax
 Ensayando el canal el ancho de banda resulta aproximadamente igual al valor 
para el cual la relación entre la salida y la entrada disminuye una determinada cantidad. 
. Esto es, el canal deberá tener una capacidad al menos igual a R. Si el sistema es 
binario, la cantidad de niveles será µ, lo que implica una capacidad de canal coincidente 
con la de señalización. 
 
 C = s 
 
 La velocidad de señalización está ligada con una caracteristica del canal que se 
denomina ancho de banda, B. Este valor resulta: 
 
 B = s/2 
 
Errores de Canal 
Página 1 de 4 
222...777...--- ERRORES DE CANAL 
 
222...777...111...--- RUIDO BLANCO 
 El Ruido en un canal limita la capacidad de este para transmitir información. 
 El principal ruido de Canal se la conoce con el nombre de Ruido Blanco. Su 
importancia reside en el hecho de que es imposible de eliminar dado su aleatoriedad. 
 Se conoce como Ruido Blanco aquel que aparece en el canal debido a la 
asitación molecular y atómica que produce la temperatura. 
 
 De la figura resulta que la señal con ruido presenta un valor medio (Vm) y una 
evolución aleatoria alternante en el tiempo. Ahora bien: ¿Qué información nos 
proporciona la curva normal? En ella podemos hallar la probabilidad que existe de 
encontrar una señal de ruido superior a un determinado valor o entre dos valores. En la 
figura la zona sombreada determina la probabiladad de tener una señal de ruido blanco 
entre Vm(1) y Vm(2)
 
 
 
 
 
 
 
 
donde: Vr es la amplitud de la señal de salida. 
 Vs es la amplitud de la señal de entrada. 
 
 Esta relación entre amplitudes, o entre potencias, es muy común expresarla 
mediante una unidad dimensional denominada decibeles (dB) que no es más que: 
 
. 
 
 
222...777...222...--- ANCHO DE BANDA DE UN CANAL 
 El ancho de banda de un canal resulta una caracteristica del mismo que describe 
su comportamiento ante señales de distintas frecuencias. 
 Entendiendo por ganancia (o atenuación) de un canal a la relación entre la 
amplitud de la señal en la recepción y amplitud de la señal en la emisión. Resulta: 
G[dB] = 10 log G 
si G es una relación entre amplitud de señales; o 
 
A[dB] = 10 log A 
si A es una relación entre potencias. 
 
 Se entiende por ancho de banda a la diferencia entre la frecuencia superior de 
corte (f2), y la frecuencia inferior de corte (f1). Siendo ellas las frecuencias donde la 
relación entre amplitudes de señales de salida y entrada disminuyen en 3 dB respecto de 
la ganancia (G) de las frecuencias medias, siendo esta la frecuencia de uso normal de 
canal. 
 Generalmente cuando la frecuencia inferior de corte es pequeña se puede 
aproximar el ancho de banda a la frecuencia superior de corte. 
Errores de Canal 
Página 2 de 4 
222...777...333...--- CAPACIDAD DE UN CANAL CON RUIDO 
Estudios de Hartley y posteriores trabajos de Shannon prueban que si: 
 La potencia media del ruido blanco es N, entonces, la entropía 
media del canal o equivocación de Y respecto de X es: 
 H(Y/X) = B . lg (2 . | | . e . N) 
En, la expresión, B es el ancho de banda del canal, N es la 
potencia media del ruido y e es el número neperiano. 
 
La señal emitida es continua y con distribución mal, la entropía 
en la recepción para una potencia media S es: 
H(Y) = B . lg (2 . | | . e . (N + S)) 
Entonces la capacidad del canal: 
 C = I(X,Y) 
 H(Y) = H(Y/X) 
 B . lg (1 + S/N) [bps] 
 
222...777...444...--- CAUSAS DE ERRORES DE CANAL 
 
222...777...444...111...--- Ruidos Impulsivos: El ruido impulsivo constituye la principal fuente 
de error dentro de los posibles errores de canal. 
Los ruidos impulsivos provocan grandes picos en la amplitud de la señal de 
ruido blanco que llegan a saturar el canal, por lo tanto, llegan a provocar perturbaciones 
de varios binits constituyendo lo que se denomina ráfaga. 
En la figura se observa una serie de gráficos donde se visualiza una señal a 
emitir asociada a una tira de binits que constituyen el dato a emitir, la señal de ruidos 
blancos con los picos debido a ruido impulsivo, la señal recepcionada que no es másque 
la suma de la señales anteriores, y finalmente en función de esta ultima la determinación 
del dato recibido y los binits equivocados (cabe destacar que las amplitudes graficadas 
no guardan relación con respecto a la realidad, donde la amplitud de la señal de ruido es 
mucho menor que la de la señal a transmitir). 
 
 Las causas que producen ruido impulsivo se pueden agrupar en causas externas e 
internas ( al canal). Se analizan distintas situaciones donde puede presentarse ruidos 
impulsivos: 
  Dentro de las fuentes externas de ruido impulsivo se tienen: 
 Acoplamientos Capacitivos o inductivos debido a: 
 Acción de canales paralelos. 
 Equipos de conmutación mecánica. 
 Señales de supervisión 
 Fenómenos atmosféricos. 
 
 Las fuentes internas pueden deberse a: 
 Variaciones en la impedancia debido a conexiones. 
 Señales que sobrecargan los amplificadores. 
 Interferencias debido a armónicas espureas generadas por filtros. 
 
Este tipo de errores pueden ser contrarrestados por medio de la utilización de modems 
(MOdulador – DEModulador) adecuados al canal y al ruido impulsivo que en el se 
puede presentar. 
 
Errores de Canal 
Página 3 de 4 
 
222...777...444...222...--- Modulaciones Espureas: Otro tipo de errores de canal es debido a 
modulaciones espureas, se puede presentar bajo tres formas: 
 
 modulación Cruzada (1), 
 intermodulación (2) y 
 eco (3). 
 
(1) Los acoplamientos inductivos o capacitivos entre canales pueden provocar 
captación de señales de otros canales, este efecto se conoce con el nombre de 
Modulación Cruzada. Este tipo de captaciones es común que se produzca en canales 
pares, canales múltiples y antenas de microondas comunes. La forma de tratar esta 
causa de error es similar al de ruido blanco, su nivel resulta mensurable, y 
generalmente, no es de fundamental importancia en la transmisión de datos. 
 
 (2) Variaciones en la linealidad de los amplificadores, en canales multiplex 
provocan modulaciones espureas conocidas con el nombre de Intermodulación. Este 
error es debido a que al amplificar las señales en conjunto esta falta de linealidad puede 
producir armónicas que pueden afectar bandas de otros canales. La intermodulación es 
común en señales de tipo repetitivo por su alto contenido armónico, señales de tal tipo 
son las de discado, las de supervisión. La intermodulación puede ser corregida 
utilizando modems adecuados o reduciendo la amplitud de señales de tipo repetitivo. 
 
 (3)
 Variaciones de impedancia del canal; 
 Las variaciones de impedancia del canal puede provocar reflexiones de las 
señales provocando una modulación espurea denominada Eco, en canales de voz con, 
fin de eliminar este efecto se utilizan supresores de eco. 
 
222...777...444...333...--- Variaciones de nivel (desvanecimiento): Las variaciones de nivel de la señal 
también pueden afectar la transmisión de información (datos), en especial si estas 
variaciones ocurren en forma rapida. 
Entre las causas que pueden provocar variaciones de nivel encontramos: 
 Fallas en contactos y 
 Fallas en amplificadores. 
Como así también el enmascaramiento de la señal provocada por fenómenos 
meteorológicos, como lluvias, que afectan canales de microondas. Este efecto se conoce 
con el nombre de desvanecimiento. Es posible en emisiones radiales. 
Este tipo de error hace que se considere a este canal como de pobre resultado 
para la transmisión de datos. 
 
222...777...444...444...--- Distorsión: Otra causa de error en canales es provocada por distorsiones 
introducidas por el propio canal. Entre las distorsiones mas comunes encontramos: 
 Atenuación, 
 Distorsión fase/frecuencia, 
 Variación de frecuencia de la portadora y 
 Variación del nivel de muestreo. 
 
La ventaja de esta causa de error es el admitir correcciones por medio del diseño, 
ya que el canal las introduce en forma sistemática (repetitivamente y en forma 
previsible). 
Errores de Canal 
Página 4 de 4 
La atenuación es provocada por variaciones en la impedancia del canal con la 
frecuencia. Se puede graficar la atenuación en función de la frecuencia. En estos 
gráficos como el de la figura, es posible encontrar canales como el “a” que solo pueden 
utilizarse en un entorno reducido de la banda y otros, como el “b”, que admiten un 
mayor ancho de banda. Este ultimo tipo de canales puede llegar a lograrse desde el 
primero mediante el uso de ecualizadores adecuados. 
 
 La distorsión fase/frecuencia se debe a que el canal introduce distintos retardos 
para frecuencias diferentes. Con la cual se varían las velocidades de transmisión para las 
ondas de distintas frecuencias, esto provoca defasajes entre las distintas armónicas de la 
señal. 
 Si se desea transmitir una seal, por medio de un componente fundamental y de 
su tercera armónica (descomposición de Fourier), y no esta presenta la distorsión 
fase/frecuencia se observaría la forma de onda de la figura: 
 
 Si en cambio se tuviera un defasaje entre ambas ondas (fundamental y tercera 
armónica) debido a esta distorsión la señal resultante presentaría el siguiente aspecto: 
 
Estos primeros dos tipos de distorsión suelen encontrarse relacionados en el momento 
de pretender corregirlos, así, si se tratara de corregir la atenuación por medio de cables 
bifilares (dos conductores) de larga distancia muy cargados se empeoraría la distorsión 
fase/frecuencia. Para reducir esta última se tendrían cables coaxiles y circuitos de 
microondas. 
 
 Otro tipo de distorsión es la variación de frecuencia de la portadora (señal 
soporte) con respecto a la frecuencia de emisión de la misma. Esta distorsión se puede 
corregir mediante las transmisiones de una señal sub-portadora de sincronismo en 
frecuencia. 
 La distorsión por variación del nivel de Umbral de muestreo se produce en el 
momento de la demodulación o al regenerar los pulsos en repetidoras. Esta distorsión 
produce una modificación en el ancho de los pulsos de la señal. Así, se puede observar 
en la figura como variaciones positivas o negativas de este nivel de Umbral provocan 
alargamientos o acortamientos del ancho de los pulsos que representan al “uno” o al 
“cero”. 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 1 de 21 
CCCOOODDDIIIFFFIIICCCAAACCCIIIÓÓÓNNN 
 
 
4.1 IIINNNTTTRRROOODDDUUUCCCCCCIIIÓÓÓNNN 
 Desde el momento que nos planteamos el problema del manejo de la 
información (ej.: transmisión, recepción, almacenamiento, etc.); surge la necesidad de 
representar de alguna manera, esta información, que vendrá dada por eventos o sucesos, 
para de esta forma poder transmitirlas por un “canal” o línea de comunicación, en forma 
de señal eléctrica, lumínicas, electromagnéticas, etc. Y de igual modo poder registrar o 
almacenar esta información, ya sea electrónica, magnética o mecánicamente, etc. 
 
Definición: Si denominamos S = (s1; s2; ..........; sq) al conjunto de símbolos de un 
alfabeto dado; queda definida una codificación al poner en correspondencia todas las 
secuencias posibles de símbolos de S con secuencia de símbolos de algún otro alfabeto 
Z = (z1; z2; ...........; zr). Entonces “S” recibe el nombre de alfabeto fuente y “Z” alfabeto 
código. 
 
 
4.2 CCCÓÓÓDDDIIIGGGOOO BBBLLLOOOQQQUUUEEE 
 Es aquel que asigna a cada uno de los símbolos del código fuente S una 
secuencia fija de símbolos del alfabeto código Z. Estas secuencias fijas (secuencias Zj) 
reciben el nombre de palabras código. 
 S1 Z1 (z11; z12; ..........; z1r) 
S2 Z2 (z21; z22; ..........; z2r) 
 
Sj Zj (zj1; zj2; ............; zjr) 
 
 
4.3 CCCÓÓÓDDDIIIGGGOOO NNNOOO---SSSIIINNNGGGUUULLLAAARRR 
 Es aquel en que todas sus palabras son distintas: 
S1 1 
S2 11 
S3 00 
 S4
 Por Ejemplo 
 10 
 
 
4.4 CCCÓÓÓDDDIIIGGGOOOSSS UUUNNNÍÍÍVVVOOOCCCAAAMMMEEENNNTTTEEE DDDEEECCCOOODDDIIIFFFIIICCCAAABBBLLLEEESSS 
 Se dice que un código es unívocamente decodificable si a cualquier secuenciade 
palabras código, le corresponde una y sólo una secuencia de símbolos de la fuente. 
 S1 1 
S2 11 
S3 00 
 S4 10 
 Si se recepciona: 1100 puede corresponder a S2 y S3 o a S1, S1 y S3. 
Veamos que este código es no singular al considerar los símbolos individuales, 
pero es singular considerando alguna secuencia. 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 2 de 21 
 Por lo que podemos dar otra definición de código unívoco: Un código bloque se 
dice unívocamente decodificado sí y solo sí su extensión de orden n es no singular para 
cualquier valor finito de n. 
 
 Consideremos una codificación cuyas palabras código son de igual longitud. En 
este caso, indudablemente el código es unívoco. (siempre que sea no singular el 
original). 
 Otro caso son los llamado códigos “coma”; este nombre se debe a que el 
comienzo o el fin de cada palabra está señalizada por un cero o por un uno. 
 
Ejemplo 
 Código A Código B 
S1 0 1 
S2 01 01 
S3 011 001 
 S4 0111 0001 
 De esta forma se identifica cada palabra. 
 
 
 
 
4.5 CCCÓÓÓDDDIIIGGGOOOSSS IIINNNSSSTTTAAANNNTTTÁÁÁNNNEEEOOOSSS 
 Retomando el ejemplo anterior, donde los códigos A y B eran unívocos. Si 
estamos recepcionando palabras según el código A no seriamos capaces de 
decodificarlas instantáneamente según las vamos recibiendo. Por ejemplo, si recibimos 
la palabra 01, no podemos decir que corresponde a S2 hasta que hayamos recibido el 
símbolo siguiente. Si el próximo es un 0 (cero) entonces si decimos que correspondía a 
S2, si es un 1 (uno) debemos esperar el próximo, etc. 
 Si en cambio, utilizamos el código B, podemos decodificar las palabras 
instantáneamente. 
 
Definición: Sea Zi = zi1; zi2; .........; zim una palabra de código. Se denomina prefijo de 
esta palabra a la secuencia zi1; zi2; .........; zij con j ≤ m. 
 A partir de esto se puede enunciar: “La condición necesaria y suficiente para que 
un código sea instantáneo es que ninguna palabra del código coincida con el prefijo de 
otra. 
 
 
4.6 IIINNNEEECCCUUUAAACCCIIIÓÓÓNNN DDDEEE KKKRRRAAAFFFTTT 
 
 Si los enteros l
Teorema 
1; l2; ..........; lq
 
 
 
 
 
 
 satisfacen la inecuación: 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 3 de 21 
Entonces esta es condición suficiente y necesaria para que exista al menos un 
código instantáneo de r símbolos en su alfabeto y cuyas q palabras códigos tienen las 
longitudes l1; l2; ..........; lq respectivamente. 
 
Nota:
 
 el teorema no dice que cualquier código cuyas longitudes cumplan la condición 
(4.6.1) es un código instantáneo. 
 Ejemplo 
 
S1
S
 0 
2
S
 00 
3
 
 
 
 
 
 
este código satisface la ec.(4.6.1) sin embargo no es un código, instantáneo. El teorema 
dice que existe algún código de longitud 1,2,2 que es instantáneo, por ejemplo el: 
 
 11 
S1
S
 0 
2
S
 10 
3 11 
 
 
 
4.7 EEECCCUUUAAACCCIIIÓÓÓNNN DDDEEE MMMCCC MMMIIILLLLLLAAANNN 
 Dado que los códigos instantáneos son una sub-clase de los unívocos, la 
condición suficiente para que exista, al menos un código unívoco, es que las longitudes 
li
 
 
 ( 4.7.1 ) 
 
 
 es decir, si las longitudes l
 verifiquen la expresión: 
1; l2; ...........; lq satisfacen la relación pueden 
construirse con ellas un código unívoco. La condición necesaria fue demostrada por Mc. 
Millan. 
 
 
 
 
 
 
 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 4 de 21 
4.8 LLLOOONNNGGGIIITTTUUUDDD MMMEEEDDDIIIAAA DDDEEE UUUNNN CCCÓÓÓDDDIIIGGGOOO 
 Hasta ahora hemos visto las condiciones que debe cumplí un código 
instantáneo. Dado el caso real de una fuente de información que emite símbolos. 
Codificamos con A y B. 
 Código A Código B 
S1 00 1 
S2 10 10 
S3 11 110 
 
 Existiendo la probabilidad de crearse otros distintos de los precedentes. 
Entonces, ¿cuál es el más conveniente desde el punto de vista de la economía? 
 Indudablemente, cabría la pregunta: ¿Qué frecuencia de aparición tienen los 
símbolos? 
 
DDDEEEFFFIIINNNIIICCCIIIOOONNNEEESSS::: 
 
Frecuencia Relativa:
 
 Ejemplo: 
 la frecuencia relativa de aparición de un evento es la suma 
de las veces que este aparece dividido por la cantidad total de eventos que componen la 
muestra. 
 a b c a a c b b a b a a c c a a a b -es una muestra- 
 frecuencia relativa de a = 9/18 = 1/2 
 
 
 Muestra Significativa o representativa: es aquella en que podemos tomar a la 
frecuencia relativa como probabilidad. 
 
Pasamos a codificar a los eventos “a”, “b” y “c”. 
 a - - - - con palabra código de longitud la 
 b - - - - con palabra código de longitud lb 
c - - - - con palabra código de longitud lc 
 
Entonces la longitud de la muestra (4.8.1) con los eventos codificados será 
 LM = la . Na + lb . Nb + lc . Nc 
 
 donde Ni
 
L (longitud promedio) = 
 es el número de veces que aparece el evento i en la muestra. 
LM/TM = Na/TM la + Nb/TM lb + Nc/TM lc 
 
fa fb fc 
 
donde: 
 TM: total de eventos de la muestra. 
 fi: es la frecuencia relativa del suceso i. 
 
 Si la frecuencia es representativa, la frecuencia relativa coincide con la 
probabilidad del suceso a. 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 5 de 21 
Luego: 
 L = P(a) la + P(b) lb + P(c) lc 
 
RRREEESSSUUUMMMIIIEEENNNDDDOOO::: 
 Dado un código bloque que asocia los símbolos de una fuente S1; S2; .......; SN 
con las palabras Z1; Z2; .........; ZN y las probabilidades de los símbolos son 
P1; P2; .....; PN
 
 
 
 
 
Desde el punto de vista económico nos interesan aquellos códigos en que la 
longitud es mínima. 
 
. La longitud media del código L se define como: 
Definición:
La mayor probabilidad – menor longitud de palabra 
 dada la fuente S diremos que un código instantáneo aplicado a S es 
compacto (respecto a S) si su longitud media es igual o menor que la longitud media de 
todos los códigos instantáneos que puedan aplicarse a la misma fuente y al mismo 
alfabeto. 
 
 Es indudable que para obtener una longitud mínima, si el esquema de 
probabilidades tiene la forma ( I ) el esquema de longitudes deberá ser de la forma ( II ). 
 
 
 
 
 
 
 
 
 
 
 Si la fuente tiene un esquema equiprobable de símbolos, las longitudes de las 
palabras códigos se independizan del esquema de probabilidades. 
 Dado que las Pi son ≥ 0 y las li ≥ 0 de (4.8.1) resulta que L ≥ 0. 
 
 
 
4.9 CCCOOOTTTAAA IIINNNFFFEEERRRIIIOOORRR DDDEEE LLLAAA LLLOOONNNGGGIIITTTUUUDDD MMMEEEDDDIIIAAA... 
 Dado que a nosotros nos interesa obtener una longitud mínima de la 
codificación, comenzaremos con una pregunta; ¿Hasta dónde podemos disminuir la 
longitud media? 
 
Teorema: La longitud media de un código es mayor o igual que la entropía de la fuente 
dividida por el log2 del número de símbolos del alfabeto código. 
 
 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 6 de 21 
 
H(s)/log r ≤ L (logaritmo base 2 de x: log x) 
 
Demostración: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Es fácil demostrar que: ln xz-1 (4.9.1) 
multiplicando (4.9.1) por –1 : 
 ln 1/X ≥ 1-z (4.9.2) 
Sean Z (z1; z2; ..........; zq) e Y(y1; y2; ..........; yq) dos conjuntos de 
probabilidades; es decir: zi ≥ 0, yj 
 
 (4.9.3) 
 
 
podemos escribir, haciendo uso de: log
 ≥ 0 ∀i,j 
a z = 1/logb
 
 
 
 
 a 
 
o sea: 
 
 
 
 
 
 
Y aplicando la inecuación (4.9.1) a cada término de la ∑ ( I ) obtenemos: 
 
 
 
 
 
 
 
Luego: 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemasde Información 
 
Página 7 de 21 
 
 
 
 
 
 
 
 
 
 
que será una igualdad, ∀ valor de i si y sólo si zi = yi 
 
 Consideremos una fuente de memoria de símbolos S1; S2; .........; Sq con sus 
probabilidades P1; P2; ..........; Pq. Supongamos un código bloque que codifica a la 
fuente S1 con un alfabeto de r símbolos y li la longitud de la palara que codifica a Si
 
 
 
 
 
Supongamos además que Q
. La 
entropía valdrá: 
1; Q2; ...........; Qq son números tales que Q1
 
 
 
 
 ≥ 0 
Luego, de acuerdo a la (4.9.5) podemos escribir: 
 
 
 
 
 
Igualdad para todo i si y sólo Qi = Pi 
 La (4.9.6) es valida para conjunto de números positivos, Qi
 
 
 
 
Luego: 
, cuya suma sea la 
unidad. En particular para: 
 
 
 
 
 
 
 
 
 
Si exigimos que el código sea instantáneo por Kraft; ( II ) es ≤ 1 ⇒ log. ( II ) ≤ 0 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 8 de 21 
- H(s) ≤ log r L – 
- H(s) / log r ≤ L donde H(s) = bits 
 
Pudiendo expresar el cociente H(s) / log r, como la entropía en unidades r-arias 
quedando: 
 Hr(s) ≤ L (4.9.7) 
 
O sea la (4.9.7) expresa que nunca podremos obtener un código cuya longitud 
media sea menor que la Hr(s) (entropía en unidades r-arias). 
 Por otro lado, hemos puesto en relación dos magnitudes: la Hr(s) con otra, la 
longitud media, que no depende de H(s). 
 
 
 
4.11 FFFUUUEEENNNTTTEEESSS PPPAAARRRTTTIIICCCUUULLLAAARRREEESSS... CCCOOODDDIIIFFFIIICCCAAACCCIIIÓÓÓNNN 
 Nuestro deseo no es solo ver hasta dónde se puede disminuir L sino también de 
qué forma lograrlo. Entonces, veremos cuando la (4.9.7) es una igualdad. 
 El signo desigualdad se introdujo en dos puntos, primero en la (4.9.6) y luego en 
la (4.9.6)bis cuando suprimimos el término II. 
 Entonces, la (4.9.6) es una igualdad para la condición Pi = Qi
 
 
 
 
 Si se cumple la (4.9.8) y además: 
 ∀i o sea: 
 
 
 
 
Entonces, de la (4.9.6)bis obtenemos: 
 
 H(s) = logr
 
 
O de otra forma: 
 L 
 
 Resumiendo, el código mínimo en longitud media, lo obtenemos si se cumplen 
la (4.9.8) y la (4.9.9) o sea: 
 
 
 
 Un código instantáneo y una fuente de memoria nula L debe ser igual o mayor 
que Hr(s). Además L será mínima sí y sólo sí pueden elegirse las li iguales a logr (1/Pi); 
esto se podrá lograr indudablemente si logr (1/Pi) es es un número entero ∀i. 
 Esto significa que L = Hr(s) se logra si las probabilidades de los símbolos Pi son 
de la forma (1/r)αi 
 
 Ejemplo: 
para cada palabra código de cada símbolo. 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 9 de 21 
 Pi Si 
 ½ S1 
 1/8 S2 
1/8 S3 
1/8 S4 
1/8 S5 
 
 Un código podría ser: 
 S1 0 
 S2 101 
 S3 100 
 S4 111 
 S5 110 
 
 Si calculamos la longitud promedio: L = ½ 1 + 1/8 ( 3 x 4) = 2 binit/símb. Que 
comparándola con la entropía, debe ser igual. 
 
H(s) /log 2 = Hr(s) = ½ log 2 + 4 x 1/8 = ½ + 3/2 
 
= 2 bit. 
 
O sea, ya que el código es instantáneo, y de longitud media mínima implica que es un 
código compacto. 
Nota:
 
 
 
4.12 PPPRRRIIIMMMEEERRR TTTEEEOOORRREEEMMMAAA DDDEEE SSSHHHAAANNNNNNOOONNN 
 En el punto anterior vimos la solución al problema de códigos compactos si 
log
 indudablemente esta fuente tenía un esquema de probabilidades muy particular. 
r (1/Pi) es un número entero. Ahora plantearemos un problema más amplio o general, 
que es el del vector de probabilidades arbitrarias. 
 Dado que logr 1/Pi no es un número entero, parece lógico tratar de elegir las li 
iguales al número entero inmediatamente superior. 
Por lo tanto, hacemos que li cumpla: 
 
 logr 1/Pi ≤ li ≤ logr 1/Pi + 1 (4.12.1) 
 
 Primeramente veremos que eligiendo las li de forma tal que cumplan con la 
(4.12.1), se pueda construir un código instantáneo, esto es, cumplen con la inecuación 
de Kraft. 
Aplicando antilogaritmo a la (4.12.1): 
 
1/Pi ≤ r li 
 o bien 
 Pi ≥ r –li 
 
(4.12.2) 
 
Sumando esta expresión, para todos los i: 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 10 de 21 
 
 
relación esta que nos dice que este código cumple con la inecuación de Kraft lo 
que implica que es instantáneo. 
 Multiplicando la (4.12.1) por Pi y haciendo la sumatoria para todo i, se obtiene: 
 
 Hr(s) ≤ L < Hr(s) + 1 (4.12.3) 
 
 La (4.12.3) se cumple sí y sólo sí para codificar usamos el criterio enunciado en 
la (4.12.1). 
 La (4.12.3) es válida para cualquier fuente de memoria nula, en particular, para 
una extensión de orden n, de la fuente original. 
 
 Hr(sn) ≤ Ln < Hr(sn) + 1 (4.12.4) 
 
Donde Ln es la longitud media de las palabras código correspondientes a los 
símbolos de la fuente extendida, es decir, si λ i es la longitud de la palabra 
correspondiente al símbolo σi y P(σi) su probabilidad, Ln
 
 
 
 
 
La (4.12.4) puede escribirse: 
 
 n . H
 será: 
 
r(s) ≤ Ln < n . Hr(s) + 1 
 dividiendo esta por n: 
 
 Hr(s) ≤ Ln / n < Hr(s) + 1/n (4.12.6) 
 
 Donde Ln/n es el número medio de símbolos empleados en cada símbolo siempre 
de S. No debe confundirse L con Ln/n; si bien ambos se refieren al número medio de 
símbolos del alfabeto código, empleados por símbolos de la fuente, Ln/n indica que con 
objeto de alcanzar este valor medio de longitud; los símbolos Si de la fuente se han 
codificado en grupos de n, en lugar de hacerlo independiente. 
 Observando la (4.12.6) vemos que es posible encontrar un valor de Ln/n tan 
próximo a Hr
 
 
 
 
 La ecuación (4.12.6) se conoce como el primer teorema de Shannon o teorema 
de la codificación sin ruido. 
 La (4.12.7) muestra que el número medio de símbolos con que codificamos un 
símbolo de la fuente, puede hacerse tan pequeño como lo deseáramos, pero no inferior a 
la entropía en unidades r-arias. 
 El problema de aumentar el orden de la extensión es la complejidad de la 
codificación empleada, dado que ahora tenemos q
(s) como queramos, sin más que agrandar el valor de la extensión, ya que 
haciendo límite en la (4.12.6) se obtiene: 
n símbolos que codificar. 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 11 de 21 
 
 
 
4.13 MMMÉÉÉTTTOOODDDOOO DDDEEE HHHUUUFFFFFFMMMAAANNN PPPAAARRRAAA LLLAAA CCCOOONNNSSSTTTRRRUUUCCCCCCIIIÓÓÓNNN DDDEEE CCCÓÓÓDDDIIIGGGOOOSSS 
CCCOOOMMMPPPAAACCCTTTOOOSSS 
 
 4.13.1 CCCÓÓÓDDDIIIGGGOOO CCCOOOMMMPPPAAACCCTTTOOO BBBIIINNNAAARRRIIIOOO 
 Veremos un método para crear un código compacto en el caso de un alfabeto 
binario, para luego generalizar para un alfabeto r-ario. 
 Ambos procedimientos fueron desarrollados por huffman. 
 Consideremos una fuente S de símbolos S1, S2, ........., Sq y probabilidades 
P1; P2; ..........; Pq. Supongamos ordenarlos de forma que: P1 ≥ P2 ≥ ......... ≥ Pq. 
 Si los dos últimos símbolos los fundimos en uno solo (sumando sus 
probabilidades), se tiene una nueva fuente de q-1 símbolos. La denominaremos fuente 
reducida de S. Los nuevos símbolos los ordenamos de igual forma que anteriormente, y 
realizamos el agrupamiento de los dos últimos. Así sucesivamente hasta llegar a una 
fuente de dos símbolos. Este es el primer paso. 
 El segundo paso consiste en asignarle un código compacto a la última fuente 
reducida, que precisamente es 0 y 1. El paso siguiente es retroceder en el procedimiento 
hasta que, habiendo partido de un código compacto, se obtenga en S1
 
 un código 
compacto. 
 Ejemplo 
 
 
 
 
 
 
 
 
 
 
 
 
 
Al decir retroceder nos referimos a: 
 Sea Sj el código compacto correspondiente a una de las fuentes reducidas, uno 
de sus símbolos, Sα, estará formado por dos símbolos de la fuente procedente Sj-1 que 
denominamos Sα0 y Sα1; todos los demás símbolos se identifican conuno solo de Sj-1. 
 Según esto el código compacto (instantáneo) correspondiente a Sj-1 se deduce del 
Sj de acuerdo a la siguiente regla: 
Se asigna a cada símbolo de Sj-1 (excepto Sα0 y Sα1) 
la palabra correspondiente al símbolo de Sj. Las palabras correspondiente a Sα0 y Sα1 se 
forman añadiendo un 0 y un 1 respectivamente, a la palabra asignada a Sα
 Se pone en evidencia que en algunas ocasiones resulta innecesario continuar la 
secuencia de reducciones de la fuente original hasta la fuente de dos símbolos. 
. 
 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 12 de 21 
Unicamente deberá reducirse hasta llegar hasta una reducción para la cual se pueda 
encontrar fácilmente un código compacto. Por ejemplo, si el esquema de probabilidades 
de los símbolos resulta (½)αi. A partir de aquí se vuelve hacia atrás de forma vista. 
 
 ¿Este código hasta aquí es compacto?, demostramos que si. 
 
Supongamos la reducción Sj. 
 Lj = Pj1 l j1 + ............. + P jn l jn 
 
Supongamos además que esta reducción está codificada de forma compacta con 
Cj. 
 La reducción anterior Sj-1 tendrá una Lj-1. 
 
 Lj-1 = P(j-1, 1) l(j-1, 1) + ....................+ P(j-1, n) l(j-1, n) + P(j-1, n+1) l(j-1, 
n+1) 
 
Donde: 
 P(j-1, 1) = P(j,1) 
 P(j-1, 1) = l(j-1, 1) 
 
 
 
 
Además: 
 l(j-1, n) = l(j-1, n+1) = l(j, n) + 1 
 P(j-1, n) = P(j-1, n+1) = P(j, n) 
 
Luego: 
 Lj-1 = Pj1 l j1 + .............. + {( lj,1 +1) ( P(j-1, n) P j-1, n +1)} = 
 = Pj1 l j1 + .............. + ljn Pjn + P(j-1, n) + P (j-1, n+1) 
 Lj Pα0 Pα1 
 
 
O sea: 
 Lj-1 = Lj + Pα0 + Pα1 (4.13.1.1) 
 
 Donde Pα0 y Pα1 son las probabilidades de los símbolos Sα0 y Sα1: símbolos que 
provienen de haber desdoblado el Sα; donde Sα es el símbolo menos probable de la 
reducción compacta Sj. 
 
 
 
 
 
DDDEEEMMMOOOSSSTTTRRRAAACCCIIIÓÓÓNNN 
 Se desea demostrar que si Cj es compacta, Cj-1 
 Se hará por reducción al absurdo, queremos demostrar que si L
también lo es. 
j la menor 
longitud media de un código instantáneo correspondiente a Sj; Lj-1 (dado por la 
ecuación 4.13.1.1) es también la longitud media mínima para Sj-1 de longitud media Lj-1 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 13 de 21 
y sean X’1,X’2,X’α0,X’α1, las palabras de dicho código de longitudes l’j-1, ........., l’α0, 
l’α1. 
 Supongamos los subíndices ordenados según el orden decrecientes de las 
probabilidades de los símbolos respectivos, es decir 
 l’1 < ......... < lα0 < lα1 
Ahora construyamos Cj, código correspondiente a Sj, combinando X’α0 y X’α1 y 
suprimiendo el último binit sin alterar los demás. El resultado es un código instantáneo 
para Sj; de longitud media L’j; que debe cumplir. 
 
 L’ = L’j + Pα0 + Pα1 
 
Esta ecuación comparada con la (4.13.1.1) implica que existe un código de longitud 
media L’j < Lj lo que es absurdo ya que se puso que el Cj
 
 
 
 Como H
 era compacto. 
 
 
 
 
4.13.2 CCCÓÓÓDDDIIIGGGOOO CCCOOOMMMPPPAAACCCTTTOOO RRR---AAARRRIIIOOO 
 Por extensión, se puede ver que la obtención de un código compacto r-arios es 
similar al binario. Salvo que los símbolos se agrupon de a “r”. 
 De esta manera cada fuente reducida tendrá r-1 símbolos menos que la anterior. 
¿Pero en la última reducción habrá r símbolos? 
 Esta pregunta es afirmativa si se cumple que, la fuente original esta formada por 
ω símbolos donde ω = r + α(r -1) siendo α un número entero. 
 Si esto no ocurre se deberá añadir símbolos “falsos”, en número suficiente como 
para que se cumpla la (4.15.2.1). A los falsos símbolos se les asigna probabilidad nula, 
de modo que pueden ser ignorados una vez que el código haya sido construido. 
 
 
 
4.14 RRREEENNNDDDIIIMMMIIIEEENNNTTTOOO YYY RRREEEDDDUUUNNNDDDAAANNNCCCIIIAAA DDDEEE UUUNNN CCCÓÓÓDDDIIIGGGOOO 
Se define rendimiento de un código a: 
r
 
 
 
 Es interesante graficar el n en función del n° de símbolos del código. 
 Si el alfabeto código tiene r símbolos, y el alfabeto de la fuente tiene un esquema 
de probabilidades (¼)
(s) < L implica ≤ 1 
 Así mismo puede definirse la redundancia de un código según la expresión: 
xi
 
 
 
 
 
; resulta: 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 14 de 21 
 
 
 
 
 
 
 
 
 
4.15 CCCOOONNNFFFIIIAAABBBIIILLLIIIDDDAAADDD (((VVVSSS... EEECCCOOONNNOOOMMMÍÍÍAAA))) 
 La información y codificación de una fuente, cuando se transmite la información 
por un canal real, el ruido de este cambia la información que se desea transmitir. 
O sea: 
 Se emite 001 se recepciona 011 
 Es imprescindible entonces, estudiar la forma de poder detectar u aún más 
corregir ciertos tipos de errores introducidos en el canal. 
 Se define Ruido Unitario
(((aaa))) ip = i
 al cambio, en una palabra de un binit por su 
complemento (en codificación binaria). 
 
 
 4.15.1 PPPAAARRRIIIDDDAAADDD 
 Este es un criterio de detección de error que consiste en agregar a la palabra 
codificada un bimit (ip) más (redundante), de forma tal que éste tome el valor. 
 
1 + i2 + .................. + in
si se adapta el criterio de paridad par y 
 
 (4.15.1.1) 
(((bbb))) ip = i1 + i2 + .................. + in 
 
donde: i
+ 1 (4.15.1.2) 
i, con i = 1 ........n, son los binit que conforman la palabra código. 
 
ip : binit de paridad (impar o par). 
⊕ : función “or exclusive”. 
n : longitud de la palabra código. 
 
Luego la palabra que se transmite será: 
 i1, i2, .............., in, ip 
 
 Al recepcionar se controla si ip cumple con la (4.15.1.1) si se utiliza paridad par 
o con la (4.15.1.2) si se utiliza paridad impar. 
 Si en el camino se produjo algún error unitario se altera la paridad de la palabra, 
siendo posible detectarlo en el destino. 
Es evidente que también se detectan los cambios de orden K toda vez que K sea 
impar. 
Con este tipo de control no solo se puede llegar a detectar sino también a 
corregir de la siguiente forma: 
Antes de transmitir se forman grupos de palabras, de forma tal que conformando 
una matriz de m x n; se completan las filas y las columnas con el binit de paridad de la 
fila y de la columna obteniéndose una nueva matriz (m +1) x (n +1). 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 15 de 21 
De esta forma, si al recepcionar esta matriz; el canal ha introducido un ruido 
unitario y se alteró, por ejemplo i22, al controlar paridad, el recepcionista verá que no 
cumplen la regla i2f r i2c, quedando unívocamente identificado el binit alterado. 
Si el alterado es una de los binit de paridad, es detectado por el incumplimiento 
de la paridad ipt. 
¿ Dónde se pone en evidencia la redundancia, como factor de absorción del 
ruido? 
Pensemos: tenemos 3 símbolos en nuestro alfabeto código. Con esto podemos 
codificar 23 símbolos de una fuente, o sea 8 símbolos. Si ahora agregamos un binit de 
paridad seguiremos codificando 23 símbolos (ahora con protección). 
Pero con 4 símbolos en el alfabeto código, se pueden codificar 24 símbolos 
fuente o sea 16. 
De esto se deduce que no se utilizan: 
 24 - 23
 
 Ejemplo: 
 Codificaremos con una longitud constante, l = 5 y peso 3 de unos. 
 Existen un número de palabras que cumplen con este peso igual a: 
 = 3 configuraciones 
Estas son precisamente las configuraciones que nos absorben el ruido. 
 
 
 
 4.15.2 PPPOOORRR MMMAAAYYYOOORRRÍÍÍAAA 
 Este método consiste en codificar de forma tal que una palabra haya mayor 
“peso” de “1s” o de “0s” de forma tal que al recepcionar se controla so se violó esa 
regla. 
 
 
 
 
 
 
 
 
 Nótese que con cinco símbolosen un alfabeto 
código, se pueden codificar (sin protección) 25 = 32 
símbolos fuentes. Este método detecta todos los errores 
unitarios. 
En los errores de orden mayor no se puede 
asegurar su eficacia. 
 
 
 
 
 
 
 4.15.3 DDDEEE IIIGGGUUUAAALLL PPPEEESSSOOO 
 Es muy similar al de mayoría, salvo que ahora se codifica de forma tal de que el 
número de “1s” sea igual al número de “0s”. 
 Indudablemente, las palabras códigos resultarán de longitud l, con l par. 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 16 de 21 
 
 
 
 
 
 
 
4.16 RRREEEGGGLLLAAA DDDEEE DDDEEECCCIIISSSIIIÓÓÓNNN 
 Hemos visto hasta ahora, que algunos criterios de protección detectan errores 
pero no los corrigen. 
 En algunas aplicaciones, esto se soluciona pidiendo (en el caso de haber 
detectado un error) que se retransmita la información. 
 En otras aplicaciones, esto no es posible. En estas aplicaciones entonces, se debe 
buscar otra solución. 
 Esta puede ser adoptar una Regla de Decisión. 
 Consiste en recibida una palabra que se sabe con equivocación: modificarla 
según una regla, de manera tal que adopte la forma de una palabra sin equivocación. 
 Es indudable que esto trae asociado una improbabilidad de error (o acierto). 
 De ahí que esta regla de decisión debe ser adoptada de forma tal que proporcione 
una probabilidad de error, lo más baja posible. 
 
 Ejemplo: 
 Símbolo Fuente Palabra Código 
 S1 000 
 S2 111 
 Si sabemos que el canal tiene una probabilidad relativamente elevado debe 
provocar cambios unitarios y en mucho menor grado, errores de orden superior. 
La regla de decisión es evidente: 
 Si se recibe: 001 se decodifica como recibido 000 
011 se decodifica como recibido 111 
............................................................... 
............................................................... 
 
 
 
 
 
 
 
4.17 HHHAAAMMMMMMIIINNNGGG (((PPPAAARRRIIIDDDAAADDD PPPOOORRR ZZZOOONNNAAASSS))) 
 Este es un método que consiste en controlar la paridad de zonas. Estas zonas son 
forradas por conjuntos de binits. 
 Veamos en un diagrama de Venn: 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 17 de 21 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Acá los binits que transportan información (y por lo tanto juegan libremente) son 
i0, i1, y i3. 
 Pero se observa que las zonas delimitadas, poseen además otros binits, C1, C2 y 
C3 que son los binits de control. 
 Se los denomina binits de control, pues estos se acomodan de forma tal que, 
conjuntamente con los binits de información de su zona, conserven una determinada 
paridad. 
 C1 = i0 ⊕ i1 ⊕ i2 
 C2 = i0 ⊕ i2 ⊕ i3 
C3 = i0 ⊕ i1 ⊕ i3 
 Recordar que, C1,C2, C3, i0, i1, i2, i3 pueden adoptar los valores 0 ó 1. 
Luego: 
C1 controla a i0, i1, i2 y a C1 (4.17.4) 
C2 controla a i0, i2, i3 y a C2 (4.17.5) 
C3 controla a i0, i1, i3 y a C3 (4.17.6) 
 
La palabra a ser transmitida ahora tendrá la forma: 
 i0 i1 i2 i3 C1 C2 C3 (4.17.7) 
Al recepcionar se controla la paridad de las zonas. 
 Por ejemplo: Supongamos que se alteró el valor de i2. 
 Esto trae aparejado que las ecuaciones que no se cumplen son (4.17.1) y la 
(4.17.2), o en otras palabras se modifico la paridad de las zonas I y II quedando 
unívocamente determinado el binit cambiado: i2. 
 Si el error proviene de un cambio en un binits de control; esto se pone en 
evidencia pues la zona modificada es solo una, la correspondiente a dicho binit de 
control. 
 PPPRRREEEGGGUUUNNNTTTAAA::: si se realiza un código con m dígitos de información. ¿Cuántos 
dígitos de control se deben agregar? 
 Se deben agregar n dígitos de control. 
 Con n dígitos de control se puede tener 2n configuraciones distintas. 
 Cada una de estas configuraciones, indicará error en un dígito, existiendo m + n 
dígitos. Pero además deberá existir una configuración que indique la no existencia de 
error. Luego se deberá cumplir con la relación: 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 18 de 21 
 2n
 
 
 
 
 
 
 
 
 
 
 
 
 Notar que las configuraciones de los dígitos de control se repiten pero existen 
ocho configuraciones (que no son las mostradas en *) que me indican la: 
 
 ≥ m + n + 1 (4.17.8) 
 
En nuestro ejemplo, m = 4, luego m debe valer 3 para que: 
 
 23 ≥ 4 + 3 + 1 se verifique 
 
Hagamos una parte del problema 
(((aaa))) equivocación en dígitos de información 4 
 equivocación en dígitos de control. 3 
(((bbb))) La configuración que dice todo O.K. 1 
 Total 8 
 
 Vimos que, chequeando las zonas cuyas paridades se han alterado según sea 
utilizando el diagrama de Venn, o las tablas (16.5.4) (16.5.5), (16.5.6) se identifica el 
dígito que proporciona el problema. Este es el método cuando la palabra protegida se 
envía de la forma mostrada en (16.5.7). 
 Pero existe otro método que, indica como elegir las zonas; y como intercalar, 
entre los dígitos de información, los dígitos de control; de forma tal que (enumerando la 
posición de los dígitos en la palabra transmitida), si se produce un error, la 
configuración que adoptan los dígitos del control, debido a ese error, me indica (en 
decimal) el n° del dígito que fue alterado. Falta aclarar que la configuración de los 
dígitos de control se obtiene así. 
 Si la Cj fue alterada, el dígito de control correspondiente se coloca en 1. De lo 
contrario en cero. O sea zona Cj Alterada Cj = 1 
 zona Cj no Alterada Cj
 
 
 
 
 = 0 
 
 
 
 
Veamos ahora como numeramos e intercalamos los dígitos de control en la palabra 
codificada. 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 19 de 21 
 
 Esta es la palabra y se han numerado los dígitos. Los dígitos de control se 
intercalan en las posiciones 2n
 
 Ejemplo: 
 3 binits de control 
 4 binits de información 
En la palabra las posiciones serán las siguientes: 
 con n ∃ IR (dígitos rayados). 
 Los dígitos que quedan libres, se usan para transportar información. 
 Falta ahora ver como elegimos las zonas. 
 Ya que la elección de esta depende la identificación del dígito alterado, esta 
elección no puede ser arbitraria. 
 
 
 
 
 
 
 
 
 
Recordemos ahora lo que deseamos obtener: 
(((aaa))) Se coloca un “uno” en el dígito de 
control si al recepcionar, se detecta que en esa zona no se conserva la paridad 
pre-establecida. 
(((bbb))) Colocando luego los dígitos de 
control en orden; el n° formado en decimal, es el número del dígito alterado. 
 
 Ejemplo: 
 Zona I alterada C1
 Zona II alterada C
 = 1 
2
 Zona III correcta C
 = 1 
3 = 0 
 
C1 C3 C
 0 0 1 3 ⇒ alterado el 3° dígito 
 
 
 
 
 
 
 
 
 
Diagrama propuesto: 
2 
 
 
 
 
 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 20 de 21 
 
 
 
 
 
 
 
 
 
 
 
Luego: 
 C1 { 1, 3, 5, 7 } 
C2 { 2, 3, 6, 7 } = (16.5.9) 
C3
 
 
 
 
 
 
 
 
 
 Cada cuadrito, representa, en decimal, el n° del dígito. El 000, lo reservamos 
para indicar que no hubo ningún error; pues esto, implica C
 { 4, 5, 6, 7 } 
 Si lo planteamos sobre un diagrama de Karnauch, este debe tener 8 cuadraditos. 
1 = 0, C2 = 0, C3 = 0. 
 La reglas prácticas para determinar las zonas que controlan C1, C2, C3
(((aaa))) Se ubican los dígitos de control en sus respectivos lugares. 
 es: 
 
(((bbb))) Se observa que a cada dígito de control, por estar en las 
posiciones 2n
 
; le corresponde un n° en binario con un solo “1”. 
(((ccc))) Cada dígito de control, controla aquellos dígitos queen binario, 
posean un “1” en el binit en el cual dicho dígito de control lo posea. 
 
 Ejemplo: 
 C2 le corresponde 0 1 0 
 
 Luego C2 controla aquellos dígitos que en binario posean un “1” en el binit 
señalado con una | o sea: 
 
 
 
 
0 1 1 3er dígito ( i0 ) 
1 1 1 7° dígito ( i3 ) 
0 1 0 2do dígito ( es C2 ) 
0 1 1 3er dígito (i0) 
1 1 0 6° dígito (i2) 
Comunicaciones - CCCooodddiiifffiiicccaaaccciiióóónnn – Unidad N°4 
Ingeniería en Sistemas de Información 
 
Página 21 de 21 
 
Supongamos querer transmitir la palabra: 
 1 1 0 1 
 
La ubicación será: 
1 0 1 0 1 0 1 
 
Ahora deben colocar, con el valor adecuado los dígitos de control. 
 De acuerdo a (16.5.9) 
 
C1 = 1 ⊕ 1 ⊕ 1 = 1 (**) 
C2 = 1 ⊕ 0 ⊕ 1 = 0 
C3 = 1 ⊕ 0 ⊕ 1 = 0 
 
Luego la palabra que se transmite es: 
1 0 1 0 1 0 1 
 
Supongamos que al recepcionar se obtiene: 
1 0 1 0 1 1 1 
 Se controla la paridad de la zonas nuevamente realizando el cálculo (**) 
Observando que: 
 
zona I no alterada C1 = 0 
zona II alterada C2 = 1 
zona III alterada C3 = 1 
 
 1 1 0 6 6° dígito alterado 
 
 En este ejemplo, analizándolo en detalle se ve que se puede desechar cualquier 
dígito cumpliéndose siempre que la probabilidad de error doble no detectado es siempre 
igual. 
 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 1 de 9 
CCCÓÓÓDDDIIIGGGOOO LLLIIINNNEEEAAALLL 
 
2.5.- CÓDIGO LINEALES 
 
2.5.1.- CÓDIGOS DE BLOQUES 
 Se dice que un código es un código de bloque cuando sus palabras códigos 
tienen longitud constante, es decir Ii
a b 
 = n para todo i. 
 El código bloque admite que se le asocie una estructura algebraica de grupo 
(donde sus elementos serán vectores en correspondencia con las palabras código) y de 
espacio vectorial. 
 En nuestro caso (codificación binaria), el cuerpo conmutativo (K, +, .) resulta ser 
([0,1],+,.), donde las leyes de composición interna están definidas por: 
⊕ suma binaria (módulo dos) 
 * producto binario 
 
 
⊕ ab * 
00 0 00 0 
01 1 01 0 
10 1 01 0 
11 0 11 1 
 
 El grupo (V,+) está formado por los vectores asociados a cada palabra código, 
donde los elementos de cada vector pertenecen al conjunto [0,1] y la ley de composición 
“+” está definida como la suma binaria de vectores, esto es 
 
 V1 + V2 = (X1, .............., Xn) + (g1, ........, gn) 
 V1 + V2 = (X1 + g1, .............., Xn + gn
 
) 
Ejemplo 
 Consideremos un código bloque con li = 3, la base estará por tres vectores 
linealmente independientes, por ejemplo: 
 V1 = (0, 0, 1); V2 = (0, 1, 0); V3 = (1, 0, 0) 
 
 Toda palabra código de este código de bloque se generará a partir de esta base de 
la siguiente manera 
 Vi = k1 * V1 + k2 * V2 + k3 * V3 ; con ki
 Es posible confeccionar una tabla para la generación de todo el código: 
 ∈ K 
k1 k2 k3 Vi 
000 000 
001 100 
010 010 
100 001 
k1 k2 k3 Vi 
101 101 
110 011 
111 111 
 
 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 2 de 9 
 En los códigos de bloques define una métrica por medio de la distancia de 
Hamming, notada como d(u, v) donde “u” y “v” son dos palabras de código. El valor 
numérico de esta distancia coincide con la cantidad de dígitos que difieren entre u y v. 
 
 
Ejemplo 
 d(10101, 01001) = 3 
 En caso de estar trabajando con código binario, se formaliza esta operación 
según: 
 d(u, v) = P(u ⊕ u) 
donde 
 ⊕ : suma módulo dos. 
 P : peso de unos (cantidad de unos presentes en la palabra) 
 
 
 
 
 2.5.2.- CÓDIGOS DE GRUPO 
 Todo subesquema vectorial del espacio vectorial asociado a un código de 
bloque, constituye un código lineal. Si el código de bloque del cual proviene es binario, 
entonces a este código lineal se lo llama Código de Grupo. (CdeG) 
 El subespacio mencionado (V) tiene al menos una base generadora. Sean V1 y 
V2 los vectores de una base G del código de grupo, entonces éste es posible ser 
generado como combinación lineal de las vectores base. 
 
Ejemplo 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 La cantidad de palabras código resulta ser 2m donde “m” es la dimensión del 
subespacio. En nuestro ejemplo: 
 22 = 4 
 
 Si una fuente emite un símbolo fuente, codificado con la palabra código u 
(perteneciente a un código de grupo) y debido al ruido se transforma en otra palabra u*; 
 
 
 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 3 de 9 
según sea la cantidad de dígitos que se alteran en u, transformándose en u*, esta puede o 
no seguir perteneciendo al código de grupo. Toda vez que se genere por ruido alguna u 
que no pertenezca al código de grupo, se podrá detectar el error cometido. Además en 
ciertas circunstancias es posible también corregir el error, adoptando una regla de 
decisión para decodificar u*. La regla de decisión es aquella que tiene la máxima 
probabilidad de acierto. En este caso se adopta la máxima verosimilitud que consiste 
en decodificar u* asignándole la palabra del código de grupo que esté a menos distancia 
de Hamming de u*. 
 
Ejemplo 
 Se envía V3
111... Se detecta el error por no pertenecer al código de grupo y 
(111000) y se recibe V*(011000); al recepcionar esta palabra 
 
222... Aplicando la regla de decisión: 
 
d(V1, V*) = 2 
 d(V2, V*) = 5 
 d(V3, V*) = 1 
 d(V4, V*) = 4 
 
 
 Se observa que la menor distancia a una palabra valida es “1”, luego V* se 
decodifica como V3
 
 
 
 
 
 
 
 
donde sus filas están constituidas por palabras código que forman la base. La 
combinación lineal de las filas de esta matriz, forman el código de grupo. 
. Podemos finalizar diciendo que una palabra recibida no pertenece 
al código de grupo, cuando la distancia mínima a alguna de las palabras del código es 
distinta de cero (0). 
 S la distancia mínima entre las palabras código es “µ”, entonces es posible 
detectar hasta (µ - 1) errores (cambios). Pero solamente es posible corregir hasta el 
mayor entero menor o igual que (µ - 1) / 2 errores. 
 
 Un código de grupo queda definido por su matriz generadora G 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 4 de 9 
2.5.2.1.- ESPACIO NULO 
 Vamos a generar ahora, el espacio nulo V’ (sus vectores son ortogonales a los 
del código del grupo V). Lo hacemos de la forma habitual de resolución de sistemas de 
ecuaciones binarias en las incógnitas xi. • 
 
 (x1, x2, .........., xn) . GT = 0 (i) 
 De (i) se obtienen m ecuaciones con n incógnitas. 
 
 Este sistema se resuelve dando valores arbitrarios a n-m de las xi incógnitas y 
calculando las restantes. 
 Resuelto el sistema de ecuaciones, las n-uplas de xi resultantes -que satisfacen la 
ecuación (i)-, son los vectores que forman el sub-espacio nulo V’. 
La dimensión de V’ es complementaria a la de V, esto es, 
 dim V’ = n - m 
 
 Seleccionamos una base de V’ (n-m palabras código÷ linealmente 
independientes entre si). 
 Sea esta base, por ejemplo, la compuesta por z1, z2, ........, zn-m
 
 
 
 
 
 
 
A la matriz H –base del sub-espacio de V-, la denominamos matriz de control de 
paridad. 
 
2.5.2.2.- SÍNDROME 
 Definimos al Síndrome de una palabra código S(v
. Una matriz 
generadora de V’ resulta entonces: 
j), al producto del vector 
asociado por la matriz control de paridad transpuesta. 
 S(vj) = vj . HT 
Entonces 
 S(vj) = 0 ⇔ vj
•Hemos supuesto un código cuyas palabras tienen longitud n. 
 ∈ V 
 
es decir eñ síndrome de una palabra código es cero, si y solo si pertenece al código de 
grupo. 
 Si el síndrome de una palabra código es distinto de cero, el mensaje tuvo error y 
debe decodificarse adoptando una regla de decisión. Adoptaremos la máxima 
verosimilitud. 
 Para establecer esta regla de decisión, hacemos el siguiente análisis.Supongamos emitida una palabra u (perteneciente al código de grupo). Por error de 
canal, se convierte en u*. Podemos representar este hecho, a partir de modelar el error 
(cambio de un dígito). 
 
÷Reconocemos que, haciendo abuso de lenguaje, llamamos indistintamente “palabra código” o “vector”. Evidentemente son entes 
conceptualmente distintos, pero dada su correspondencia biunívoca en este tema, nos permitimos esta licencia. 
 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 5 de 9 
 A modo de ejemplo. El gi
 
 
 
 
 
 
 
 
El síndrome de esta palabra será 
 S(u*) = u* . H
 = 00101, modela un error que provocará doble (doble 
error) en los dígitos primero y tercero. 
 
 Entonces, un error afectando a la palabra u, puede modelarse como 
T = (u + gi) . HT = u.HT + gi.HT ⇒ 
 
 ⇒ S(u*) = gi.HT = S(gi) (ii) 
 La igualdad planteada por la ecuación (ii), expresa que el síndrome de una 
palabra (u), afectada por un error, coincide con el síndrome de la palabra que modela el 
error (gi). Por lo tanto, conocido el S(gi) e identificado el gi que afecto la palabra del 
código del grupo la corrección sería inmediata: 
 u = u* + gi (iii) 
 
 La función síndrome no es una función inyectiva. Es decir, que a un 
determinado síndrome S(gi) le corresponden varios gi’s. 
 Para solucionar el problema planteado en el párrafo anterior, esto es, elegir entre 
varios gi’s, el que se utilizará en la ecuación (iii), se adopta la regla de máxima 
verosimilitud: 
 
 Calculado el síndrome, queda determinada una familia de posibles gi’s. Se 
elegirá el gi que posea el menor número de l’s. Esto indica un error posible con 
el menor número de cambios afectando la palabra código.≠ 
 
 Resumiendo, recibida una palabra código, si el síndrome es igual a cero, 
significa que la palabra pertenece al CdeG≡. Si es distinto de cero, con el síndrome se 
identifica una familia de posibles gi’s. De entre estos, se elige el que posea menor 
cantidad de l’s. 
 
NNNoootttaaa::: Si hay más de un gi
 
≠ Recordar que los g
 con número mínimo de unos, no se puede aplicar la regla de 
decisión referida. 
 
 
 
 
 
 
 
i
≡Esto no necesariamente significa ausencia de error, podría haber ocurrido un error no detectable, es decir un error que convierta 
una palabra válida (del CdeG) en otra palabra del CdeG. 
 
’s se construían simulando cambios unitarios (errores) con l’s en las posiciones correspondientes. 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 6 de 9 
2.5.2.3.- EJEMPLO 
 Analizaremos el CdeG determinado por la matriz: 
 
 
 
 
 
 
¿Qué errores detecta?. ¿Qué errores corrige? 
El código de grupo (V), generado por G es: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 Longitud de las palabras, n = 5 
 dim V = m = 3 
 Cantidad de palabras del CdeG ⇒ 2dimV = 23 
 
= 8 
El error no detectable es aquel que, pese que a se un error que afecta a una 
palabra del CdeG, la transformó en otra palabra cuyo síndrome continua siendo cero (la 
transformó en otra palabra de CdeG). Dado que el síndrome de una palabra con error (u) 
coincide con el síndrome de la palabra error (gi), resulta que los errores no detectables 
son aquellos ocasionados por gi’s con síndrome igual a cero. 
 
 SI 
 S(gi) = 0 ⇒ (no hay error ó) gi ∈ V 
 Esto es, los gi’s que producen errores no detectables son todos los vectores 
(palabras) de la Tabla I. (las palabras del CdeG interpretadas como gi’s). 
 
 
 
 
 
 
 
 
 
 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 7 de 9 
Para el análisis de los errores que corrige, comenzamos calculando el subespacio V’. 
 
V ⊥ V’ V G V’ H 
 Vi ∈ V Vi ∈ V’ 
 
dim V’ = n-m = 5-3 = 2 ⇒ matriz H de 2 x 5 ⇒ longitud de síndrome = 2 ⇒ 
⇒ 22 = 4 síndromes. 
 Vi’ ∈ V’ ⇔ Vi . GT = 0 ( 1 ) 
 Vi ∈ V ⇔ Vi . HT
 
 
 
 
 
 
 
de este producto de 
matrices resultan las m (3) 
ecuaciones con n (5) 
incógnitas. 
 
 = 0 ( 2 ) 
 
Por (1): 
 
 
 
 
 
 
 
Damos valores arbitrarios a dos variables (x2, x5
 
 
 
 
 
 
 
 
Reordenando, se obtiene el Subespacio V’ 
) y calculamos las restantes 
 
 
 
 
 
 
 
 
 
 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 8 de 9 
 Se eligen n-m = 2 vectores que conformen una base (marcados con *). Matriz H, 
control de paridad: 
 
 
 
 
 
 
 
A continuación se calculan las familias de los síndromes, 
 
 gi . HT = Sj(gi
 
 
 
 
 
 
 
 
 
 
 
) con i = 1, ........., 24 y j = 0, ........., 3 
 
 
 Para (0, 1) 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Comunicaciones – CCCóóódddiiigggooosss LLLiiinnneeeaaallleeesss 
 Ingeniería en Sistemas de Información 
Página 9 de 9 
Para (1, 0) 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Para (1, 1) 
 
 
 
 
 
 
 
Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss 
Ingeniería en Sistemas de Información 
Página 1 de 9 
AAASSSIIIGGGNNNAAACCCIIIÓÓÓNNN DDDEEE CCCAAAPPPAAACCCIIIDDDAAADDDEEESSS DDDEEE CCCAAANNNAAALLLEEESSS 
 
 
 Enfocaremos el problema de determinar: ¿qué capacidad debe tener cada enlace 
(bps) para suministrar una determinada performance? 
 
 Se supone una cierta distribución estadística de tráfico (promedio de longitud de 
mensajes, frecuencia de ingreso, promedio del número de mensajes entre dos puntos de 
la red). 
 
 Se comienza con la asignación de capacidades para luego abordar temas tales 
como: elección de topología, conexión entre concentradores, ruteo de mensajes, etc. 
 
 Existen distintos criterios para la asignación de capacidades. Se adopta el criterio 
debido a L. KLEINROCK, que supone le costo linealmente proporcional a la capacidad. 
Esto es, el costo equivale a una determinada capacidad total de la red. Luego, se 
asignarán las capacidades enlace por enlace, con el criterio de tiempo promedio de 
retardo mínimo. Esto da lugar a la llamada “estrategia de asignación de capacidades de 
la raíz cuadrada”. En la cual la capacidad de cada enlace es proporcional a la raíz 
cuadrada del flujo de tráfico a través del enlace. 
 
 Consideramos el caso más simple, se tienen 7 ciudades, cada una de ellas con un 
determinado número de terminales de datos (TTY) a conectarse a una computadora 
central en Rosario. Se adopta la configuración de red, (la topología) estrella. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss 
Ingeniería en Sistemas de Información 
Página 2 de 9 
 Cada terminal (TTY) se supone que producen un mensaje, en promedio, 30 seg. 
Cada mensaje se supone con una longitud promedio de 120 bits. El objetivo es 
determinar las capacidades troncales (Ci), en bps, para cada uno de los siete enlaces. 
 
 Antes de comenzar analizaremos que sucede en el concentrador en un nodo 
típico, que se utiliza para combinar los mensajes entrantes y rutearlos, luego, hacia el 
enlace apropiado (previamente hubo efectuado los procesamientos y almacenamientos 
necesarios). El modelo más simple supone todos los puestos de entrada explorados 
instantáneamente, con mensajes en un buffer FIFO (se considera multiplexado 
estadístico o asincrónico). Luego de un cierto procesamiento los mensajes destinados al 
enlace i se rutean uno a la vez sobre la línea de salida del concentrador ( en el ejemplo 
resulta un único buffer debido a que enconfiguración estrella cada concentrador tiene 
un solo enlace de salida). 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Para la asignación de capacidades ignoremos detalles de las operaciones de 
concentración y almacenamiento. Una simplificación importante surge de suponer que 
el tiempo de procesamiento nodal es despreciable frente al retardo de espera de enlace 
(línea disponible). 
 
El modelo se reducirá a: 
 
 
 
 
 
La frecuencia promedio de mensajes λ i del enlace i es la suma de las frecuencias 
de los mensajes de todas las líneas entrantes al nodo. Por ejemplo: en la red estrella de 
la figura cada terminal tiene la misma frecuencia promedio de mensajes (1/30 mensajes/seg.), 
entonces, λ i
 
 
 
en correspondencia con los 10 terminales conectados al concentrador de Mendoza. 
 
 para el i-esimo enlace es el número de terminales conectados a este por el 
número de mensajes por segundo. Para el enlace 1 se tiene, en promedio: 
Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss 
Ingeniería en Sistemas de Información 
Página 3 de 9 
 La teoría de la cola puede aplicarse a este modelo. Se supone para ello, 
frecuencia de arribo de mensajes Poisson con mensajes de longitud exponencialmente 
distribuidos con una longitud promedio de mensajes de 1/ηi bits/mensajes
 
 
 
 
donde: µ
 y un buffer de 
capacidad infinita, resultando un tiempo de retardo promedio del mensaje de: 
i es la frecuencia de mensajes por segundo a la salida, no siendo más que la 
capacidad del canal (Ci) –en bps- al multiplicarla por la longitud promedio en bits en 
promedio de los mensajes –longitud promedio 1/ηi-, luego: 
 
 µ i = ηi C
luego: 
 
 
 
 
 Este retardo incluye el tiempo necesario para transmitir un mensaje más el 
retardo del mensaje en el buffer. Los buffer reales presentan una probabilidad de bloque 
inferior a 10e
i 
-3, por lo tanto pueden suponerse como buffer infinito. 
 
 Cuando de la frecuencia de flujo de tráfico es cercana al valor ηi Ci el tiempo de 
retardo crece sin límites. Es común definir un parámetro de intensidad de tráfico que por 
tener un único servidor coincide con el factor de utilización → (ui = ρi
 
 
 
En términos de este parámetro: 
), luego: 
 
 
 
 Para ρi < 1 el retardo será Ti = 1/ηi C i exactamente el tiempo necesario para 
transmitir el mensaje completo. Para ρ i → 1, T i resulta muy grande. 
 
 Si λ 1 = 0,33 mens./seg. y 1/λ i = 120 bits por mensaje, y si C1
 
 
 
De este tiempo el necesario para transmitir el mensaje será: 
 = 100 bps se produce 
un retardo por mensaje transmitido sobre el canal de salida de: 
 
 
 
 
Y el tiempo de almacenamiento es: 
 
 
 
Resulta: 
Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss 
Ingeniería en Sistemas de Información 
Página 4 de 9 
 
 
 
 
El tiempo de retardo sobre el canal Rosario-Buenos Aires con la misma 
capacidad (100 bps) se tiene: 
 
 
 
 
Mientras que entre Corrientes y Rosario será, para la misma capacidad: 
 
 
 
 
Incrementando la capacidad del canal a 900 bps, disminuye el tiempo de retardo, 
resultando: 
 
 
 
 
 
 
 
 
 
 
 Considerando la red como un conjunto de enlaces (uno por nodo), el buffer 
asociado con el enlace i-esimo tiene una frecuencia de arribo de λ i y y la longitud 
promedio de mensaje emitido será 1/η
 
 
 
 
 
 
 
 
 
 
 
 Se considera, que esta forma, la red como una “caja negra”, observando los 
arribos a la caja, se tienen δ mensajes ingresando a la caja por unidad de tiempo, donde: 
, se tiene: 
 
 
 
 
 
 
Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss 
Ingeniería en Sistemas de Información 
Página 5 de 9 
La caja negra se comporta como una cola para la cual, por el teorema de Little, 
tenemos: 
 N = δ E[T
 
 
 
 
Sumado sobre todos los buffer de la red y aplicando el teorema de Little a cada 
uno, nos da: 
] = E[n] 
 
Para el promedio estadístico se tiene: 
 
 
 
 
 Con la ecuación para tiempo de retardo, podemos iniciar el manejo del problema 
de asignación de capacidades de canales en una red (figura anterior). 
 Suponemos el objetivo es minimizar el tiempo de retardo promedio sobre la red 
completa con una capacidad total supuesta fija. La frecuencia total de la red será: 
 
 
 
 
 
El, retardo promedio de mensajes para la red se puede calcular por medio de la 
ecuación(*). 
 
 
 
 
Donde E[T] presenta el tiempo de retardo “pesado” con los Ti en el rango de 1 a 
7. Suponiendo la capacidad total como la suma de las capacidades Ci
 
 
 
 
Este valor se toma constante, debiendo elegirse los C
, resulta: 
i tal que minimicen el valor 
E[T]. Estos valores se pueden hallar utilizando los multiplicadores de Lagrange: se 
puede demostrar que el mínimo se puede hallar minimizando E[T] + ∝C. El 
multiplicador de Lagrange ∝ se elige para asegurar la constancia de C. 
 
Minimizando por diferenciación de E[T] + ∝C con respecto a Ci
 
 
 
 
 
 
 
, se encuentra la 
solución óptima dada por: 
Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss 
Ingeniería en Sistemas de Información 
Página 6 de 9 
ρ cumple la función de parámetro intensidad de trafico para toda la red. 
 
 
 
 
 
 Con esta relación de capacidades, canal por canal es posible sustituir en la 
ecuación (* *) y luego hallar Ti para cada canal. Luego se puede calcular la expresión 
Tmin, siendo: 
 
 
 
 
 
Esta asignación de capacidad se denomina la “regla de asignación de la raíz 
cuadrada del flujo de información. El Tmin depende inversamente de C (o sea del costo). 
Siempre es posible disminuir el tiempo de retardo, aumentado el valor de C y con ello el 
costo. La ecuación de Tmin da el mínimo tiempo de retardo posible para un determinado 
costo. 
 
 La ecuación de Ci
 La primera parte λ
 opt. Tiene dos partes: 
i/ηi es es el valor mínimo necesario que puede ser 
dado a Ci para habilitar el tráfico sobre el canal donde λ i es el promedio de mensajes ha 
ser manejados y 1/ηi su longitud promedio, luego el cociente representa el promedio de 
flujo ofrecido sobre el canal i en bps. Debe ser por supuesto menor que Ci
 
. 
 La segunda parte indica la capacidad remanente según la estrategia de 
la raíz cuadrada. 
 
¿Como se aplica, ahora, la estrategia de la raíz cuadrada al circuito de la figura 1? 
 La inversa de la longitud ηi = η = 1/120 para todos los enlaces. Entonces, y en 
base a cada λ i 
 
 
 
 
 
 
 
Luego, para C = 4500 bps. Como la capacidad total de la red, resulta un ρ = 
0,0453. –En la práctica se realizan varias elecciones de C, y cada una corresponde a 
diferentes costos, se encuentra el valor de tiempo de retardo mínimo para cada una y se 
grafica el tiempo de retardo vs. el costo. De ello se obtiene la C apropiada para un cierto 
tiempo mínimo.- Así se obtiene: 
 
 
 
 
 
 
se halla: 
Comunicaciones – AAAsssiiigggnnnaaaccciiióóónnn dddeee CCCaaapppaaaccciiidddaaaddd dddeee CCCaaannnaaallleeesss 
Ingeniería en Sistemas de Información 
Página 7 de 9 
 
 
 
 
 
 
 
 
 
 
 
 
 
Luego, se debe seleccionar valores de capacidad reales. En este caso se 
seleccionan canales de 450 o 900 bps. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 El costo de la línea

Continuar navegando