Logo Studenta

Unidad_13_Transmision_digital_ARQUITECTURA DE REDES Y COMPUTADORAS - MIT

¡Estudia con miles de materiales!

Vista previa del material en texto

Arquitectura de Redes de Computadores Pablo Jara Werchau 
 
79 
 
Unidad 13: Transmisión digital 
 
Introducción 
 
 Otra forma de transmitir información, consiste en emplear pulsos, en este caso se 
emplean los pulsos para formar un código que representará el valor de la señal en un instante 
determinado. Este proceso se conoce con el nombre de PCM (Pulse Code Modulation) o MIC 
(Modulación por Impulsos Codificados). 
 El primer inconveniente que presenta este método es que a pesar que se trate de una 
señal cuya incursión en amplitud esté limitada a un rango finito, lo mismo que la duración del 
mensaje, los posibles valores que puede asumir la señal dentro de ambos intervalos son 
infinitos. Ello significaría la necesidad de tener que utilizar un código capaz de representar 
infinitos valores, lo cual evidentemente resulta imposible. 
CUANTIFICACIÓN 
 Es el primer procedimiento para salvar la presencia de infinitos valores en el rango de 
incursión de amplitud de la señal mensaje. 
 Consiste en dividir al rango de la señal en un número finito de intervalos, denominados 
niveles, de modo que según el valor que tome la señal en un instante dado se aproxima con 
algún criterio al nivel más próximo. 
 
Cuantificación de la señal 
 
 En el proceso de cuantificación se producen errores debido a que la señal cuantificada 
es una aproximación al valor de cada nivel de la señal original. Este error denominado error de 
cuantificación, puede disminuirse pero no anularse, tomando una mayor cantidad de niveles. 
Este hecho crea una situación de compromiso que debe determinarse de acuerdo a las 
características y necesidades del proceso de cuantificación y modulación, especialmente de la 
precisión requerida: 
 Muchos niveles permiten una mayor aproximación a la señal original pero crea la necesidad 
de utilizar códigos más complejos y un mayor A.B. 
 Pocos niveles permiten la utilización de códigos más simples pero a costa de una mayor 
deformación de la señal cuantificada. 
 Tomando como criterio de aproximación a los niveles de cuantificación el nivel más 
próximo, el máximo error de cuantificación que se comete será la mitad de un intervalo, es 
decir 
emáx = ½ intervalo 
MODOS DE CUANTIFICACIÓN 
 Pueden identificarse dos modos generales para cuantificar una señal: 
 Arquitectura de Redes de Computadores Pablo Jara Werchau 
 
80 
 
Uniforme: En este modo, todo el rango de excursión de la señal es dividido en intervalos 
iguales. 
No uniforme: Se utiliza cuando el rango de excursión de la señal presenta zonas de mayores 
densidades en determinados sectores. Una forma de disminuir al error de cuantificación sin 
aumentar demasiado la cantidad de niveles a utilizar, consistiría en emplear mayor cantidad de 
niveles en las zonas de mayor densidad de información, como se muestra en la figura siguiente: 
 
Cuantificación no uniforme. 
 
COMPANSIÓN 
 Es un término formado por la contracción de las palabras que definen a los procesos 
que intervienen 
COMPANSIÓN = COMpresión + exPANSIÓN 
y se emplea cuando la densidad de la señal a cuantificar no se distribuye uniformemente en su 
rango de acción. 
 La ventaja fundamental de emplear este proceso es para evitar realizar una 
cuantificación no uniforme y obtener los mismos resultados. 
 Consiste en comprimir las bandas menos densas de información de la señal y expandir 
las bandas de mayor densidad. Luego, a la señal así modificada se le aplica un proceso de 
cuantificación uniforme. El resultado final significaría que se han utilizado mayor cantidad de 
niveles en las zonas con mayor cantidad de información. 
 El resultado puede verse en el siguiente gráfico: 
 
 Si bien el proceso de compansión puede tener características específicas, de acuerdo al 
tipo de señal que se procese, existen dos leyes de amplia utilización. 
 
Ley A: en esta ley, la función de compresión está especificada en dos tramos, un tramo lineal 
para valores inferiores a un determinado umbral y por encima de este umbral una función 
logarítmica. 
 
Ley : esta ley es logarítmica en todo el margen de la señal, responde a la ecuación 
y x
x
x( )
ln( . )
ln( )



 
1
1
0 1


 
 Arquitectura de Redes de Computadores Pablo Jara Werchau 
 
81 
 
 
 Ley A vs Ley  de compansión. 
 
 El parámetro  puede variarse para obtener una familia de curvas. Particularmente en 
EEUU la Bell System ha adoptado  = 255. 
 Las diferencias principales entre las dos leyes son: la ley A presenta un rango dinámico 
un poco mayor y la ley  produce menos ruido durante los intervalos de silencio. 
 
MUESTREO 
 Previo al proceso de codificación, se toman muestras del valor de la señal a intervalos 
establecidos por el Teorema del Muestro. Estos intervalos, también denominados intervalos de 
Nyquist, son inversamente proporcionales a la frecuencia de muestreo fm, y aseguran una 
apropiada recuperación de la señal. 
fm  2 fs 
tN = 1/fm 
donde fm = frecuencia de muestreo 
 fs = frecuencia máxima de la señal 
 tN = intervalo de Nyquist 
 
CÓDIGOS DE TRANSMISIÓN PCM 
 Una vez cuantificada y muestreada la señal se procede a su codificación, es decir a la 
representación de cada muestra por medio de un grupo de pulsos que la representarán 
unívocamente. 
 Estos pulsos, independientemente del código específico que representen, pueden 
clasificarse de acuerdo a la cantidad de niveles con que se generen en 
Codigos
Binarios
NRZ
RZ
Ternarios
Unipolares
Bipolares
NRZ
RZ
M arios





















 
 
Códigos binarios: Son los más ampliamente usados por su facilidad de generación, control y 
recepción. Su desventaja principal es que para representar demasiados niveles se hacen muy 
extensos ralentizando la transmisión o requiriendo un mayor A.B. La denominación de binarios 
se debe a que emplean solo dos estados para la representación de la información: 1=tensión y 
0=masa. También se denominan unipolares debido a que el valor de tensión es de una sola 
polaridad: positiva o negativa. Esto genera una característica adicional que identifica al código 
de acuerdo a la polaridad con que se genere. Los denominados de lógica positiva emplean 
 Arquitectura de Redes de Computadores Pablo Jara Werchau 
 
82 
 
pulsos con valor de tensión positiva mientras que los de lógica negativa emplean la otra 
polaridad para la tensión de los pulsos. 
 
Lógica positiva y negativa 
 
Otra característica que identifica a estos códigos se denomina NRZ (No Return to Zero) y RZ 
(Return to Zero). En los códigos NRZ los pulsos altos mantienen la tensión durante todo el 
intervalo de duración, mientras que en los códigos RZ, el nivel alto se mantiene solamente 
durante la mitad de duración del pulso, retornando a cero para el resto del intervalo. Esto 
permite una clara identificación de los pulsos altos cuando se presentan en una sucesión 
continua. 
La cantidad de pulsos que requieren los códigos binarios depende de la cantidad de niveles en 
que se cuantifica la señal, siendo en general 
m = log2 n 
donde m = cantidad de pulsos por símbolo. 
 n = cantidad de niveles. 
 
Códigos ternarios: En estos códigos cada pulso puede asumir uno de tres niveles, es decir 
responderán a un sistema de tres símbolos: 0, 1 y 2. En estos códigos, al ser mayor la cantidad 
de niveles que puede asumir un pulso, para transmitir la misma información será necesaria una 
menor cantidad de pulsos respecto de los sistemas binarios. Si bien pueden ser de tipo 
unipolares de lógica positiva o negativa como en el anterior sistema, pueden generarse como 
bipolares cuando el símbolo 1 se representa con una polaridad de tensión y el símbolo 2 con la 
polaridad opuesta. La figura siguiente muestra las distintas variantes en que se presentan los 
códigos ternarios, incluyendo la variante NRZ y RZ: 
 
 
 
 
La cantidad de pulsos que requieren los códigos ternariostambién depende de la cantidad de 
niveles en que se cuantifica la señal, siendo en general 
m = log3 n 
donde m = cantidad de pulsos por símbolo. 
 n = cantidad de niveles. 
 
Códigos m-arios: En una generalización de los códigos anteriores pueden emplearse códigos 
m-arios, es decir, códigos donde cada pulso puede tomar m niveles diferentes. Por lo tanto la 
cantidad de pulsos que requieren estos códigos en función de la cantidad de niveles en que se 
cuantifica la señal, será 
k = logm n 
donde k = cantidad de pulsos por símbolo. 
 Arquitectura de Redes de Computadores Pablo Jara Werchau 
 
83 
 
 n = cantidad de niveles. 
 El cuadro comparativo siguiente resume la cantidad de pulsos necesarios de acuerdo al 
número de niveles en que se cuantifica la señal y el número de niveles por pulso. 
Nivel de Cantidad de pulsos para k 
niveles 
cuantifi
c. 
2 3 4 5 6 7 8 
2 1 1 1 1 1 1 1 
4 2 2 1 1 1 1 1 
8 3 2 2 2 2 2 2 
16 4 3 2 2 2 2 2 
32 5 3 3 3 2 2 2 
64 6 3 3 3 3 3 2 
128 7 5 4 4 3 3 3 
256 8 6 4 4 4 3 3 
512 9 6 5 4 4 4 3 
1024 10 7 5 5 4 4 4 
 
Código HDB-3: Es uno de los más utilizados, juntamente con los códigos binarios. Su nombre 
son las siglas de su principal característica (Hight Density Binary = Binario de Alta Densidad) 
siendo el número 3 la máxima cantidad de ceros sucesivos que permite el código. Pese a ser un 
código que presenta tres niveles en los pulsos su comportamiento es binario, razón por la cuál 
también se lo conoce como pseudoternario. Algunas particularidades en su formación que 
pueden destacarse serían: 
 Mientras no presente una secuencia mayor de tres ceros seguidos se comporta como 
un binario, alternando la representación de los bits 1 con pulsos positivos y negativos. 
 No puede haber más de tres pulsos seguidos con igual polaridad, de presentarse el 
caso se cambia el sentido del último. 
 Cuando se presentan cuatro ceros seguidos se reemplazan por la secuencia 000V ó 
R00V donde V es un pulso denominado de violación y R denominado de relleno. 
 
ALTERACIONES EN SEÑALES PCM 
 Las señales moduladas en PCM pueden verse sometidas a alteraciones similares a las 
que afectan las transmisiones con otros tipos de modulación, pero debido a su particular 
representación de la información mediante códigos, pueden destacarse tres interferencias 
particulares. 
 
Interferencia intersímbolo: Se produce generalmente al recibir y demodular o decodificar 
una señal digital. Se debe principalmente a la presencia de filtros pasa-bajos o dispositivos con 
A.B. menores en el camino de la señal digital, antes de ser decodificada. La eliminación o 
atenuación de componentes de alta frecuencia en los pulsos tiende a redondear y aplanar sus 
niveles altos, deformando los flancos como se muestra en la figura siguiente: 
 
 Interferencia intersímbolo 
 
Jitter: Es una inestabilidad de la señal digital debido al corrimiento de fase que causa un 
desplazamiento del pulso de su posición original. La causa principal de esta alteración son los 
circuitos regeneradores y repetidores especialmente debido a tiempos de respuesta lentos. Esta 
situación puede introducir errores cuando se efectúa la lectura del pulso. 
 Arquitectura de Redes de Computadores Pablo Jara Werchau 
 
84 
 
 
 
 
Ruido blanco: Es una alteración presente en toda la banda de frecuencias de densidad 
constante. Actúa sobre las señales PCM produciendo una pequeña modulación en los pulsos 
que bajo ciertas condiciones puede causar errores de lectura. 
 
ERRORES DE TRANSMISIÓN 
 Conjuntamente con las alteraciones comentadas anteriormente, pueden existir errores 
en la información que se transmite que inclusive pueden provenir de la misma fuente de 
transmisión. De todas maneras cualquiera sea la causa del error, ello se traduce en la alteración 
de uno o más bits representativos de la información. 
 La ventaja de utilizar códigos binarios en la transmisión consiste en que una vez 
detectado el error es simple su corrección, simplemente se invierte el valor del pulso. 
 Adicionalmente a las características físicas que tengan los pulsos que representen la 
información que se transmiten, existen técnicas particulares en la conformación de los códigos 
específicos empleados. Esas técnicas conducen a la utilización de códigos especiales que 
permiten la detección y corrección de errores. 
 
Códigos detectores de errores: En el ámbito de los códigos unipolares, el código que se 
emplee para la detección de errores debe cumplir como condición necesaria y suficiente que la 
distancia mínima debe ser mayor que la unidad. Se define como distancia en un código binario 
a la cantidad de bits que deben cambiar para pasar de un elemento perteneciente al código a 
otro sucesivo. Luego, la distancia mínima es la menor de todas las distancias que presente el 
código. El proceso de detección es bastante simple si se considera que la mayor probabilidad de 
ocurrencia de errores se produce en un bit por cada símbolo, cuando se produce un error que 
modifica un bit y la distancia mínima del código es dos, el símbolo con error se transforma en 
un elemento que no pertenece al código y puede ser fácilmente detectado. Haciendo extensivo 
este concepto, pueden detectarse dos bits con error cuando la distancia mínima es tres, tres 
bits con error para distancia mínima cuatro y así sucesivamente. 
 
Códigos correctores de errores: En este caso no solo es posible la detección del error sino 
también su corrección. Los códigos correctores se emplean en la transmisión de información 
donde no es posible volver a enviarla cuando el error es detectado, como por ejemplo en 
sistemas que trabajan en tiempo real o sistema de medición y control de procesos industriales. 
De las distintas técnicas empleadas para la detección y corrección de errores simples, la de 
mayor difusión la constituyen los códigos Hamming. Según la teoría de Hamming, para la 
detección y corrección de errores en un bit de un código de n bits y distancia unitaria, es 
necesario adicionar p bits de control al código, de modo que se cumpla la relación 
2p  n + p + 1 
 
luego, estos p bits adicionales constituyen un subcódigo que indica si hay error y la posición del 
mismo. Entonces, la corrección se realiza simplemente invirtiendo el bit señalado. 
 
 Arquitectura de Redes de Computadores Pablo Jara Werchau 
 
85 
 
BIT DE PARIDAD 
 El bit de paridad es una técnica muy utilizada para la detección de errores permitiendo 
aumentar la distancia mínima de un código. 
 Consiste en agregar un bit adicional al código como prefijo o sufijo para marcar la 
paridad del símbolo, bajo dos condiciones: 
Paridad par: Se adiciona un bit cuyo valor será cero o uno de tal modo que el símbolo se 
transmita un número par de unos por cada símbolo, incluido el bit de paridad. 
Paridad impar: Se adiciona un bit cuyo valor será cero o uno de tal modo que el símbolo se 
transmita un número impar de unos por cada símbolo, incluido el bit de paridad.

Continuar navegando