Logo Studenta

Unidad 5 canales de comunicacion

¡Estudia con miles de materiales!

Vista previa del material en texto

Unidad 5
Introducción
La información a transmitir se origina en la fuente de información. Esta se materializa como un conjunto
(sin entrar en detalles) finito y discreto, de N símbolos o mensajes distintos e independientes cuyo
significado es conocido en el Destino.
La Fuente discreta genera, aleatoriamente, mensajes digitales arbitrariamente largos, es decir, secuencias
arbitrariamente largas de símbolos de un cierto alfabeto (alfabeto de la fuente). Es un dispositivo que emite
con regularidad y de forma aleatoria símbolos pertenecientes a un cierto conjunto discreto y finito llamado
alfabeto de la fuente.
El Codificador transforma los mensajes generados por la fuente; es decir, convierte una secuencia de
símbolos dada en otra distinta (en general, con símbolos de un alfabeto también distinto del alfabeto de la
fuente, que se denomina alfabeto de codificación, y que habrá de ser necesariamente igual que el alfabeto
de entrada del canal). Esta transformación, cuyo objetivo es la transmisión fiel y eficiente de los mensajes
de la fuente dada, utilizando el canal dado, deberá hacerse teniendo en cuenta tanto las características
estadísticas de los mensajes de la fuente (es decir, de la fuente) como las del ruido que se produce en el
canal.
❑ Un Codificador de Fuente, cuya construcción ha de adaptarse a las características de la fuente de
forma que consiga representar los mensajes de la fuente con el menor número posible de símbolos de un
cierto alfabeto de codificación (típicamente los símbolos que se pueden transmitir por el canal dado)
❑ Un Codificador de Canal, cuya construcción ha de adaptarse a las características del canal de forma
que permita la consecución de una transmisión fiable sobre un canal ruidoso con un coste mínimo.
Un Codificador de la Fuente óptimo es aquel que utiliza el mínimo número de bits para codificar un
mensaje de la fuente. Un codificador óptimo usará:
❑ Códigos cortos para codificar mensajes frecuentes
❑ Códigos de mayor longitud para aquellos mensajes que sean menos frecuentes.
Teorema de Codificación de la Fuente
▪ Dada una Fuente Discreta con N posibles símbolos se decide Codificarla utilizando para cada símbolo Sj
una palabra binaria bj de longitud Lj (dígitos binarios)
▪ La longitud promedio de una palabra código (o número promedio de dígitos binarios por símbolo) será:
▪ El teorema de Codificación de la Fuente (Shannon) establece que:
▪ La eficiencia de un codificador de Fuente seria:
La fuente de mensajes transmite símbolos por un sistema de comunicación en forma de señales físicas
que dependen del tiempo. Si estos símbolos están representados como variaciones de Tensión o de
Corriente a medida que transcurre el tiempo, cuando se genere el mensaje, cualquiera de los símbolos
tendrá N niveles posibles de tensión o corriente y cualquiera de ellos será tan probable como cualquier
otro. Cuando la señal llegue al receptor tendrá un contenido de información por la incertidumbre del
mensaje. Sean N los niveles probables de tensión o de corriente y m la cantidad de símbolos contenidos
en la señal transmitida en un tiempo T [seg], con una duración por cada símbolo de Ts [seg], el contenido
de información de la misma será:
Ejemplo 1: una señal eléctrica se transmite en 8 niveles de tensión equiprobables, distinguibles por saltos
mínimos de 1 volt entre 0 y 7 como máximo. Calcular el contenido de información de la señal si se la
transmite durante T=16 seg, en segmentos de TS=1 seg de duración cada uno.
Ejemplo 2: Si la misma señal se genera ahora en 16 niveles de tensión de 0,5 voltios cada uno, el
contenido de información es de 64 bits en 16 segundos.
Ejemplo 3: Lo mismo ocurre con la duración del intervalo de lectura o de muestra en cada instante de la
señal ya que no puede ser tan pequeño como uno quiera debido a imposiciones propias del canal del
transmisión.
Codificación de una señal
Los símbolos que se generan en una fuente de mensajes pueden ser codificados mediante técnicas
apropiadas para su mejor tratamiento y con ello lograr una magnitud del error tan pequeña como sea
posible durante su transmisión, aun en presencia de ruido en el sistema.
Se pueden codificar los símbolos generados por una fuente mediante cualquier tipo de codificación binaria.
Ejemplo 4:
Una fuente de información genera 4 símbolos sucesivos de un mensaje que se codifican mediante dígitos
binarios. Los símbolos se transmiten a través de una señal discreta de tensión mediante niveles
equiprobables desde cero hasta tres voltios, en saltos de 1 volt, de 1 segundo de duración y durante un
tiempo T de 4 segundos.
Determinar:
a) La cantidad de bits por cada símbolo representado.
b) Su codificación en una tabla.
c) La representación gráfica de la señal codificada como una función v(t).
d) Codificación de la señal v(t) en dos niveles de tensión.
“Cuando los símbolos del mensaje no son equiprobables, se debe trabajar con la entropía de la fuente y
con un tiempo promedio de duración de cada símbolo, buscando una codificación apropiada para cada
símbolo en función de las probabilidades de ocurrencia de cada uno de ellos, con una menor cantidad de
ceros o de unos para los que tienen mayor probabilidad de aparición. De esta manera, se obtendrá una
menor cantidad total de bits de transmisión para mandar el mensaje, en lugar de utilizar un código con una
cantidad constante de unos y ceros para cada símbolo”
Canales de Comunicaciones y Tipos de Canales
El canal de comunicación de un sistema es una abstracción física, es decir un modelo que representa al
vehículo de transmisión con todo los fenómenos inherentes que tienden a restringir la transmisión para la
transferencia de información por los medios eléctricos y electromagnéticos conocidos.
Hay canales analógicos y canales digitales, algunos canales pueden transportar tanto señales analógicas
como digitales. Otros solamente señales digitales. En cada uno de los casos es necesario disponer de
canales con las características eléctricas o electro-ópticas adaptadas al tipo de transmisión.
❑Canal de Información:
Es la parte relacionada con las especificaciones externas del sistema de comunicación que se estudia
mediante técnicas de la Teoría de la Información y de la Codificación. Se ocupa también de evaluar,
permitir y administrar adecuadamente los recursos del canal físico. Se usan criterios de eficiencia, de la
velocidad de transmisión de la información y de la calidad con que ésta es transportada. Su objetivo es
preservar la integridad de la información mediante el uso de medios de codificación adecuados y la
introducción del concepto de redundancia para la detección y corrección de errores.
❑Canal físico:
Es la parte relacionada con las características físicas y eléctricas del medio de transmisión que se estudia
mediante técnicas de Ingeniería de Comunicaciones. Es el medio de transmisión del sistema de
comunicación. Suele consistir en un enlace de espacio libre (con antenas), un par de alambres, un cable o
una fibra óptica.
Capacidad de un Canal de Comunicación
La capacidad de un canal es una medida de la cantidad de información que un canal puede transferir por
unidad de tiempo. Se simboliza con C, y sus unidades son bits/segundo
Si relacionamos la velocidad de entropía R de la fuente con la capacidad C del canal, se tiene que:
Dado un canal de capacidad C y una fuente con una velocidad R:
➢ Si R ≤ C, existe entonces una técnica de codificación tal que la salida de la fuente pueda transmitir
sobre el canal con una frecuencia de errores arbitrariamente pequeña, no obstante la presencia de ruido".
➢ Si R > C no es posible transmitir sin errores.
Esto se conoce como el segundo teorema de Shannon
El primer teorema de Shannon está relacionado con el grado de compresión que se puede ejercer sobre
una señal sin que se pierda información sustancial de la misma.
La velocidad de datos depende de tres factores:
1. El ancho de banda disponible:
Las limitaciones en el ancho de banda surgen de las propiedades físicasde los medios de transmisión o
por limitaciones que se imponen deliberadamente en el transmisor para prevenir interferencia con otras
fuentes que comparten el mismo medio.
2. El nivel de las señales que utilizamos
3. La calidad de la canal (el nivel de ruido)
Nyquist (Muestreo de señales) y El teorema de Nyquist
Cuando se diseña un canal de comunicaciones, dentro de los objetivos primordiales estará el hecho de
obtener la máxima transferencia de información (obviamente sin error) por unidad de tiempo, aspecto con
el que se busca optimizar al máximo el rendimiento del medio físico.
Una de las formas es procurando enviar solamente la mínima información “eléctrica” necesaria (eliminando
todo contenido irrelevante e innecesario), que posteriormente mediante un proceso tecnológico (de base
matemática) del lado del receptor pueda reconstruir la señal original para permitir interpretar la
información. El resultado de este proceso, evidentemente es un menor uso del canal por parte de la señal
transmitida.
Es indudable que cada vez se va borrando mayor cantidad de información, pero siempre podemos seguir
reconociendo la imagen original. Esto nos lleva a plantear la siguiente pregunta ¿Hasta cuándo podemos
eliminar tramos de la señal sin perder la posibilidad de reconstruirla?
Nyquist, en 1924, demostró que no es necesario enviar todo un ciclo de una señal (una sucesión de
infinitos puntos que caracterizan a toda señal analógica) para que del lado del receptor pueda ser
interpretada, sino que basta con solo dos muestras por ciclo para que aún se pueda recuperar la señal
original.
Toda señal limitada en banda (debido a que se encuentra acotada por el AB del canal) se puede
reconstruir completamente a partir de las muestras tomadas de misma, siempre que la velocidad del
muestreo se realice como mínimo al doble de la máxima frecuencia de la señal. A esta velocidad de
muestreo se la denomina “Frecuencia de Nyquist”.
El teorema de Nyquist: Canales sin ruido
Nyquist planteó la existencia de un límite en la capacidad de un canal ideal (sin ruido ni distorsiones) de
ancho de banda finito B. El teorema de Nyquist establece que la velocidad máxima de transmisión de
datos en bps viene limitada por la siguiente fórmula: C=2B log2M
Ejemplo 5:
Si suponemos que un canal de voz con un ancho de banda de 3100 Hz se utiliza con un modem para
transmitir datos digitales (2 niveles).
La capacidad C del canal es:
C=2B log2 (2)= 2 (3100) (1)= 2B= 6.200 bps.
Si se usan señales de más de 2 niveles; es decir, cada elemento de señal puede representar a más de 2
bits, por ejemplo si se usa una señal con 4 niveles de tensión, cada elemento de dicha señal podrá
representar dos bits (dibits).
Aplicando la fórmula de Nyquist tendremos:
C=2B log2 (4)= 2 (3100) (2)=12.400 bps
Por tanto, Nyquist establece que aumentado los niveles de tensión diferenciables en la señal, es posible
incrementar la cantidad de información transmitida.
El teorema de Shannon: Canales con ruido
Según el teorema de Nyquist, para aumentar la capacidad de un canal se deben incrementar los niveles de
tensión. Por lo que el receptor debe de ser capaz de diferenciar estos niveles de tensión en la señal
recibida, cosa que es dificultada por el ruido. Además, cuanto mayor es la velocidad de transmisión, mayor
es el daño que puede ocasionar el ruido.
En 1.948, Shannon extendió el trabajo de Nyquist al caso de un canal real sujeto a la aparición de una
cierta cantidad de ruido aleatorio. La siguiente expresión, conocida como fórmula de Shannon, proporciona
la capacidad máxima en bps de un canal con ruido:
B es el ancho de banda del canal en Hertzios.
C es la capacidad del canal (tasa de bits de información bit/s)
S es la potencia de la señal útil (W, mW, etc.)
N es la potencia del ruido presente en el canal, (W, mW, etc.) que trata de enmascarar a la señal útil.
Ejemplo 6:
Supóngase que el espectro de un canal está situado entre 3MHz y 4 MHz y que la SNR es de 24 dB.
B = 4MHz- 3MHz = 1MHz
SNRdB = 24 dB = 10 log10(SNR) SNR = 255
Usando la fórmula de Shannon se tiene que:
C = 106Hz log2(1+255) = 8 Mbps
Ejemplo 7:
Un canal telefónico de grado voz tiene un ancho de banda de 3000 Hz y se utiliza para la transmisión de
señales analógicas con una relación S/N = 1023. Calcular la capacidad del canal.
C = B.log2(1+S/N) = 3000Hz.log2(1+1023) = 30000 [bps] = 30Kbps
Ejemplo 7:
Se desean transmitir datos analógicos por un canal telefónico que tiene una S/N=100 y un ancho de banda
de 3000 Hz. Calcular la capacidad de transmisión de datos del canal.
C = B.log2 (1+S/N) = 3000.log2 (1+100) = 19.975 bps
Si ahora la relación S/N es 1000 la capacidad de transmisión de datos del canal se eleva a:
C = B.log2(1+S/N) = 3000.log2(1+1000) = 29.902 bps.
Ejemplo 8:
Dado un canal con una capacidad pretendida de 20 Mbps y un ancho de banda de 3MHz ¿cuál será la
relación señal ruido necesaria para lograr dicha capacidad?
𝐶 = 𝐵. 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅)
20𝑀𝑏𝑝𝑠 = 3𝑀𝐻𝑧. 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅)→ 20𝑀𝑏𝑝𝑠/3𝑀𝐻𝑧 = 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅)
220/3= 1 + 𝑆𝑁𝑅→ 𝑆𝑁𝑅=220/3− 1= 100 → SNRdb=20dB
Ejemplo 9:
Se tiene un teclado de 110 caracteres y que cada uno se envía por medio de palabras binarias.
a) ¿Cuál es el número de bits requeridos para representar cada carácter?
b) ¿Qué tan rápido se pueden enviar los caracteres (caracteres/segundo) a través de una línea telefónica
cuyo ancho de banda es de 3,2 KHz y una SNR de 20 dB?
𝐻 = 𝑙𝑜𝑔2110 = 6,78 𝑏𝑖𝑡/𝑡𝑒𝑐𝑙𝑎
𝐶 = 𝐵. 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅)→ 𝐶 = 3200𝐻𝑧. 𝑙𝑜𝑔2 (1 + 100) = 21,3𝐾𝑏𝑝s
❑Para un nivel de ruido dado, podría parecer que la velocidad de transmisión se puede aumentar
incrementando tanto la energía de la señal como el ancho de banda.
❑Sin embargo, al aumentar la energía de la señal, también lo hacen las no linealidades del sistema dando
lugar a un aumento en el ruido de intermodulación
❑Ya que el ruido se ha supuesto blanco, cuanto mayor sea el ancho de banda, más ruido se introducirá al
sistema. Por lo tanto, cuando aumenta B, disminuye SNR
❑En la ecuación de Capacidad del canal el término bit no se refiere a un bit físico sino a un bit de
información.
La ecuación anterior muestra que la capacidad de un canal está limitada por su ancho de banda B y su
relación señal/ruido SNR. Ahora en términos de la eficiencia espectral seria:
Es decir que la eficiencia espectral depende exclusivamente de la calidad del canal (o sea de su nivel de
ruido)
Teorema de Shannon–Hartley: Relación entre la capacidad de un canal y la tasa de información.
Comparando la capacidad del canal del teorema de Shannon con la tasa de información de la ley de
Hartley:
La raíz cuadrada convierte con eficacia el cociente de potencias en un nuevo cociente de voltaje
Ejemplo 10:
Supóngase que el espectro de un canal está situado entre 3MHz y 4 MHz y que la SNR es de 24 dB.
B = 4MHz- 3MHz = 1MHz; SNRdB = 24 dB = 10 log10(SNR); SNR = 255
Usando la fórmula de Shannon se tiene que:
C = 106Hz log2(1+255) = 8 Mbps
Según Nyquist para alcanzar este límite ¿Cuántos niveles serán requeridos?
Ejemplo 11:
Se tiene un teclado de 110 caracteres y que cada uno se envía por medio de palabras binarias.
a) ¿Cuál es el número de bits requeridos para representar cada carácter?
b) ¿Qué tan rápido se pueden enviar los caracteres (caracteres/segundo) a través de una línea telefónica
cuyo ancho de banda es de 3,2 KHz y una SNR de 20 dB?
𝐻 = 𝑙𝑜𝑔2110 = 6,78 𝑏𝑖𝑡/𝑡𝑒𝑐𝑙𝑎
𝐶 = 𝐵. 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅)→ 𝐶 = 3200𝐻𝑧. 𝑙𝑜𝑔2 (1 + 100) = 21,3𝐾𝑏𝑝s
Relación Eb/No
En los sistemas digitales se usa comúnmente la relación entre la energía de bit y la densidad de potencia
de ruido Eb/No en lugar de la relación SNR para indicar la calidad de la señal. Sin embargo, es indistinto
usar cualquiera da las dos ya que ambos están íntimamente relacionados:
Donde:
Eb: Energía por bit, S: Potencia de la señal, Tb: tiempo de bit, No: Densidad espectral de potencia de ruido
N: Potencia total de ruido, B: Ancho de banda del canal,R: Tasa de bit, C: Capacidad del canal
Eb/No es una medida de la SNR (relación señal a ruido) normalizada, y también se conoce como "SNR por
bit". Es especialmente útil cuando se comparan las BER (bit error ratio) de distintos esquemas de
modulación digitales, sin tener en cuenta el ancho de banda. Es una magnitud adimensional.
La Eb/N0 es igual a la SNR dividida por la eficiencia espectral de enlace. Esta eficiencia espectral es la tasa
binaria "bruta" dividida por el ancho de banda y se mide en (bits/s)/Hz. La tasa binaria "bruta" hace
referencia a la cantidad de bits transmitidos, incluyendo la redundancia para la corrección de errores (FEC)
y las cabeceras de los protocolos.

Otros materiales