Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Unidad 5 Introducción La información a transmitir se origina en la fuente de información. Esta se materializa como un conjunto (sin entrar en detalles) finito y discreto, de N símbolos o mensajes distintos e independientes cuyo significado es conocido en el Destino. La Fuente discreta genera, aleatoriamente, mensajes digitales arbitrariamente largos, es decir, secuencias arbitrariamente largas de símbolos de un cierto alfabeto (alfabeto de la fuente). Es un dispositivo que emite con regularidad y de forma aleatoria símbolos pertenecientes a un cierto conjunto discreto y finito llamado alfabeto de la fuente. El Codificador transforma los mensajes generados por la fuente; es decir, convierte una secuencia de símbolos dada en otra distinta (en general, con símbolos de un alfabeto también distinto del alfabeto de la fuente, que se denomina alfabeto de codificación, y que habrá de ser necesariamente igual que el alfabeto de entrada del canal). Esta transformación, cuyo objetivo es la transmisión fiel y eficiente de los mensajes de la fuente dada, utilizando el canal dado, deberá hacerse teniendo en cuenta tanto las características estadísticas de los mensajes de la fuente (es decir, de la fuente) como las del ruido que se produce en el canal. ❑ Un Codificador de Fuente, cuya construcción ha de adaptarse a las características de la fuente de forma que consiga representar los mensajes de la fuente con el menor número posible de símbolos de un cierto alfabeto de codificación (típicamente los símbolos que se pueden transmitir por el canal dado) ❑ Un Codificador de Canal, cuya construcción ha de adaptarse a las características del canal de forma que permita la consecución de una transmisión fiable sobre un canal ruidoso con un coste mínimo. Un Codificador de la Fuente óptimo es aquel que utiliza el mínimo número de bits para codificar un mensaje de la fuente. Un codificador óptimo usará: ❑ Códigos cortos para codificar mensajes frecuentes ❑ Códigos de mayor longitud para aquellos mensajes que sean menos frecuentes. Teorema de Codificación de la Fuente ▪ Dada una Fuente Discreta con N posibles símbolos se decide Codificarla utilizando para cada símbolo Sj una palabra binaria bj de longitud Lj (dígitos binarios) ▪ La longitud promedio de una palabra código (o número promedio de dígitos binarios por símbolo) será: ▪ El teorema de Codificación de la Fuente (Shannon) establece que: ▪ La eficiencia de un codificador de Fuente seria: La fuente de mensajes transmite símbolos por un sistema de comunicación en forma de señales físicas que dependen del tiempo. Si estos símbolos están representados como variaciones de Tensión o de Corriente a medida que transcurre el tiempo, cuando se genere el mensaje, cualquiera de los símbolos tendrá N niveles posibles de tensión o corriente y cualquiera de ellos será tan probable como cualquier otro. Cuando la señal llegue al receptor tendrá un contenido de información por la incertidumbre del mensaje. Sean N los niveles probables de tensión o de corriente y m la cantidad de símbolos contenidos en la señal transmitida en un tiempo T [seg], con una duración por cada símbolo de Ts [seg], el contenido de información de la misma será: Ejemplo 1: una señal eléctrica se transmite en 8 niveles de tensión equiprobables, distinguibles por saltos mínimos de 1 volt entre 0 y 7 como máximo. Calcular el contenido de información de la señal si se la transmite durante T=16 seg, en segmentos de TS=1 seg de duración cada uno. Ejemplo 2: Si la misma señal se genera ahora en 16 niveles de tensión de 0,5 voltios cada uno, el contenido de información es de 64 bits en 16 segundos. Ejemplo 3: Lo mismo ocurre con la duración del intervalo de lectura o de muestra en cada instante de la señal ya que no puede ser tan pequeño como uno quiera debido a imposiciones propias del canal del transmisión. Codificación de una señal Los símbolos que se generan en una fuente de mensajes pueden ser codificados mediante técnicas apropiadas para su mejor tratamiento y con ello lograr una magnitud del error tan pequeña como sea posible durante su transmisión, aun en presencia de ruido en el sistema. Se pueden codificar los símbolos generados por una fuente mediante cualquier tipo de codificación binaria. Ejemplo 4: Una fuente de información genera 4 símbolos sucesivos de un mensaje que se codifican mediante dígitos binarios. Los símbolos se transmiten a través de una señal discreta de tensión mediante niveles equiprobables desde cero hasta tres voltios, en saltos de 1 volt, de 1 segundo de duración y durante un tiempo T de 4 segundos. Determinar: a) La cantidad de bits por cada símbolo representado. b) Su codificación en una tabla. c) La representación gráfica de la señal codificada como una función v(t). d) Codificación de la señal v(t) en dos niveles de tensión. “Cuando los símbolos del mensaje no son equiprobables, se debe trabajar con la entropía de la fuente y con un tiempo promedio de duración de cada símbolo, buscando una codificación apropiada para cada símbolo en función de las probabilidades de ocurrencia de cada uno de ellos, con una menor cantidad de ceros o de unos para los que tienen mayor probabilidad de aparición. De esta manera, se obtendrá una menor cantidad total de bits de transmisión para mandar el mensaje, en lugar de utilizar un código con una cantidad constante de unos y ceros para cada símbolo” Canales de Comunicaciones y Tipos de Canales El canal de comunicación de un sistema es una abstracción física, es decir un modelo que representa al vehículo de transmisión con todo los fenómenos inherentes que tienden a restringir la transmisión para la transferencia de información por los medios eléctricos y electromagnéticos conocidos. Hay canales analógicos y canales digitales, algunos canales pueden transportar tanto señales analógicas como digitales. Otros solamente señales digitales. En cada uno de los casos es necesario disponer de canales con las características eléctricas o electro-ópticas adaptadas al tipo de transmisión. ❑Canal de Información: Es la parte relacionada con las especificaciones externas del sistema de comunicación que se estudia mediante técnicas de la Teoría de la Información y de la Codificación. Se ocupa también de evaluar, permitir y administrar adecuadamente los recursos del canal físico. Se usan criterios de eficiencia, de la velocidad de transmisión de la información y de la calidad con que ésta es transportada. Su objetivo es preservar la integridad de la información mediante el uso de medios de codificación adecuados y la introducción del concepto de redundancia para la detección y corrección de errores. ❑Canal físico: Es la parte relacionada con las características físicas y eléctricas del medio de transmisión que se estudia mediante técnicas de Ingeniería de Comunicaciones. Es el medio de transmisión del sistema de comunicación. Suele consistir en un enlace de espacio libre (con antenas), un par de alambres, un cable o una fibra óptica. Capacidad de un Canal de Comunicación La capacidad de un canal es una medida de la cantidad de información que un canal puede transferir por unidad de tiempo. Se simboliza con C, y sus unidades son bits/segundo Si relacionamos la velocidad de entropía R de la fuente con la capacidad C del canal, se tiene que: Dado un canal de capacidad C y una fuente con una velocidad R: ➢ Si R ≤ C, existe entonces una técnica de codificación tal que la salida de la fuente pueda transmitir sobre el canal con una frecuencia de errores arbitrariamente pequeña, no obstante la presencia de ruido". ➢ Si R > C no es posible transmitir sin errores. Esto se conoce como el segundo teorema de Shannon El primer teorema de Shannon está relacionado con el grado de compresión que se puede ejercer sobre una señal sin que se pierda información sustancial de la misma. La velocidad de datos depende de tres factores: 1. El ancho de banda disponible: Las limitaciones en el ancho de banda surgen de las propiedades físicasde los medios de transmisión o por limitaciones que se imponen deliberadamente en el transmisor para prevenir interferencia con otras fuentes que comparten el mismo medio. 2. El nivel de las señales que utilizamos 3. La calidad de la canal (el nivel de ruido) Nyquist (Muestreo de señales) y El teorema de Nyquist Cuando se diseña un canal de comunicaciones, dentro de los objetivos primordiales estará el hecho de obtener la máxima transferencia de información (obviamente sin error) por unidad de tiempo, aspecto con el que se busca optimizar al máximo el rendimiento del medio físico. Una de las formas es procurando enviar solamente la mínima información “eléctrica” necesaria (eliminando todo contenido irrelevante e innecesario), que posteriormente mediante un proceso tecnológico (de base matemática) del lado del receptor pueda reconstruir la señal original para permitir interpretar la información. El resultado de este proceso, evidentemente es un menor uso del canal por parte de la señal transmitida. Es indudable que cada vez se va borrando mayor cantidad de información, pero siempre podemos seguir reconociendo la imagen original. Esto nos lleva a plantear la siguiente pregunta ¿Hasta cuándo podemos eliminar tramos de la señal sin perder la posibilidad de reconstruirla? Nyquist, en 1924, demostró que no es necesario enviar todo un ciclo de una señal (una sucesión de infinitos puntos que caracterizan a toda señal analógica) para que del lado del receptor pueda ser interpretada, sino que basta con solo dos muestras por ciclo para que aún se pueda recuperar la señal original. Toda señal limitada en banda (debido a que se encuentra acotada por el AB del canal) se puede reconstruir completamente a partir de las muestras tomadas de misma, siempre que la velocidad del muestreo se realice como mínimo al doble de la máxima frecuencia de la señal. A esta velocidad de muestreo se la denomina “Frecuencia de Nyquist”. El teorema de Nyquist: Canales sin ruido Nyquist planteó la existencia de un límite en la capacidad de un canal ideal (sin ruido ni distorsiones) de ancho de banda finito B. El teorema de Nyquist establece que la velocidad máxima de transmisión de datos en bps viene limitada por la siguiente fórmula: C=2B log2M Ejemplo 5: Si suponemos que un canal de voz con un ancho de banda de 3100 Hz se utiliza con un modem para transmitir datos digitales (2 niveles). La capacidad C del canal es: C=2B log2 (2)= 2 (3100) (1)= 2B= 6.200 bps. Si se usan señales de más de 2 niveles; es decir, cada elemento de señal puede representar a más de 2 bits, por ejemplo si se usa una señal con 4 niveles de tensión, cada elemento de dicha señal podrá representar dos bits (dibits). Aplicando la fórmula de Nyquist tendremos: C=2B log2 (4)= 2 (3100) (2)=12.400 bps Por tanto, Nyquist establece que aumentado los niveles de tensión diferenciables en la señal, es posible incrementar la cantidad de información transmitida. El teorema de Shannon: Canales con ruido Según el teorema de Nyquist, para aumentar la capacidad de un canal se deben incrementar los niveles de tensión. Por lo que el receptor debe de ser capaz de diferenciar estos niveles de tensión en la señal recibida, cosa que es dificultada por el ruido. Además, cuanto mayor es la velocidad de transmisión, mayor es el daño que puede ocasionar el ruido. En 1.948, Shannon extendió el trabajo de Nyquist al caso de un canal real sujeto a la aparición de una cierta cantidad de ruido aleatorio. La siguiente expresión, conocida como fórmula de Shannon, proporciona la capacidad máxima en bps de un canal con ruido: B es el ancho de banda del canal en Hertzios. C es la capacidad del canal (tasa de bits de información bit/s) S es la potencia de la señal útil (W, mW, etc.) N es la potencia del ruido presente en el canal, (W, mW, etc.) que trata de enmascarar a la señal útil. Ejemplo 6: Supóngase que el espectro de un canal está situado entre 3MHz y 4 MHz y que la SNR es de 24 dB. B = 4MHz- 3MHz = 1MHz SNRdB = 24 dB = 10 log10(SNR) SNR = 255 Usando la fórmula de Shannon se tiene que: C = 106Hz log2(1+255) = 8 Mbps Ejemplo 7: Un canal telefónico de grado voz tiene un ancho de banda de 3000 Hz y se utiliza para la transmisión de señales analógicas con una relación S/N = 1023. Calcular la capacidad del canal. C = B.log2(1+S/N) = 3000Hz.log2(1+1023) = 30000 [bps] = 30Kbps Ejemplo 7: Se desean transmitir datos analógicos por un canal telefónico que tiene una S/N=100 y un ancho de banda de 3000 Hz. Calcular la capacidad de transmisión de datos del canal. C = B.log2 (1+S/N) = 3000.log2 (1+100) = 19.975 bps Si ahora la relación S/N es 1000 la capacidad de transmisión de datos del canal se eleva a: C = B.log2(1+S/N) = 3000.log2(1+1000) = 29.902 bps. Ejemplo 8: Dado un canal con una capacidad pretendida de 20 Mbps y un ancho de banda de 3MHz ¿cuál será la relación señal ruido necesaria para lograr dicha capacidad? 𝐶 = 𝐵. 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅) 20𝑀𝑏𝑝𝑠 = 3𝑀𝐻𝑧. 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅)→ 20𝑀𝑏𝑝𝑠/3𝑀𝐻𝑧 = 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅) 220/3= 1 + 𝑆𝑁𝑅→ 𝑆𝑁𝑅=220/3− 1= 100 → SNRdb=20dB Ejemplo 9: Se tiene un teclado de 110 caracteres y que cada uno se envía por medio de palabras binarias. a) ¿Cuál es el número de bits requeridos para representar cada carácter? b) ¿Qué tan rápido se pueden enviar los caracteres (caracteres/segundo) a través de una línea telefónica cuyo ancho de banda es de 3,2 KHz y una SNR de 20 dB? 𝐻 = 𝑙𝑜𝑔2110 = 6,78 𝑏𝑖𝑡/𝑡𝑒𝑐𝑙𝑎 𝐶 = 𝐵. 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅)→ 𝐶 = 3200𝐻𝑧. 𝑙𝑜𝑔2 (1 + 100) = 21,3𝐾𝑏𝑝s ❑Para un nivel de ruido dado, podría parecer que la velocidad de transmisión se puede aumentar incrementando tanto la energía de la señal como el ancho de banda. ❑Sin embargo, al aumentar la energía de la señal, también lo hacen las no linealidades del sistema dando lugar a un aumento en el ruido de intermodulación ❑Ya que el ruido se ha supuesto blanco, cuanto mayor sea el ancho de banda, más ruido se introducirá al sistema. Por lo tanto, cuando aumenta B, disminuye SNR ❑En la ecuación de Capacidad del canal el término bit no se refiere a un bit físico sino a un bit de información. La ecuación anterior muestra que la capacidad de un canal está limitada por su ancho de banda B y su relación señal/ruido SNR. Ahora en términos de la eficiencia espectral seria: Es decir que la eficiencia espectral depende exclusivamente de la calidad del canal (o sea de su nivel de ruido) Teorema de Shannon–Hartley: Relación entre la capacidad de un canal y la tasa de información. Comparando la capacidad del canal del teorema de Shannon con la tasa de información de la ley de Hartley: La raíz cuadrada convierte con eficacia el cociente de potencias en un nuevo cociente de voltaje Ejemplo 10: Supóngase que el espectro de un canal está situado entre 3MHz y 4 MHz y que la SNR es de 24 dB. B = 4MHz- 3MHz = 1MHz; SNRdB = 24 dB = 10 log10(SNR); SNR = 255 Usando la fórmula de Shannon se tiene que: C = 106Hz log2(1+255) = 8 Mbps Según Nyquist para alcanzar este límite ¿Cuántos niveles serán requeridos? Ejemplo 11: Se tiene un teclado de 110 caracteres y que cada uno se envía por medio de palabras binarias. a) ¿Cuál es el número de bits requeridos para representar cada carácter? b) ¿Qué tan rápido se pueden enviar los caracteres (caracteres/segundo) a través de una línea telefónica cuyo ancho de banda es de 3,2 KHz y una SNR de 20 dB? 𝐻 = 𝑙𝑜𝑔2110 = 6,78 𝑏𝑖𝑡/𝑡𝑒𝑐𝑙𝑎 𝐶 = 𝐵. 𝑙𝑜𝑔2 (1 + 𝑆𝑁𝑅)→ 𝐶 = 3200𝐻𝑧. 𝑙𝑜𝑔2 (1 + 100) = 21,3𝐾𝑏𝑝s Relación Eb/No En los sistemas digitales se usa comúnmente la relación entre la energía de bit y la densidad de potencia de ruido Eb/No en lugar de la relación SNR para indicar la calidad de la señal. Sin embargo, es indistinto usar cualquiera da las dos ya que ambos están íntimamente relacionados: Donde: Eb: Energía por bit, S: Potencia de la señal, Tb: tiempo de bit, No: Densidad espectral de potencia de ruido N: Potencia total de ruido, B: Ancho de banda del canal,R: Tasa de bit, C: Capacidad del canal Eb/No es una medida de la SNR (relación señal a ruido) normalizada, y también se conoce como "SNR por bit". Es especialmente útil cuando se comparan las BER (bit error ratio) de distintos esquemas de modulación digitales, sin tener en cuenta el ancho de banda. Es una magnitud adimensional. La Eb/N0 es igual a la SNR dividida por la eficiencia espectral de enlace. Esta eficiencia espectral es la tasa binaria "bruta" dividida por el ancho de banda y se mide en (bits/s)/Hz. La tasa binaria "bruta" hace referencia a la cantidad de bits transmitidos, incluyendo la redundancia para la corrección de errores (FEC) y las cabeceras de los protocolos.
Compartir