Logo Studenta

Slides TD IV - clases (28)

¡Este material tiene más páginas!

Vista previa del material en texto

TD4 2022TD4 2022 3
Problema fundamental de la comunicación
Datos s Datos s
Codificador
x = g(s) DecodificadorCanal
señal x señal y
Ruido
▪ Reproducir en un punto (destino) el mensaje enviado en otro 
punto (fuente).
mensaje mensaje
TD4 2022TD4 2022 4
Codificación del mensaje
▪ Antes de ser transmitido, el mensaje original s puede ser 
codificado en una nueva secuencia x de longitud n, que 
eventualmente puede tener símbolos diferentes. 
▪ En este proceso se puede eliminar la redundancia natural en 
los datos (compresión con o sin pérdida) o sumar 
redundancia para ganar robustez frente al ruido. 
Codificador
x = g(s)
TD4 2022TD4 2022
Ejemplo: Canal Binario Simétrico (BSC)
▪ Supongamos un canal que transmite correctamente cada bit con 
una probabilidad (1-f) e incorrectamente con probabilidad f.
0 0
1 1
5
TD4 2022TD4 2022
Ejemplo: codificación del mensaje (BSC)
▪ Volvamos al desafío de detectar y corregir errores en BSC (f=0.1).
▪ Esquema simple: redundancia por repetición R3
s = 0 0 1 0 1 1 0 
g(s) = 000 000 111 000 111 111 000 
n = 000 001 000 000 101 000 000 ruido en el canal BSC
y = 000 001 111 000 010 111 000 
 0 0 1 0 0 1 0 errores corregidoserrores sin corregir
mensaje original
mensaje codificado
6
TD4 2022TD4 2022
Decodificando Hamming
s = 1 0 0 0 mensaje original
y = 1 1 0 0 1 0 1 Mensaje recibido 1 00
0
1
01
flip!
 1 0 0 0 1 0 1 Mensaje corregido 
▪ Las violaciones a la paridad de los círculos siguen un patrón y 
se pueden tabular en una “matriz de paridad”: 
7
TD4 2022TD4 2022
Codificación: resumen
▪ Trade-off entre la probabilidad de error y 
la tasa de transmisión, “no pain, no 
gain”. 
▪ ¿Podemos obtener métodos de 
codificación con una performance 
dentro del área roja? 
▪ ¿Cuál es la máxima performance que 
puede lograrse con el mejor algoritmo?
8
Codificaciones más 
eficientes
TD4 2022TD4 2022
Mejor performance posible
▪ Shannon demostró que el límite entre los 
puntos alcanzables y no alcanzables se 
encuentra con el eje x en un valor 
distinto de cero = C (Capacidad). 
▪ Existen códigos que hacen posible la 
comunicación con una probabilidad de 
error arbitrariamente chica a velocidades 
distintas de cero. alcanzable no alcanzable
TD4 2022TD4 2022
Capacidad de un canal
▪ Cantidad máxima de bits que puede comunicar un canal, 
expresado en bits/s ó bits/símbolo
▪ En un canal sin ruido, la capacidad es numéricamente igual a 
la cantidad de bits que puede comunicar por segundo
▪ Un canal puede transmitir menos que su capacidad, pero 
nunca más
TD4 2022TD4 2022
Capacidad de un canal
▪ Si cada dígito binario lleva menos de un bit de información, el 
canal se usa a una tasa R menor a su capacidad C
▪ En un canal con ruido, la capacidad está acotada por el ruido 
▪ Para alcanzar tasas similares a la 
capacidad de un canal, tenemos que 
usar sabiamente cada bit 
TD4 2022TD4 2022 12
Experimento aleatorio: tirar una moneda
▪ Supongamos que modelamos el experimento de tirar una 
moneda cargada con una variable aleatoria. 
▪ En 100 tiradas, la moneda cae 90 veces con la cruz hacia 
arriba y solo 10 con la cara hacia arriba. 
TD4 2022TD4 2022 13
Experimento aleatorio: tirar una moneda
moneda “cargada”
▪ Supongamos que modelamos el experimento de tirar una 
moneda cargada con una variable aleatoria. 
▪ En 100 tiradas, la moneda cae 90 veces con la cruz hacia 
arriba y solo 10 con la cara hacia arriba. 
TD4 2022TD4 2022 14
Cuantificando la “sorpresa”
▪ Cuando tiramos la moneda, esperamos que salga cruz, es 
decir que “nos sorprende menos” que si sale cara.
TD4 2022TD4 2022 15
Cuantificando la “sorpresa”
▪ Cuando tiramos la moneda, esperamos que salga cruz, es 
decir que “nos sorprende menos” que si sale cara.
▪ Cuanto más improbable la salida de la variable aleatoria, 
más sorprendidos estamos al observar el evento.
TD4 2022TD4 2022 16
Cuantificando la “sorpresa”
▪ Cuando tiramos la moneda, esperamos que salga cruz, es 
decir que “nos sorprende menos” que si sale cara.
▪ Cuanto más improbable la salida de la variable aleatoria, 
más sorprendidos estamos al observar el evento.
¿Cómo podríamos cuantificar la cantidad de sorpresa?
TD4 2022TD4 2022 17
Cuantificando la “sorpresa”
▪ Una forma de expresar la sorpresa es cuantificándola en 
base a la probabilidad de la salida de la variable aleatoria.
TD4 2022TD4 2022 18
Cuantificando la “sorpresa”
▪ Una forma de expresar la sorpresa es cuantificándola en 
base a la probabilidad de la salida de la variable aleatoria.
sorpresa baja
sorpresa alta
TD4 2022TD4 2022 19
Información de Shannon
▪ Una forma de expresar la sorpresa es cuantificándola en 
base a la probabilidad de la salida de la variable aleatoria.
TD4 2022TD4 2022 20
Información de Shannon
▪ Una forma de expresar la sorpresa es cuantificándola en 
base a la probabilidad de la salida de la variable aleatoria.
TD4 2022TD4 2022 21
Información de Shannon
▪ Una forma de expresar la sorpresa es cuantificándola en 
base a la probabilidad de la salida de la variable aleatoria.
▪ Es más informativo saber que ocurrió un evento improbable, 
que conocer la ocurrencia de uno probable. 
TD4 2022TD4 2022 22
Información y sorpresa 
▪ Es más informativo saber que ocurrió un evento improbable, 
que conocer la ocurrencia de uno probable. 
TD4 2022TD4 2022 23
Información y sorpresa 
▪ Es más informativo saber que ocurrió un evento improbable, 
que conocer la ocurrencia de uno probable. 
TD4 2022TD4 2022 24
Información y sorpresa 
▪ Es más informativo saber que ocurrió un evento improbable, 
que conocer la ocurrencia de uno probable. 
TD4 2022TD4 2022 25
Información y sorpresa 
▪ Podemos cuantificar la sorpresa utilizando la noción de 
información de Shannon.
▪ Necesitamos conocer las probabilidades de los eventos. 
▪ Ne
TD4 2022TD4 2022 26
Información y sorpresa 
▪ Podemos cuantificar la sorpresa utilizando la noción de 
información de Shannon.
▪ Necesitamos conocer las probabilidades de los eventos. 
▪ Ne
Información de Shannon:
TD4 2022TD4 2022 27
Información y sorpresa 
Información de Shannon:
▪ Dado que estamos cuantificando la información, podemos 
medirla en bits (unidad de información).
▪ También se conoce a esta unidad como shannon (Sh).
TD4 2022TD4 2022 28
Sorpresa promedio de una variable
▪ No estamos interesados en un solo evento o valor de una 
variable aleatoria. 
▪ En general, nos va a interesar saber cuánta sorpresa hay en 
promedio para todo el conjunto de valores de una variable 
aleatoria. 
TD4 2022TD4 2022
Sorpresa promedio de una variable
▪ Moneda justa:
TD4 2022TD4 2022
Sorpresa promedio de una variable
▪ Moneda justa:
bit por tirada
TD4 2022TD4 2022 31
Sorpresa promedio de una variable
▪ Moneda justa:
▪ Moneda cargada:
bits por tirada
bit por tirada
TD4 2022TD4 2022 32
Entropía de una variable aleatoria
▪ La entropía es una medida de la incerteza: sabemos menos 
de la moneda justa que de la sesgada.
TD4 2022TD4 2022 33
Entropía de una variable aleatoria
▪ La entropía es una medida de la incerteza: sabemos menos 
de la moneda justa que de la sesgada.
▪ Una entropía de 0.564 bits quiere decir que podríamos 
representar la información de, por ejemplo, 1000 tiradas 
usando tan solo 564 dígitos binarios (en vez de 1000!).
TD4 2022TD4 2022 34
Entropía de una variable aleatoria
▪ Calculamos la entropía como:
bits
Distribución de probabilidades
de la variable aleatoria X
TD4 2022TD4 2022 35
¡Ejercicio! 
¿Cuántas preguntas con respuesta 
sí/no tengo que hacer para adivinar 
la posición del peón en un tablero 
de ajedrez? 
Pensar una estrategia que minimice 
la cantidad de preguntas. 
TD4 2022TD4 2022 36
¡Ejercicio! 
1. ¿Está en la mitad izquierda?
TD4 2022TD4 2022 37
¡Ejercicio! 
1. ¿Está en la mitad izquierda?
2. ¿Está en la mitad superior?
TD4 2022TD4 2022 38
¡Ejercicio! 
1. ¿Estáen la mitad izquierda?
2. ¿Está en la mitad superior?
3. En ese cuadrante ¿Está en la 
mitad izquierda?
TD4 2022TD4 2022 39
¡Ejercicio! 
1. ¿Está en la mitad izquierda?
2. ¿Está en la mitad superior?
3. En ese cuadrante ¿Está en la 
mitad izquierda?
4. En ese cuadrante ¿Está en la 
mitad superior?
TD4 2022TD4 2022 40
¡Ejercicio! 
1. ¿Está en la mitad izquierda?
2. ¿Está en la mitad superior?
3. En ese cuadrante ¿Está en la 
mitad izquierda?
4. En ese cuadrante ¿Está en la 
mitad superior?
5. En ese cuadrante ¿Está en la 
mitad izquierda?
TD4 2022TD4 2022 41
¡Ejercicio! 
1. ¿Está en la mitad izquierda?
2. ¿Está en la mitad superior?
3. En ese cuadrante ¿Está en la 
mitad izquierda?
4. En ese cuadrante ¿Está en la 
mitad superior?
5. En ese cuadrante ¿Está en la 
mitad izquierda?
6. En ese cuadrante ¿Está en la 
mitad superior?
TD4 2022TD4 2022 42
¡Ejercicio! 
▪ Podemos modelar este problema 
mediante una variable aleatoria:
TD4 2022TD4 2022 43
¡Ejercicio! 
▪ Podemos modelar este problema 
mediante una variable aleatoria:
TD4 2022TD4 2022 44
¡Ejercicio! 
▪ Podemos modelar este problema 
mediante una variable aleatoria:
TD4 2022TD4 2022 45
Interpretando la Entropía
▪ Podemos pensar a la entropía como la cantidad mínima de 
preguntas binarias (si trabajamos con log en base 2) para 
identificar el valor de una variable aleatoria discreta. 
TD4 2022TD4 2022 46
Interpretando la Entropía
▪ Podemos pensar a la entropía como la cantidad mínima de 
preguntas binarias (si trabajamos con log en base 2) para 
identificar el valor de una variable aleatoria discreta. 
Espacio de posibilidades
Observación
= 1 bit de información
TD4 2022TD4 2022 47
Interpretando la Entropía
▪ Podemos pensar a la entropía como la cantidad mínima de 
preguntas binarias (si trabajamos con log en base 2) para 
identificar el valor de una variable aleatoria discreta. 
Espacio de posibilidades
Observación
+ 1 bit de información
= 1 bit de información
TD4 2022TD4 2022 48
Interpretando la Entropía
▪ Podemos pensar a la entropía como la cantidad mínima de 
preguntas binarias (si trabajamos con log en base 2) para 
identificar el valor de una variable aleatoria discreta. 
Espacio de posibilidades
Observación
+ 1 bit de información
= 1 bit de información
+ 1 bit de información
…
TD4 2022TD4 2022 49
Interpretando la Entropía
▪ ¿Cuánta información contiene la posición del peón en un 
tablero de ajedrez?
TD4 2022TD4 2022 50
Interpretando la Entropía
▪ ¿Cuánta información contiene la posición del peón en un 
tablero de ajedrez? → 6 bits
TD4 2022TD4 2022 51
Interpretando la Entropía
▪ ¿Cuánta información contiene la posición del peón en un 
tablero de ajedrez? → 6 bits
▪ El valor de entropía depende solo de la distribución de 
probabilidades, no de los símbolos de la variable aleatoria. 
▪ Si duplicamos la cantidad de casillas en el tablero de 
ajedrez, o en las caras de un dado, la entropía se incrementa 
en 1 bit. 
TD4 2022TD4 2022 52
Bits, Shannons y Bans
▪ La unidad de medición de información depende de la base del 
logaritmo que estemos utilizando. Es similar a lo que sucede 
cuando medimos agua en una receta y usamos litros o tazas. 
TD4 2022TD4 2022 53
Bits, Shannons y Bans
▪ La unidad de medición de información depende de la base del 
logaritmo que estemos utilizando. Es similar a lo que sucede 
cuando medimos agua en una receta y usamos litros o tazas. 
▪ Si medimos información usando logaritmo natural (base e = 
2.72), entonces las unidades se llaman nats en vez de bits 
(base 2). 
▪ Si usamos logaritmos en base 10, las unidades se llaman bans.
▪ Si usamos logaritmos en base 2, las unidades son los bits o 
Shannons (Sh)
TD4 2022TD4 2022 54
Primer teorema de Shannon (1948)
▪ Si deseamos comunicar muestras extraídas de alguna 
distribución, en promedio necesitaremos al menos tantos 
símbolos como la entropía de esa distribución para comunicar 
sin ambigüedades esas muestras. 
TD4 2022TD4 2022 55
Primer teorema de Shannon (1948)
▪ Si deseamos comunicar muestras extraídas de alguna 
distribución, en promedio necesitaremos al menos tantos 
símbolos como la entropía de esa distribución para comunicar 
sin ambigüedades esas muestras. 
▪ La entropía proporciona un límite inferior sobre cuánto 
podemos comprimir nuestra descripción de las muestras de la 
distribución antes de que inevitablemente perdamos 
información.
TD4 2022TD4 2022 56
▪ Dicho de otro modo:
“Es posible codificar una fuente de información con entropía H 
(bits por símbolo) y un canal de capacidad C (bits por segundo) 
de manera que se pueda transmitir a una tasa promedio de C/H-ε 
símbolos por segundo.” 
Primer teorema de Shannon (1948)
TD4 2022TD4 2022 57
Eficiencia en la codificación de datos
▪ Dado de 8 caras: 
Alice
Bob
Saqué un 2
Sacó un 2!!!
Alice envía a Bob 
el código del 2
TD4 2022TD4 2022 58
Fuente: dado de 8 caras
▪ Capacidad del canal
bits/s
TD4 2022TD4 2022 59
Fuente: dado de 8 caras
▪ Capacidad del canal
bits/s
bits/símbolo
▪ Entropía
TD4 2022TD4 2022 60
Fuente: dado de 8 caras
▪ Capacidad del canal
bits/s
bits/símbolo
▪ Entropía
▪ Según el Primer Teorema de 
Shannon, la tasa máxima de 
transmisión se puede calcular 
como:
bits/s
bits/símbolo
símbolo/s
TD4 2022TD4 2022 61
Fuente: dado de 8 caras
bits/s
bits/símbolo
símbolos/s
▪ Capacidad del canal
bits/s
bits/símbolo
▪ Entropía
▪ Según el Primer Teorema de 
Shannon, la tasa máxima de 
transmisión se puede calcular 
como:
TD4 2022TD4 2022 62
Fuente: dado de 8 caras
bits/s
bits/símbolo
símbolos/s
▪ Capacidad del canal
bits/s
bits/símbolo
▪ Entropía
▪ Según el Primer Teorema de 
Shannon, la tasa máxima de 
transmisión se puede calcular 
como:
Sabemos que cada símbolo 
equivale a 3 bits -> código 
eficiente!!!!
TD4 2022TD4 2022
▪ Calculamos la tasa de transmisión R como:
▪ Eficiencia de un código: ratio entre la cantidad promedio de 
dígitos binarios por palabra en el código L(X) y la entropía H(S) 
promedio de los símbolos del alfabeto:
63
Eficiencia en la codificación de datos
Capacidad del canal
Entropía
bits/símbolo
3 dígitos binarios/símbolo
bits/dígito binario
TD4 2022TD4 2022 64
Fuente: dado de 6 caras
▪ Dado de 6 caras: 
Alice
Bob
Saqué un 4
Sacó un 4!!!
Alice envía a Bob 
el código del 4
TD4 2022TD4 2022 65
Fuente: dado de 6 caras
▪ Capacidad del canal
bits/s
TD4 2022TD4 2022 66
Fuente: dado de 6 caras
▪ Capacidad del canal
▪ Entropía
bits/s
bits/símbolo
TD4 2022TD4 2022 67
Fuente: dado de 6 caras
▪ Capacidad del canal
▪ Entropía
bits/s
bits/símbolo
▪ Según el Primer Teorema de 
Shannon, la tasa máxima de 
transmisión se puede calcular 
como:
TD4 2022TD4 2022 68
Fuente: dado de 6 caras
▪ Capacidad del canal
▪ Entropía
bits/s
bits/símbolo
▪ Según el Primer Teorema de 
Shannon, la tasa máxima de 
transmisión se puede calcular 
como:
bits/s
bits/símbolo
símbolos/s
TD4 2022TD4 2022 69
Fuente: dado de 6 caras
▪ Capacidad del canal
▪ Entropía
bits/s
bits/símbolo bits/dígito binario
▪ Según el Primer Teorema de 
Shannon, la tasa máxima de 
transmisión se puede calcular 
como:
bits/s
bits/símbolo
símbolos/s
▪ Eficiencia:
TD4 2022TD4 2022
Fuente: dado de 6 caras
▪ Tasa máxima (teórica):
bits/s
bits/símbolo
símbolos/s
▪ Tasa efectiva:
símbolos/s
bits/s
bits/símbolo
TD4 2022TD4 2022
Fuente: dado de 6 caras
▪ Tasa máxima (teórica):
bits/s
bits/símbolo
símbolos/s
▪ Tasa efectiva:
¿Qué salió mal?
símbolos/s
bits/s
bits/símbolo
TD4 2022TD4 2022 72
Eficiencia en la codificación de datos
▪ No siempre que transmitimos un dígito binario estamos 
transmitiendo un bit de información.
Alice
Bob
Saqué un 4
Sacó un 4!!!
Alice envía a Bob 
el código del 4
TD4 2022TD4 2022 73
Eficiencia en la codificación de datos
▪ No siempre que transmitimos un dígito binario estamos 
transmitiendo un bit de información.
Alice
Bob
Saqué un 4
Sacó un 4!!!
Alice envía a Bobel código del 4
▪ Solo se alcanza la máxima 
capacidad de transmisión 
cuando cada dígito binario 
transporta la mayor cantidad 
de información posible.
TD4 2022TD4 2022
Bob
Saqué un 4, 
un 3 y un 1 Sacó un 4, 
un 3 y un 1
Alice envía a Bob 
el código del 4,3,1
74
Recodificación de la fuente
▪ Idea! Codificar más de un símbolo a la vez. Por ejemplo, 3 
símbolos seguidos:
Alice
TD4 2022TD4 2022 75
Recodificación de la fuente
bits/dígito binario
▪ Eficiencia:
TD4 2022TD4 2022 76
Recodificación de la fuente
bits/dígito binario
▪ Eficiencia:
▪ Según el Primer Teorema de 
Shannon, la tasa máxima de 
transmisión se puede calcular 
como:
TD4 2022TD4 2022
Recodificación de la fuente
▪ Tasa máxima (teórica):
bits/s
bits/símbolo
símbolos/s
▪ Tasa efectiva:
símbolos/s
bits/s
bits/símbolo
símbolos/s
TD4 2022TD4 2022
Si los valores de la variable no 
representan un número entero de bits, se 
puede mejorar la codificación 
combinando varios símbolos en el código
Recodificación de la fuente
▪ Tasa máxima (teórica):
bits/s
bits/símbolo
símbolos/s
▪ Tasa efectiva:
símbolos/s
bits/s
bits/símbolo
símbolos/s
TD4 2022TD4 2022 79
Compresión de datos
▪ Consideremos el caso en el que la variable no tiene una 
distribución uniforme. Por ejemplo, transmitir la suma de las 
caras de dos dados:
TD4 2022TD4 2022 80
Compresión de datos
▪ Consideremos el caso en el que la variable no tiene una 
distribución uniforme. Por ejemplo, transmitir la suma de las 
caras de dos dados:
TD4 2022TD4 2022 81
Compresión de datos
▪ Consideremos el caso en el que la variable no tiene una 
distribución uniforme. Por ejemplo, transmitir la suma de las 
caras de dos dados:
TD4 2022TD4 2022 82
Compresión de datos
▪ Consideremos el caso en el que la variable no tiene una 
distribución uniforme. Por ejemplo, transmitir la suma de las 
caras de dos dados:
▪ Entropía:
bits/símbolo
TD4 2022TD4 2022 83
Compresión de datos
▪ Consideremos el caso en el que la variable no tiene una 
distribución uniforme. Por ejemplo, transmitir la suma de las 
caras de dos dados:
▪ Entropía:
bits/símbolo
▪ Eficiencia:
bits/dígito binario
TD4 2022TD4 2022 84
Código de Huffman (1952)
▪ Método de compresión sin pérdida 
▪ Idea! Asignar códigos más cortos a 
los símbolos más frecuentes (y 
viceversa). 
▪ Requiere conocer las probabilidades 
de ocurrencia. 
▪ Asume eventos independientes: los 
resultados de cada experimento 
aleatorio no están conectados entre 
sí de ninguna manera.

Continuar navegando

Otros materiales