Вы находитесь на странице: 1из 11

CARACTERIZACION DE UN

SISTEMA DE COMUNICACIÓN

Contenido
1.- Cantidad de información.
2.- Entropía.
3.- Velocidad de información.
4.- Velocidad de modulación.
5.- Ancho de banda y capacidad del canal.

Objetivo

El estudiante será capaz de explicar los parámetros característicos de un sistema de


comunicación.
Tema 2:
Caracterización de un Sistema de Comunicación
1
1.- Cantidad de Información.
Es la cantidad de información que proporciona un mensaje, la cual puede ser calculada a
partir de su probabilidad de ser enviada.

U(A) = Incertidumbre del suceso A


U ( A)  I ( A)  f ( PA ) I(A) = Información al realizarse el suceso A
PA = Probabilidad de ocurrencia del suceso A

Aditividad: Si A=BC, entonces: f(PA)= f(PB) + f(PC)


Positiva: f(PA) > = 0 y 0 <= f(PA) <= 1
REQUISITOS DE LA f(PA)
Nula: Si PA = 1, entonces: f(PA) = 0
Comparación: Si PA < PB , entonces: f(PA) > f(PB)

1
RELACION FUNCIONAL f(PA) I ( A)  f ( PA )  Log b Si: b = 2,
PA Unidad = bit

La información es una función de la probabilidad de


Objetivo ocurrencia del suceso. Se trata entonces de hallar la
relación funcional f(PA).
2
2.- Entropía.
Cuando la fuente de información produce N mensajes en forma aleatoria, es necesario
calcular la Entropía de la fuente o la información promedio producida, teniendo en cuenta
todos los posibles mensajes que la fuente puede generar. Unidad de medida: bits/mensaje.

N
1 1 1 1
ENTROPIA (H): H   Pj log 2  P1 Log 2  P2 Log 2  ........PN Log 2
j 1 Pj P1 P2 PN

Bits/mensaje
N = Numero de mensajes distintos de la fuente
Pj = probabilidad de ocurrencia del mensaje j

ENTROPIA
MAXIMA(HM): H M  log 2 N Cuando: P1  P2  .........  PN

3
2.- Entropía.
2.1 PROBLEMA: Una fuente produce cuatro símbolos A, B, C y D cuyas probabilidades
son, respectivamente, 0,5; 0,25; 0,125 y 0,125. Calcular:
a) La entropía de la fuente.
b) La entropía máxima si los mensajes son equiprobables (Pj=1/4).

Solución

4
1 1 1 1
H   Pj log 2  0.5 Log 2  0.25 Log 2  2 x0.125Log 2
j 1 Pj 0.5 0.25 0.125
H  1.75bits / mensaje

H M  Log 2 N  Log 2 4  2bits / mensaje

4
3.- Velocidad de Información.
Un sistema de comunicación se describe por la velocidad a la cual produce los símbolos:
Velocidad de símbolos o mensajes.
Velocidad de información en bits/segundo

Velocidad de símbolos:

1
Vs  simbolos / segundo T= duración del símbolo
T

Velocidad de información:

1 N 1
Vi  Vs xH  x  Pj log 2 bits / segundo
T j 1 Pj

1
Vi  Vs xH M  xLog 2 N bits / segundo
T

5
3.- Velocidad de información.
3.1 Una fuente produce cuatro símbolos A, B, C y D cuyas probabilidades son,
respectivamente, 0,5; 0,25; 0,125 y 0,125. Calcular:
a) La entropía de la fuente.
b) La entropía máxima si los mensajes son equiprobables (Pj=1/4).
c) Si la Vs= 1000 símbolos/seg, Calcular la velocidad de información.

Solución

4
1 1 1 1
H   Pj log 2  0.5 Log 2  0.25 Log 2  2 x0.125Log 2
j 1 Pj 0.5 0.25 0.125
H  1.75bits / mensaje

H  Log 2 N  Log 2 4  2bits / mensaje

Vi  Vs xH  1000 x1.75  1750 bps

Vi  Vs xH  1000 x 2  2000 bps

6
4.- Velocidad de modulación.
Codificación de fuente: conversión de un símbolo a una señal discreta: ASCII.

Codificación de canal: conversión de una señal discreta en códigos de línea para


facilitar la corrección de errores (bits de redundancia).

1
ViF  VS xH M  xLog 2 N bits / segundo ViF  ViC
T

I n log 2 m N  mn
ViC   bits / segundo
T T

1
Vb  baudios

n
Vi  ( )Vb log 2 m bps
pnq
Si m  2, pq0
Vi  Vb
T  ( p  n  q )
7
4.- Velocidad de modulación.
4.1 Una fuente produce 256 símbolos equiprobables a una velocidad de 100 símbolos/seg.
Cada símbolo se codifica en secuencias de n impulsos con m amplitudes sin redundancia .
Calcular:
a) La velocidad de información Vi.
b) Los parámetros del codificador m y n.
c) La velocidad de modulación en cada caso del ítem b).

Solución
256  m n 256  m n
Vi  Vs xLog 2 N  100 x log 2 256
m4 m2
Vi  800 bps n4 n8

1 n
Vb    nxVs baudios
 T
Vb  4 x100  400 baudios

Vb  8 x100  800 baudios

8
4.- Velocidad de modulación.
4.2 Una fuente produce caracteres ASCII a razón de 10 caracteres/segundo. Cada carácter
se codifica en secuencias de 7 impulsos binarios con redundancia, como muestra la figura.
Calcular:
a) La duración de cada muestra codificada: T.
b) La velocidad de modulación: Vb.
c) La cantidad de caracteres independientes que produce la fuente: N.
d) La velocidad de información: Vi.

Solución
1 1
T   100ms
VS 10

T 100
  mseg N  m n  27  128
p  n  q 11
111x103 n
Vb    110 baudios Vi  Vb log 2 m
 100 pnq
Vi  70bps
9
5.- Ancho de Banda y capacidad del canal.
Ancho de banda (BW): cuando deja pasar solamente aquellas componentes de señal que
están comprendidas dentro de su banda de paso o ancho de banda del canal.

Capacidad de un canal (C): es la máxima velocidad a la cual el canal puede transportar


información confiable hasta el destinatario.

K
BW 

1
BW 

BW  Vb
BW  Vb
Perdida de Información:
 
Vb  BW  log 2 m
n
VP  
 pnq
Para: Vb>BW

Capacidad en canal sin ruido: Capacidad en canal con ruido:


C  KxBWx log 2 m S
bps C  BWx log 2 (1  ) bps
N 10
5.- Ancho de banda del canal.
5.1 Una fuente produce N símbolos independientes y equiprobables, los cuales se han
codificado en cinco impulsos cuaternarios con impulsos de arranque y pare (codificación
multinivel con redundancia). La velocidad de modulación es de 10 kbaudios. Calcular:
a) N
b) Información promedio: HM.
c) La duración de cada muestra
codificada: T.
d) La velocidad de la fuente: Vs.
e) La velocidad de información: Vi.
f) El ancho de banda mínimo: BW.

Solución
1
N  m  4  1024 simbolos
n 5 VS  3
 1000simbolos / seg
10

H M  log 2 1024  10bits / simbolo Vi 


5
x10 4 x log 2 4  10 4 bps
10
10 10 10
T  10    4  10 3 seg BWmin  Vb  10 Khz
1

Vb 10
FIN 11

Вам также может понравиться