Вы находитесь на странице: 1из 19

Captulo 4.

Estndares de
Interoperabilidad de
los sistemas de
Videoconferencia
ndice figuras tablas 1 2 3 4 5 6 7 A B referencias
El mercado del facsmil estuvo restringido por muchos aos porque las unidades de fax
manufacturadas por diferentes vendedores no eran compatibles. Es claro que la explosin del
facsmil que ahora experimentamos esta directamente relacionada a el estndar desarrollado
por el grupo 3 del Comit Consultivo Internacional para la Telefona y Telegrafa (CCITT), el
cual hace posible que las unidades de fax de diferentes fabricantes sean compatibles. Algo
similar ocurri con la videoconferencia/videotelfono. El mercado de la videoconferencia
punto a punto estuvo restringido por la falta de compatibilidad hasta que surgi la
recomendacin de CCITT H.261 en 1990, con lo que el mercado de la videoconferencia ha
crecido enormemente. Hay otros tres factores que han influido en este crecimiento, el primero
es el descubrimiento de la tecnologa de videocompresin, a partir de la cual, el estndar esta
basado. Mediante la combinacin de las tcnicas de la codificacin predictiva, la
transformada discreta del coseno (DCT), la compensacin de movimiento y la codificacin de
longitud variable, el estndar hace posible transmitir imgenes de TV de calidad aceptable
con bajos requerimientos de ancho de banda, anchos de banda que se han reducido lo bastante
para lograr comunicaciones de bajo costo sobre redes digitales conmutadas [Schaphorst
1996].
El segundo factor que ha influido es el desarrollo de la tecnologa VLSI la cual redujo los
costos de los codecs de video. Ahora en el mercado se encuentran chips mediante los cuales
se pueden implantar las tecnologas DCT y de compensacin de movimiento, partes del
estndar.
El tercer factor es el desarrollo de ISDN ( Red Digital de Servicios Integrados ), la cual
promete proveer de servicios de comunicaciones digitales conmutados de bajo costo. El
acceso bsico de ISDN consiste de dos canales full dplex de 64 Kbps denominados canales
B y un canal tambin full dplex de 16 Kbps denominado D. El estndar H.261 est basado
en la estructura bsica de 64 Kbps de ISDN. Esta da nombre al ttulo de la recomendacin
H.261 "Video Codec para servicios audiovisuales a PX64 Kbps", donde P es igual a 1,
2,...,etc. Aunque tomar varios aos para que ISDN est disponible globalmente, los video
codecs que cumplen con el estndar H. 261 pueden ya operar sobre las redes de
comunicaciones actualmente disponibles [Martin 1997].
La CCITT es parte de la Organizacin de la Naciones Unidas, y su propsito es el desarrollo
formal de "recomendaciones" para asegurar que las comunicaciones mundiales sean
establecidas efectiva y eficientemente. La CCITT trabaja en ciclos de 4 aos, y al final de
cada periodo se publica un grupo de recomendaciones. Los libros "rojo" y "azul" que
contienen estas recomendaciones fueron publicados en 1984 y 1988 respectivamente. En el
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
1
libro rojo de 1984 se establecieron las primeras recomendaciones para codecs de
videoconferencia (la H.120 y H.130) [Ornelas y Daz 1998]. Estas recomendaciones se
definieron especficamente para la regin de Europa (625 lneas; 2.048 Mbps, ancho de banda
primario) y para la interconexin entre Europa y otras regiones. Debido a que no existan
recomendaciones para las regiones fuera de Europa, la CCITT design un "grupo de
especialistas en Codificacin para Telefona Visual" con el fin de desarrollar una
recomendacin internacional. La CCITT estableci dos objetivos para el grupo de
especialistas: 1) Desarrollar una recomendacin para un video codec para aplicaciones de
videoconferencia que operar a NX384 Kbps (N=1, 2, hasta 5), y 2) Empezar un proceso de
estandarizacin para el video codec de videoconferencia/videotelfono que operara a MX64
Kbps (M=1,2). El resultado fue una sola recomendacin que se aplica a los rangos desde 64
Kbps hasta 2 Mbps, utilizando PX64 Kbps, donde los valores claves para P son 1, 2, 6, 24 y
30 [Ornelas y Daz 1998].
En 1989, un diverso nmero de organizaciones en Europa, EUA y Japn desarrollaron codecs
flexibles para encontrar una especificacin preliminar de la recomendacin. Varios sistemas
fueron interconectados en los laboratorios y a travs de largas distancias para poder validar la
recomendacin. Estas pruebas resultaron exitosas y apareci entonces una versin preliminar
de la recomendacin H.261 en el libro azul de CCITT. Sin embargo, esta versin estaba
incompleta, la versin final de la recomendacin fue aprobada en diciembre de 1990.
Actualmente, la mayora de los fabricantes ofrecen algoritmos de compresin que cumplen
con los requisitos especificados en la norma CCITT H.261, y ofrecen tambin en el mismo
codec, algoritmos de compresin propios. La norma CCITT H.261 proporciona un mnimo
comn denominador para asegurar la comunicacin entre codecs de diferentes fabricantes
[Ornelas y Daz 1998]. A continuacin se listan las recomendaciones de la CCITT que
definen a las comunicaciones audio visuales sobre redes digitales de banda angosta.
Servicios
F.710 Servicios de Videoconferencia. 1.
F.721 Servicio Bsico de videotelfono en banda angosta en la ISDN. 2.
H.200 Recomendaciones para servicios audiovisuales. 3.
Equipo Terminal Audio Visual: punto a punto.
PX64
H.320 Equipo terminal y sistemas de telefona visual para banda angosta. 1.
H.261 Video codec para servicios audiovisuales a PX64 Kbps. 2.
H.221 Estructura de comunicaciones para un canal de 64 Kbps a 1920 Mbps en
teleservicios audiovisuales.
3.
H.242 Sistemas para el establecimiento de las comunicaciones entre terminales
audiovisuales usando canales digitales arriba de 2 Mbps.
4.
H.230 Control de sincronizacin y seales de indicacin para sistemas audiovisuales.
Audio
5.
G.711 Modulacin por codificacin por pulsos (MPC) de frecuencias de voz. 6.
G.722 Codificacin de audio de 7 Khz dentro de 64 Kbps. Diversos 7.
H.100 Sistemas de telefona visual. 8.
H.110 Conexiones hipotticas de referencia utilizando grupos primarios de
transmisiones digitales.
9.
H.120 Codecs para videoconferencia para grupos primarios de transmisiones
digitales.
10.
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
2
H.130 Estructuras para la interconexin internacional de codecs digitales para
videoconferencia de telefona visual.
11.
Multipunto
H.231 Unidades de control de multipunto (MCU) para sistemas audiovisuales usando
canales digitales de mas de 2 Mbps.
1.
H.243 Procedimientos bsicos para el establecimiento de las comunicaciones entre
tres o ms terminales audiovisuales usando canales digitales de mas de 2 Mbps.
2.
Seguridad
H.233 Recomendaciones para sistemas de confiabilidad para servicios audiovisuales.
H.KEY Recomendaciones de la CCITT de encriptacin para servicios audiovisuales.
Recomendaciones de la CCITT que definen las comunicaciones audiovisuales sobre
ISDN de banda ancha (BISDN).
H.26x Video codecs para servicios audiovisuales a velocidades que incluyen a
BISDN.

Estndares ISO para almacenamiento y utilizacin de material audiovisual (MPEG).
Codificacin de imgenes con movimiento y medios de almacenamiento digital para
video para mas de 1.5 Mbps (MPEG1:Comit 11172).

Codificacin de imgenes con movimiento y medios de almacenamiento digital para
video para mas de 10 Mbps (MPEG2).

Codificacin de imgenes con movimiento y medios de almacenamiento digital para
video para mas de 40 Mbps (MPEG3).

Estndar ISO para compresin de imgenes fijas (JPEG).
Compresin digital y codificacin de imgenes fijas.
Compresin ISO Binivel compresin de imgenes fijas.
Estndar de compresin progresiva binivel para imgenes.
4.1 Tipos de compresin y decodificacin
4.2 Relacin espacio temporal: Proceso de bsqueda
4.3 La compresin
4.4 Proceso de prediccin por compensacin de movimiento
4.5 Herramientas de compresin
4.6 MPEG2
4.7 Codificacin de audio digital (MPEG y Dolby AC3)
4.8 Curva de sensibilidad (tpica del odo)
4.9 Fenmeno de enmascaramiento
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
3
4.1 Tipos de compresin y decodificacin
Continuamente estn apareciendo en el mercado nuevos estndares, tecnologas y formatos de
vdeo digital. El video digital tiene un mercado en expansin y los estndares creados hace
cinco aos se estn popularizando ahora [Fosgerau 1998]. Durante los ltimos aos han
emergido diferentes estndares de compresin, incluyendo algunos propietarios, dirigidos a
diversas aplicaciones con diferentes necesidades de velocidad. Por ejemplo, la recomendacin
ITU (Unin Internacional de Telecomunicaciones, antes CCITT) H.261, tambin conocida
como el estndar px64 ha surgido para aplicaciones de videoconferencia. MPEG, Moving
Picture Expert Group, es un comit del organismo ISO e IEC que es responsable de los
estndares MPEG1, MPEG2, y los actuales MPEG4 y MPEG7 an en fase de
especificacin.
En la mayora de los casos estos estndares se han basado en las necesidades de aplicaciones
especficas. Sin embargo, existen tres normas muy importantes en la actualidad y que
debemos tener en cuenta, son: JPEG, MPEG y H.261 [Draoli 1995].
4.1.1 Jpeg
Jpeg es un estndar ISO aprobado en 1992 para la compresin de imgenes fijas con y sin
prdida de informacin. Inicialmente, el estndar se desarroll para facilitar la transmisin y
el almacenamiento de archivos de imgenes estticas. Una imagen de alta resolucin y de alta
calidad fcilmente puede necesitar 75 Mbytes o ms de espacio en disco. En la actualidad, las
industrias de la impresin, diseo grfico, publicidad, son las que ms utilizan este estndar.
La aplicacin directa de JPEG al video digital es MJPEG. Con MJPEG cada cuadro (que
es una imagen o cuadro por segundo correspondiente a una secuencia de video) se codifica
individualmente con JPEG. Las ventajas de utilizacin de MJPEG son obvias. Por un lado
puede aprovechar la gran cantidad de codificadores y decodificadores creados para JPEG. Por
otro lado, al codificarse individualmente cada frame, el acceso aleatorio a cada uno de ellos
resulta sumamente sencillo.
El principal inconveniente de MJPEG es que no est estandarizado por ISO. Por tanto, cada
fabricante codifica el vdeo basndose en distintos parmetros, crendose formatos de
archivos MJPEG incompatibles. En este caso es conveniente adquirir productos MJPEG de
un mismo fabricante para evitar dichas incompatibilidades. Otro de los grandes
inconvenientes de MJPEG es que no utiliza la redundancia existente entre frames para
conseguir mayores radios de compresin, al contrario que MPEG. La principal aplicacin de
MJPEG es la edicin no lineal de vdeo, con acceso aleatorio a los frames y de bajo costo.
4.1.2 Mpeg
Tanto MPEG1 como MPEG2 son estndares aprobados por ISO (tambin est en fase de
estudio MPEG4). Las principales ventajas de este sistema son:
Orientado a la compresin de vdeo (incluyendo el audio), no como MJPEG.
La compresin se basa en predicciones matemticas complejas que dependen de la
variacin de las imgenes en el tiempo.

Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.1 4
La codificacin admite frecuencias de 4 a 100 Mbps.
MPEG1 fue diseado para la transmisin de vdeo con frecuencias de 1.5 Mbps, la
velocidad nominal de CDROMs de velocidad simple y de lneas T1. MPEG2, en cambio se
dise para soportar aplicaciones de televisin con varios formatos, incluyendo la televisin
de alta definicin (HDTV). Aunque MPEG2 es una norma reciente, ha sido aceptada
rpidamente por las industrias de la televisin por cable y va satlite.
Las frecuencias de compresin conseguidos con MPEG hacen de esta norma el estndar ideal
para la transmisin de vdeo digital. En cambio, para la edicin sigue siendo ms adecuado
MJPEG. La solucin ms adecuada es utilizar MJPEG en la edicin y MPEG en la
transmisin.
En esta seccin se comienza introduciendo conceptos bsicos de video analgico,
adentrndose en el proceso de muestreo y el problema de la seal digital, para continuar
tratando la compresin MPEG1 y MPEG2. Para se puntualiza sobre MPEG2 y sobre
H.261.
4.1.3 El estndar H.261
El estndar H.261 fue desarrollado (antes que MPEG) para satisfacer la compresin de video
para transmisiones de bajo ancho de banda y su aplicacin ms extendida es la de
videoconferencia [Hopper 1994]. Conocido tambin como px64, es considerado como un
compresor del tipo lossy (con prdida) que soporta velocidades de transmisin con mltiplos
de 64 Kbps, de ah su gran difusin en videoconferencia sobre RDSI. Consta bsicamente de
cinco etapas:
Etapa de compensacin del movimiento,
Etapa de transformacin (DCT),
Etapa de cuantificacin "lossy" (con prdidas) y
Dos etapas de codificacin del tipo sin prdidas (codificacin runlength y
codificacin de Huffman).

H.261 es la recomendacin de ITU (Unin Internacional de Telecomunicaciones, antes
CCITT) para la compresin de video en sistemas de videoconferencia, siguiendo el estndar
internacional H.320 [Schulzrinne et al. 1994]. Esta norma permite la utilizacin de anchos de
banda mltiplos de 56 Kbps o 64 Kbps. H.261 tan slo acepta dos tamaos de pantalla (CIF y
QCIF) y mtodos de codificacin adecuados para la videoconferencia.
La digitalizacin proporciona grandes ventajas con respecto a la seal analgica: ms
robustez frente al ruido, calidad y resolucin muy superiores, edicin y efectos muy
sofisticados, pero esta digitalizacin origina una cantidad de informacin que supera con
creces las posibilidades de proceso de nuestros sistemas.
Si quisiramos grabar una pelcula de 3 horas, necesitaramos una astronmica cantidad de
espacio para poder almacenarla, por lo tanto debemos comprimir la informacin. El proceso
de estandarizacin de los algoritmos de compresin (o como mnimo de su sintaxis) es de
vital importancia y esta es la virtud de los estndares MPEG. Originalmente pensado para
almacenar y reproducir seales de video digital surgi MPEG1 con una velocidad mnima
de 1.5 Mbps y calidad comparable a VHS, luego surgi MPEG2 como evolucin de
MPEG1 y pensado para la transmisin de TV digital (y audio) a travs de cualquier medio
(cable, satlite, terrestre) con calidad comparable a NSTC/PAL hasta HDTV, siendo elegido
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.1 5
como estndar de transmisin por el proyecto de transmisin de TV digital DVB (Digital
Video Broadcasting).
Actualmente disponemos de MPEG4 pensado para aplicaciones multimedios con gran
capacidad de interaccin y MPEG7 para bsqueda de informacin [Banerja et al. 1994]. Con
anterioridad, y a partir del mismo comit, surgi la especificacin H.261 utilizada para
videoconferencia, que se puede considerar como un subconjunto de MPEG1.
Cualquier entidad fsica necesita de un nmero fijo de parmetros para representar su
informacin. Este nmero puede ser difcil para tratar de almacenarlo o transmitirlo. El
proceso de compresin representa la entidad utilizando un nmero menor de parmetros que
todo el conjunto. Si toda la informacin se puede recuperar mediante este subconjunto de
parmetros, la compresin se denomina sin prdidas, por otro lado, si no se puede recuperar
toda la informacin, se denomina compresin con prdidas. La primera normalmente no
consigue tasas de compresin demasiado significativas, por lo que se utiliza junto con
tcnicas con prdidas. Sin embargo, ciertas aplicaciones como representacin y
almacenamiento de seales mdicas indiscutiblemente necesitan de una compresin sin
perdidas.
Para entender el proceso de la compresin de video, es una buena idea comenzar definiendo
la entidad de trabajo, la seal de video.
Las seales de video son seales espaciotemporales o simplemente una secuencia de
imgenes que varan en el tiempo. La informacin es visual. Una imagen monocromtica
puede representarse matemticamente por x(h,v), donde x es el valor de intensidad en la
localizacin horizontal h y vertical v. La correspondiente seal de video monocromtica
puede ser representada por x(h,v,t) donde t es el tiempo.
Las seales de video en color simplemente es una superposicin de la distribucin de
intensidad de los tres colores primarios (R,G,B) o equivalentemente de una componente de
luminancia (que es la medida de la intensidad de la luz que consiste en el cociente de la
intensidad luminosa de una superficie partido por el rea aparente de esa superficie) (Y) y dos
de crominancia (U,V) (Mientras que la seal de luminancia indica el brillo de los diferentes
elementos de la imagen, la de crominancia especifica la tonalidad y saturacin de esos
mismos elementos).
La luminancia contiene toda la informacin relacionada con la mayor o menor luminosidad
de la imagen y no contiene ninguna informacin acerca de los colores de la misma.
Reproduce por lo tanto, la imagen en blanco y negro en todas sus tonalidades de grises
intermedios.
La crominancia, por el contrario, contiene todo lo relacionado con el color de los objetos,
separada en los tres colores bsicos. Las seales de crominancia se obtienen de las llamadas
seales diferencia de color: rojo menos luminancia (RY), azul menos luminancia (BY) y
verde menos luminancia (GY). De estas tres seales slo necesitamos dos, al poder obtener
la otra mediante la combinacin de las anteriores. En la tabla 4.1 vemos la equivalencia entre
estas seales:
Tabla 4.1 Equivalencia entre seales [Kochervar 1993]
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.1 6
Y = 0.30R + 0.59G + 0.11B
U = 0.15R 0.29G +0.47B
V = 0.62R 0.52G 0.10B
La forma ms comn de la seal de video todava es la seal analgica. Esta seal se obtiene
a travs de un proceso conocido como de bsqueda (scanning). Este proceso graba los valores
de intensidad de la seal espaciotemporal en la direccin h, convirtindola en una seal
unidimensional. Esta seal se sealiza con pulsos de sincronizacin verticales y horizontales
para conseguir la seal de video final.
Existen dos tipos de bsquedas que pueden ser progresivo o entralazado:
La progresiva busca todas las lneas horizontales para formar el cuadro (frame)
completo y se usa en la industria de los monitores de computadoras.

La bsqueda entrelazada se utiliza en la industria de TV. Aqu, las lneas horizontales
pares e impares de un cuadro se buscan de forma separada consiguiendo los dos
campos de un cuadro.

Existen principalmente tres estndares de video analgico, estas son denominadas:
Video Compuesto.
Video RGB o Componente y,
SVideo SVHS.
En el formato de video compuesto, la componente luminancia y las dos de crominancia son
codificadas juntas como una nica seal.
En contraposicin est el formato RGB o Componente en el que se codifican por separado, y
cada componente tiene un canal para ella.
En el formato SVideo, tambin conocido como Y/C, existen dos seales independientes, una
de ellas contiene nicamente la informacin de luminancia, mientras que el segundo canal
contiene la informacin de crominancia C (U y V). El estndar de video compuesto incluye el
formato NTSC utilizado en USA y Japn, y PAL/SECAM utilizado en Europa.
4.2 Relacin espacio temporal: Proceso de bsqueda
Actualmente la tendencia generalizada es integrar las industrias de video, computadoras y
telecomunicaciones juntas en una nica plataforma multimedios. La seal de video requiere
ser escalable, independiente de la plataforma, proporcionando interactividad y edicin, y ser
robusta a errores.
Desgraciadamente la seal de video analgica no cumple estos requisitos. Digitalizndola no
solo se eliminan todos los problemas de la seal analgica, sino que se permiten sofisticadas
tcnicas de compresin y de edicin de video. Para digitalizar la seal espaciotemporal
x(h,v,t), usualmente, las componentes de la seal analgica son muestradas en las tres
direcciones. Cada punto muestreado en un cuadro se denomina pixel. El proceso de muestreo
consigue el conjunto completo de parmetros necesarios para representar una seal digital de
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.2 7
video, incluyendo pixeles por lnea, nmero de lneas por cuadro, relacin de aspecto (aspect
ratio), y la velocidad de cuadros/campos. Por ejemplo, el muestreo en la direccin horizontal
nos proporciona el parmetro de pixeles por lnea, que define la resolucin horizontal de una
imagen. El muestreo vertical nos determina la resolucin vertical, indicada por el nmero
total de lneas. El muestreo temporal determina la velocidad de cuadros o campos, en las
tablas 4.2 y 4.3 se muestran los parmetros de los formatos de video utilizados para la
transmisin de video.
Tabla 4.2 Estndares TV
PARAMETROS CCIR 601 NTSC CCIR 601 PAL
Pixeles/Lnea (L) 720 720
Lneas/Imagen (L) 485 576
Frecuencia temporal 60 campos/s 50 campos/s
Relacin de aspecto 4:3 4:3
Entrelazado 2:1 2:1
Tabla 4.3 Estndares monitores
PARAMETROS VGA TARGA SVGA
Pixeles/Lnea 640 512 800
Lneas/Imagen 480 480 600
Frecuencia temporal 72 72 72
Entrelazado 1:1 1:1 1:1
4.2.1 Estndares para video digital
La migracin hacia la tecnologa digital ha estado acompaada por una evolucin de los
estndares de video digital para varias aplicaciones. CCIR define el estndar para la industria
de TV, mientras que VESA los define para la industria de las computadoras.
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.2 8
4.3 La compresin
Los avances dramticos registrados en las tecnologas del procesamiento de seales y VLSI
registrados en la pasada dcada han trado progresos significativos en el desarrollo de
tecnologas de compresin para seales de video a diferentes velocidades de transmisin. De
esta manera, han emergido codificadores de video que en un tiempo eran tcnicamente o
econmicamente imposibles, y hoy en da son herramientas prcticas [Jeffay, Stone y Smith
1994].
La informacin de video contiene una serie de imgenes "cuadros" y el efecto del
movimiento es llevado a cabo a travs de cambios pequeos y continuos en los cuadros.
Debido a que la velocidad de estas imgenes es de 30 cuadros por segundo, los cambios
continuos entre cuadros darn la sensacin al ojo humano de movimiento natural [Hopper
1994]. Las imgenes de video estn compuestas de informacin en el dominio del espacio y el
tiempo [Draoli et al. 1995]. La informacin en el dominio del espacio es provista en cada
cuadro, y la informacin en el dominio del tiempo es provista por imgenes que cambian en
el tiempo (por ejemplo, las diferencias entre cuadros). Puesto que los cambios entre cuadros
colindantes son diminutos, los objetos parecen moverse suavemente.
En los sistemas de video digital, cada cuadro es muestreado en unidades de pixeles
elementos de imagen. El valor de luminancia (que es la medida de la intensidad de la luz que
consiste en el cociente de la intensidad luminosa de una superficie partido por el rea aparente
de esa superficie) de cada pixel es cuantificado con ocho bits por pixel para el caso de
imgenes blanco y negro. En el caso de imgenes de color, cada pixel mantiene la
informacin de color asociada; por lo tanto, los tres elementos de la informacin de
luminancia designados como rojo, verde y azul, son cuantificados a ocho bits. La informacin
de video compuesta de esta manera posee una cantidad tremenda de informacin; por lo que,
para transmisin o almacenamiento, se requiere de la compresin (o codificacin) de la
imagen [Gaibisso et al. 1994].
La tcnica de compresin de video consiste fundamentalmente de tres pasos [Jeffay et al.
1994]. Primero, el preprocesamiento de las diferentes fuentes de video de entrada (seales de
TV, seales de televisin de alta definicin HDTV, seales de videograbadoras VHS, BETA,
SVHS, etc.), paso en el cual se realiza el filtrado de las seal de entrada para remover
componentes no tiles y el ruido que pudiera haber en esta. El segundo paso es la conversin
de la seal a un formato intermedio comn (CIF), y por ltimo el paso de la compresin. Las
imgenes comprimidas son transmitidas a travs de la lnea de transmisin digital y se hacen
llegar al receptor donde son reconvertidas a el formato comn CIF y son desplegadas despus
de haber pasado por la etapa de postprocesamiento.
Mediante la compresin de la imagen se elimina informacin redundante, principalmente la
informacin redundante en el dominio de espacio y del tiempo. En general, las redundancias
en el dominio del espacio son debidas a las pequeas diferencias entre pixeles contiguos de
un cuadro dado, y aquellas dadas en el dominio del tiempo son debidas a los pequeos
cambios dados en cuadros contiguos causados por el movimiento de un objeto. El mtodo
para eliminar las redundancias en el dominio del espacio es llamado codificacin de cuadros,
la cual puede ser dividida en codificacin por prediccin, codificacin de la transformada y
codificacin de la subbanda [Schulzrinne 1994]. En el otro extremo, las redundancias en el
dominio del tiempo pueden ser eliminadas mediante el mtodo de codificacin de
intercuadros, que tambin incluye los mtodos de compensacin/estimacin del movimiento,
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.3 9
el cual compensa el movimiento a travs de la estimacin del mismo.
4.3.1 La solucin: Compresin
La solucin lgica a este problema es la compresin digital. Compresin implica disminuir el
numero de parmetros requerido para representar la seal, manteniendo una buena calidad
visual. Estos parmetros son codificados para almacenarse o transmitirse. El resultado de la
compresin de video digital es que se convierte a un formato de datos que puede transmitirse
a travs de las redes de comunicaciones actuales y ser procesadas por computadoras.
Para entender el proceso de compresin es importante reconocer las diferentes redundancias
presentes en los parmetros de una seal de video:
Espacial
Temporal
Psicovisual
Codificacin
La redundancia espacial ocurre porque en un cuadro individual los pixeles cercanos
(contiguos) tienen un grado de correlacin, es decir, son muy parecidos (por ejemplo, en una
imagen que muestre un prado verde bajo un cielo azul, los valores de los pixeles del prado
sern muy parecidos entre ellos y del mismo modo los del cielo). Los pixeles en cuadros
consecutivos de una seal tambin estn correlacionados, determinando una redundancia
temporal (si la seal de video fuera un recorrido por el prado, entre una imagen y la siguiente
abra un gran parecido). Adems, el sistema de visin humano no trata toda la informacin
visual con igual sensibilidad, lo que determina una redundancia psicovisual (por ejemplo, el
ojo es ms sensible a cambios en la luminancia que en la crominancia).
El ojo es tambin menos sensible a las altas frecuencias. Por lo tanto, un criterio que toma
mucha importancia es estudiar como percibe el ojo humano la intensidad de los pixeles para
as, dar mayor importancia a unos u otros parmetros.
Finalmente, no todos los parmetros ocurren con la misma probabilidad en una imagen. Por lo
tanto resulta que no todos necesitarn el mismo nmero de bits para codificarlos,
aprovechando la redundancia en la codificacin.
Durante los ltimos aos han emergido diferentes estndares de compresin, incluyendo
algunos propietarios, dirigidos a diversas aplicaciones con diferentes necesidades de
velocidad. Por ejemplo, la recomendacin ITU H.261, tambin conocida como el estndar
px64 ha surgido para aplicaciones de video conferencia. MPEG, Moving Picture Expert
Group, es un comit del organismo ISO e IEC que es responsable de los estndares MPEG1,
MPEG2, y los actuales MPEG4 y MPEG7 an en fase de especificacin.
Los estndares MPEG son genricos y universales en el sentido que simplemente especifican
una sintaxis de la trama para el transporte de los datos obtenidos mediante los algoritmos de
compresin de video y audio, no estando definidos los procesos de compresin (lo que
permite plena libertad en su realizacin).
4.3.2 Compresin MPEG
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.3 10
En la especificacin MPEG1 y MPEG2 existen tres partes diferenciadas, llamadas,
Sistema, Video y Audio. La parte de video define la sintaxis y la semntica del flujo de bits
de la seal de video comprimida. La parte de audio opera igual, mientras que la parte Sistema
se dirige al problema de la multiplexacin de audio y video en un nico flujo de datos con
toda la informacin necesaria de sincronismo, sin desbordar los buffers del decodificador.
Adicionalmente, MPEG2 contiene una cuarta parte llamada DSMCC (Digital Storage Media
Command Control), que define un conjunto de protocolos para la recuperacin y
almacenamiento de los datos MPEG desde y hacia un medio de almacenamiento digital.
4.3.3Video
Se examinar ahora la estructura de un flujo de video no escalable para entender la
compresin de video. En el proceso, se ver como el algoritmo es realmente un conjunto de
herramientas que individualmente explotan las diferentes redundancias. En el nivel ms alto,
el flujo de datos de video consiste en secuencias de video. MPEG1 slo soporta secuencias
progresivas, mientras que MPEG2 permite secuencias progresivas y entrelazadas. Cada
secuencia de video consiste en un numero variable de grupos de imgenes (GOP, group of
pictures). Un GOP contiene un nmero variable de imgenes y jugar un papel muy
importante en el proceso de compresin.
4.3.4 Grupo de imgenes (GOP)
Una imagen puede ser un cuadro o un campo de una imagen (slo en MPEG2). A partir de
este momento se hablar de imagen, frame, cuadro o campo de forma indistinta.
Matemticamente, cada imagen es realmente una unin de los valores que representan a un
pixel: una componente de luminancia y dos de crominancia; es decir, tres matrices de pixeles.
Ya que el ojo humano no es muy sensible a los cambios de la regin cromtica comparada
con la regin de luminancia, las matrices de croma son decimadas o reducidas en tamao por
un factor de dos en ambas direcciones horizontal y vertical.
Consecuentemente hay una cuarta parte de nmeros de pixeles de crominancia para procesar
con los pixeles de luminancia. Este formato, denominado formato (4:2:0), se emplea en
MPEG1.
MPEG2 adi ci onal ment e permi t e l a posi bi l i dad de no deci mar o sl o deci mar
horizontalmente la componente croma, consiguiente formatos 4:4:4 y 4:2:2 respectivamente.
Las imgenes pueden clasificarse principalmente en tres tipos basados en sus esquemas de
compresin.
I (Intraframes) o intra cuadros.
P(Predictive) o cuadros predecidos.
B(Bidirectional) o cuadros bidireccionales.
Las imgenes I son codificadas por ellas mismas, de ah el nombre intra. La tcnica de
codificacin para estas imgenes entra en la categora de la codificacin por transformada.
Cada imagen se divide en bloques de pixeles de 8x8 no solapados. Cuatro de estos bloques se
organizan adicionalmente en un bloque mayor de tamao 16x16, llamado macrobloque.
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.3 11
La Transformada Discreta Coseno se aplica a cada bloque de 8x8 individualmente. La
transformada explota la correlacin espacial de los pixeles convirtindolos en un conjunto de
coeficientes independientes. Los coeficientes de baja frecuencia contienen ms energa que
los de alta frecuencia. Estos coeficientes son cuantificados utilizando una matriz de
cuantificacin, este proceso permite que los coeficientes de baja frecuencia (contienen gran
energa) sean codificados con un nmero mayor de bits, mientras que para los coeficientes de
mayor frecuencia (menor energa) se usan menos bits o cero bits.
Los coeficientes de alta energa pueden eliminarse ya que el ojo carece de la habilidad de
detectar cambios de alta frecuencia. Reteniendo slo un subconjunto de los coeficientes se
reduce el nmero total de parmetros necesarios para la representacin en una cantidad
considerable. El proceso es idntico para los bloques de pixeles de luminancia y crominancia.
Sin embargo, ya que la sensibilidad del ojo humano a la luminancia y a la crominancia vara,
las matrices de cuantificacin para las dos varan.
El proceso de cuantificacin tambin ayuda en el control de velocidad, por ej. permitiendo al
codificador producir un flujo de bits a una determinada velocidad. Los coeficientes DCT son
codificados empleando una combinacin de dos esquemas de codificacin especiales: Run
length y Huffman. Los coeficientes son escaneados siguiendo un patrn en zigzag para crear
una secuencia de una dimensin. MPEG2 proporciona un patrn alternativo. La secuencia
resultante de 1D usualmente contiene un gran nmero de ceros debido a la naturaleza del
espectro DCT y del proceso de cuantificacin. Cada coeficiente diferente de cero se asocia
con un par de apuntadores. Primero, su posicin en el bloque que se indica por el nmero de
ceros entre l y el coeficiente anterior diferente de cero (run length). Segundo, su valor.
4.3.5 ZigZag
Basado en estos dos apuntadores, se le asigna un cdigo de longitud variable (Huffman) en
funcin de una tabla predeterminada. Este proceso se realiza de tal forma que las
combinaciones con una alta probabilidad consiguen un cdigo con pocos bits, mientras que
los poco habituales obtienen un cdigo mayor. Adoptando esta codificacin sin prdidas, el
nmero total de bits disminuye. Sin embargo, ya que la redundancia espacial es limitada, las
imgenes I slo proporcionan una compresin moderada. Estas imgenes son muy
importantes para acceso aleatorio utilizado para fines de edicin. La frecuencia de imgenes I
es normalmente de una cada 12 o 15 cuadros o frames. Un GOP est delimitado por dos
cuadros I .
En las imgenes P y B es donde MPEG proporciona su mxima eficiencia en compresin.
Esto lo consigue mediante una tcnica llamada prediccin basada en la compensacin de
movimiento (MC: Motion Compensation), que explota la redundancia temporal. Ya que los
cuadros estn relacionados, podemos asumir que una imagen puede ser modelada como una
translacin de la imagen en el instante anterior. Entonces, es posible representar de manera
precisa o predecir los valores de un cuadro basndonos en los valores del cuadro anterior,
estimando el movimiento. Este proceso disminuye considerablemente la cantidad de
informacin. En las imgenes P, cada macrobloque de tamao 16x16 se predice a partir de un
macrobloque de la anterior imagen I. Ya que, los cuadros son instantneos en el tiempo de un
objeto en movimiento, los macrobloques en los dos cuadros pueden no corresponder a la
misma localizacin espacial, por lo tanto, se debe proceder a buscar en el cuadro I para
encontrar un macrobloque que coindica lo mximo posible con el macrobloque que se est
considerando en el cuadro P.
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.3 12
La diferencia entre los dos macrobloques es el error de prediccin. Este error puede
codificarse como tal o en el dominio DCT. La DCT del error consigue pocos coeficientes de
alta frecuencia, que tras la cuantificacin requieren un numero menor de bits para su
representacin. Las matrices de cuantificacin para los bloques de error de prediccin son
diferentes de las utilizadas en los intra bloques, debido a la distinta naturaleza de sus
espectros. La distancia en las direcciones horizontal y vertical del macrobloque coincidente
con el macrobloque estimado se denomina vector de movimiento.
4.4 Proceso de prediccin por compensacin de movimiento
Los vectores de movimiento representan la translacin de las imgenes de los bloques entre
cuadros. Estos vectores se necesitan para la reconstruccin y son codificados de forma
diferencial en el flujo de datos. Se utiliza codificacin diferencial ya que reduce el total de
bits requeridos para transmitir la diferencia entre los vectores de movimiento de los cuadros
consecutivos. La eficiencia de la compresin y la calidad de la reconstruccin de la seal de
video depende de la exactitud en la estimacin del movimiento.
El mtodo para este clculo no se especifica en el estndar y por lo tanto est abierto a
diferentes implementaciones y diseos, aunque evidentemente existe una relacin directa
entre la exactitud de la estimacin de movimiento y la complejidad de su clculo.
Para los cuadros B, se utiliza la prediccin de la compensacin de movimiento y la
interpolacin usando cuadros de referencia presentes antes o despus de ellos, donde las
referencias pueden ser cuadros I y P.
La prediccin no es casual, ya que se usan cuadros anteriores y posteriores. Comparados con
los cuadros I y P, los B proporcionan la mxima compresin. Otras ventajas de los cuadros B
son la reduccin del ruido debido a un proceso de promedio y el uso de cuadros posteriores
para la codificacin. Esto es particularmente til para la codificacin de "reas descubiertas".
Los cuadros B nunca se usan por s solos para predicciones para no propagar errores.
MPEG2 permite MC para cuadros y campos. Para una secuencia de imgenes de variacin
lenta es mejor codificar los cuadros (combinando los dos campos, si es necesario). MC basada
en campos es especialmente til cuando la seal de video incluye movimientos rpidos.
4.5 Herramientas de compresin
Como se ha visto los algoritmos de compresin MPEG son una combinacin inteligente de un
nmero de diversas herramientas, cada una de ellas explota una redundancia concreta de la
seal de video (tabla 4.4).
Tabla 4.4 Herramientas de compresin
HERRAMIENTA REDUNDANCIA
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.4 13
DCT Espacial
Prediccin de compensacin de movimiento Temporal
Codificacin Run Length/Huffman Codificacin
Codificacin diferencial Temporal
4.6 MPEG2
El estndar MPEG2 es una evolucin de MPEG1, fue ideado para conseguir calidad no
interior a NTSC/PAL y superior a la calidad CCIR 601. Es un conjunto de herramientas de
compresin que configuran varios algoritmos de compresin de video, y por lo tanto de
diferentes calidades, para integrarse en una nica sintaxis capaz de aplicarse a los
requerimientos de diferentes aplicaciones.
Para definir subconjuntos de herramientas de compresin se aadieron los conceptos de nivel
y perfil. Como regla general, cada perfil define una nueva coleccin de algoritmos que se
aaden a los del perfil inferior. Un nivel especifica el rango de parmetros que soporta la
implementacin, por ejemplo, tamao de la imagen, velocidad de cuadros o de transmisin
(tabla 4.5).
En el perfil principal (main profile) define la compresin no escalable para fuentes de video
progresivas y entrelazadas, como una extensin de MPEG1 (tabla 4.6). En el perfil SIMPLE
no se permite la codificacin de cuadros B. Soporta las siguientes relaciones de aspecto 4:3,
16:9 y 2.21:1 (cinemascope). Existen diferentes alternativas para poder ver imgenes 16:9 o
cinemascope en el formato estndar 4:3.
El objetivo de los cdigos escalables es proporcionar interoperatibilidad entre diferentes
servicios y soportar flexibilidad en cuando a receptores con capacidades diferentes de
visualizacin. Por ejemplo, pueden existir receptores que no sean capaces de reconstruir la
seal de video con toda su resolucin, y entonces decodifica un subconjunto de las capas en
las que se codifica el flujo de bits, mostrando la seal de video con una resolucin espacial o
temporal menor o con menor calidad.
Tabla 4.5 Definicin de herramientas segn el tamao de la imagen, velocidad de cuadros o de transmisin
NIVEL PARMETROS
Muestras/lnea lneas/cuadro Cuadros/s Max. vel. Mbps
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.6 14
HIGH 1920 1152 60 80
HIGH 1440 1440 1152 60 60
MAIN 720 576 30 15
LOW 352 288 30 4
Tabla 4.6 Perfil principal para la definicin de la compresin
PERFIL CARACTERSTICAS
MAIN
Soporta algoritmos de codificacin no escalables para video
progresivo/entrelazado Soporta prediccin de cuadros B Acceso
aleatorio Representacin 4:2:0 YUV (4:1:1)
SNR Escalable
Soporta toda la funcionalidad de MAIN Codificacin escalable de
SNR
E s p a c i a l
Escalable
Soporta toda la funcionalidad de SNR Escalable Codificacin
espacial escalable Representacin 4:0:0
HIGH
Soporta toda la funcionalidad del perfil Espacial escalable 3 capas
con modos de codi f i caci n escal abl e SNR y Espaci al
Representacin 4:2:2
SIMPLE
Soporta toda la funcionalidad de MAIN excepto la prediccin de
cuadros B
A la hora de almacenar video, un mtodo que incrementa de forma significativa la eficiencia
de la compresin MPEG es la utilizacin de una velocidad variable de bits (VBR, Variable
Bit Rate). Este mtodo ofrece la posibilidad de adaptar la velocidad utilizada por el
codificador a la complejidad de la imagen en segmentos de 25ms. Por ejemplo, imgenes
simples necesitaran una velocidad instantnea de bits baja, mientras que una compleja
demandar una velocidad mayor. Por el contrario si utilizamos una velocidad constante (FBR,
Fixed Bit Rate), esta ser aquella necesaria para codificar la imagen ms compleja y por lo
tanto en el resto de casos se desperdiciar espacio. La codificacin a velocidad constante es
inherentemente un subconjunto de la codificacin VBR, por lo que todos los decodificadores
soportarn FBR, siendo VBR opcional.
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.6 15
4.7 Codificacin de audio digital (MPEG y Dolby AC3)
Los mtodos de codificacin de audio que existen en la actualidad se basan en algoritmos de
compresin y en codificacin multicanal.
Los algoritmos de compresin de audio se fundamentan en aspectos perceptibles al odo
humano. Bsicamente son dos los fenmenos que son objeto de estudio y que han originado
los mtodos de compresin:
La curva de sensibilidad del odo
El fenmeno de enmascaramiento
El odo humano detecta sonidos entre 20Hz y 20KHz. Pero su sensibilidad depende de la
frecuencia del sonido, de esta forma, dos frecuencias con la misma potencia son interpretadas
por nuestro odo de forma diferente, teniendo la sensacin de que una es ms fuerte que otra,
o incluso, or una y no la otra. La curva que indica cual es la potencia mnima (umbral) que
nuestro odo detecta es la curva de sensibilidad:
MPEG define 3 capas de codificacin de audio, cada una aade complejidad a la anterior. La
codificacin se realiza dividiendo las secuencias de audio en tramas (de 384 muestras), que se
filtra para obtener las bandas crticas:
La capa 1 slo considera en enmascaramiento frecuencial,
La capa 2 considera adems el enmascaramiento temporal estudiando 3 tramas a la
vez,

La capa 3 utiliza filtros no lineales, elimina redundancias provocadas por el muestreo
y utiliza codificacin de Huffman.

Este esquema de codificacin es prcticamente idntico para MPEG2 y para DOLBY AC3,
aunque cada una de ellas sugiere que es mejor que la otra. DOLBY AC3 se basa en ser la
primera que desarroll un sistema multicanal de audio, mientras que MPEG en su poder de
integracin de estndares. El resultado es la incompatibilidad explcita entre ambos formatos,
aunque el mercado multimedia se han adaptado rpidamente soportando ambos formatos
(como por ejemplo, DVD). La gran diferencia entre estos sistemas es la ecualizacin de cada
canal para crear diferentes perfiles de "envolvencia".
4.8 Curva de sensibilidad (tpica del odo)
Podemos observar que nuestro odo es muy sensible a frecuencias entre 2 y 4KHz
(aproximadamente). Adems observamos que si la potencia de una cierta frecuencia no
supera el umbral de la sensibilidad del odo, simplemente no la oiremos, por lo tanto no hace
falta que la codifiquemos. Este es un primer paso en la compresin: eliminar las seales que
no oiremos.
Existe otro tipo de seales que tampoco omos: aquellas que son enmascaradas. Imaginemos
una seal de 1KHz con un potencia tal que supera el umbral y que, por lo tanto, omos. Si
aparece de forma simultanea otra seal de 0.5KHz y vamos aumentando su potencia llegar
un instante en el que no oiremos la seal de 1KHz ya que ha sido enmascarada. Esto se debe a
que la potencia de una seal hace que la sensibilidad del odo vare, necesitando ms potencia
de las seales prximas en frecuencia para poder orlas.
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.7 16
4.9 Fenmeno de enmascaramiento
El enmascaramiento gana importancia cuando los sonidos son cercanos en frecuencia y la
frecuencia enmascaradora es inferior que la enmascarada. Para poder cuantificar el fenmeno
de enmascaramiento surge el concepto de banda crtica como el ancho de banda mxima
alrededor de una frecuencia para que no haya enmascaramiento, por lo tanto, slo se produce
ste entre bandas contiguas. Adems, estas bandas estn distribuidas siguiendo una escala
logartmica, simulando la escala perceptiva del odo. Una escala de medida perceptual es la
escala BARK que relaciona las frecuencias acsticas con la resolucin perceptual de stas
[Coelho et al. 1997].
4.9.1 Escala perceptual BARK
A partir de esta escala de bandas de frecuencia y de un modelo psicoacstico se determinar
que frecuencias se enmascaran y cuales no.
Adems existe enmascaramiento temporal: cuando omos un sonido de alta potencia y para de
pronto, seguimos oyndolo durante un breve instante de tiempo que puede enmascarar a otras
seales.
El proceso de compresin es el siguiente:
Se divide la seal de audio en bandas frecuenciales mediante filtros convolucionales
de tal forma que se corresponden con 32 bandas crticas (aproximadamente). Filtrado
subbanda.
1.
Se determina el umbral de potencia de cada banda crtica considerando el fenmeno
de enmascaramiento por las bandas contiguas a partir de un modelo psicoacstico.
2.
Si la potencia de una banda es menor que el umbral no se codifica. 3.
En caso contrario, se determina el nmero de bits necesario para representar el
coeficiente tal que el ruido introducido en la cuantificacin sea menor que el efecto
de enmascaramiento.
4.
Se crea la trama de datos: 5.
4.9.2 Esquema de codificacin
Por ejemplo, imaginemos que tras el anlisis correspondiente se encuentra que los niveles de
potencia de las bandas son:

Banda 1 2 3 4 5 6 7 8 9 10 ...
Nivel (db) 0 8 12 10 6 2 10 60 35 20 ...

Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia


4.9 17
Si el nivel en la octava banda es de 60dB y segn el modelo psicoacstico provoca un
enmascaramiento de 12dB sobre la banda 7 y 15dB sobre la banda 9,
El nivel en la banda 7 es 10dB (<12dB), por lo tanto la enmascara y se ignora.
El nivel en la banda 9 es de 35dB (> 15dB), por lo tanto se codifica.
4.9.3 Sistema multicanal
Todo el mundo esta familiarizado con el sonido estreo, en el que el sonido se reproduce
usando dos canales, derecho e izquierdo. Pronto se descubri que para algunas seales, como
por ejemplo dilogos en pelculas, la adicin de un tercer canal central proporcionaba una
mejor localizacin dentro de la escena. Para dar una sensacin espacial como en una sala de
cine, se pens en un cuarto canal "sorround", de ancho de banda limitado, que se reproduca
en dos altavoces localizados detrs del pblico [Heman 1997].
El siguiente paso era proporcionar la sensacin de sonido envolvente, esto se consigui con
dos canales sorround separados.
Adems se pens en un sexto canal para proporcionar un canal de baja frecuencia, a este
sexto canal se le denomin LFE (Low Frequency Enhancement). Al sistema resultante se le
denomin 5+1. El subwoofer usado para reproducir el canal LFE no necesita una localizacin
particular, ya que nuestro odo tiene una capacidad muy limitada para detectar la direccin de
las frecuencias bajas (20120Hz).
4.9.4 Sistema con 5 canales
MPEG2 y DOLBY AC3 proporcionan este sistema de 5+1. DOLBY utiliza una
ecualizacin propietaria resultando el sistema DOLBY SORROUND PRO LOGIC. El Dolby
Surround Pro Logic, o sonido envolvente, tiene gran difusin en equipos reproductores de
msica, necesitando un amplificador Dolby Surround, cinco altavoces y una fuente estreo. El
sistema MPEG2 actualmente "slo" se utiliza para la difusin va satlite, cable y para el
formato DVD (junto con DOLBY AC3).
El sistema MPEG2 proporciona dos canales ms pensando en locales de grandes
dimensiones (cines,...) para cubrir ngulos muertos. El sistema MPEG2 est basado en la
compatibilidad, ya que permite la reproduccin en sistemas que slo soporten un nmero de
canales limitado. Esta compatibilidad se consigue empleando tcnicas de multiplexacin
matricial durante la codificacin y decodificacin.
Por lo que se ha visto a lo largo de esta captulo se puede concluir que la compresin es una
excelente herramienta para la transmisin de video, dentro de los ambientes distribudos,
heterogneos y multimedios que engloban a la videoconferencia.
En el siguiente captulo se propone un modelo conceptual contrastndolo con dos modelos de
comunicacin visual existentes. Este es un modelo real que engloba a las tres reas
mencionadas en los captulos 2,3 y 4 bibliotecas digitales, videoconferencia y los estndares
de interoperabilidad de los sistemas de videoconferencia.
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.9 18
ndice figuras tablas 1 2 3 4 5 6 7 A B referencias
Morales Salcedo, R. 1999. Aplicaciones de la Videoconferencia en Bibliotecas Digitales. Tesis
Maestra. Ciencias con Especialidad en Ingeniera en Sistemas Computacionales. Departamento
de Ingeniera en Sistemas Computacionales, Escuela de Ingeniera, Universidad de las
AmricasPuebla. Mayo.
Derechos Reservados 1999, Universidad de las AmricasPuebla.
Captulo 4. Estndares de Interoperabilidad de los sistemas de Videoconferencia
4.9 19

Вам также может понравиться