Вы находитесь на странице: 1из 14

UNIVERSIDAD GALILEO

IDEA
CEI: Aguilar Batres
CARRERA: Licenciatura en Tecnología y Administración en Telecomunicaciones
Curso: NORMAS Y ESTANDARES DE TELECOMUNICACIONES
Horario: sábado de 18:00 a 19:00 horas
Tutor: Héctor Munguía

NOMBRE DE LA TAREA
Tarea 4
INVESTIGACION DE ESTANDARES DE CODIFICACION Y COMPRESION
DE VIDEO.

Apellidos, Nombres del Alumno:


Gomez Rosales Eswin Osbaldo
Carné: 15001582
Sección: Unica
Fecha de entrega: 03 de febrero de 2018
Semana a la que corresponde: Semana 7
INTRODUCCION

En estos momentos en los que nos bombardean con "todo en digital" olvidamos
algo muy importante: la compresión. La digitalización proporciona grandes
ventajas con respecto a la señal analógica: más robustez frente al ruido, calidad y
resolución muy superiores, edición y efectos muy sofisticados, ... pero esta
digitalización origina una cantidad de información que supera con creces las
posibilidades de proceso de nuestros sistemas. Por ejemplo, una señal de video
de 720x485 a una velocidad de cuadros de 30Hz; asumiendo una resolución de 24
bits/pixel, necesita aproximadamente 250 Mbps.

Si quisiéramos grabar una película de 2 horas, necesitaríamos la astronómica


capacidad de 225 GBytes!. Por lo tanto debemos comprimir la información. El
proceso de estandarización de los algoritmos de compresión (o como mínimo de
su sintaxis) es de vital importancia y esta es la virtud de los estándares MPEG.
Originalmente pensado para almacenar y reproducir señales de video digital surgió
MPEG-1 con una velocidad mínima de 1,5 Mbps y calidad comparable a VHS,
luego surgió MPEG-2 como evolución de MPEG-1 y pensado para la transmisión
de TV digital (y audio) a través de cualquier medio (cable, satélite, terrestre) con
calidad comparable a NSTC/PAL hasta HDTV, siendo elegido como estándar de
transmisión por el proyecto de transmisión de TV digital DVB (Digital Video
Broadcasting).

Actualmente disponemos de MPEG-4 pensado para aplicaciones multimedia con


gran capacidad de interacción y MPEG-7 para búsqueda de información. Con
anterioridad, y a partir del mismo comité, surgió la especificación H.261 utilizada
para videoconferencia, que se puede considerar como un subconjunto de MPEG-
1.

Cualquier entidad física necesita de un número fijo de parámetros para


representar su información. Este número puede ser difícil para tratar de
almacenarlo o transmitirlo. El proceso de compresión representa la entidad
utilizando un número menor de parámetros que todo el conjunto. Si toda la
información se puede recuperar mediante este subconjunto de parámetros, la
compresión se denomina sin perdidas, por otro lado, si no se puede recuperar
toda la información, se denomina compresión con pérdidas. La primera
normalmente no consigue tasas de compresión demasiado significativas, por lo
que se utiliza junto con técnicas con pérdidas. Sin embargo, ciertas aplicaciones
como representación y almacenamiento de señales médicas indiscutiblemente
necesitan de una compresión sin perdidas. Para entender el proceso de la
compresión de video, es una buena idea comenzar definiendo la entidad de
trabajo, la señal de video.
ESTANDARES DE CODIFICACION Y COMPRESION DE VIDEO

Todo sobre los estándares de compresión de tus videos

Los archivos de audio y video que genera tu CCTVestán compuestos por una gran
cantidad de datos que resultan muy pesados de procesar para tu PC, es por ello
que es necesario comprimirlos.

Hoy te entregamos toda la información que necesitas saber para comprimir tus
videos en el mejor formato posible, que es por supuesto, el más adecuado a tus
cámaras y a los componentes de tu sistema de seguridad.

Las técnicas de compresión de video consisten en reducir y eliminar datos


redundantes del video para que el archivo de video digital pueda enviarse a través
de la red y almacenar en discos informáticos. Los diferentes estándares de
compresión utilizan métodos distintos para reducir los datos y, en consecuencia,
los resultados en cuanto a frecuencia de bits y latencia son diferentes

Estándares de compresión

MUESTREO Y CUANTIZACION DE VIDEO

La senal de la voz es contínua en el tiempo y en amplitud. Para que pueda ser


procesada por hardware(y software) digital es necesario convertirla a una senal
que sea discreta tanto en el tiempo como en amplitud.

Muestreo

El muestreo consiste en el proceso de conversión de senales contínuas a senales


discretas en el tiempo. Este proceso se realizada midiendo la senal en momentos
periódicos del tiempo.

Veamos un ejemplo, dada la siguiente senal contínua :


Tras muestrearla, obtenemos la siguiente senfal discreta :

En el ejemplo anterior hemos visto el efecto de muestrear una senal sinusoidal. Si


aumentamos el número de muestras por unidad de tiempo, la senal muestreada
se parecerá más a la senal contínua. El número de muestras por segundo se
conoce en inglés como el bit-rate.

Si el bit-rate es lo suficientemente alto, la senal muestreada contendrá la misma


información que la senal original. Respecto a esto, el criterio de Nyquist asegura
que para que la senal muestreada contenga la misma información que la contínua,
la separación mínima entre dos instantes de muestreo debe ser 1/(2 W) , siendo W
el ancho de banda de la senal. Dicho de otra forma, que la frecuencia de muestreo
debe ser mayor o igual que 2 W.

Cuantificación

La cuantificación es la conversión de una senal discreta en el tiempo evaluada de


forma contínua a una senal discreta en el tiempo discrétamente evaluada. El valor
de cada muestra de la senal se representa como un valor elegido de entre un
conjunto finito de posibles valores.

Se conoce como error de cuantificación (o ruido), a la diferencia entre la senal de


entrada (sin cuantificar) y la senal de salida (ya cuantificada), interesa que el ruido
sea lo más bajo posible. Para conseguir esto, se pueden usar distintas técnicas de
cuantificación:

 Cuantificación uniforme
 Cuantificación logarítmica
 Cuantificación no uniforme
 Cuantificación vectorial
Cuantificación uniforme

En los cuantificadores uniformes (o lineales) la distancia entre los niveles de


reconstrucción es siempre la misma, como se observa en la siguiente figura:

No hacen ninguna suposición acerca de la naturaleza de la senal a cuantificar, de


que no proporcionen los mejores resultados. Sin embargo, tienen como ventaja
que son los más fáciles y menos costosos de implementar.

En la siguiente figura se ve un ejemplo de cuantificación uniforme:

Cuantificación logarítmica

Las senales de voz pueden tener un rango dinámico superior a los 60 dB, por lo
que para conseguir una alta calidad de voz se deben usar un elevado número de
niveles de reconstrucción. Sin embargo, interesa que la resolución del
cuantificador sea mayor en las partes de la senal de menor amplitud que en las de
mayor amplitud. Por tanto, en la cuantificación lineal se desperdician niveles de
reconstrucción y, consecuentemente, ancho de banda. Esto se puede mejorar
incrementando la distancia entre los niveles de reconstrucción conforme aumenta
la amplitud de la senal.

Un método sencillo para conseguir esto es haciendo pasar la senal por un


compresor logarítmico antes de la cuantificación. Esta senal comprimida puede ser
cuantificada uniformemente. A la salida del sistema, la senal pasa por un
expansor, que realiza la función inversa al compresor. A esta técnica se le
llama compresión. Su principal ventaja es que es muy fácil de implementar y
funciona razonáblemente bien con senales distintas a la de la voz.

Para llevar a cabo la compresión existen dos funciones muy utilizadas: Ley-A
(utilizada principalmente en Europa) y ley-µ(utilizada en EEUU).

Ley-A :

Ley-µ :

En la mayoría de los sistemas telefónicos, A se fija a 87.56 y µ a 255.

La siguiente figura muestra la gráfica de la ley-µ para distintos valores de µ:

Cuantificación no uniforme
El problema de la cuantificación uniforme es que conforme aumenta la amplitud de
la senal, también aumenta el error. Este problema lo resuelve el cuantificador
logarítmico de forma parcial. Sin embargo, si conocemos la función de la
distribución de probabilidad, podemos ajustar los niveles de recontrucción a la
distribución de forma que se minimice el error cuadrático medio. Esto significa que
la mayoría de los niveles de reconstrucción se den en la vecindad de las entradas
más frecuentes y, consecuentemente, se minimice el error (ruido).

La siguiente figura representa la cuantificación no uniforme:

En la práctica, se puede usar una estimación de la distribución para dise�ar los


cuantificadores. Esta estimación se puede obtener a partir de los datos a
cuantificar de forma iterativa.

Cuantificación vectorial

En los métodos anteriores, cada muestra se cuantificaba independientemente a


las muestras vecinas. Sin embargo, la teoría demuestra que ésta no es la mejor
forma de cuantificar los datos de entrada. Resulta más eficiente cuantificar los
datos en bloques de N muestras. El proceso es sencillamente una extensión de
los anteriores métodos escalares descritos anteriormente. En este tipo de
cuantificación, el bloque de N muestras se trata como un vector N-dimensional.

En la siguiente figura vemos un ejemplo de cuantificación vectorial (VQ) en dos


dimensiones:
El plano XY está dividido en seis regiones distintas. El vector de entrada (con dos
componentes) se reemplaza se reemplaza por el centroide i (representa todos los
vectores de una determinada región i) de la región a la que pertenece.

La cuantificación vectorial ofrece mejores resultados que la cuantificación escalar,


sin embargo, es más sensible a los errores de transmisión y lleva consigo una
mayor complejidad computacional.

CODECS DE VIDEO

Los codificadores de voz se clasifican en tres grandes grupos, a saber:

 codificadores de la forma de onda


 vocoders
 codificadores híbridos

En el primer grupo, codificadores de forma de onda, se engloban aquellos


codificadores que intentan reproducir la forma de la onda de la senal de entrada
sin tener en cuenta la naturaleza de la misma. Estos, en función de en qué
dominio operen, se dividen en:

 codificadores en el dominio del tiempo


 codificadores en el dominio de la frecuencia
Este tipo de codificadores proporcionan una alta calidad de voz a bit rates medios,
del orden de 32 kb/s. Sin embargo, no son útiles cuando se quiere codificar a
bajos bit rates.

En el grupo de vocoders están aquellos codificadores que sí tienen en cuenta la


naturaleza de la senal a codificar, en este caso la voz, y aprovechan las
características de la misma para ganar en eficiencia. Permiten trabajar con muy
bajos bit rates, pero la senal de voz que producen suena demasiado sintética.

En el tercer grupo, los codificadores híbridos, encontramos aquellos que


combinando técnicas de los vocoders y de los codificadores de la forma de la onda
aúnan las ventajas. de ambos, permitiendo una alta calidad de voz a bajos bit
rates

MPEG

Stands de Moving Picture Experts Group MPEG es un grupo ISO / IEC de trabajo,
establecida en 1988 para desarrollar normas para los formatos de audio y vídeo
digital. Hay cinco estándares MPEG siendo utilizadas o en desarrollo. Cada
estándar de compresión fue diseñado con una aplicación específica y velocidad de
bits en cuenta, a pesar de la compresión MPEG escala bien con el aumento de las
tasas de bits. Ellos incluyen:

MPEG-1

Diseñado para hasta 1,5 Mbit / s


Estándar para la compresión de imágenes en movimiento y audio. Esto fue
basado en aplicaciones de vídeo CD-ROM, y es un estándar popular para vídeo
en Internet, transmitida como archivos .mpg. Además, el nivel 3 de MPEG-1 es el
estándar más popular para la compresión digital de audio - conocido como MP3.
MPEG-1 es el estándar de compresión para VideoCD, el formato de distribución
de vídeo más popular thoughout gran parte de Asia.

MPEG-2

Diseñado por entre 1,5 y 15 Mbit / s


De serie en la que Televisión Digital set top boxes y compresión de DVD se basa.
Se basa en MPEG-1, pero diseñado para la compresión y transmisión de
televisión digital. La mejora más significativa de MPEG-1 es su capacidad para
comprimir eficientemente el vídeo entrelazado. MPEG-2 funciona bien a la
resolución HDTV y velocidades de bits, obviando la necesidad de un MPEG-3.

MPEG-4

Estándar para multimedia y compresión Web. MPEG-4 se basa en la compresión


basada en objetos, de naturaleza similar a la Virtual Reality Modeling Language.
Los objetos individuales dentro de una escena se registran por separado y se
comprimen juntos para crear un archivo MPEG4. Esto resulta en la compresión
muy eficiente que es muy escalable, desde las bajas tasas de bits a muy alta.
También permite a los desarrolladores para controlar objetos de forma
independiente en una escena, y por lo tanto introducen la interactividad.

MPEG-7

Esta norma, actualmente en fase de desarrollo, es también llamada la descripción


de contenido multimedia Interface. Cuando se libera, el grupo espera que la norma
proporcionará un marco para el contenido multimedia que incluirá información
sobre el contenido de la manipulación, el filtrado y personalización, así como la
integridad y la seguridad de los contenidos. Contrariamente a los estándares
MPEG anteriores, que describen contenido real, MPEG-7 representará
información sobre el contenido.

MPEG-21

El trabajo en esta norma, también llamado el Marco multimedia, acaba de


comenzar. MPEG-21 intentará describir los elementos necesarios para construir
una infraestructura para el suministro y el consumo de contenidos multimedia, y
cómo se relacionan entre sí.

DV

Un formato de vídeo digital de alta resolución que se utiliza con cámaras de vídeo
y cámaras de vídeo. El estándar utiliza DCT para comprimir los datos de píxeles y
es una forma de compresión con pérdidas. El flujo de vídeo resultante se transfiere
desde el dispositivo de grabación a través de FireWire (IEEE 1394), un bus serie
de alta velocidad capaz de transferir datos de hasta 50 MB / seg.

H.261

Un estándar ITU diseñado para la comunicación bidireccional a través de ISDN


líneas (videoconferencia) y soporta velocidades de datos que son múltiplos de 64
Kbit / s. El algoritmo se basa en DCT y se puede implementar en hardware o
software y utiliza intratrama y compresión intertrama. H.261 soporta resoluciones
CIF y QCIF.

H.263

Basado en H.261 con mejoras que mejoran la calidad de vídeo a través de


módems. Resoluciones que supportsCIF, QCIF, SQCIF, 4CIF y 16CIF.

H.264

H.264, también conocido como MPEG-4 AVC (Advanced Video Coding), es un


estándar de compresión de vídeo que ofrece significativamente mayor compresión
que sus predecesores. El estándar ofrece hasta el doble de la compresión de la
corriente de MPEG-4 ASP (Advanced Simple Profile), además de mejoras en la
calidad perceptual. El estándar H.264 puede proporcionar vídeo con calidad DVD
en menos de 1 Mbps, y es opcional para el vídeo de movimiento completo sobre
wireless, satélite y conexiones a Internet ADSL.

FLV
Los archivos FLV contienen bit streams de video que son una variante del
estándar H.263, bajo el nombre de Sorenson Spark. Flash Player 8 y las nuevas
versiones soportan la reproducción de video On2 TrueMotion VP6. On2 VP6
puede proveer más alta calidad visual que Sorenson Spark, especialmente cuando
se usa un bit rate menor. Por otro lado es computacionalmente más complejo y
por lo tanto puede tener problemas al utilizarse en sistemas con configuraciones
antiguas.
El archivo FLV soporta dos nuevas versiones del llamado
códec "screenshare" que es un formato de codificación diseñado
para screencasts. Ambos formatos están basados en mapas de bits y pueden
tener pérdida al reducir la profundidad de color y están comprimidos usando zlib.
La segunda versión es reproducible en el Flash Player 8 o superior.
El soporte para codificar archivo FLV es proporcionado por una herramienta de
codificación incluida en Macromedia Flash 8 Professional de Adobe, las
herramientas de codificación Flix de On2, Sorenson Squeeze, FFmpeg y otras
herramientas de terceros.
Los archivos FLV pueden ser distribuidos en varias diferentes maneras:

 Como un archivo FLV autónomo. Aunque los archivos FLV son normalmente
distribuidos usando Flash Player como control, los archivos FLV son
contenedores de vídeo similares a AVI o MPEG, y puede ser reproducido o
convertido a otros formatos.

 Incrustados en un archivo SWF usando herramientas de edición de Flash


(soportada en Flash Player 6 y superiores). El archivo entero debe ser
transferido antes de que la reproducción pueda comenzar. Modificar el archivo
de vídeo requiere reconstruir el SWF.

 Descarga progresiva vía HTTP (soportada en Flash Player 7 y superiores).


Este método usa ActionScript para incluir un archivo alojado externamente, en
el lado del cliente para su reproducción. La descarga progresiva tiene varias
ventajas, incluyendo el buffer de datos, uso de servidores HTTP genéricos, y la
habilidad de reutilizar un solo reproductor en SWF para múltiples fuentes FLV.
Flash Player 8 incluye soporte para accesos aleatorios dentro de archivos de
video usando la funcionalidad de descarga parcial del HTTP, algunas veces
referido como streaming. Sin embargo, a diferencia del streaming usando
RTMP, el "streaming" HTTP no soporta transmisiones en tiempo real. El
streaming vía HTTP requiere un reproductor personalizado y la inyección de
metadatos específicos del FLV conteniendo la posición exacta de inicio en
bytes y el código de tiempo (timecode) de cada cuadro clave (keyframe).
Usando esta información específica, un reproductor FLV personalizado puede
solicitar cualquier parte del archivo FLV empezando en un cuadro específico.
Así es como ocurre en Google Video, que soporta descargas progresivas y
puede buscar cualquier parte del video antes de que el buffering se complete.
YouTube, si bien al principio no ofrecía dicha funcionalidad, ahora ya la ofrece.
CONCLUSION

Los formatos de audio digital permiten almacenar y describir sonido codificado


digitalmente. Inicialmente surgieron multitud de formatos, en principio sin
estructurar y más adelante ficheros estructurados cada vez más versátiles.

La exigencia de mayor calidad en el sonido almacenado aumentó


considerablemente el tamaño de los ficheros mostrando la necesidad de
compresión.

Las primeras estrategias se basaban en la redundancia de los datos, una de estas


estrategias es ADPCM (codificación diferencial). Las técnicas actuales, con mayores
razones de compresión se fundamental en la irrelevancia de muchos de los datos y
modifican la señal en función de la respuesta del oído humano al sonido.

Los formatos más relevantes en la actualidad están estructurados y permiten una


gran variedad de codificaciones diferentes. La tendencia actual indica un desarrollo
mayor aún de formatos con compresión perceptiva, relegando a los formatos
basados en PCM para la utilización en los procesos de síntesis y manipulación de
sonido previos a una conversión de formato para el almacenamiento o la difusión.

Se espera que el sonido digital vaya relegando los sistemas de difusión de audio
analógicos actuales. Un ejemplo es la radio digital por modulación de amplitud,
sistema para el cual MPEG-4 con una configuración concreta ha sido validado y es
una de las posibles opciones para la implantación de este servicio.
BIBLIOGRAFÍA
GILLESSE, R., ROG, J. & VERHEUSEN, A. Alternative File Formats for Storing Master Images of
Digitisation Projects. Den Haag: Koninklijke Bibliotheek, 2008. [Consulta 18‐11‐2014]

http://www.kb.nl/sites/default/files/docs/alternative_file_formats_for_storing_masters_2_1.pdf
BUCKLEY, R. & SAM, R. JPEG 2000 Profile for the National Digital Newspaper Program.
Washington: Library of Congress Office of Strategic Initiatives, 2006 [Consulta 18‐11‐2014]

http://www.loc.gov/ndnp/guidelines/docs/NDNP_JP2HistNewsProfile.pdf ISO/IEC. "Information


technology — JPEG 2000 image coding system: Core coding system". ISO/IEC 15444‐1, Second
edition. Geneva: ISO/IEC, 2004ª. . [Consulta 18‐11‐2014] The TIFF LZW compression algorithm. En
Internet [Consulta 18‐11‐2014]

http://www.fileformat.info/format/tiff/corion‐lzw.htm TIFF (revision 6.0), 1992. En Internet


[Consulta 15‐1‐2015] https://partners.adobe.com/public/developer/en/tiff/TIFF6.pdf TIFF File
Format Summary. En Internet [Consulta 15‐1‐2015]

http://www.fileformat.info/format/tiff/egff.htm Lempel‐Ziv‐Welch (LZW) Compression. En


Internet [Consulta 15‐1‐2015] http://www.fileformat.info/mirror/egff/ch09_04.htm Lempel‐Ziv‐
Welch. En Internet [Consulta

15‐1‐2015] https://www.princeton.edu/~achaney/tmve/wiki100k/docs/Lempel‐Ziv‐Welch.html

Вам также может понравиться