Вы находитесь на странице: 1из 3

Practica 1

¿Que significa URL?


El URL: "Uniform Resources Locator" o "Localizadores de Recursos
Uniformes", se refiere a las direcciones en la Red. Y simplemente es una
estandarización de recursos para poder encontrar las direcciones en la Red.
/espanol/internet/url.html - Todo lo que se encuentra después del nombre se
refiere a un directorio o archivo en esa computadora. El sistema del URL es
sensitivo. Lo mejor es escribir las direcciones tal y como aparecen. Si se
presentan con mayúsculas, se deben usar mayúsculas.
Existen 3 archivos de imagen
es una imagen rasterizada es una estructura o fichero de datos que representa
una rejilla rectangular de pixeles o puntos de color, denominada raster, que se
puede visualizar en un monitor de ordenador, papel u otro dispositivo de
representación.
A las imágenes rasterizadas se las suele caracterizar técnicamente por su
altura y anchura (en pixels) y por su profundidad de color (en bits por pixel),
que determina el número de colores distintos que se pueden almacenar en
cada pixel, y por lo tanto, en gran medida, la calidad del color de la imagen.
es un formato gráfico utilizado ampliamente, tanto para imágenes como para
animaciones, se creo para dotar de un formato de imagen a color para sus
áreas de descarga de ficheros, sustituyendo su temprano formato RLE en
blanco y negro.
GIF es un formato sin pérdida de calidad para imágenes con hasta 256 colores,
limitados por una paleta restringida a este número de colores. Por ese motivo,
con imágenes con más de 256 colores (profundidad de color superior a 8), la
imagen debe adaptarse reduciendo sus colores, produciendo la consecuente
pérdida de calidad.
Además de ser un método de compresión, es a menudo considerado como un
formato de archivo. JPEG/Exif es el formato de imagen más común utilizado
por las cámaras fotográficas digitales y otros dispositivos de captura de
imagen, junto con JPEG/JFIF, que también es otro formato para el
almacenamiento y la transmisión de imágenes fotográficas, es el formato más
utilizado para almacenar y transmitir archivos de fotos en Internet. Estas
variaciones de formatos a menudo no se distinguen, y se llaman JPEG.
Una de las características que hacen muy flexible el JPEG es el poder ajustar
el grado de compresión. Si especificamos una compresión muy alta se perderá
una cantidad significativa de calidad, pero obtendremos archivos de pequeño
tamaño. Con una tasa de compresión baja obtenemos una calidad muy
parecida a la del original, y un archivo mayor.
Esta pérdida de calidad se acumula. Esto significa que si comprime una imagen
y la descomprime obtendrá una calidad de imagen, pero si vuelve a comprimirla
y descomprimirla otra vez obtendrá una pérdida mayor. Cada vez que
comprima y descomprima la imagen, ésta perderá algo de calidad.
Las extensiones de las imágenes realizadas para la práctica son:
Imagen mapa de bits 560kb
Imagen gif 23.3kb
Imagen jpeg 88.1kb

1B Una letra
10 B Una o dos palabras
100 B Una o dos frases
1 kB Una historia muy corta
10 kB Una página de enciclopedia (tal vez con un dibujo simple)
100 kB Una fotografía de resolución mediana
1 MB Una novela
10 MB Dos copias de la obra completa de Shakespeare
100 MB 1 metro de libros en estantería
1 GB Una furgoneta llena de páginas con texto
1 TB 50.000 árboles de papel
10 TB La colección impresa de la biblioteca del congreso de EE. UU.
equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe
ser considerado como una secuencia de bits contiguos, cuyo tamaño depende
del código de información o código de caracteres en que sea definido. La
unidad byte no tiene símbolo establecido internacionalmente
es una unidad de almacenamiento de información cuyo símbolo es el kB (a
veces se utiliza KB), y equivale a 210 bytes (valor aplicando la definición de
prefijo binario, aceptado por todo sistema operativo que se haya creado hasta
la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional
de Unidades).
Es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del
octeto, que equivale a 106 (1.000.000 octetos) o 220 (1.048.576 octetos), según
el contexto. La primera definición es más acorde al prefijo mega-, mientras que
la segunda es una cantidad más práctica desde el punto de vista informático.
Un gigabyte es una unidad de medida informática cuyo símbolo es el GB, y
puede equivalerse a 230 bytes o a 109 bytes, según el uso.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no
ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad
de almacenamiento y transmisión de los sistemas informáticos, se multiplica la
diferencia entre los usos binarios y decimal. El uso de la base binaria no
obstante tiene ventajas durante el diseño de hardware y software. La RAM se
mide casi siempre en potencias de dos.

Un terabyte es una unidad de medida de almacenamiento de datos cuyo


símbolo es TB y puede equivaler a 1024 GB.
Confirmado en 1960, viene del griego τέρας, que significa monstruo.
Debido a irregularidades en la definición y uso del kilobyte, el número exacto de
bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes
valores:
1. 12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se
usa en el contexto general cuando se refiere a almacenamiento en
discos, redes u otro hardware.
2. 12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte
(un gigabyte 'binario'). Esta es la definición más usada en las ciencias de
la computación (computer science) y en programación (computer
programming) y, la mayor parte del software, emplea también esta
definición

Вам также может понравиться