Академический Документы
Профессиональный Документы
Культура Документы
Las primeras computadoras se comunicaban con el operador mediante unas pequeñas luces,
que se encendían o se apagaban al acceder a determinadas posiciones de memoria o ejecutar
ciertas instrucciones.
Años más tarde aparecieron ordenadores que funcionaban con tarjeta perforada, que permitían
introducir programas en el computador.
DÉCADA DE LOS 60
La forma más común de interactuar con un computador era mediante un teletipo, que se
conectaba directamente a este e imprimía todos los datos de una sesión informática. Fue la
forma más barata de visualizar los resultados hasta la década de los 70.
Figura 2 teletipo
DÉCADA DE LOS 70
Empezaron a aparecer los primeros monitores de CRT (tubo de rayos catódicos). Seguían el
estándar MDA (Monochrome Display Adapter), y eran monitores monocromáticos (de un solo
color) de IBM.
El tubo de rayos catódicos (CRT, del inglés Cathode Ray Tube) es una tecnología que permite
visualizar imágenes mediante un haz de rayos catódicos constante dirigido contra una pantalla
de vidrio recubierta de fósforo y plomo. El fósforo permite reproducir la imagen proveniente del
haz de rayos catódicos, mientras que el plomo bloquea los rayos X para proteger al usuario de
sus radiaciones. Fue desarrollado por William Crookes en 1875. Se emplea principalmente en
monitores, televisores y osciloscopios, aunque en la actualidad se está sustituyendo
paulatinamente por tecnologías como plasma, LCD, LED.
El Monochrome Display Adapter (MDA) no tenía modos gráficos, ofrecía solamente un solo
modo de textomonocromático (el modo de vídeo 7), que podía exhibir 80 columnas por 25
líneas de caracteres de texto de alta resolución en un monitor TTL que mostraba la imagen en
verde y negro.
Figura 4:MDA
Monitor CGA
Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter –
gráficos adaptados a color–) fueron comercializados en 1981 al desarrollarse la primera tarjeta
gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios
de PC optaban por comprar el monitor monocromático por su costo.
Monitor EGA
Tres años más tarde, en el 1984, surgió el monitor EGA (Enhanced Graphics Adapter -
adaptador de gráficos mejorados) estándar desarrollado por IBM para la visualización de
gráficos, este monitor aportaba más colores (16) y una mayor resolución.
Monitor VGA
En 1987 surgió el estándar VGA (Video Graphics Array - Matriz gráfica de video) fue un
estándar muy acogido.
Monitor SVGA
En 1989 se mejoró y rediseñó el estándar VGA para solucionar ciertos problemas que
surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y
resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta
el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían
estando en la mayoría de hogares donde había un ordenador.
Figura 8:Monitor SGA
Pantalla LCD
Una pantalla de cristal líquido o LCD (sigla del inglés Liquid Crystal Display) es una pantalla
delgada y plana formada por un número de píxeles en color o monocromos colocados delante
de una fuente de luz o reflectora. A menudo se utiliza en dispositivos electrónicos de pilas, ya
que utiliza cantidades muy pequeñas de energía eléctrica.
Debido a muchas quejas sobre cancer, molestias en los ojos, miopia, etc. decidieron, dejar
morir a los monitores en paz, y crearon una muy delgada pantalla hecho con Leds, con siglas
que significan "Liquid Crystal Display", este invento fue creado por Jack Janning.
Pantalla plana
La plasma, no es muy conocida en computadoras, la ventaja contra el LCD es que tiene mayor
angulo de visibilidad este funciona con gases fluorescentes de colores para crear la imagen.
Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca
que contiene un gas inerte (generalmente neón o xenón). Tambien no tiene mercurio.
Figura 10: pantalla plana
Computador 4k
Un monitor 4K, también conocido como monitor UHD o de ultra alta definición, es un dispositivo
compatible con la resolución 4K. Esto nos trae otra pregunta en común La alta definición
estándar, o de 1080P (tal como encontramos en los discos Blu-Ray o en los televisores HD),
se encuentra formada por una imagen que tiene 1920 píxeles de ancho y 1080 píxeles de alto.
En total, esto da como resultado una imagen con más de dos millones de píxeles. El ancho de
una imagen que tiene una resolución 4K contiene casi 4000 píxeles (3840 para ser precisos, el
doble que el de 1080P). Con 2.160 píxeles en su extensión vertical, la cantidad total de píxeles
de un monitor 4K es cuatro veces mayor al del monitor HD tradicional.
Más pixeles en un área determinada ofrecen mayor claridad, colores vívidos y nitidez a la
imagen. También permite que los monitores se puedan fabricar en tamaños más grandes sin
pérdida de resolución o calidad de imagen. A pesar de que esta mejora en la claridad de la
imagen es un factor determinante para las personas que deciden comprar monitores 4K,
también cabe destacar que con esta resolución se crean más y más contenidos. La ultra alta
definición se está convirtiendo en el nuevo “estándar” de la alta definición. Para aprovechar al
máximo tu experiencia de visualización (particularmente en el futuro), es fundamental que
cuentes con un monitor 4K.