Вы находитесь на странице: 1из 6

Generación de computadoras

Se denomina Generación de computadoras a cualquiera de los períodos en que se


divide la historia de las computadoras.

• Primera generación (1946-1954): La primera generación de computadoras se


caracteriza por el rasgo más prominente de la ENIAC Electronic Numerical
Integrator And Computer (Computador e Integrador Numérico Electrónico):
tubos de vacío (bulbos) y programación basada en el lenguaje de máquina.Medía
aprox 16 metros de altura y tenia un sistema de refrigeracion.

Durante la década de 1950 se construyeron varias computadoras notables, cada


una contribuyó con avances significativos: uso de la aritmética binaria, acceso
aleatorio y el concepto de programas almacenados.

• Segunda generación (1955-1963): Estas computadoras comenzaron a utilizar


transistores. Se comunicaban mediante lenguajes de alto nivel.

El invento de los transistores significó un gran avance, ya que permitió la


construcción de computadoras más poderosas, más confiables, y menos
costosas. Además ocupaban menos espacio y producían menos calor que las
computadoras que operaban a bases de tubos de vacío.

• Tercera generación (1964-1970): Son las computadoras que comienzan a


utilizar circuitos integrados. La IBM 360 es el símbolo de esta generación.

• Cuarta Generación (1971-1988): Se caracteriza por la integración a gran escala


de circuitos integrados y transistores (más circuitos por unidad de espacio).

• Quinta Generación:(1988-presente) Las computadoras de quinta generación


son computadoras basados en inteligencia artificial Usando Lo que se puede
denominar micro chip inteligente.

Computadora personal.

El término computadora personal u ordenador personal (en inglés, Personal


Computer o PC) tiene tres significados:

• La gama de computadoras personales de IBM que originaron el uso del término:


véase IBM PC.
• Término genérico utilizado para referirse a microcomputadoras que son
compatibles con las especificaciones de IBM.
• Término genérico utilizado a veces para referirse a todas las
microcomputadoras.

Una computadora es una microcomputadora, diseñada en principio para ser usada por
una sola persona a la vez, y que es compatible con el PC de IBM (aunque en el lenguaje
corriente se puede referir también a equipos incompatibles). Una computadora personal
es generalmente de tamaño medio y es usado por un sólo usuario (aunque hay sistemas
operativos que permiten varios usuarios simultáneamente, lo que es conocido como
multiusuario).

Una computadora personal suele estar equipado para cumplir tareas comunes de la
informática moderna, es decir permite navegar por Internet, escribir textos y realizar
otros trabajos de oficina además de escuchar música, ver vídeos, jugar, estudiar, etc.

historia
En la primera y segunda generación de microcomputadores también eran conocidos
como computadoras domésticas u ordenador personal, y son comentados en el artículo
correspondiente.

El primer registro que se conoce del término "computadora personal" apareció en la


revista New Scientist en 1964, en una serie de artículos llamados «El mundo en 1984».
En un artículo titulado The Banishment of Paper Work, Arthur L. Samuel, del Centro de
Investigación Watson de IBM escribió: «Hasta que no sea viable obtener una educación
en casa, a través de nuestra propia computadora personal, la naturaleza humana no
habrá cambiado».

Los sistemas operativos


Un sistema operativo es un software de sistema, es decir, un conjunto de programas de
computadora destinado a permitir una administración eficaz de sus recursos. Comienza
a trabajar cuando se enciende el computador, y gestiona el hardware de la máquina
desde los niveles más básicos, permitiendo también la interacción con el usuario.

Un sistema operativo se puede encontrar normalmente en la mayoría de los aparatos


electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos
podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles,
reproductores de DVD, autoradios, computadoras, etc).

Actualmente el concepto de computadora esta intrínsecamente relacionado al de sistema


operativo, aunque éste existe en otros aparatos electrónicos y no sólo en las
computadoras.

Sistemas operativos desarrollados


• MULTICS (Multiplexed Information and Computing Service): Originalmente
era un proyecto cooperativo liderado por Fernando Corbató del MIT, con
General Electric y los laboratorios Bell, que comenzó en los 60, pero los
laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX.
Se desarrolló inicialmente para el mainframe GE-645, un sistema de 36 bits;
después fue soportado por la serie de máquinas Honeywell 6180.

Fue uno de los primeros sistemas operativos de tiempo compartido, que implementó un
solo nivel de almacenamiento para el acceso a los datos, desechando la clara distinción
entre los ficheros y los procesos en memoria, y uno de los primeros sistemas
multiprocesador.

• MVS (Multiple Virtual Storage): Fue el sistema operativo más usado en los
modelos de mainframes -ordenadores grandes, potentes y caros usados
principalmente por grandes compañías para el procesamiento de grandes
cantidades de datos- System/370 y System/390 de IBM, desarrollado también
por IBM y lanzado al mercado por primera vez en 1974. Como características
destacables, permitía la ejecución de múltiples tareas, además de que introdujo
el concepto de memoria virtual y finalmente añadió la capacidad de que cada
programa tuviera su propio espacio de direccionamiento de memoria, de ahí su
nombre.
• CP/M (Control Program/Monitor): Desarrollado por Gary Kildall para el
microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado en 1976,
distribuyéndose en disquetes de ocho pulgadas. Fue el SO más usado en las
computadoras personales de esta década. Su éxito se debió a que era portátil,
permitiendo que diferentes programas interactuasen con el hardware de una
manera estandarizada. Estaba compuesto de dos subsistemas:
o CCP (Comand Control Processor): Intérprete de comandos que permitía
introducir los mandatos con sus parámetros separados por espacios.
Además, los traducía a instrucciones de alto nivel destinadas a BDOS.
o BDOS (Basic Disk Operating System): Traductor de las instrucciones en
llamadas a la BIOS.
Historia del sistema binario

Página del artículo Explication de l'Arithmétique Binaire de Leibniz

El antiguo matemático hindú Pingala presentó la primera descripción que se conoce de


un sistema de numeración binario en el siglo tercero antes de nuestra era, lo cual
coincidió con su descubrimiento del concepto del número cero.

Una serie completa de 8 trigramas y 64 hexagramas, análogos a 3 bit y números


binarios de 6 bit, eran conocidos en la antigua china en el texto clásico del I Ching.
Series similares de combinaciones binarias también han sido utilizados en sistemas de
adivinación tradicionales africanos como el Ifá, así como en la geomancia medieval
occidental.

Un arreglo binario ordenado de los hexagramas del I Ching, representando la secuencia


decimal de 0 a 63, y un método para generar el mismo, fue desarrollado por el erudito y
filósofo Chino Shao Yong en el siglo XI. Sin embargo, no hay ninguna prueba de que
Shao entendió el cómputo binario.

En 1605 Francis Bacon habló de un sistema por el cual las letras del alfabeto podrían
reducirse a secuencias de dígitos binarios, la cuales podrían ser codificados como
variaciones apenas visibles en la fuente de cualquier texto arbitrario.

El sistema binario moderno fue documentado en su totalidad por Leibniz, en el siglo


diecisiete, en su artículo "Explication de l'Arithmétique Binaire". En él se mencionan los
símbolos binarios usados por matemáticos chinos. Leibniz usó el 0 y el 1, al igual que el
sistema de numeración binario actual.

En 1854, el matemático británico George Boole, publicó un artículo que marcó un antes
y un después, detallando un sistema de lógica que terminaría denominándose Álgebra
de Boole. Dicho sistema desempeñaría un papel fundamental en el desarrollo del
sistema binario actual, particularmente en el desarrollo de circuitos electrónicos.

En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba


el Álgebra de Boole y aritmética binaria utilizando relés y conmutadores por primera
vez en la historia. Titulada Un Análisis Simbólico de Circuitos Conmutadores y Relés, la
tesis de Shannon básicamente fundó el diseño práctico de circuitos digitales.

En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los


Laboratorios Bell, construyó un ordenador basado en relés - al cual apodó "Modelo K"
(porque lo construyó en una cocina, en inglés "kitchen")- que utilizaba la suma binaria
para realizar los cálculos. Los Laboratorios Bell autorizaron un completo programa de
investigación a finales de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron
el diseño de una Calculadora de Números Complejos, la cual era capaz de realizar
cálculos con números complejos. En una demostración en la conferencia de la Sociedad
Americana de Matemáticas, el 11 de septiembre de 1940, Stibitz logró enviar comandos
de manera remota a la Calculadora de Números Complejos a través de la línea
telefónica mediante un teletipo. Fue la primera máquina computadora utilizada de
manera remota a través de la línea de teléfono. Algunos participantes de la conferencia
que presenciaron la demostración fueron John Von Neumann, John Mauchly y Norbert
Wiener, el cual escribió acerca de dicho suceso en sus diferentes tipos de memorias en
la cual alcanzó diferentes logros.

Unidades de medida
Unidades de medición
Una unidad de medida es
Bit: es la abreviación de dígito binario (0 ó 1), la una cantidad estandarizada
parte más pequeña de información que puede de una determinada
haber en una computadora. Se trata de dos magnitud física. En general,
posiciones: el uno implica que está encendido y una unidad de medida toma
el 0 que está apagado. su valor a partir de un
Byte: es la unidad de información fundamental de las
patrón o de una
computadoras y corresponden a ocho bits continuos.
Representa un caracter de datos o instrucción. composición de otras
Kilobyte (Kb): corresponde a alrededor de mil bytes unidades definidas
(1024 bytes). previamente. Las primeras
Megabyte (Mb): indica mil kilobytes, es decir se conocen como unidades
alrededor de un millón de bytes. fundamentales, mientras que
Gigabyte (Gb): señala mil megabytes o unos mil las segundas se llaman
millones de bytes. unidades derivadas.
Terabyte (Tb): equivale a mil gigas o a algo más de
un billón de bytes.
Cada unidad tiene un
símbolo asociado a ella, el
cual se ubica a la derecha de un factor que expresa cuántas veces dicha cantidad se
encuentra representada. Es común referirse a un múltiplo o submúltiplo de una unidad,
los cuales se indican ubicando un sufijo delante del símbolo que la identifica.

Un conjunto consistente de unidades de medida en el que ninguna magnitud tenga más


de una unidad asociada es denominado sistema de unidades.

Todas las unidades denotan cantidades escalares. En el caso de las magnitudes


vectoriales, se interpreta que cada una de las componentes está expresada en la unidad
indicada.

Internamente, la máquina computadora representa los


valores numéricos mediante grupos de bits. agrupados en
bytes. Por ejemplo, el número 3 se representa mediante un
byte que tiene "activos" los bits primero y segundo (contando
desde la derecha); 00000011. Esta sería la forma de
representación del número 3 en un sistema numérico de base
2, también conocido como BINARIO. El sistema que
utilizamos normalmente es un sistema DECIMAL o de base
10. En un sistema DECIMAL, contamos desde el 0 hasta el 9
antes de añadir un nuevo dígito. El número 22 en un sistema
decimal significa que tenemos dos conjuntos de 10s y 2
conjuntos de 1s.
En un sistema BINARIO sólo pueden haber dos valores para
cada dígito: ya sea un 0=DESACTIVADO ó un 1=ACTIVADO.
Para representar el número 22 en notación BINARIA lo
haríamos como 00010110, notación que se explica según la
siguiente tabla:

Вам также может понравиться