Вы находитесь на странице: 1из 7

HISTORIA DE LOS COMPUTADORES

ANTECEDENTES
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para
realizar sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los
artefactos que calculan o computan, se remonta a muchos años antes de Jesucristo.
Dos principios han coexistido respecto a este tema. Uno es usar cosas para contar, ya sea
los dedos, piedras, conchas, semillas. El otro es colocar esos objetos en posiciones
determinadas. Estos principios se reunieron en el ábaco, instrumento que sirve hasta el
día de hoy, para realizar complejos cálculos aritméticos con enorme rapidez y precisión.
En el Siglo XVII en occidente se encontraba en uso la regla de cálculo, calculadora basada
en las investigaciones de Nappier, Gunther y Bissaker. John Napier (1550-1617) descubre
la relación entre series aritmética y geométricas, creando tablas que llama logaritmos.
Edmund Gunter se encarga de marcar los logaritmos de Napier en líneas. Bissaker por su
parte coloca las líneas de Nappier y Gunter sobre un pedazo de madera, creando de esta
manera la regla de cálculo. Durante más de 200 años, la regla de cálculo es
perfeccionada, convirtiéndose en una calculadora de bolsillo, extremadamente versátil.
Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las
calculadoras análogas representadas por la regla de cálculo, eran de uso común en toda
Europa.
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue
inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una
serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito
del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números
haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático
alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también
podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la
idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar
datos. Hollerith consiguió compilar la información estadística destinada al censo de
población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía
pasar tarjetas perforadas sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los
principios de la computadora digital moderna. Inventó una serie de máquinas, como la
máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.
Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta
Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos
inventores de la computadora digital moderna. La tecnología de aquella época no era
capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la
máquina analítica, ya tenía muchas de las caracteristicas de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una
memoria para guardar los datos, un procesador para las operaciones matemáticas y una
impresora para hacer permanente el registro.
Primeros Ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas
máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles
como para poder ser resueltas mediante otros métodos. Durante las dos guerras
mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde
eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo
a distancia de las bombas en la aviación.
Ordenadores electrónicos
1944 marca la fecha de la primera computadora, al modo actual, que se pone en
funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos,
quien la presenta con el nombre de Mark I. Es esta la primera máquina procesadora de
información. La Mark I funcionaba eléctricamente, instrucciones e información se
introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados
en principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud
comparada con los equipos actuales, fue la primer máquina en poseer todas las
características de una verdadera computadora.
La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y
J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia
una nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y
de una profunda modificación en el comportamiento de las sociedades.
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que
trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer
ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el
Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado
por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de
los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford
Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College
(EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y
más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico
electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El
ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry
(en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973,
varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de
multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía
ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento
de programa que estaba basado en los conceptos del matemático húngaro-
estadounidense John Von Neumann. Las instrucciones se almacenaban dentro de una
llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector
de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de
volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el
advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que
permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía
y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas
más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda
generación. Los componentes se hicieron más pequeños, así como los espacios entre
ellos, por lo que la fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la
fabricación de varios transistores en un único sustrato de silicio en el que los cables de
interconexión iban soldados. El circuito integrado permitió una posterior reducción del
precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una
realidad a mediados de la década de 1970, con la introducción del circuito de integración
a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de
integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios
miles de transistores interconectados soldados sobre un único sustrato de silicios.

PRIMERA GENERACION
De 1941 a 1958
Características Principales
Tecnología: válvulas de vacío, eran máquinas voluminosas, de alto consumo, caras y de
vida limitada.
Avances del equipo físico: en la memoria se pasa de registros de válvulas a núcleos de
ferrita; en la memoria secundaria, de tarjetas y cintas perforadas a tambores y cintas
magnéticas..
Avances del equipo lógico: utilización de aritmética binaria, programación en ensamblador
(para ayudar al programador).
Principales Equipos que se destacan
Mark I.
Un dispositivo electromecánico, basado en relés, fabricado para la Marina de EU por
Howard Aitken e ingenieros de la IBM. La ultima en su clase. Sustituida por la electrónica.
Colossus.
Usado para descifrar los códigos de radio de los alemanes.
ABC.
Siglas de Atanasoff-Berry Computer, fabricada en la Univ. Estatal de Iowa. Conocida ahora
como la primera computadora digital electrónica.
ENIAC.
La más famosa de las primeras computadoras, contenía más de 18.000 tubos de vacío.
Fabricada para aplicaciones balísticas del Ejército de EU.
Manchester Mark I.
Producida por la Universidad de Manchester; la primera computadora con "programa
almacenado". Hasta ese momento, todas las computadoras tenían que ser reprogramadas
mediante cambios en el alambrado. Esto fue un gran avance.
UNIVAC I
Primera computadora creada por una firma comercial pertenecientes a John W. Mauchly y
J. Prespert Eckert.
EDVAC, EDSAC, IAS, y las comerciales IBM 650, 701, 704, 709.

SEGUNDA GENERACION
De 1959 a 1964
Características Principales
Tecnología: en 1948 se inventó el transistor en los laboratorios de la Bell. Las ventajas del
transistor son que es más pequeño, el consumo es menor y más barato que las válvulas.
Avances del equipo físico: se consolidan las memorias de ferrita. Aparecen los canales de
E/S.
Avances del equipo lógico: aparecen los lenguajes de alto nivel (FORTRAN, COBOL, ALGOL,
PL1).

Principales Equipos que se destacan


UNIVAC 1107, BURROUGH D-805, PDP-5 de DEC, y las científicas IBM 7070, 7090, 7094.

TERCERA GENERACION

De 1964 a 1970
Características Principales
Tecnología: se integran los transistores y aparecen los Circuitos Integrados (C.I.): SSI,
MSI.
Máquinas: IBM 360. Aparecen las “Familias de Computadores”: computadores de distinta
potencia y precio pero con la misma arquitectura y totalmente compatibles. Se produce
una explosión de los mini-computadores: recursos más limitados pero muy asequibles
(PDP-8,PDP-11).
Avances del equipo físico: tarjetas de circuito impreso (PCB); memorias electrónicas
sustituyen a las de ferrita; aparecen las memorias cache; la CPU está basada en registros
de propósito general.

Avances del equipo lógico: nuevos lenguajes de alto nivel (BASIC, PASCAL); gran avance
en el S.O.; aparece la multiprogramación.
Principales Equipos que se destacan
IBM 360, PDP-8, PDP-11

CUARTA GENERACION

De 1971 a la fecha
Cronología de las Computadoras Personales
1983: IBM debuta su IBM PC XT con un disco duro de 10MB. Compaq produce un sistema
compatible con la PC, pero transportable. Kaypro ofrece un sistema similar, con el CRT
integrado, pero basado en CP/M. Microsoft Word 1.0 llega al mercado con poca
espectacularidad, pero demostrando el interés de Microsoft en el software de
aplicaciones.
1984: IBM introduce la IBM PC AT, un sistema basado en el Intel 80286 con varias
innovaciones, incluyendo un bus de expansión de 16 bits, un disco duro de 20 MB, y 512 K
de RAM. Apple abandona la Lisa en favor de su nueva línea de computadoras personales,
la popular Macintosh.
1985: Aparecen Microsoft Windows 1.0, Windows 2.03 y GEM de Digital Research,
demostrando así que el mundo de la PC se ha dado cuenta de que las aplicaciones
gráficas estilo Mac, como Aldus PageMaker, son muy superiores a las de DOS.
1986: Intel introduce el microprocesador de 32 bits 80386 y Compaq desarrolla
rápidamente la primera computadora basada en el chip. IBM comienza a perder terreno
frente a los fabricantes de sistemas clonicos.
1987:. IBM intenta recuperar el mercado de la PC lanzando la familia PS/2. Estas PCs
están basadas en una arquitectura Micro Channel no estándar y nuevo sistema operativo
llamado OS/2 (creado en colaboración con Microsoft).
1988: OS/2 1.1 añade una interfaz gráfica, llamada Administrador de Presentaciones, al
sistema operativo de 16 bits de IBM.
1990: La avalancha de interfaces gráficas continúa con la salida de Windows 3.0.
Dieciocho meses después, Microsoft saca al mercado de Windows 3.1. Miles de
aplicaciones comienzan a emigrar de DOS a Windows.
1991: Microsoft e IBM rompen sus relaciones comerciales y crean dudas sobre el futuro
de OS/2. IBM continua apoyando el OS/2 y produce las versiones 2.0 y 2.1. Los
acontecimientos de estos últimos años son frecuentes y cuantiosos. Las innovaciones a
nivel de CPU son numerosas, pero el futuro de la computación personal se está decidiendo
por la arquitectura CISC (Computadora de Juego de Instrucciones Complejo) o RISC
(Computadora de Juego de Instrucciones Reducido).
Las líneas de batalla se dividen entre el chip PowerPC (creado por una colaboración de
IBM, Apple y Motorola), el Alpha chip de Digital Equipment, el Pentium de Intel (y los chips
clónicos de varios fabricantes).
Con la creciente marea de maquinas de escritorio de 32 bits, los principales productores
de software se apresuran para tratar de capturar el mercado de los sistemas operativos
de 32 bits. Los contendientes, por el momento, son: Microsoft con Windows NT y Windows
95, IBM con OS/2 Warp, Novell con UnixWare, SunSoft con Solaris, y otras derivadas de
Unix (como el NeXT Oparating System de Steven Jobs).
La tendencia actual en el software de aplicaciones es la integración.
Características Principales
Los microprocesadores derivados de circuitos integrados han puesto las computadoras en
el escritorio de la oficina. La cuarta generación, que comprende desde 1971 hasta el
presente, se distingue por el microprocesador y la computadora personal. Las
computadoras de la cuarta generación son aproximadamente 100 veces más pequeñas
que sus antecesoras y tan potentes como aquellas, y quizás más.
Tecnología: se incrementa la escala de integración (LSI, VLSI). Los computadores con
microprocesador se llamaron microcomputadores.
Avances del equipo físico: más integración de las memorias; los discos duros tienen más
capacidad; aparecen los coprocesadores para el tratamiento en punto flotante FPU y los
gestores de memoria o MMU.
Avances del equipo lógico: se normaliza el uso de la memoria virtual; los S.O. permiten la
multitarea y el multiproceso; se producen avances en los lenguajes de alto nivel.
Principales Equipos que se destacan
Se pueden distinguir 4 fases:
1ª fase (1971 - 74): microprocesador de 4 bits, como el Intel 4004 con 2,300 TRT's y LSI.
2ª fase (1974 - 76): microprocesador de 8 bits, como el 8080 de Intel con 5,000 TRT's,
el 6800 de Motorola con 6,000 TRT's, o el Z80 de Zilog.
3ª fase (1976 - 80): microprocesador de 16 bits, como el 8086 de Intel con 29,000
TRT's, el Z8000 de Zilog o el 68000 de Motorola.
4ª fase (1980 - 87): microprocesador de 32 bits, como el 80286 con 134,000 TRT's, el
80386 con 275,000 TRT's de Intel, o el 68020 y el 68030 de Motorola.

CREADORES
600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos
aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se
usa para designar a las partículas negativas del átomo.
500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que llamaban
cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I,
V, X, L, C, D, M).
1633 - El inglés William Oughtred creó un instrumento que hoy se conoce como regla de
cálculo, utilizado hasta hace unos años por los ingenieros.
1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora
mecánica. La pascalina hacía sumas y restas.
La pascalina funcionaba gracias a una serie de ruedas contadoras con diez dientes
numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el
primero en usarla.
1671 - El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina
multiplicadora.
1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage
(1792 -1871) ideó la primera máquina procesadora de información. Algo así como la
primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su
construcción, murió sin terminar su proyecto.
Babbage usaba cartones perforados para suministrarle datos a su máquina -había copiado
la idea del telar del francés Joseph Marie Jacquard, inventado en 1801-, que se
convertirían en instrucciones memorizadas; algo así como los primeros programas.
Esperaba lograr imprimir la información registrada, obtener resultados y volver a
ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.
La evaluación y la retroalimentación se convertirían en la base de la cibernética, que
nacería un siglo más tarde.
1847 - El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e
inició los estudios de lógica simbólica. En 1847 publicó "El análisis matemático del
pensamiento" y en 1854 "Las leyes del pensamiento".
Su álgebra era un método para resolver problemas de lógica por medio de los valores
binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria,
posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje
utilizado por todas las computadoras.
1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar
por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue
facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó
(1924) con una pequeña empresa de Nueva York, creando la International Business
Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con las
computadoras personales o PC.
1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las
cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se
empezó a producir de manera más masiva. Esta máquina solo podía realizar una
operación a la vez y no tenía memoria.
1893 - Entre 1893 y 1920, Leonardo Torres y Quevedo creó en España varias máquinas
capaces de resolver operaciones algebraicas. Posteriormente construyó la primera
máquina capaz de jugar ajedrez.
1920 - Se presentó en París el "aritmómetro electromecánico", que consistía en una
calculadora conectada a una máquina de escribir, en la que se tecleaban los números y
las operaciones. Una vez realizado el cálculo, la máquina entregaba automáticamente el
resultado. Este aparato fue la primera versión de una calculadora digital.
1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de
cálculo que se acercaban bastante a lo que sería la primera computadora.
La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una
versión mejorada que utilizaba electromagnetismo.
1937 - Claude Shannon demostró que la programación de las futuras computadoras era
más un problema de lógica que de aritmética, reconociendo la importancia del álgebra de
Boole.
Además, sugirió que podían usarse sistemas de conmutación como en las centrales
telefónicas, idea que sería fundamental para la construcción de la primera computadora.
Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la
comunicación, hoy más conocida como la "teoría de la información", estableciendo los
conceptos de negentropía, que se refiere a que la información reduce el desorden, y la
unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las
telecomunicaciones como en la informática.
1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell,
construyeron una calculadora de secuencia automática que utilizaba interruptores
ordinarios de sistemas de conmutación telefónica.
Nacen los ordenadores
En 1941, Konrad Suze presentó la Z3, la primera computadora electromagnética
programable mediante una cinta perforada.
Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y
consumía cuatro mil watts.
Una adición demoraba 0,7 segundos, mientras que en una multiplicación o división
tardaba 3 segundos.
1943 - Un equipo de expertos del ejército británico dirigido por Alan Turing construyó a
Colossus, una computadora que permitía descifrar en pocos segundos y automáticamente
los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la
máquina Enigma.
1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la Universidad de
Harvard, logró un convenio entre dicha universidad e IBM, por el que un grupo de
graduados inició el diseño y la construcción de la primera computadora americana, del
tipo electromecánico -basado en electroimanes-.
El Mark I comenzó a funcionar en 1944. Recibía y entregaba información en cintas
perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18 metros de
longitud y 2,5 metros de alto.
Posteriormente se construyeron Mark II y Mark III.
1947 - Pese a que Harvard e IBM construyeron la primera computadora, la tecnología era
más avanzada en otras universidades.
Los ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania,
desarrollaron para el ejército estadounidense, en el laboratorio de investigaciones
balísticas de Aberdeen, el ENIAC (Electronic Numerical Integrator And Calculator).
Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y tenía
800 kilómetros de cableado. Consumía la misma electricidad que mil lavadoras juntas y
realizaba cien mil operaciones por segundo. Era capaz de calcular con gran velocidad las
trayectorias de proyectiles, que era el objetivo inicial de su construcción.
ENIAC es considerada la primera computadora, ya que su funcionamiento era
completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias,
condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura local hasta
los 50 grados, por lo que para efectuar diferentes operaciones debían cambiarse las
conexiones, lo cual podía tomar varios días.
1949 - El matemático húngaro John Von Neumann resolvió el problema de tener que
cablear la máquina para cada tarea.
La solución fue poner las instrucciones en la misma memoria que los datos, escribiéndolas
de la misma forma, en código binario.
Refiriéndose a esta innovación, se habla de la "arquitectura de Von Neumann". Su EDVAC
fue el modelo de las computadoras de este tipo.
1951 - La primera computadora comercial fue la UNIVAC 1, fabricada por la Sperry-Rand
Corporation y comprada por la Oficina del Censo de Estados Unidos.
Disponía de mil palabras de memoria central y podía leer cintas magnéticas.
Por su parte, la IBM desarrolló la IBM 701, de la que se entregaron dieciocho unidades
entre 1953 y 1957. La compañía Remington Rand fabricó el modelo 1103, que competía
con la 701. Así, lentamente, fueron apareciendo nuevos modelos.
1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las que fueron
reemplazadas por transistores. Esto permitió achicar en decenas de veces el tamaño de
estas máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al
alza de la temperatura, ya no era necesaria.
Los transistores habían sido inventados en 1947 por los científicos de esta misma
compañía: Bardeen, Brattain y Shockley. Se trataba de un semiconductor de tamaño
reducido capaz de realizar funciones de bloqueo o amplificación de señal. Eran más
pequeños, más baratos y mucho menos calientes que las válvulas de vacío.
1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de
programación, llamado Fortran, formulado para el IBM 704.
60’s - Técnicos de varios laboratorios, a partir de la elaboración de los transistores,
comenzaron a producir unidades más grandes con múltiples componentes que cumplían
diversas funciones electrónicas.
Se trataba de los circuitos integrados o chips.
Estos permitieron una nueva disminución en el tamaño y el costo.
1969 - Kenneth Thompson y Dennis Ritchie, de Bell Labs, desarrollaron el sistema
operativo Unix.
1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un pequeño chip
de silicio.
Se trató de un circuito integrado especialmente construido para efectuar las operaciones
básicas de Babbage y conforme a la arquitectura de Von Neumann.
Fue la primera Unidad Central de Procesos (CPU). La integración de estos procesos avanzó
en distintas etapas:
Integración simple (Integrated Circuits o IC)
Alta integración (Large Scale Integration o LSI)
Muy alta integración (Very Large Scale Integration o VLSI)
Estos procesos permitieron acelerar el funcionamiento de las computadoras, logrando
superar el millón de operaciones por segundo.
1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete de 5 1/4
pulgadas.
1974 - Surge el Altair 8800, la primera computadora de escritorio, comercializada con el
microprocesador Intel 8080.
Aunque no incluía teclado, monitor, ni software de aplicación, esta máquina dio inicio a
una revolución en los sistemas computacionales modernos.
1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett
Packard- se juntaron para armar una microcomputadora que pudiera ser usada más
masivamente.
Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y
desarrolló el lenguaje de programación Basic. El resultado fue la primera computadora
Apple.
Steve Jobs y Steven Wozniak, crearon la primera computadora Apple. A fines de 1976
tenían el modelo listo para ser comercializado: el Apple II. Tras varios intentos, finalmente
consiguieron el apoyo de Mike Markulla, con quien formaron su propia compañía, la Apple
Computers. El Apple II siguió fabricándose por otros quince años, todo un récord para una
industria que continuamente presenta novedades.
1975 Bill Gates y Paul Allen se unen para crear Microsoft, una empresa dedicada
íntegramente al "software.

Extraído por completo de la página:


http://ingcivil88.galeon.com/index.html

Вам также может понравиться