Вы находитесь на странице: 1из 37

INTRODUÇÃO

Este Trabalho foi nota 10 no Curso de Eletrônica que fiz em


2006. Traz um breve histórico do PC (Computador Pessoal),
de forma concisa relata os primórdios, desde a utilização do
Ábaco há 4000 a.C., sua evolução na chamada Era do
Computação até atualidade, e finalizando, as tendências para
o futuro, que são a interligação dos PC`s em nível mundial e a
Biotecnologia empregada em novas tecnologias de Hardware.
A História do PC

O que é computador?

No dicionário encontramos: "Computador, s.m. - aquele que faz cômputos ou que


calcula; máquina à base de circuitos eletrônicos que efetua grandes operações e cálculos
gerais, de maneira ultra rápida." Os irônicos dizem: "Computador é o idiota mais veloz
do mundo, pois fará qualquer coisa que nós lhe ordenarmos a uma velocidade
extremamente alta." Também podemos dizer: "Computador é um equipamento capaz de
aceitar elementos relativos a um problema, submetê-lo a operações predeterminadas e
chegar a um resultado."

OS PRIMÓRDIOS
4.000 a.C. - ÁBACO - palavra de origem Fenícia
1642 d.C. - Blaise Pascal, inventou a primeira máquina de somar: PASCALINA
1671 d.C. - Gottfried Leibnitz inventou uma máquina muito parecida com a Pascalina,
efetuava cálculos de multiplicação e divisão: Calculadora de Leibniz
1802 d.C. - na França, Joseph Marie Jacquard passou a utilizar Cartões Perfurados
para controlar suas máquinas de tear e automatizá-las.
1822 d.C. - foi desenvolvido por um cientista inglês chamado Charles Babbage uma
máquina diferencial que permitia cálculos como funções trigonométricas e logaritmos,
utilizando os cartões de Jacquard.
1834 d.C. - Charles Babbage desenvolveu uma máquina analítica capaz de executar as
quatro operações (somar, dividir, subtrair, multiplicar), armazenar dados em uma
memória (de até 1.000 números de 50 dígitos) e imprimir resultados. Porém, sua
máquina só pode ser concluída anos após a sua morte, tornando-se a base para a
estrutura dos computadores atuais, fazendo com que Charles Babbage fosse considerado
como o "Pai do Computador".

O Início da Era da Computação


Já no ano de 1890, época do censo dos EUA, Hermann Hollerith percebeu que só
conseguiria terminar de apurar os dados do censo quando já seria o tempo de se efetuar
novo censo (1900). Então aperfeiçoou os cartões perfurados (aqueles utilizados por
Jacquard) e inventou máquinas para manipulá-los, conseguindo com isso obter os
resultados em tempo recorde, isto é, 3 anos depois ( Tabulador de Hollerith –
Tabulava estatísticas com Cartões Perfurados).

Em função dos resultados obtidos, Hollerith, em 1896, fundou uma companhia chamada
TMC - Tabulation Machine Company, vindo esta a se associar, em 1914 com duas
outras pequenas empresas, formando a Computing Tabulation Recording Company
vindo a se tornar, em 1924, a tão conhecida IBM - Internacional Business Machine.
Em 1930, os cientistas começaram a progredir nas invenções de máquinas complexas,
sendo que o Analisador Diferencial de Vannevar Bush anuncia a moderna era do
computador. Em 1936, Allan Turing publica um artigo sobre "Números Computáveis"
e Claude Shannon demonstra numa tese a conexão entre lógica simbólica e circuitos
elétricos. Em 1937, George Stibitz constrói em sua mesa de cozinha um "Somador
Binário".

Com a chegada da Segunda Guerra Mundial houve a necessidade de se projetar


máquinas capazes de executar cálculos balísticos com rapidez e precisão para serem
utilizadas na indústria bélica.

Com isso surgiu, em 1944, o primeiro computador eletromecânico (construído na


Universidade de Harvard, pela equipe do professor H. Aiken e com a ajuda financeira
da IBM, que investiu US$ 500.000,00 no projeto), possuía o nome de MARK I, era
controlado por programa e usava o sistema decimal. Tinha cerca de 15 metros de
comprimento e 2,5 metros de altura, era envolvido por uma caixa de vidro e de aço
inoxidável brilhante. MARK I prestou seus serviços de matemática na Universidade de
Harvard por 16 anos completos, apesar de não ter feito muito sucesso, pois já era
obsoleto antes mesmo de ser construído, sendo que em 1941, Konrad Zuse, na
Alemanha, já estava criando modelos de teste: Z1 e Z2, sendo que logo após completou
um computador operacional (Z3), que consistia de um dispositivo controlado por
programa e baseado no sistema binário e que era muito menor e de construção bem mais
barata do que o MARK I.

Os computadores Z3 e logo a seguir o Z4, eram utilizados na solução de problemas de


engenharia de aeronaves e projetos de mísseis, sendo que Zuse também construiu vários
outros computadores para fins especiais, mas não teve muito apoio do governo Alemão,
pois Hitler, na época mandou embargar todas as pesquisas científicas, excetos as de
curto prazo, sendo que o projeto dele levaria cerca de 2 anos para ser concluído. Umas
das principais aplicações das máquinas de Zuse eram quebrar os códigos secretos que
os ingleses usavam para se comunicar com os comandantes no campo.

A EVOLUÇÃO

Computadores de Primeira Geração

Em 1943, um projeto britânico, sob a liderança do matemático Alan Turing, colocou


em operação uma série de máquinas mais ambiciosas, o COLOSSUS, pois ao invés de
relés eletromecânicos, cada nova máquina usava 2.000 válvulas eletrônicas (por
coincidência, mais ou menos o mesmo número de válvulas que Zuze propusera para a
nova máquina que não lhe permitiram desenvolver...).

Em 1945, John Von Neumann delineia os elementos críticos de um sistema de


computador.
Já em 1946, surgiu o ENIAC - Eletronic Numerical Interpreter and
Calculator, ou seja, "Computador e Integrador Numérico Eletrônico", projetado para
fins militares, pelo Departamento de Material de Guerra do Exército dos EUA, na
Universidade de Pensilvânia. Era o primeiro computador digital eletrônico de grande
escala e foi projetado por John W. Mauchly e J. Presper Eckert (que era um gênio em
engenharia, pois quando tinha apenas 8 anos construiu um rádio a cristal e colocou-o
num lápis).

O ENIAC foi desativado em 2 de outubro de 1955.

O sucessor do ENIAC foi o EDVAC - Eletronic Discrete Variable Computer ou


"Computador Eletrônico de Variáveis Discretas". O EDVAC foi planejado para acelerar
o trabalho armazenando tanto programas quanto dados em sua expansão de memória
interna. Os dados, então, eram armazenados eletronicamente num meio material
composto de um tubo cheio de mercúrio, conhecido como linha de retardo, onde os
cristais dentro do tubo geravam pulsos eletrônicos que se refletiam para frente e para
trás, tão lentamente quanto podiam, de fato a reter a informação, semelhante a um
desfiladeiro que retém um eco, que Eckert descobriu por acaso ao trabalhar com radar.
Outra grande característica do EDVAC era poder codificar as informações em forma
binária em vez da forma decimal, reduzindo bastante o número de válvulas.

No ano de 1947, John Bardeen, William Shockley e Walter Brattain inventam o


TRANSISTOR.

Em 1949, surge o EDSAC - Eletronic Delay Storage Automatic Calculator ou


"Calculadora Automática com Armazenamento por Retardo Eletrônico”, o qual marcou
o último grande passo na série de avanços decisivos inspirados pela guerra: Começou a
"Era do Computador”.

E em 1951, surge o primeiro computador comercial o LEO.

Computadores de Segunda Geração

Já em 1952 o Transistor, que passou a ser um componente básico na construção de


computadores. No mesmo ano, John Mauchly e Presper Eckert abriram sua própria
firma na Filadélfia e criaram o UNIVAC - Universal Automatic Computer, ou seja,
"Computador Automático Universal", o qual era destinado ao uso comercial. Era uma
máquina eletrônica de programa armazenado que recebia instruções de uma fita
magnética de alta velocidade ao invés dos cartões perfurados. O UNIVAC foi utilizado
para prever os resultados de uma eleição presidencial.
Também em 1952, Grace Hopper transformou-se em uma pioneira no processamento
de dados, pois criou o primeiro compilador e ajudou a desenvolver duas linguagens de
programação que tornaram os computadores mais atrativos para comércio.

Em 1953, Jay Forrester, do MIT, construiu uma memória magnética menor e bem
mais rápida, a qual substituía as que usavam válvulas eletrônicas. Já em 1954, a IBM
concluiu o primeiro computador produzido em série, o 650, que era de tamanho médio e
enquanto isso, Gordon Teal, da Texas Instruments, descobre um meio de fabricar
transistores de cristais isolados de silício a um custo baixo.

Conclui-se em 1955, o primeiro computador transistorizado, feito pela Bell


Laboratories: o TRADIC, o qual possuía 800 transistores, sendo cada um em seu
próprio recipiente.

Computadores de Terceira Geração

De 1958 a 1959, Robert Noyce, Jean Hoerni, Jack Kilby e Kurt Lehovec participam do
desenvolvimento do CI - Circuito Integrado. Em 1960, a IBM lança o IBM/360, cuja
série marcou uma nova tendência na construção de computadores com o uso de CI, ou
pastilhas, que ficaram conhecidas como Chips. Esses chips incorporavam, numa única
peça de dimensões reduzidas, várias dezenas de transistores já interligados, formando
circuitos eletrônicos complexos. E Steven Hofstein, descobriu, em 1961, o transistor de
efeito de campo, usado nos circuitos integrados MOS.

No ano de 1965, a Digital Equipment introduz o PDP-8, o primeiro minicomputador


comercial e com preço competitivo.

Os primeiros computadores com circuito integrado foram criados pela Burroughs, em


1968, e tinham o nome de B2500 e B3500.

Em 1971, Ted Hoff, planeja o microprocessador Intel 4004, o qual era um único chip
com todas as partes básicas de um processador central. Esse processador era a CPU de
um computador de 4 bits. Já em 1974, Ed Roberts, do MITS (Micro Instrumentation
and Telemetry Systems) em Albuquerque - Novo México, constrói um
microcomputador chamado ALTAIR 8800 (o nome "Altair" se deve a uma estrela, pois
consideravam o lançamento da máquina um "evento estelar"), cuja máquina foi
construída com base no processador da Intel 8080, que já era um descendente do
processador Intel 8008. O ALTAIR tornou-se o maior sucesso, marcando o início de
uma indústria multibilionária, pois Roberts esperava vender oitocentos ALTAIR por
ano e acabou tendo dificuldades para satisfazer 4.000 pedidos!

Após a edição de janeiro de 1975 da revista Popular Electronics, da Ziff-Davis, que


anunciava o "Sucesso do Projeto" Altair 8800, da MITS, citado pela revista como "o
primeiro kit para minicomputador do mundo a concorrer com os modelos comerciais".
Pelos padrões atuais, este kit inicial desenvolvido por Ed Roberts, que liderava a MITS,
uma pequena companhia de componentes eletrônicos era bastante limitado. Ele se
baseava no microprocessador 8080 da Intel e tinha apenas 256 bytes de memória.

Com um preço bem acessível, US$ 397, o Altair foi o primeiro computador pessoal
disponível em grande escala para o público em geral. Ele atraiu centenas de pedidos por
parte de entusiastas da eletrônica. Um dos que notaram este evento embrionário foi um
jovem programador da Honeywell chamado Paul Allen, que mostrou o artigo da
Popular Electronics a um velho amigo, um calouro da universidade de Harvard
chamado Bill Gates. A dupla rapidamente uniu suas forças para elaborar uma versão do
BASIC (Beginners All-Purpose Symbolic Instruction Code, ou "Código de Instruções
Simbólicas para todos os Propósitos dos Principiantes") para o Altair. Em pouco tempo,
Allen foi trabalhar para a MITS como diretor de software e, logo em seguida, Gates
deixou Harvard para juntar-se a Allen em Albuquerque e dar início a uma empresa que,
mais tarde, seria conhecida como Microsoft. (Outro ex-funcionário da MITS, David
Bunnell, publicaria, mais tarde, uma variedade de revistas especializadas em
computação, dentre elas a PC Magazine.)

No ano de 1977, surge no mercado de produção em série, três microcomputadores: o


Apple II, de Steve Wozniak e Steve Jobs, o TRS-80 da Radio Shack e o PET da
Commodore. Em 1979, é lançado pela Software Arts o "VisiCalc", o qual foi o
primeiro programa comercial para microcomputadores.
O Apple II desenvolveu rapidamente seu próprio padrão, com o inestimável auxílio do
projeto de Wozniak, em 1978, de uma econômica unidade de disco flexível e - o mais
importante - do VisiCalc, a primeira planilha eletrônica, elaborado por Dan Bricklin e
Bob Frankston. Com a introdução do VisiCalc, os homens de negócios encontraram,
repentinamente, razão para utilizar os computadores pessoais.

O restante da década viu passar vários projetos diferentes, enquanto uma companhia
após outra tentava definir uma combinação exclusiva de potência, preço, desempenho e
recursos. As máquinas introduzidas neste período abrangiam desde as ofertas para
usuários domésticos e aficionados - como o Vic-20 e o 64, da Commodore, a série 400,
da Atari, e o TI-99, da Texas Instruments - até os dispositivos mais orientados à área
comercial, como uma série de máquinas da Tandy/Radio Shack e diversos projetos que
executavam o sistema operacional CP/M, da Digital Research, elaborado pelo pioneiro
da computação pessoal, Gary Kidall.

Devido ao rápido crescimento do mercado e ao fato de que a compatibilidade


descendente não significava muito no início, o período foi marcado por uma
criatividade em hardware jamais vista. Obviamente, o ramo do software também
começou a crescer, com a rápida aparição de uma variedade de linguagens de
programação, jogos e até mesmo de aplicativos comerciais, como o popular Processador
de textos WordStar.

Em pouco tempo, ninguém mais via os computadores pessoais como brinquedos ou


hobby, mas sim como dispositivos de produtividade pessoal com visíveis aplicações
comerciais. A era do computador pessoal estava estabelecida, de uma vez por todas. E a
IBM, que há muito tempo dominava a área dos computadores de grande porte, queria a
sua fatia deste bolo.
Computadores de Quarta Geração
Na década de 80, foi criado o IC LSI - Integratede Circuit Large Scale Integration,
ou seja, "Circuito Integrado em Larga Escala de Integração", onde foram desenvolvidas
técnicas para se aumentar cada vez mais o número de componentes no mesmo circuito
integrado. Alguns tipos de IC LSI incorporavam até 300.000 componentes em uma
única pastilha.

A IBM de 1980, muito mais do que a IBM atual, não era uma companhia acostumada
com os mercados de mudanças rápidas e com as vendas ao consumidor final. Ela vendia
máquinas comerciais - principalmente computadores e máquinas de escrever - a grandes
empresas, utilizando sua própria tecnologia e apoiando-se excessivamente num bem
estruturado sistema de vendas e prestação de serviços às grandes contas.

O ramo dos PCs precisava de algo diferente. Este novo mercado estava mudando com
grande velocidade e um recém-chegado teria que se movimentar depressa. Além disto,
teria que se dividir entre os usuários individuais e as empresas, mesmo que a meta
principal fosse continuar a vender computadores comerciais. Isto foi o que disse
William C. Lowe, diretor de laboratório da unidade de Sistemas de Nível de Entrada da
IBM em Boca Raton, Flórida, ao Comitê de Gerenciamento Corporativo da IBM, o que
incluía o presidente da IBM, John Open, em julho de 1980.

Lowe disse ao comitê que a IBM precisava construir um computador pessoal e que
havia um espaço no mercado ainda não canalizado pela Apple e outras empresas.
Contudo, disse ele ao comitê, ele não poderia ser construído dentro da cultura padrão da
IBM daquela época. Sendo assim, eles lhe deram a liberdade de recrutar 12 engenheiros
para formar uma força-tarefa, chamada Projeto Chess, e construir um protótipo de
computador.

No mês seguinte, a força-tarefa de Lowe já tinha várias reuniões com outros


representantes da jovem indústria e tomou algumas decisões importantes que,
posteriormente, viriam a afetar a arena do PC pelos próximos anos. Uma destas decisões
foi a de comercializar o computador pessoal da IBM através de lojas de varejo, além de
oferecê-lo por meio da equipe de vendas comissionada da própria IBM. Mas talvez a
decisão mais importante da companhia tenha sido a de utilizar uma "arquitetura aberta":
selecionar os componentes básicos e o sistema operacional de fontes externas à IBM.
Esta era uma grande mudança para a IBM que, até este ponto, projetava todos os
principais componentes de suas máquinas. Em agosto, Lowe e mais dois engenheiros,
Bill Sydnes e Lew Eggebrecht, fizeram a demonstração de um protótipo ao Comitê de
Gerenciamento Corporativo, que aprovou o plano básico e deu ao Projeto Chess o OK
para a criação de um computador pessoal chamado Acorn.

Para liderar o grupo que o construiria, Lowe procurou Philip D. "Don" Estridge, outro
antigo funcionário da IBM que trabalhava no laboratório de Boca Raton. Estridge
recrutou uma equipe que incluía Sydnes, líder da engenharia, Dan Wilkie, responsável
pela manufatura, e H. L. "Sparky" Sparks, para a liderança das vendas.

Uma das primeiras decisões a serem tomadas era a escolha do Processador que
alimentaria o PC. A força-tarefa havia decidido que queria um computador de 16 bits, já
que ele seria mais potente e mais fácil de programar do que as máquinas de oito bits
existentes. A Intel havia anunciado recentemente o 8086 de 16 bits, mas Sydnes disse,
mais tarde, que a IBM teve receio de que o 8086 fosse potente demais e concorresse
demais com outros itens da IBM.

Assim, eles optaram pelo 8088, uma versão do chip com barramento de oito bits e
estrutura interna de 16 bits. Esta tecnologia de oito bits oferecia o benefício adicional de
trabalhar com as placas de expansão oito bits existentes e com dispositivos oito bits
relativamente baratos, como os chips controladores, que poderiam, assim, ser
incorporados de maneira simples e barata à nova máquina.

Outra decisão importante era o software. Em julho, membros da força-tarefa fizeram


uma visita à Digital Research para solicitar à empresa que ela portasse seu sistema
operacional CP/M para a arquitetura 8086. Diz a lenda que seu fundador, Gary Kildall,
estava pilotando seu avião naquela ocasião. Seja qual for a razão, a esposa de Kildall,
Dorothy, e os advogados da DR não assinaram o contrato de exclusividade apresentado
pela IBM. Assim, a equipe da IBM foi embora, seguindo ao norte, até Seattle, para
reunir-se com a Microsoft, de quem esperavam obter urna versão do BASIC.

Os executivos da Microsott assinaram um contrato com a IBM para o fornecimento do


BASIC e, logo, Bill Gates e a companhia estavam discutindo não só o BASIC como
também um sistema operacional. Imediatamente após, a Microsoft adquiriu um sistema
operacional 8086 que atendia por diversos nomes, incluindo "Quirk and Dirty DOS", ou
QDOS, elaborado por Tim Patterson, de uma companhia chamada Seattle Computer
Products. A Microsoft incrementou este sistema operacional, licenciando-o para a IBM,
que o comercializava como PC-DOS.

Seguiram-se, então, meses febris de união de hardware e software, até que, numa
quarta-feira, 12 de agosto de 1981, quase um ano após o OK dado ao Projeto Chess, a
IBM apresentou o IBM Personal Computer. Comercializado inicialmente pelas lojas
Computerland e nas Centrais Comerciais da Sears, aquele primeiro PC - com uma CPU
8088, 64Kb de RAM e uma unidade de disco flexível de 160 Kb de face simples - tinha
um preço de tabela de US$2.880.
Quando o IBM PC foi lançado, em outubro, Estridge - então considerado o pai do PC -
e sua equipe eram o exemplo do sucesso.

Com os PCs, tornou-se mais fácil o acesso à computação: mesmo pequenas empresas - as primeiras
usuárias do equipamento - puderam se informatizar, sem vultosos investimentos em salas especiais para
CPD e toda a infra-estrutura necessária, para não falar no próprio custo dos computadores centrais - os
mainframes.

Cronologia - A história se acelerou, até


Compaq -
chegar aos dias atuais: em 1982,
o jornalista especializado em
microcomputadores Adam Osborne
fundou sua empresa e lançou o Osborne 1,
o primeiro computador portátil do mundo.
1982 foi também o ano do surgimento das
empresas Compaq e Sun, e a revista norte-
americana Time teve a ousadia de escolher
o computador como “Homem do Ano”.
Em 1983, surge o supercomputador Cray
2, mas também o programa Lotus 1-2-3
substitui a planilha VisiCalc como soft preferido pelos usuários de microcomputadores.
Já existiam nos EUA mais de dez milhões de usuários de computadores

O PC original tinha alguns recursos ótimos - e algumas limitações óbvias. Ele trazia um
Processador Intel 8088 de 4,77 MHz, anunciado como um "microprocessador 16 bits de
alta velocidade", mas tinha apenas um barramento de dados de oito bits. Inicialmente, a
máquina vinha com 16 Kb de RAM padrão na placa-mãe, expansíveis para 64 Kb, mas
seu Processador tinha uma capacidade maior, porque os 20 bits de endereços permitiam
que o PC enviasse um megabyte de memória física, o que era um enorme progresso para
a época.

Embora o PC fosse capaz de exibir gráfico, era preciso comprar uma placa de vídeo
opcional para isto, já que a máquina básica possuía apenas uma placa monocromática.
E, é claro, o preço anunciado não incluía um monitor ou mesmo uma porta paralela ou
serial.

Limitações à parte, ele foi um sucesso imediato. Começando no primeiro semestre,


segundo o IDC, a IBM vendeu 35.000 máquinas até o final de 1981, e as vendas gerais
foram cinco vezes maiores do que as projeções iniciais. As vendas foram auxiliadas, em
parte, por uma brilhante campanha de marketing que trazia o Vagabundo, personagem
popularizado por Charles Chaplin em filmes como Tempos Modernos.
As limitações técnicas do PC original ajudaram a acionar o desenvolvimento de outras
companhias, os mercados de terceiros. Por exemplo: o barramento de dados de oito bits
abriu as portas para os fabricantes de placas de extensão, que, imediatamente,
começaram a oferecer placas com portas seriais ou paralelas, de vídeo ou memória
adicional de até 256 Kb por placa. Estas placas podiam ser combinadas para que a
máquina pudesse fazer uso dos 640 Kb totais do 1 Mb de espaço alocado aos endereços
de memória física do Processador. Diversos desenvolvedores ofereciam uma grande
variedade e recursos de extensão. Os principais representantes desta época incluíam a
Tecmar, a Quadram e a AST, que ficou famosa, originalmente, por sua placa de
extensão Sixpack.

Na área do software, as opções também aumentaram rapidamente. Era incluída no PC


uma linguagem BASIC, os que fez com que muitos dos primeiros usuários aprendessem
a linguagem, portassem aplicativos de outros sistemas e criassem vários utilitários
interessantes. O antigo colunista da PC Magazine, Peter Norton, em especial, começou
um pequeno negócio de fornecimento de valiosos e baratos utilitários para PC, e o
crescimento rápido de sua companhia acompanhou o ritmo de uma indústria de bilhões
de dólares, a indústria dos utilitários.

Além de fornecer o PC-DOS, a IBM também anunciou o suporte ao CP/M-86 e ao


UCSD p-System, sistemas operacionais que representavam uma pequena concorrência.
Quando o PC foi lançado, a IBM anunciou diversos aplicativos iniciais, incluindo o
VisiCalc, uma série de programas de contabilidade da Peachtree Software, um
processador de textos chamado EasyWriter, da Information Unlimited Software (IUS), e
o Microsoft Adventure.

Na arena das planilhas eletrônicas, os autores e o divulgador do VisiCalc tiveram um


desentendimento que atrasou as versões futuras e, dentro de pouco tempo, ele foi
desafiado por novos exemplos de "software integrado". O mais importante deles foi um
novo programa projetado por Mitch Kapor, que havia feito, anteriormente, um pacote
para fluxogramas que trabalhava com o VisiCalc nas máquinas Apple II. Kapor deu à
sua nova empresa o nome Lotus Development Corp. e a seu produto o nome Lotus 1-2-
3.

1-2-3 foi elaborado diretamente para o sistema de vídeo do IBM-PC, ignorando o DOS.
Como resultado, era bastante rápido e assumiu a liderança no mercado do PC. Assim
como o VisiCalc havia sido o "aplicativo definitivo" para o Apple II, o Lotus 1-2-3
representou o papel principal no IBM PC.
Em 1983, a maior parte dos principais desenvolvedores de software estava escrevendo
seus programas para o IBM PC e o efeito sobre a maioria das máquinas concorrentes era
estarrecedor. Muitas companhias centralizadas em padrões mais antigos de hardware e
software não IBM, como a Osborne Computer, fecharam suas portas.

Alguns concorrentes acabaram decidindo que o DOS (termo genérico para o sistema
operacional que a Microsoft chamava de MS-DOS e a IBM de PC-DOS) era o padrão,
mas a compatibilidade entre as muitas máquinas não foi alcançada assim tão fácil.
Durante algum tempo, diversos desenvolvedores ofereceram máquinas semelhantes ao
IBM PC, "só que melhores". A DEC Rainbow oferecia a compatibilidade não só com o
8088 como também com o software Z80. O 6300 da AT&T e, depois, o Texas
Instruments Professional ofereciam gráficos melhores. E a Microsoft logo anunciou que
o DOS 2.x se tornaria o padrão.

Em 1982, três ex-gerentes da Texas Instruments formaram a Compaq Computer Corp.


para criar um verdadeiro portátil compatível com IBM, que começou a ser
comercializado em março de 1983. Embora não fosse realmente o primeiro compatível -
a Columbia Data Systems já havia lançado um - o Compaq Portable demonstrou que
havia mercado para uma máquina verdadeiramente compatível com IBM ao ganhar uma
tremenda atenção com o PC portátil. É claro que, naquele tempo, portátil significavam
meros 12 quilos.
A IBM não viria a introduzir uma máquina similar até o ano seguinte. E, nos anos
seguintes, o campo dos portáteis se tornaria ainda mais populoso à medida que diversas
companhias, como Data General, Texas Instruments, Toshiba, NEC e, é claro, Compaq,
tornaram-se concorrentes, com computadores realmente laptop e inovadores - que não
só podiam ser carregados num avião como também utilizados dentro de um.

A Compaq deu continuidade ao lançamento do PC portátil com seu primeiro PC de


mesa, o Deskpro, em julho de 1984 e, nos anos que se seguiram, os "clones" do PC -
portáteis e de mesa - se estabeleceriam como parte do padrão industrial.

Em 1984, a IBM tentou estender seu padrão de duas maneiras. Em março do referido
ano, introduziu o PCjr, um "computador doméstico" de US$ 1.300 baseado em 8088
que ficou conhecido por seu infame teclado sem fio com teclas minúsculas. Foi um
fiasco.

A IBM obteve muito mais sucesso com a introdução, em agosto, do PC AT (Advanced


Technology). Baseado no Processador 80286 da Intel, o AT custava aproximadamente
US$4.000 com 256 Kb de RAM, mas sem disco rígido ou monitor. Modelos com um
disco rígido de 20 Mb eram vendidos por quase US$6.000. O principal é que o AT
impulsionou a indústria até o nível seguinte de Processador, mantendo a
compatibilidade com quase todos os aplicativos originais para PC.

Diversos padrões importantes estrearam junto com o AT, especialmente o barramento


de expansão 16 bits que resiste até hoje, ou o padrão de vídeo EGA, que trabalhava com
resolução de 640 por 350 em 16 cores. Ao mesmo tempo, a IBM e a Microsoft
introduziram o DOS 3.0, que seria o padrão por muitos anos, e a IBM lançou o
TopView, um sistema primitivo de janelas que permitia aos usuários a exibição de
vários aplicativos simultaneamente.

Também neste ano, a Hewlett-Packard introduziu a primeira impressora a laser, embora


as impressoras matriciais e de margarida continuassem a dominar o mercado por alguns
anos. Durante este período, começavam a aparecer os primeiros pacotes de BBS. Os
serviços on-line orientados a negócios, como a CompuServe, ainda estavam a anos de
distância da dominação do mercado.

No mercado comercial, o CP/M ainda existia, mas estava desaparecendo rapidamente


do uso geral. A Apple continuava a ter muito sucesso com a família Apple II. A
companhia fracassou, porém, com a introdução do Apple III e com o tecnicamente
impressionante Lisa, baseado na tecnologia inspirada pelo trabalho do Centro de
Pesquisas de Palo Alto da Xerox. O Lisa foi a primeira grande tentativa de popularizar a
combinação de mouse, janelas, ícones e interface gráfica com o usuário. Mas o preço de
quase US$10.000 não conseguiu a aceitação do mercado.

À medida que os usuários corporativos de todo o mundo passavam para o padrão DOS,
avaliavam o sistema operacional como um grande avanço sobre os micros dos anos
anteriores. O padrão PC levou ao desenvolvimento do mercado de "clones" de
diferentes tipos de máquinas que seriam capazes de executar os programas elaborados
para o padrão. E os desenvolvedores de software de todo o mundo beneficiavam-se do
crescente mercado para novos tipos de software aplicativo para DOS.

Foi então que um anúncio de TV, exibido apenas uma vez - durante o Super Bowl de
1984 - abriu as portas para o futuro da computação pessoal. Ele mostrava um jovem
corredor passando por uma multidão de zangões sem rosto para atirar um martelo que
estilhaçava uma imagem em tela do Big Brother (símbolo norte-americano do
autoritarismo).

De repente, um computador era capaz de oferecer mais do que um "prompt" de DOS e


uma interface baseada em caracteres; ele podia ter várias janelas, menus suspensos e um
mouse.

Não que o Macintosh não fosse atraente para os usuários de PCs. O fato é que o Mac,
infelizmente, não era compatível com seus programas e equipamentos já existentes.
Inicialmente, ele também não tinha os aplicativos que eles desejavam, não era
expansível e se parecia um pouco com um brinquedo. Mesmo assim, muitos
desenvolvedores de software tentaram fornecer uma funcionalidade equivalente em
programas.

No final de 1983, a Microsoft já havia começado a trabalhar com programas aplicativos


para o Macintosh e, no mesmo ano, anunciou o Windows 1.0 para PC. Esta primeira
versão do Windows foi prometida como uma extensão ao DOS e colocada frente-a-
frente com os concorrentes gráficos da época, em especial o Lisa (uma tentativa anterior
da Apple) e o VisiOn (um ambiente gráfico promovido pela VisiCorp, editores da
planilha eletrônica VisiCalc).

O Windows anunciado era muito diferente do Windows finalmente lançado, depois de


muitos atrasos, quase dois anos depois. As primeiras versões, também conhecidas pelo
nome Gerenciador de Interface, se pareciam com versões anteriores do Microsoft Word
for DOS, com uma única listagem de comandos na parte inferior da tela, e não os
modernos menus suspensos. As janelas não podiam ser sobrepostas, apenas organizadas
lado a lado (opção ainda presente no Windows moderno, porém raramente utilizada). O
básico estava lá, inclusive um mouse utilizado para a seleção dos itens de menu, a
capacidade de recortar e colar e, inicialmente, urna lista com 30 desenvolvedores de
hardware que o aceitariam - o que representava a maioria do mundo que trabalhava com
o DOS, com a notável exceção da IBM.

No fronte do hardware, embora a Intel tenha introduzido o Processador 80386 de 16


MHz em 1985, não encontrou seu caminho imediatamente até os sistemas compatíveis
com IBM, como eram conhecidos. Talvez os desenvolvedores estivessem esperando que
a IBM tomasse a frente com o 386, mas a companhia tinha outros planos. Deixaram
para a Compaq e a Advanced Logic Research a introdução dos primeiros PCs baseados
em 386, ocorrida em setembro de 1986.

Um grande destaque foi o momento em que começaram a florescer as redes para


computação pessoal. A Novell havia introduzido o NetWare em 1983, e ele estava
começando a se estabelecer como um padrão corporativo. O mesmo ocorreu com o
Ethernet, inventado no final da década de 70, mas apenas agora começava a ter a
aceitação corporativa. Outro entre os primeiros destaques de ambiente de rede foi o
próprio padrão da IBM, o Token Ring, surgido no final de 1985.

A opção 386 da Compaq definiu muito bem um novo padrão para a indústria.
Repentinamente, as companhias não eram mais obrigadas a seguir a IBM - com a nova
tecnologia, elas mesmas podiam ser líderes. Em 1987, o mundo do PC estava pronto
para algo novo, o que realmente aconteceu no mês de abril, quando a IBM anunciou sua
oferta mais ambiciosa até então.

As primeiras máquinas PS/2 da IBM iam do Modelo 30 (com um Processador Intel


8086 de 8 MHz e duas unidades de disco flexíveis de 3,5") aos Modelos 50, 60 (ambos
com CPUs 286 de 10 MHz) e 80 (a primeira máquina da IBM baseada em 386,
apresentando um Processador de 16 MHz ou 20 MHz).
As máquinas PS/2 trouxeram avanços sobre o padrão PC em muitos aspectos. Embora
outras companhias, em especial a HP e a Apple, tenham sido as primeiras a apresentar
as unidades de disco flexível de 3,5", o PS/2 fez delas um padrão, em parte porque não
era possível encontrar uma unidade interna de 5,25" em vários destes modelos. E,
embora outras companhias tenham anunciado antes as placas de vídeo que forneciam a
resolução de vídeo de 640 por 480, o PS/2 a trouxe com o novo padrão Video Graphics
Array (VGA), que continua sendo o padrão nos dias atuais. O VGA era um grande
avanço sobre o padrão EGA anterior, que oferecia a resolução de 640 por 350. Agora,
cada pixel ficava mais "quadrado" e as imagens, menos distorcidas. O VGA também
permitia a exibição simultânea de uma maior quantidade de cores na tela.

O aspecto mais controverso do PS/2, no entanto, foi a introdução de um novo


barramento para as placas de extensão - a arquitetura Micro Channel. A Micro Channel
oferecia enormes vantagens sobre o antigo barramento utilizado no AT: era mais rápido,
simplificava o processo de configuração das placas e aumentava a capacidade de
trabalho simultâneo de duas placas de extensão.

Mas a Micro Channel não era compatível com as máquinas IBM anteriores e com as
centenas de placas de expansão já existentes no mercado. Além do mais, a IBM
inicialmente cobrou dos desenvolvedores uma quantia muito maior por uma licença de
uso da arquitetura Micro Channel do que para o antigo projeto AT. Esta era a tentativa
da IBM de retomar sua liderança técnica - e a fatia do mercado - dos desenvolvedores
de clones e a companhia estava disposta a ir longe, a ponto de abandonar a
compatibilidade de hardware.

Em novembro, a IBM já cantava a vitória pela venda de um milhão de dispositivos PS/2


em sete meses, um espaço de tempo quatro vezes menor que o necessário para a venda
de um milhão de unidades de seu PC original.

Os desenvolvedores de máquinas compatíveis estudaram as novas especificações e,


gradualmente, foram se adaptando à nova unidade de 3,5" (embora a maioria dos
desenvolvedores de software tenha sido forçada a fornecer seus programas em discos de
3,5" e 5,25" ainda por um bom tempo) e aos padrões de vídeo VGA.

Mas a Compaq, a AST e outras companhias que acompanharam a liderança da IBM nos
computadores baseados em 8088 e, depois, 286 (compatíveis com AT) torceram o nariz
para as taxas de licenciamento e a falta de compatibilidade descendente da arquitetura
Micro Channel. Em vez disto, apareceram, no ano seguinte, com uma alternativa
chamada EISA (Enhanced Industry Standard Architecture, ou Arquitetura Industrial
Padrão Avançada) que oferecia diversas vantagens, como um caminho de dados de 32
bits, apesar de manter a compatibilidade com as placas de expansão 16 bits existentes.

Quase desde o princípio, porém, este contrato foi problemático. O OS/2 deveria ser
lançado, inicialmente, em duas versões. A primeira - lançada no final de 1987 - seria o
OS/2 1.0, que ofereceria a multitarefa preemptiva e o suporte a grandes aplicativos, com
até 16 Mb, que era o limite do Processador 286. Mas a verdadeira versão gráfica - a que
atraiu a atenção da maioria dos usuários e desenvolvedores seria o OS/2 1.1 com o
Presentation Manager, lançada apenas em outubro de 1988. O maior problema seriam as
questões de compatibilidade. O OS/2 foi escrito, originalmente, para o 286, mas o
próprio processador tinha algumas limitações. O 286 havia introduzido o que a Intel
chamava de memória "protegida" e a capacidade de elaborar programas que
ultrapassavam a barreira dos 640 Kb, mas isto era feito de um modo que, algumas
vezes, o tornava incompatível com os programas já existentes baseados em 8088/8086.
Uma "caixa de compatibilidade" permitia que os usuários executassem alguns
programas DOS existentes, mas as primeiras versões da caixa de compatibilidade não
eram tão compatíveis assim; muitos usuários a chamavam de "caixa de penalidade".

O 386 da Intel viria resolver muitos destes problemas ao introduzir o que era conhecido
como modo 86 Virtual, permitia que uma máquina executasse diversas sessões 8086. O
OS/2, no entanto, não trabalharia com o modo virtual ainda por muitos anos. Além
disto, havia alguma confusão sobre uma versão isolada do OS/2, apenas da IBM,
chamada Extended Edition, que adicionaria um gerenciador de base de dados e
comunicações. Finalmente, alguns usuários pensavam que o nome OS/2 significava que
o sistema operacional funcionaria apenas em máquinas PS/2.

Em 1987, o Microsoft Windows 2.0 melhorava a interface com o usuário do Windows


para incluir recursos como a sobreposição de janelas, a capacidade de
redimensionamento das janelas e os aceleradores de teclado (teclas de atalho). Deste
modo, ele passou a ser muito mais parecido com o Windows e o OS/2 atuais, além de
fornecer um melhor suporte aos padrões SAA (de Systems Application Architecture, ou
Arquitetura de Aplicativos de Sistema) de interface com o usuário da IBM do que um
ano antes do OS/2. Mas esta versão funcionava em modo real compatível com
8088/8086, e não no modo protegido mais sofisticado do 286, ou seja, os aplicativos
ainda não faziam muito bem a multitarefa e ainda eram limitados em tamanho. Ainda
naquele ano, o Windows foi dividido em Windows/286 e Windows/386, sendo que o
último adicionava capacidades multitarefa, a capacidade de executar aplicativos em
máquinas virtuais e o suporte a até 16Mb de memória.

O mais importante é que tornou-se claro que o Windows e o OS/2 não eram tão
compatíveis quanto o prometido inicialmente, já que os dois suportavam modelos muito
diferentes para desenhar os gráficos na tela. Isto deixou confusos os desenvolvedores de
software, que recebiam, da Microsoft, instruções para elaborarem programas para o
Windows com a promessa de que estes poderiam ser facilmente passados para o OS/2
mais tarde e, da IBM, para escreverem seus programas diretamente para o OS/2.
Nenhuma das plataformas recebeu muito suporte naquela época. O suporte inicial de
aplicativos para a plataforma Windows era um tanto limitado, com exceção do Aldus
PageMaker e do Microsoft Excel, lançados em 1987. O espantoso é que não teríamos
um Processador de textos completo para Windows até o final de 1989, quando surgiram
o AmiPro, da Samma (posteriormente comprado pela Lotus e atualmente vivendo sob o
nome Word Pro), e a primeira versão do Microsoft Word.

Se o mundo da computação estava procurando por um novo padrão ou não, ele


encontrou um em maio de 1990, quando a Microsoft finalmente lançou o Windows 3.0.

O Windows 3.0 era executado sobre o DOS e, portanto, oferecia compatibilidade com
os programas DOS. Ele se beneficiava do processador 386, podendo fazer a multitarefa
com programas DOS e também com programas Windows. A interface com o usuário foi
projetada para se parecer com o Presentation Manager, trazendo um Gerenciador de
Programas baseado em ícones e um Gerenciador de Arquivos em estilo árvore,
incluindo avanços como ícones sombreados. Embora o Windows 3.0 tenha exigido
revisões mínimas de praticamente todos os programas Windows existentes na época,
não havia muito a ser revisado. Além do mais, imediatamente após a introdução do
Windows 3.0, começaram a aparecer os aplicativos, liderados pela divisão de
aplicativos da própria Microsoft e seguidos por praticamente todos os outros grandes
desenvolvedores. Mesmo depois do anúncio do Windows 3.0, a Microsoft e a IBM
continuavam falando sobre o OS/2 e, especialmente, sobre o OS/2 2.0, a primeira versão
32 bits real que viria a aparecer, finalmente, em 1992.

Para contundir ainda mais as coisas, enquanto a IBM posicionava o OS/2 como o futuro
sistema operacional para todos os usuários, a Microsoft posicionava o OS/2 como um
topo de linha, apenas para os aplicativos missão crítica e baseados em servidor. Em vez
disto, a Microsoft começou a falar sobre o OS/2 3.0 (não confundir com o posterior
IBM OS/2 Warp 3.0), que adicionaria segurança e suporte avançados a
multiprocessador, sendo capaz de executar aplicativos Windows e Posix diretamente.
Neste cenário, o Windows NT era o núcleo sobre o qual se apoiariam o DOS, o
Windows, o OS/2 e o Posix.
As duas companhias finalmente separaram suas estratégias no início de 1991, com Jim
Cannavino, da IBM, e Bill Gates, da Microsoft, brigando como um casal durante um
divórcio litigioso. O OS/2 conquistou um forte nicho em algumas grandes aplicações
corporativas, auxiliado por sua estabilidade e robustez, comparadas ao Windows 3.x.
Mais tarde, a IBM faria uma última tentativa de fazer do OS/2 o principal sistema
operacional com seu OS/2 Warp 3.0, mais orientado ao consumidor comum e lançado
no final de 1994. Ele venderia milhões de cópias, mas não diminuiria a grande
inclinação da indústria pelo Windows.

A Microsoft viria a transformar seu antigo "OS/2 3.0" no Windows NT 3. 1, que foi
lançado em 1993 sem o suporte gráfico ao OS/2 e recebido, inicialmente, como um
sistema operacional para servidores de aplicativos, concorrendo, principalmente, com o
OS/2 da IBM.

Para a maioria dos usuários de PCs, a Microsoft ofereceu o Windows 3.1 avançado no
final de 1991, que adicionava uma melhor integração de aplicativos, recursos arrastar-e-
soltar e uma maior estabilidade. No início dos anos 90, ele se tornou o padrão
dominante para os aplicativos para PC e a Microsoft ocupou o papel de líder na
definição das especificações multimídia.

Neste período, o Macintosh, da Apple, continuava a crescer e expandir-se e encontrou


nichos nas artes gráficas, na multimídia e na educação. Mas, na maioria das empresas e
órgãos governamentais, o principal sistema comercial era aquele que seguia os padrões
do PC original. Àquela época, o termo compatível com IBM já tinha saído de moda,
para ser substituído pelo Processador como a principal peça descritiva de hardware.

Em abril de 1989, a Intel apareceu com seus processadores 486. Com 1,2 milhões de
transistores, o 486 era, efetivamente, uma versão mais rápida e mais refinada do 386
somada a um co-processador matemático que executava todos os aplicativos escritos
para o 386 sem quaisquer problemas. Dezenas de desenvolvedores se apressaram para
tornar disponíveis suas máquinas 486 o mais rápido possível após a introdução da Intel,
e estas máquinas tinham uma velocidade de execução 50 vezes maior que o IBM PC
original.

A Intel introduziu seu Processador Pentium de 60 MHz em março de 1993, mas não
eram apenas os processadores que continuavam a avançar. Os discos rígidos ficavam
cada vez maiores e mais velozes. E a tecnologia de exibição gráfica progrediu das
placas de vídeo de "buffer de quadro" para as aceleradoras gráficas, que trabalhavam
diretamente com o Windows a fim de aumentar os tempos de resposta de tela e
melhorar os gráficos em geral.
O correio eletrônico (email) é aceito no dia-a-dia das corporações com produtos, como o
cc:Mail, mais tarde adquirido pela Lotus, e mais um punhado de concorrentes menores.
Em dezembro de 1989, a Lotus mudou a fórmula com o Lotus Notes, o primeiro
aplicativo de "groupware".

Em 1994, a Microsoft e a Intel já vestiam o manto da liderança na indústria do PC, o


Windows tinha-se estabelecido como o padrão para aplicativos e as redes estavam
definitivamente no mercado comum.

No começo de 1995, poderíamos esperar que novos sistemas operacionais da Microsoft


e novos chips da Intel continuassem sendo o carro-chefe da computação ainda por
muitos anos, levando-se em conta o histórico dos anos anteriores. Eles ainda são
importantes, mas talvez a mudança mais importante destes últimos anos tenha vindo de
um grupo de estudantes da Universidade de Illinois. Foi lá que, no início de 1993, Marc
Andreessen, Eric Bina e outros que trabalhavam para o National Center for
Supercomputing Applications (NCSA) apareceram com o Mosaic, uma ferramenta que
seria utilizada para paginar a Internet.

A Internet, é claro, já existia há muitos anos, datando do início dos anos 60, quando o
órgão de Defesa de Projetos de Pesquisa Avançada (DARPA) do Pentágono estabeleceu
as conexões com muitos computadores de universidades. Enquanto a Internet crescia, o
governo transferiu seu controle para os sites individuais e comitês técnicos. E, em 1990,
Tim Berners-Lee, então no laboratório de física CERN, em Genebra, Suíça, criou a
Linguagem de Marcação de Hipertexto (HTML), uma maneira simples de ligar
informações entre sites da Internet. Isto, por sua vez, gerou a World Wide Web (www),
que apenas aguardava por um paginador gráfico para começar a crescer.
A tremenda empolgação ocasionada pela explosão da World Wide Web chegou perto de
eclipsar o maior anúncio da Microsoft neste período: o Windows 95. Introduzido em
agosto de 1995, a estréia do software foi acompanhada por um entusiasmo maior do que
qualquer outro anúncio de computação da era.

O Windows 95 era a versão do Windows pela qual muitos usuários estiveram


esperando. Ele permitia a utilização de aplicativos totalmente 32 bits, tinha a multitarefa
preemptiva, era compatível com Plug-and-Play, suportava novos padrões de e-mail e
comunicações e, logicamente, trazia uma nova interface com o usuário. Na verdade,
muitos usuários pensavam que a nova interface, que incluía um menu "Iniciar" e uma
área de trabalho de programas com pastas e ícones, deixaria o Windows muito mais
próximo do projeto Lisa original ou do Macintosh de dez anos atrás.

Java, da Sun Microsystems, que começou sua vida como uma variação do C++
projetada para uso na Internet, ano passado passou a incluir uma implementação de
máquina virtual que foi incorporada aos paginadores da Netscape e da Microsoft e
também à mais nova versão do sistema operacional da IBM, o OS/2 Warp. Muitos
desenvolvedores estão atualmente desenvolvendo applets (pequenos aplicativos) e até
mesmo aplicativos completos dentro do Java, na esperança de que isto venha a livrá-los
de terem que se apoiar nos padrões Microsoft. Mais recentemente, a Sun, a Netscape e
outras companhias estiveram promovendo a especifieação Java-Beans como um ótimo
método de ligação de objetos.

Máquinas cada vez mais velozes continuam sendo a palavra de ordem. O processador
Pentium da Intel com 3,2 milhões de transistores foi introduzido em 1993 e, em 1995, já
tinha se tornado o Processador padrão no mercado comum da computação. A Intel deu
continuidade a esta evolução com o Processador Pentium Pro, oferecendo um
desempenho 32 bits ainda melhor.
No começo de 1997, a Intel introduziu as instruções MMX, o primeiro grande avanço
feito ao conjunto de instruções da Intel desde o 386. Estas instruções, projetadas para
melhorar o desempenho multimídia e dos jogos, foram adicionadas aos projetos
Pentium e Pentium Pro. Os concorrentes da Intel - em especial a AMD e a Cyrix -
planejam chips que irão concorrer com o Pentium Pro e também incluir as instruções
MMX.

Ao mesmo tempo, outros tipos de hardware continuam a evoluir. As placas de vídeo


ficaram mais velozes e mais poderosas e, hoje, adicionam novas capacidades
explorando principalmente cursos Direct3D do Windows. Os discos rígidos seguem
maiores e mais velozes; no começo de 1997, discos rígidos com mais de dois gigabytes
começam a tornar-se recursos padrão de PCs de topo de linha.

As unidades de CD-ROM chegaram ao mercado em 1985, mas não decolaram até o


início da década de 90. Hoje elas são uma peça padrão de praticamente todas as
máquinas de mesa vendidas nos mercados domésticos e de pequenos escritórios, e o
meio preferencial para o carregamento de aplicativos. Entretanto, se a capacidade de
660Mb de um CD-ROM parecia enorme, o futuro padrão DVD - que permite um
mínimo de 4,7Gb de armazenamento num único disco com o mesmo tamanho - faz do
primeiro um verdadeiro anão. Isto é suficiente para um filme longa-metragem, talvez
em vários idiomas ou com diversos finais.
Até mesmo as impressoras tiveram um ritmo assombroso de avanço. As impressoras a
laser tornaram-se o padrão como impressoras corporativas, oferecendo uma excelente
impressão em preto-e-branco, geralmente a uma alta velocidade, compartilhadas em
rede.

Classificação dos Computadores

Inicialmente, os computadores eram agrupados em dois tipos:


• Pessoal: caracterizavam-se pela limitação de recursos de periféricos, pela
não conexão com outros equipamentos e pela baixa velocidade de transmissão
de dados.
• Profissional: permitiam a expansão de periféricos à sua configuração
básica, maior velocidade de transmissão e a conexão a outros equipamentos.
• Podiam ser classificados também quanto às características de utilização:

 Científicos: que possuem uma pequena entrada de dados; um processamento


complexo, com grandes rotinas de cálculos e uma pequena saída de
resultados.
 Comerciais: que possuem uma grande entrada de dados; um processamento
relativamente simples e uma grande saída de resultados.

Ou, quanto às características de operação:

• Analógicos: computadores que executam trabalhos usando elementos


representados por grandezas físicas, como por exemplo, a intensidade de uma
corrente elétrica ou o ângulo de giro de uma engrenagem. São computadores
criados para uma finalidade específica, isto é, só se aplicam a um determinado
tabalho. Os resultados obtidos com o uso de computadores analógicos são
aproximados e servem ao próprio sistema onde é utilizado, como por exemplo:
crontrole de temperatura de uma caldeira utilizando sensores, medidor de água
ou de energia elétrica.
• Digitais: computadores que realizam suas operações utilizando
elementos representados por grandezas matemáticas (números), ou seja, operam
dígito a dígito. São computadores destinados a aplicações múltiplas, podendo ser
utilizados em diversas tarefas. Por utilizar valores numéricos, os resultados
obtidos com esse tipo de computador são exatos, como por exemplo: os cálculos
de engenharia.

Computadores de Quinta Geração

Os computadores de Quinta Geração têm como característica o uso de IC VLSI -


Integrated Circuit Very Large Scale Integration, ou seja, "Circuitos Integrados em
uma Escala Muito Maior de Integração".

Os "chips" vêm diminuito tanto de tamanho, fazendo com que seja possível a criação de
computadores cada vez menores, como é o caso da microminiaturização do
microprocessador F-100, que mede somente 0,6 cm quadrados e é pequeno o suficiente
para passar pelo buraco de uma agulha!
Obs: Alguns autores classificam como Quarta Geração os de Circuitos VLSI e
outros como de Quinta Geração.

TENDÊNCIA PARA O FUTURO


Computação ubíqua, como o nome implica, refere-se à capacidade de estar conectado
à rede, e fazer uso da conexão, constantemente, a todo o momento, nas mais variadas
situações. Na última semana de março uma empresa "start-up" inglesa realizou um
experimento preparatório para o lançamento de um novo produto para a Web. As
pessoas escolhidas para o experimento estavam acostumadas com o uso de novas
tecnologias: participantes de um seminário sobre computação que aconteceu no St.
John's College, da Universidade de Cambridge. Os participantes receberam
gratuitamente, por uma semana, um telefone celular de última geração (tecnologia
GSRM). O equipamento era mais parecido com uma agenda eletrônica atual, com tela
de cristal líquido sensível ao toque, reconhecimento de caracteres manuscritos, e, mais
importante para o experimento, um navegador Web integrado (o ubíquo Internet
Explorer da Microsoft). No sistema de telefonia GSRM o usuário não paga por conexão,
mas sim pela quantidade de informação trocada. Assim, ao contrário do que ocorre com
o acesso residencial através de uma linha normal de telefone, onde á necessário
conectar-se, através de um modem, com o provedor no início de uma sessão e
desconectar-se ao final, no sistema GSRM é possível manter-se conectado o tempo
todo.

Redes de Computadores, quando se comenta o futuro da Internet, muita atenção é


dedicada a aspectos relacionados à velocidade e à capacidade de transferência das
tecnologias de redes de computadores do futuro. Esses são, sem dúvida, aspectos
importantes que terão grande impacto no desenvolvimento de novas aplicações para a
Internet, não possíveis ou nem mesmo imagináveis com a tecnologia atual. Nesse
sentido, a FAPESP iniciou recentemente um programa para fomentar o
desenvolvimento de tecnologia básica de redes de alta velocidade e de suas aplicações
(Programa TDIA - Tecnologia da Informação no Desenvolvimento da Internet
Avançada).No entanto, mesmo com a velocidade e capacidade de transferência atuais, a
Internet representa uma novidade tão grande em termos de comunicação que muitos
novos usos ainda devem ser inventados.

Cluster de Computadores, também chamado de Clustering (quando visto em um


contexto mais abrangente), pode ser definido como um sistema onde dois ou mais
computadores trabalham de maneira conjunta para realizar processamento pesado. Em
outras palavras, os computadores dividem as tarefas de processamento e trabalham
como se fossem um único computador. Este artigo tem por objetivo mostrar os
principais conceitos envolvidos, assim como os tipos e aplicações de cluster. Cada
computador de um cluster é denominado nó ou nodo. Todos devem ser interconectados,
de maneira a formarem uma rede, de qualquer topologia. Essa rede precisa ser criada de
uma forma que permita o acréscimo ou a retirada de um nó (em casos de danos, por
exemplo), mas sem interromper o funcionamento do cluster. O sistema operacional
usado nos computadores deve ser de um mesmo tipo, ou seja, ou somente Windows, ou
somente Linux, ou somente BSD, etc. Isso porque existem particularidades em cada
sistema operacional que poderiam impedir o funcionamento do cluster.
Biotecnologia e física quântica apontam para novas tecnologias de hardware, desde
a criação do microprocessador, a velocidade dos computadores vem duplicando a cada
18 meses, fenômeno conhecido como Lei de Moore. Segundo Gordon Moore, que
propôs a lei já em 1965 (a hipótese original era dobrar a cada 12 meses), uma das razões
possíveis para essa regularidade é a especulação: "as pessoas sabem que têm que
permanecer naquela curva para continuar competitivas, então, esforçam-se para que ela
aconteça", afirmou numa entrevista para a revista norte-americana Scientific American.
Moore prevê que essa regularidade se mantenha ainda por vários anos, talvez dez.
Porém, ela não pode durar para sempre, pois a miniaturização só pode prosseguir até
que os componentes tenham dimensões atômicas.

Chips de DNA, em 1994, o pesquisador Leonard Adleman, da Universidade da


Califórnia do Sul (EUA), mostrou, em um trabalho publicado na revista Science, como
se poderia usar as técnicas comuns da biologia molecular para simular problemas
matemáticos e resolvê-los. A idéia faz uso da propriedade da molécula de DNA de
codificar e guardar informações (propriedade que permite a ele ser o repositório do
código genético). Essas informações podem ser manipuladas através da engenharia
genética, de forma a resolver problemas matemáticos.
Dualidade Onda-Partícula, A outra grande vertente da computação massivamente
paralela é a computação quântica, idealizada em 1985 por David Deutsch, da
Universidade de Oxford (Reino Unido). Esta técnica utiliza-se de um fenômeno
conhecido por "emaranhamento quântico". Para se compreender esse fenômeno, deve-se
ter em mente que, de acordo com a mecânica quântica, as partículas elementares - como
elétrons, prótons e nêutrons - não são exatamente corpúsculos no sentido estrito do
termo: podem exibir comportamentos característicos de ondas em certas circunstâncias,
enquanto em outras apresentam características corpusculares. Isso é radicalmente
diferente do que acontece com os objetos macroscópicos do cotidiano. As interpretações
mais aceitas dessa "dualidade onda-partícula" do mundo subatômico, como é conhecida,
é que essas "partículas" não são ondas nem corpúsculos, mas entidades que se
comportam ora como um, ora como outro.

Segurança na Rede, o emaranhamento também pode, teoricamente, ser usado no


aperfeiçoamento da segurança na rede. Normalmente para garantir que arquivos
transmitidos pela Internet não sejam alterados, eles são codificados antes da
transmissão. O receptor recebe uma "chave" (informação que permite a decodificação)
para poder ler o arquivo. Em geral, tudo isso - a codificação, a transmissão, a
transmissão da chave e a decodificação - é feito automaticamente. Para se garantir que o
código não seja quebrado, a chave deve ser suficientemente extensa, de forma que um
eventual hacker teria que dispor de um tempo proibitivamente longo para quebrá-la.
Porém, sempre existe a possibilidade de o hacker interceptar a própria transmissão da
chave. A chamada criptografia quântica ainda não impossibilita que o hacker intercepte
a chave, mas torna impossível fazê-lo sem que um dos interlocutores - o receptor ou o
transmissor da mensagem - saiba. O princípio baseia-se no fenômeno conhecido como
"colapso" do estado emaranhado. Mesmo que um átomo esteja em tal estado, quando o
observamos, sempre o vemos ou em um estado ou em outro, não detectamos o estado
emaranhado diretamente. Isso acontece porque o processo de medida já é
suficientemente perturbativo para destruir o emaranhamento. Se temos um par de
átomos em um estado emaranhado, ao observarmos um deles, o emaranhamento do par
inteiro colapsará, mesmo que os dois estejam separados por grandes distâncias. Os
diversos tipos de criptografia quântica repousam nesse princípio: o hacker que tentar
quebrar uma chave que esteja num estado emaranhado com algum sistema em poder de
um dos interlocutores interferirá necessariamente com esse sistema, e o interlocutor
saberá que a chave foi violada.

CRONOLOGIA DA COMPUTAÇÃO

Evolução PC dos Microcomputadores


IBM PC, ou Personal Computer (Computador Pessoal), surgiu em 1981 e se tornou um
padrão de microcomputador, o qual passou a ter uma evolução muito rápida, e difícil de
se acompanhar... pois ao adquirimos um modelo que consideramos de último tipo,
verificamos que já despontou no mercado um outro mais novo, mais moderno e
poderoso!
PC - Personal Computer

• permitia a inclusão de 5 placas de expansão;


• 256 Kb de memória RAM
• 40 Kb memória ROM
• uma ou duas unidades disquete de 5 1/4" capacidade de gravação de 360 Kb;
• monitor CGA monocromático (fósforo verde, âmbar ou branco).

PC XT - Personal Computer eXtended Tecnology

• permitia a inclusão de 8 placas de expansão;


• 512 Kb de memória RAM
• 40 Kb memória ROM
• uma ou duas unidades disquete de 5 1/4" capacidade de gravação de 360 Kb;
• uma ou duas unidades de disco rígido de 10 a 40 Mb;
• monitor CGA monocromático (fósforo verde, âmbar ou branco) ou colorido;
• placas de expansão padrão ISA de 8 bits.

PC AT - Personal Computer Advanced Tecnology

• de 7 a 16 MHz;
• 1 Mb de memória RAM;
• um ou mais drives de 5 1/4" com capacidade de gravação 360 Kb ou 1.2 Mb;
• monitor CGA monocromático ou colorido ou monitor EGA ou monitor VGA;
• uma ou duas unidades de disco rígido de 20 a 160 Mb;
• mouse;
• placas de expansão padrão ISA de 8 e 16 bits.

386 SX

• geralmente de 16 a 20 MHz;
• 2 Mb de memória RAM;
• um ou mais drives de 5 1/4" com capacidade de gravação 360 Kb ou 1.2 Mb
e/ou drive de 3 1/2" com capacidade de gravação 720 Kb ou 1.44 Mb;
• monitor CGA ou EGA ou VGA (monocromático ou colorido);
• uma ou duas unidades de disco rígido de 40 a 200 Mb;
• placas de expansão padrão ISA de 16 bits.

386 DX

• geralmente de 33 a 40 MHz;
• 2 Mb de memória RAM;
• um ou mais drives de 5 1/4" com capacidade de gravação 360 Kb ou 1.2 Mb
e/ou drive de 3 1/2" com capacidade de gravação 720 Kb ou 1.44 Mb;
• monitor CGA ou EGA ou VGA (monocromático ou colorido);
• uma ou duas unidades de disco rígido de 40 a 200 Mb;
• placa fax-modem 1.200 ou 2.400 Kbps;
• com ou sem co-processador matemático;
• placas de expansão padrão ISA de 16 bits.
486 SLC, DLC ou SX

• geralmente de 25 a 40 MHz;
• 2 a 4 Mb de memória RAM;
• um ou mais drives de 5 1/4" com capacidade de gravação 1.2 Mb e/ou drive de 3
1/2" com capacidade de gravação 720 Kb ou 1.44 Mb;
• monitor VGA ou Super VGA (monocromático ou colorido);
• uma ou duas unidades de disco rígido de 120 a 400 Mb;
• com ou sem co-processador matemático;
• placa fax-modem 2.400 ou 4.800 Kbps;
• placas de expansão padrão ISA de 16 bits.

486 DX

• geralmente de 40 a 50 MHz;
• 4 a 16 Mb de memória RAM;
• um ou mais drives de 5 1/4" com capacidade de gravação 1.2 Mb e/ou drive de 3
1/2" com capacidade de gravação 720 Kb ou 1.44 Mb;
• drive de CD Rom 2x (velocidades);
• monitor Super VGA (monocromático ou colorido);
• uma ou duas unidades de disco rígido de 120 a 540 Mb;
• placa fax-modem 4.800 ou 9.600 Kbps;
• placas de expansão padrão ISA de 16 bits.

486 DX2

• geralmente de 66 MHz;
• 8 a 64 Mb de memória RAM;
• um ou mais drives de 5 1/4" com capacidade de gravação 1.2 Mb e/ou drive de 3
1/2" com capacidade de gravação 1.44 Mb;
• drive de CD Rom 4x;
• monitor Super VGA colorido;
• uma ou duas unidades de disco rígido de 420 a 1.2 Gb;
• placa fax-modem 14.400 ou 28.600 Kbps;
• placas de expansão padrão ISA de 16 bits e Vesa Local Bus de 32 bits.

486 DX4

• de 80 a 100 MHz;
• 16 a 64 Mb de memória RAM;
• um ou mais drives de 5 1/4" com capacidade de gravação 1.2 Mb e/ou drive de 3
1/2" com capacidade de gravação 1.44 Mb;
• drive de CD Rom 8x;
• monitor Super VGA colorido;
• uma ou duas unidades de disco rígido de 1.2 a 2 Gb;
• placa fax-modem 14.400 ou 33.600 Kbps;
• placas de expansão padrão ISA de 16 bits, Vesa Local Bus de 32 bits ou PCI.

586 (com processador Cyrix ou AMD) ou Pentium (processador Intel)

• de 75 a 200 MHz;
• 16 a 64 Mb de memória RAM;
• um drive de 3 1/2" com capacidade de gravação 1.44 Mb;
• drive de CD Rom 16x;
• monitor Super VGA colorido;
• uma ou duas unidades de disco rígido de 1.2 a 2 Gb;
• placa fax-modem 14.400 ou 33.600 Kbps;
• placas de expansão padrão ISA de 16 bits e PCI.

686 (com processador Cyrix)

• (não teve muita aceitação);


• 16 a 64 Mb de memória RAM;
• um drive de 3 1/2" com capacidade de gravação 1.44 Mb;
• drive de CD Rom 16x;
• monitor Super VGA colorido;
• uma ou duas unidades de disco rígido de 1.2 a 2 Gb;
• placa fax-modem 14.400 ou 33.600 Kbps;
• placas de expansão padrão ISA de 16 bits e PCI.

Pentium PRO

• (foi muito utilizado na área gráfica)


• de 166 a 200 MHz;
• 16 a 64 Mb de memória RAM;
• um drive de 3 1/2" com capacidade de gravação 1.44 Mb;
• drive de CD Rom 16x;
• monitor Super VGA colorido;
• uma ou duas unidades de disco rígido de 1.2 a 3.2 Gb;
• placa fax-modem 14.400 ou 33.600 Kbps;
• placas de expansão padrão ISA de 16 bits e PCI.

Família de Processadores Intel

Pentium MMX
• com tecnologia MMX que acelera os gráficos em 3 D;
• de 166 a 233 MHz;
• 16 a 128 Mb de memória RAM;
• um drive de 3 1/2" com capacidade de gravação 1.44 Mb;
• drive de CD Rom 16x a 48x;
• monitor Super VGA colorido de 14" ou 15";
• uma ou duas unidades de disco rígido de 2 a 8 Gb;
• placa fax-modem 33.600 a 56.600 Kbps;
• placas de expansão padrão ISA de 16 bits e PCI.

Pentium II

• com tecnologia MMX que acelera os gráficos em 3 D;


• processador slot 1;
• de 200 a 500 MHz;
• 16 a 256 Mb de memória RAM;
• um drive de 3 1/2" com capacidade de gravação 1.44 Mb;
• drive de CD Rom 16x a 48x;
• monitor Super VGA colorido de 14" ou 15";
• uma ou duas unidades de disco rígido de 4 a 10 Gb;
• placa fax-modem 56.600 Kbps;
• placas de expansão padrão ISA de 16 bits e PCI.

Pentium II Celeron (Intel) ou K6 - II (AMD)

• processador socket 7;
• de 300 a 550 MHz;
• 16 a 256 Mb de memória RAM;
• um drive de 3 1/2" com capacidade de gravação 1.44 Mb;
• drive de CD Rom 48x a 52x;
• monitor Super VGA colorido de 14" ou 15";
• uma ou duas unidades de disco rígido de 8 a 15 Gb;
• placa fax-modem 56.600 Kbps;
• placas de expansão padrão ISA de 16 bits e PCI.

Pentium III (Intel) ou K-7 (AMD Duron)

• processador slot 1;
• de 500 a 1 GHz (mais atual);
• 32 a 512 Mb de memória RAM;
• um drive de 3 1/2" com capacidade de gravação 1.44 Mb;
• drive de DVD, ou CD ROM ou CD RW;
• monitor Super VGA colorido de 14" ou 15" ou 17";
• uma ou duas unidades de disco rígido de 10 a 36 Gb;
• placa fax-modem 56.600 Kbps;
• placas de expansão padrão ISA de 16 bits e PCI.

A Evolução dos Sistemas Operacionais


O Sistema Operacional é um conjunto de programas que permitem a criação e
manutenção de arquivos, execução de programas e utilização de periféricos tais como:
teclado, vídeo, unidades de disquete, impressora. O Sistema Operacional serve também
de intermediador entre os aplicativos e o computador, pois é ele que coloca os
programas na memória para que sejam executados.

• MS-DOS 1.0 e PC-DOS 1.0: Em 1981 surgiram os dois primeiros DOS, ou


seja, "Disk Operating System" (Sistema Operacional de Disco).
• MS-DOS 1.25 e PC-DOS 1.1: Nesta versão, foram acrescentados suporte a
discos de dupla face e correção de "bugs"; foram amplamente distribuídos por OEMs
além da IBM.
• MS-DOS 2.0 e PC-DOS 2.0: Foram lançados em 1983, juntamente com o IBM
PC/XT e nesta versão foram acrescentados suporte aos discos rígidos e à estrutura
hierárquica de arquivos semelhante aos do UNIX / XENIX.
• PC-DOS 2.1: Lançado com o PCjr e com correção de "bugs".
• MS-DOS 2.01: Versão lançada com suporte internacional.
• MS-DOS 2.11: Somente com correção de "bugs".
• MS-DOS 2.25: Veio com suporte ao conjunto de caracteres estendidos.
• MS-DOS 3.0 e PC-DOS 3.0: Lançados em 1984 juntamente com o PC/AT e
foram acrescentados o suporte a discos flexíveis de 1.2 Mb e a discos rígidos maiores.
• MS-DOS 3.1 e PC-DOS 3.1: Nesta versão foi acrescentado o suporte às redes
da Microsoft.
• WINDOWS 1.0: Em 1985, foi lançado o Windows, que na realidade não era um
sistema operacional, mas somente uma interface gráfica com o usuário do MS-DOS, ou
seja, para que o Windows funcionasse, havia a necessidade de se carregar previamente o
MS-DOS.
• MS-DOS 3.2 e PC-DOS 3.2: Em 1986, tiveram acrescentado o suporte a discos
de 3,5 polegadas.
• MS-DOS 3.3 e PC-DOS 3.3: Em 1987, foram lançados juntamente com o PS/2
da IBM e possuíam amplo suporte a páginas de código fonte.
• WINDOWS 2.0: Apareceu, também em 1987, mas com compatibilidade com o
OS/2 Presentation Manager.
• MS-DOS 4.0 e PC-DOS 4.0: Lançado em 1988, com suporte a volumes lógicos
maiores do que 32 Mb; "shell" visual.
• MS-DOS 5.0: Lançado em 1989, com alguns recursos a mais.
• MS-DOS 5.2: Com correção de bugs.
• WINDOWS 3.0: Surgiu em 1990, para ser utilizado em computadores 286 e
386 e foi lançado em grande estilo, mas ainda não teve grande aceitação.
• MS-DOS 6.0: Em 1993, possuía recursos para verificação do winchester e
defragmentação (Defrag).
• WINDOWS 3.1: Passou a ser mais conhecido e aceito.
• MS-DOS 6.2: Última versão do MS-DOS lançada, tinha correção de "bugs".
• WINDOWS 3.11 For Workgroups: Versão para ligação de computadores em
rede, passou a ser utilizado pela grande maioria de usuários de microcomputadores.
• WINDOWS 95: Em 1995, o Windows tornou-se verdadeiramente um Sistema
Operacional, funcionando sozinho, sem a necessidade do MS-DOS. Foi quando o seu
sucesso estourou.
• WINDOWS NT: Sistema Operacional para Servidores de Rede.
• WINDOWS 95 SE (Second Edition): Versão lançada para correção de bugs.
• WINDOWS 98: Versão de aperfeiçoamento da versão 95, mas com uma
novidade: passa a ser um aplicativo 32 bits.
• WINDOWS 98 SE (Second Edition): Versão com correção de bugs.
• WINDOWS 2000: Lançado em 2000, com correção de bugs, e suporte a redes,
na realidade uma atualização do Windows NT.

Extra - Unidade Central de Processamento

Unidades Funcionais Lógicas

CPU - Central
Processing Unidade Unit, ou em
português: Central de UCP -
Unidade Unidade Processamento Unidade Central de
de de
Entrada Saída

Memória

Processamento, é o coração do computador, é formada por milhões de circuitos


integrados em um pequeno suporte de silício chamado "chip". Ela écomposta pelos
módulos:

• Microprocessador:

- Unidade de Controle: analisa cada instrução de um programa, controla as


informações na memória principal, ativa a seção aritmética e lógica, ativa os
canais de entrada ou saída, selecionando os dados a serem transferidos e o
dispositivo que será empregado na transferência.

- Unidade Aritmética e Lógica: só se comunica com a unidade de controle, serve


para realizar os cálculos de tipo aritmético (soma, subtração, multiplicação,
divisão, radiciação, etc.) e tipo lógico (comparações).

• Gerador de Clock:

- É responsável pela alimentação do sincronismo do sistema.

• Multiplexador de Bus:

- É responsável pela geração dos sinais de controle.

Unidades de Memória
• Memória Principal:

- ROM - Read Only Memory ou Memória Somente de Leitura, já vem gravada


do fabricante e não pode ser alterada, é uma memória não volátil, pois não se
perde o conteúdo quando se desliga o equipamento.

- RAM - Random Acess Memory ou Memória de Acesso Randômico ou


Aleatório, memória volátil ou de rascunho, pois seu conteúdo se perde quando
cessa a energia, e sua maior parte serve para armazenar informações do usuário.

• Memória Auxiliar ou Memória de Massa:

- São meios de armazenamento não voláteis, ilimitados, têm velocidade de


acesso bem menor que as da memória residente. A memória de massa também
faz papel de dispositivo de entrada e saída. Eles podem ser:

Disquetes: também conhecidos como floppy disk ou disco flexível, serve para transferir
a informação de um computador para outro, costumam-se utilizar discos magnéticos de
pequeno porte que são colocados e retirados do computador. Eles são utilizados também
para fazer cópias de segurança que são guardados fora do computador. Ele é dividido
em trilhas e setores.

Disquete de 3 1/2"

Disco Rígido: também conhecido como hard disk ou winchester, é um disco metálico
recoberto com uma camada de material em ferro magnético. Sendo dividido em trilhas,
setores e cilindros, que facilitam a localização dos dados no disco. Os discos rígidos têm
capacidades extremamente maiores do que os disquetes.
FONTES DE PESQUISA

www.widesoft.com.br

www.infowester.com

www.di.ufpb.br/raimundo

www.comciencia.br

www.novomilenio.inf.br

www.wikipedia.org

Arq. Computadores – 2006/1 – Camilo Calvi – LPRM/DI/UFES

M&C Montar & Consertar


Tel: (21) 9270-9402 (Claro) e (21) 8860-4795 (Oi)
MSN: jaime_ricardoregis@hotmail.com
Terei um imenso prazer em atendê-los!

Вам также может понравиться