Вы находитесь на странице: 1из 45

Introdução

Nos neste trabalho iremos falar de como surgiu as primeiras ideias , as primeiras
maquina antes de chegar no computador ,os primeiros computadores ,a evolução
do computador , iremos definir a palavra computador e as suas gerações .

Primeiramente nos todos pensamos que o computador e uma maquina que e


composta por um ecrã, teclado, rato, o motherboard, o CPU etc.… Mas não e isso o
computador e um dos exemplos do computadores porque computador uma
máquina capaz de variados tipos de tratamento automático de informações ou
processamento de dados. Exemplos de computadores incluem o ábaco, a
calculadora, o computador analógico e o computador digital. Um computador pode
prover-se de inúmeros atributos, dentre eles armazenamento de dados,
processamento de dados, cálculo em grande escala, desenho industrial, tratamento
de imagens gráficas, realidade virtual, entretenimento e cultura.
Computador
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Um assistente pessoal digital

Um computador pessoal

Columbia, um supercomputador da NASA


Denomina-se computador uma máquina capaz de variados tipos de tratamento automático de
informações ou processamento de dados. Exemplos de computadores incluem o ábaco, a
calculadora, o computador analógico e o computador digital. Um computador pode prover-se de
inúmeros atributos, dentre eles armazenamento de dados, processamento de dados, cálculo em
grande escala, desenho industrial, tratamento de imagens gráficas, realidade virtual,
entretenimento e cultura.
No passado, o termo já foi aplicado a pessoas responsáveis por algum cálculo. Em geral,
entende-se por computador um sistema físico que realiza algum tipo de computação. Existe ainda
o conceito matemático rigoroso, utilizado na teoria da computação.
Assumiu-se que os computadores pessoais e laptops são ícones da Era da Informação[1]; e isto é
o que muitas pessoas consideram como "computador". Entretanto, atualmente as formas mais
comuns de computador em uso são os sistemas embarcados, pequenos dispositivos usados para
controlar outros dispositivos, como robôs, câmeras digitais ou brinquedos.

Índice
[esconder]
• 1 História dos computadores
○ 1.1 As primeiras máquinas de computar
○ 1.2 Babbage
○ 1.3 A máquina de tabular
○ 1.4 Os primeiros computadores de uso geral
• 2 Arquitetura de hardware
○ 2.1 Processamento
○ 2.2 Memória
 2.2.1 Memória primária
 2.2.2 Memória secundária
 2.2.3 Memória terciária
○ 2.3 Entrada e saída
○ 2.4 Barramentos
• 3 Arquitetura de software
○ 3.1 Instruções
○ 3.2 Programas
○ 3.3 Sistema operacional
• 4 Impactos do computador na sociedade
• 5 Notas e referências
• 6 Ver também
• 7 Ligações externas

[editar] História dos computadores


Ver artigo principal: Cronologia da evolução dos computadores
[editar] As primeiras máquinas de computar
Pascaline, máquina calculadora feita por Blaise Pascal
John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier,
que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.
A primeira máquina de verdade foi construída por Wilhelm Schickard (1592-1635), sendo capaz
de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta
anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos
anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a
construção da primeira máquina calculadora, que fazia apenas somas e subtrações.
A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen,
França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm
Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo
o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.
Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram
programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a
respeito do que fazer com os números.
[editar] Babbage

Réplica (parte) do Calculador Diferencial criado por Charles Babbage


A origem da idéia de programar uma máquina vem da necessidade de que as máquinas de tecer
produzissem padrões de cores diferentes. Assim, no século XVIII foi criada uma forma de
representar os padrões em cartões de papel perfurado, que eram tratados manualmente. Em 1801,
Joseph Marie Jacquard (1752-1834) inventa um tear mecânico, com uma leitora automática de
cartões.
A idéia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage (1792-1871),
um professor de matemática de Cambridge, a desenvolver uma máquina de “tecer números”,
uma máquina de calcular onde a forma de calcular pudesse ser controlada por cartões.
Tudo começou com a tentativa de desenvolver uma máquina capaz de calcular polinômios por
meio de diferenças, o calculador diferencial. Enquanto projetava seu calculador diferencial, a
idéia de Jacquard fez com que Babbage imaginasse uma nova e mais complexa máquina, o
calculador analítico, extremamente semelhante ao computador atual.
Sua parte principal seria um conjunto de rodas dentadas, o moinho, formando uma máquina de
somar com precisão de cinquenta dígitos. As instruções seriam lidas de cartões perfurados. Os
cartões seriam lidos em um dispositivo de entrada e armazenados, para futuras referências, em
um banco de mil registradores. Cada um dos registradores seria capaz de armazenar um número
de cinquenta dígitos, que poderiam ser colocados lá por meio de cartões a partir do resultado de
um dos cálculos do moinho.
Além disso tudo, Babbage imaginou a primeira máquina de impressão, que imprimiria os
resultados dos cálculos, contidos nos registradores. Babbage conseguiu, durante algum tempo,
fundos para sua pesquisa, porém não conseguiu completar sua máquina no tempo prometido e
não recebeu mais dinheiro. Hoje, partes de sua máquina podem ser vistas no Museu Britânico,
que também construiu uma versão completa, utilizando as técnicas disponíveis na época.
Junto com Babbage, trabalhou a jovem Ada Augusta, filha do poeta Lord Byron, conhecida
como Lady Lovelace e Ada Lovelace. Ada foi a primeira programadora da história, projetando e
explicando, a pedido de Babbage, programas para a máquina inexistente. Ada inventou os
conceitos de subrotina, uma seqüência de instruções que pode ser usada várias vezes, loop, uma
instrução que permite a repetição de uma seqüência de cartões, e do salto condicional, que
permite saltar algum cartão caso uma condição seja satisfeita.
Ada Lovelace e Charles Babbage estavam avançados demais para o seu tempo, tanto que até a
década de 1940, nada se inventou parecido com seu computador analítico. Até essa época foram
construídas muitas máquinas mecânicas de somar destinadas a controlar negócios
(principalmente caixas registradoras) e algumas máquinas inspiradas na calculadora diferencial
de Babbage, para realizar cálculos de engenharia (que não alcançaram grande sucesso).
[editar] A máquina de tabular
O próximo avanço dos computadores foi feito pelo americano Herman Hollerith (1860-1929),
que inventou uma máquina capaz de processar dados baseada na separação de cartões perfurados
(pelos seus furos). A máquina de Hollerith foi utilizada para auxiliar no censo de 1890, reduzindo
o tempo de processamento de dados de sete anos, do censo anterior, para apenas dois anos e
meio. Ela foi também pioneira ao utilizar a eletricidade na separação, contagem e tabulação dos
cartões.
A empresa fundada por Hollerith é hoje conhecida como International Business Machines, ou
IBM.
[editar] Os primeiros computadores de uso geral

Z1, computador eletro-mecânico construído por Konrad Zuse


O primeiro computador eletro-mecânico foi construído por Konrad Zuse (1910–1995). Em 1936,
esse engenheiro alemão construiu, a partir de relês que executavam os cálculos e dados lidos em
fitas perfuradas, o Z1. Zuse tentou vender o computador ao governo alemão, que desprezou a
oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de Zuse ficariam parados
durante a guerra, dando a chance aos americanos de desenvolver seus computadores.
Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A Marinha
americana, em conjunto com a Universidade de Harvard, desenvolveu o computador Harvard
Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O
Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos
em três segundos.
Simultaneamente, e em segredo, o Exército Americano desenvolvia um projeto semelhante,
chefiado pelos engenheiros J. Presper Eckert e John Mauchy, cujo resultado foi o primeiro
computador a válvulas, o Eletronic Numeric Integrator And Calculator (ENIAC)[2], capaz de
fazer quinhentas multiplicações por segundo. Tendo sido projetado para calcular trajetórias
balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra,
quando foi anunciado ao mundo.

ENIAC, computador desenvolvido pelo Exército Americano


No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von
Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”:
modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam
que ter três características:
1. Codificar as instruções de uma forma possível de ser armazenada na memória do
computador. Von Neumann sugeriu que fossem usados uns e zeros.
2. Armazenar as instruções na memória, bem como toda e qualquer informação necessária a
execução da tarefa, e
3. Quando processar o programa, buscar as instruções diretamente na memória, ao invés de
lerem um novo cartão perfurado a cada passo.

Visão simplificada da arquitetura de Von Neumann


Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade
e automodificação. Assim, o computador programável que conhecemos hoje, onde o programa e
os dados estão armazenados na memória ficou conhecido como Arquitetura de von Neumann.
Para divulgar essa idéia, von Neumann publicou sozinho um artigo. Eckert e Mauchy não
ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC
acabou se dissolvendo em uma chuva de processos, mas já estava criado o computador moderno.
[editar] Arquitetura de hardware

LEGENDA: 01- Monitor 02- Placa-Mãe 03- Processador 04- Memória RAM 05- Placas de
Rede, Som, Vídeo, Fax... 06- Fonte de Energia 07- Leitor de CDs e/ou DVDs 08- Disco Rígido
(HD) 09- Mouse (Rato) 10- Teclado
Mesmo que a tecnologia utilizada nos computadores digitais tenha mudado dramaticamente
desde os primeiros computadores da década de 1940 (veja história do hardware), quase todos os
computadores atuais ainda utilizam a arquitetura de von Neumann proposta por John von
Neumann.
Seguindo a arquitetura, os computadores possuem quatro sessões principais, a unidade lógica e
aritmética, a unidade de controle, a memória e os dispositivos de entrada e saída. Essas partes
são interconectadas por barramentos. A unidade lógica e aritmética, a unidade de controle, os
registradores e a parte básica de entrada e saída são conhecidos como a CPU.
Alguns computadores maiores diferem do modelo acima em um aspecto principal - eles têm
múltiplas CPUs trabalhando simultaneamente. Adicionalmente, poucos computadores, utilizados
principalmente para pesquisa e computação científica, têm diferenças significativas do modelo
acima, mas eles não tem grande aplicação comercial.
[editar] Processamento

Ver artigo principal: Processamento


O processador (ou CPU) é uma das partes principais do hardware do computador e é responsável
pelos cálculos, execução de tarefas e processamento de dados. A velocidade com que o
computador executa as tarefas ou processa dados está diretamente ligada à velocidade do
processador. As primeiras CPUs eram constituídas de vários componentes separados, mas desde
meados da década de 1970 as CPUs vêm sendo manufaturadas em um único circuito integrado,
sendo então chamadas microprocessadores.
A unidade lógica e aritmética (ULA) é a unidade central do processador, que realmente executa
as operações aritméticas e lógicas entre dois números. Seus parâmetros incluem, além dos
números operandos, um resultado, um comando da unidade de controle, e o estado do comando
após a operação. O conjunto de operações aritméticas de uma ULA pode ser limitado a adição e
subtração, mas também pode incluir multiplicação, divisão, funções trigonométricas e raízes
quadradas. Algumas podem operar somente com números inteiros, enquanto outras suportam o
uso de ponto flutuante para representar números reais (apesar de possuirem precisão limitada).
A unidade de controle é a unidade do processador que armazena a posição de memória que
contém a instrução corrente que o computador está executando, informando à ULA qual
operação a executar, buscando a informação (da memória) que a ULA precisa para executá-la e
transferindo o resultado de volta para o local apropriado da memória. Feito isto, a unidade de
controle vai para a próxima instrução (tipicamente localizada na próxima posição da memória, a
menos que a instrução seja uma instrução de desvio informando que a próxima instrução está em
outra posição.
A CPU também contém um conjunto restrito de células de memória chamados registradores que
podem ser lidos e escritos muito mais rapidamente que em outros dispositivos de memória. São
usados frequentemente para evitar o acesso contínuo à memória principal cada vez que um dado
é requisitado.
[editar] Memória

Ver artigo principal: Memória


A memória é um dispositivo que permite ao computador armazenar dados por certo tempo.
Atualmente o termo é geralmente usado para definir as memórias voláteis, como a RAM, mas
seu conceito primordial também aborda memórias não voláteis, como o disco rígido. Parte da
memória do computador é feita no próprio processador; o resto é diluído em componentes como
a memória RAM, memória cache, disco rígido e leitores de mídias removíveis, como disquete,
CD e DVD.
Nos computadores modernos, cada posição da memória é configurado para armazenar grupos de
oito bits (chamado de um byte). Cada byte consegue representar 256 números diferentes; de 0 a
255 ou de -128 a +127. Para armazenar números maiores pode-se usar diversos bytes
consecutivos (geralmente dois, quatro ou oito). Quando números negativos são armazenados, é
utilizada a notação de complemento para dois.
A memória do computador é normalmente dividida entre primária e secundária, sendo possível
também falar de uma memória "terciária".
[editar] Memória primária
Ver artigo principal: Memória RAM, Memória ROM
A memória primária é aquela acessada diretamente pela Unidade Lógica e Aritmética.
Tradicionalmente essa memória pode ser de leitura e escrita (RAM) ou só de leitura (ROM).
Atualmente existem memórias que podem ser classificadas como preferencialmente de leitura,
isso é, variações da memória ROM que podem ser regravadas, porém com um número limitado
de ciclos e um tempo muito mais alto.
Normalmente a memória primária se comunica com a ULA por meio de um barramento ou canal
de dados. A velocidade de acesso a memória é um fator importante de custo de um computador,
por isso a memória primária é normalmente construída de forma hierárquica em um projeto de
computador. Parte da memória, conhecida como cache fica muito próxima à ULA, com acesso
muito rápido. A maior parte da memória é acessada por meio de vias auxiliares.
Normalmente a memória é nitidamente separada da ULA em uma arquitetura de computador.
Porém, os microprocessadores atuais possuem memória cache incorporada, o que aumenta em
muito sua velocidade.
Memória RAM

Memória RAM de um PC
A memória RAM (Random Access Memory) é uma sequência de células numeradas, cada uma
contendo uma pequena quantidade de informação. A informação pode ser uma instrução para
dizer ao computador o que fazer. As células podem conter também dados que o computador
precisa para realizar uma instrução. Qualquer célula pode conter instrução ou dado, assim o que
em algum momento armazenava dados pode armazenar instruções em outro momento. Em geral,
o conteúdo de uma célula de memória pode ser alterado a qualquer momento, a memória RAM é
um rascunho e não um bloco de pedra.
As memórias RAM são denominadas genericamente de DRAM (RAM dinâmica), pelo fato de
possuírem uma característica chamada refrescamento de memória, que tem a finalidade de
regravar os dados armazenados em intervalos regulares de tempo,o que é necessário para a
manutenção de seu conteúdo. O tamanho de cada célula, e o número de células, varia de
computador para computador, e as tecnologias utilizadas para implementar a memória RAM
variam bastante. Atualmente o mais comum é a implementação em circuitos integrados.
Memória ROM
Memória ROM de um PC
A memória ROM (Read-Only Memory) é uma memória que só pode ser lida e os dados não são
perdidos com o desligamento do computador. A diferença entre a memória RAM e a ROM é que
a RAM aceita gravação, regravação e perda de dados. Mesmo se for enviada uma informação
para ser gravada na memória ROM, o procedimento não é executado (esta característica
praticamente elimina a criação de vírus que afetam a ROM).
Um software gravado na ROM recebe o nome de firmware. Em computadores da linha IBM-PC
eles são basicamente três, que são acessados toda vez que ligamos o computador, a saber: BIOS,
POST e SETUP.
Existe uma variação da ROM chamada memória preferencialmente de leitura que permite a re-
gravação de dados. São as chamadas EPROM (Erasable Programmable Read Only Memory) ou
EEPROM (Electrically Erasable Programmable Read-Only Memory).
[editar] Memória secundária
A memória secundária ou memória de massa é usada para gravar grande quantidade de dados,
que não são perdidos com o desligamento do computador, por um período longo de tempo.
Exemplos de memória de massa incluem o disco rígido e mídias removíveis como o CD-ROM, o
DVD, o disquete e o pen drive.
Normalmente a memória secundária não é acessada diretamente pela ULA, mas sim por meio
dos dispositivos de entrada e saída. Isso faz com que o acesso a essa memória seja muito mais
lento do que o acesso a memória primária. Para isso cada dispositivo encontra-se com um buffer
de escrita e leitura para melhoramento de desempenho.
Supostamente, consideramos que a memória terciária está permanentemente ligada ao
computador.
[editar] Memória terciária

Fita magnética para gravação de dados


Sistemas mais complexos de computação podem incluir um terceiro nível de memória, com
acesso ainda mais lento que o da memória secundária. Um exemplo seria um sistema
automatizado de fitas contendo a informação necessária. A memória terciária não é nada mais
que um dispositivo de memória secundária ou memória de massa colocado para servir um
dispositivo de memória secundária.
As tecnologias de memória usam materiais e processos bastante variados. Na informática, elas
têm evoluído sempre em direção de uma maior capacidade de armazenamento, maior
miniaturização, maior rapidez de acesso e confiabilidade, enquanto seu custo cai constantemente.
Entretanto, a memória de um computador não se limita a sua memoria individual e física, ela se
apresenta de maneira mais ampla, e sem lugar definido (desterritorializada). Temos
possibilidades de armazenar em diversos lugares na rede, podemos estar em Luanda e acessar
arquivos que foram armazenados em sítios no Brasil.
É crescente a tendência para o armazenamento das informações na memória do espaço virtual,
ou o chamado ciberespaço, através de discos virtuais e anexos de e-mails. Isto torna possível o
acesso a informação a partir de qualquer dispositivo conectado à Internet.
[editar] Entrada e saída

Ver artigo principal: Entrada e saída

Mouse
Os dispositivos de entrada e saída (E/S) são periféricos usados para a interação homem-
computador. Nos computadores pessoais modernos, dispositivos comuns de entrada incluem o
mouse (ou rato), o teclado, o digitalizador e a webcam. Dispositivos comuns de saída incluem a
caixa de som, o monitor[3] e a impressora.
O que todos os dispositivos de entrada têm em comum é que eles precisam codificar (converter)
a informação de algum tipo em dados que podem ser processados pelo sistema digital do
computador. Dispositivos de saída por outro lado, descodificam os dados em informação que é
entendida pelo usuário do computador. Neste sentido, um sistema de computadores digital é um
exemplo de um sistema de processamento de dados.
Podemos ter dispositivos que funcionam tanto para entrada como para saída de dados, como o
modem e o drive de disquete. Atualmente, outro dispositivo de híbrido de dados é a rede de
computadores.
Blocos funcionais de um computador
[editar] Barramentos
Para interligar todos esses dispositivos existe uma placa de suporte especial, a placa-mãe, que
através de barramentos, fios e soquetes conecta todos os dispositivos. Sua função inclui também
a conexão de placas auxiliares que sub-controlam os periféricos de entrada e saída, como a placa
de som (conecta-se com a caixa de som), a placa de vídeo (conecta-se com o monitor), placa de
rede (conecta-se com a LAN) e o fax-modem (conecta-se com a linha telefônica).
Nota-se que o barramento entre os componentes não constitui uma conexão ponto-a-ponto; ele
pode conectar logicamente diversos componentes utilizando o mesmo conjunto de fios. O
barramento pode utilizar uma interface serial ou uma interface paralela.
Outros equipamentos adicionais usados em conjunto com a placa-mãe são o dissipador, um
pequeno ventilador para resfriar o processador, e a fonte de energia, responsável pela
alimentação de energia de todos os componentes do computador.
[editar] Arquitetura de software
[editar] Instruções
A principal característica dos computadores modernos, o que o distingue de outras máquinas, é
que pode ser programado. Isto significa que uma lista de instruções pode ser armazenada na
memória e executa posteriormente.

Diagrama de linguagem de programação compilada em linguagem de máquina


As instruções executadas na ULA discutidas acima não são um rico conjunto de instruções como
a linguagem humana. O computador tem apenas um limitado número de instruções bem
definidas. Um exemplo típico de uma instrução existente na maioria dos computadores é "copie
o conteúdo da posição de memória 123 para a posição de memória 456", "adicione o conteúdo da
posição de memória 510 ao conteúdo da posição 511 e coloque o resultado na posição 507" e "se
o conteúdo da posição 012 é igual a 0, a próxima instrução está na posição 678".
Instruções são representadas no computador como números - o código para "copiar" poderia ser
007, por exemplo. O conjunto particular de instruções que um computador possui é conhecido
como a linguagem de máquina do computador. Na prática, as pessoas não escrevem instruções
diretamente na linguagem de máquina mas em uma linguagem de programação, que é
posteriormente traduzida na linguagem de máquina através de programas especiais, como
interpretadores e compiladores. Algumas linguagens de programação se aproximam bastante da
linguagem de máquina, como o assembly (linguagem de baixo nível); por outro lado linguagens
como o Prolog são baseadas em princípios abstratos e se distanciam bastante dos detalhes da
operação da máquina (linguagens de alto nível).
A execução das instruções é tal como ler um livro. Apesar da pessoa normalmente ler cada
palavra e linha em sequência, é possível que algumas vezes ela volte para pontos anteriores do
texto de interesse ou passe sessões não interessantes. Da mesma forma, um computador que
segue a arquitetura de von Neumann executa cada instrução de forma sequencial, da maneira
como foram armazenadas na memória. Mas, através de instruções especiais, o computador pode
repetir instruções ou avançá-las até que alguma condição seja satisfeita. Isso é chamado controle
do fluxo e é o que permite que o computador realize tarefas repetitivamente sem intervenção
humana.
Uma pessoa usando uma calculadora pode realizar operações aritméticas como somar número
apertando poucos botões. Mas somar sequencialmente os números de um a mil iria requerer
apertar milhares de vezes os botões, com uma alta probabilidade de erro em alguma iteração. Por
outro lado, computadores podem ser programados para realizar tal tarefa com poucas instruções,
e a execução e extremamente rápida.
Mas os computadores não conseguem pensar, eles somente executam as instruções que
fornecemos. Um humano instruído, ao enfrentar o problema da adição explicado anteriormente,
perceberia em algum momento que pode reduzir o problema usando a seguinte equação:

e chegar na mesma resposta correta com pouco trabalho. Alguns computadores modernos
conseguem tomar algumas decisões para acelerar a execução dos programas ao prever instruções
futuras e reorganizar a ordem de instruções sem modificar seu significado. Entretanto, os
computadores ainda não conseguem determinar instintivamente uma maneira mais eficiente de
realizar sua tarefa, pois não possuem conhecimento para tal [4].
[editar] Programas

Ver artigo principal: Programa de computador


Programas são simplesmente grandes listas de instruções para o computador executar, tais com
tabelas de dados. Muitos programas de computador contêm milhões de instruções, e muitas
destas instruções são executadas repetidamente. Um computador pessoal típico (no ano de 2003)
podia executar cerca de dois a três bilhões de instruções por segundo. Os computadores não têm
a sua extraordinária capacidade devido a um conjunto de instruções complexo. Apesar de
existirem diferenças de projeto com CPU com um maior número de instruções e mais
complexas, os computadores executam milhões de instruções simples combinadas, escritas por
bons "programadores". Estas instruções combinadas são escritas para realizar tarefas comuns
como, por exemplo, desenhar um ponto na tela. Tais instruções podem então ser utilizadas por
outros programadores.
Hoje em dia, muitos computadores aparentam executar vários programas ao mesmo tempo, o que
é normalmente conhecido como multitarefa. Na realidade, a CPU executa as instruções de um
programa por um curto período de tempo e, em seguida, troca para um outro programa e executa
algumas de suas instruções. Isto cria a ilusão de vários programas sendo executados
simultaneamente através do compartilhamento do tempo da CPU entre os programas. Este
compartilhamento de tempo é normalmente controlado pelo sistema operacional.
[editar] Sistema operacional

Ver artigo principal: Sistema operacional


Um computador sempre precisa de no mínimo um programa em execução por todo o tempo para
operar. Tipicamente este programa é o sistema operacional (ou sistema operativo), que determina
quais programas vão executar, quando, e que recursos (como memória e E / S) ele poderá
utilizar. O sistema operacional também fornece uma camada de abstração sobre o hardware, e dá
acesso aos outros programas fornecendo serviços, como programas gerenciadores de dispositivos
("drivers") que permitem aos programadores escreverem programas para diferentes máquinas
sem a necessidade de conhecer especificidades de todos os dispositivos eletrônicos de cada uma
delas.
[editar] Impactos do computador na sociedade
Segundo Pierre Lévy, no livro "Cibercultura", O computador não é mais um centro, e sim um nó,
um terminal, um componente da rede universal calculante. Em certo sentido, há apenas um único
computador, mas é impossível traçar seus limites, definir seu contorno. É um computador cujo
centro está em toda parte e a circunferência em lugar algum, um computador hipertextual,
disperso, vivo, fervilhante, inacabado: o ciberespaço em si.
O computador evoluiu em sua capacidade de armazenamento de informações, que é cada vez
maior, o que possibilita a todos um acesso cada vez maior a informação. Isto significa que o
computador agora representa apenas um ponto de um novo espaço, o ciberespaço. Essas
informações contidas em computadores de todo mundo e presentes no ciberespaço, possibilitam
aos usuários um acesso a novos mundos, novas culturas, sem a locomoção física. Com todo este
armazenamento de textos, imagens, dados, etc.
Houve também uma grande mudança no comportamento empresarial, com uma forte redução de
custo e uma descompartimentalização das mesmas. Antes o que era obstante agora é próximo, as
máquinas, componentes do ciberespaço, com seus compartimentos de saída, otimizaram o tempo
e os custos.
Notas e referências
1. ↑ SILVEIRA (2004) Inclusão Digital e Software Livre, p. 74.
2. ↑ (em inglês) Karl Kempf (1961) Historical Monograph: Electronic Computers Within the
Ordnance Corps, cap. 2, pp. 19-39. (Exército dos Estados Unidos da América)
3. ↑ Alguns computadores, em especial PDAs, consideram a tela (considerada um monitor), também
um dispositivo de entrada, sob forma de ecrã táctil.
4. ↑ Existem tentativas para resolver essa limitação, e o campo de atuação de aprendizagem de
máquina é conhecido na Ciência da Computação como Inteligência Artifical.

[editar] Ver também


Outros projetos Wikimedia também
contêm material sobre este tema:

Definições no Wikcionário

Citações no Wikiquote

Imagens e media no

Commons
• Computador doméstico
• Computador pessoal
• Mainframe
• Notebook
• Servidor
• Sistema operacional
• Supercomputador
• Teoria da computação

[editar] Ligações externas


• História dos computadores (em português)
• Museu do Computador (em português)
• O que é um computador? (em português)
• Fotos e história de alguns modelos de computadores (em inglês)

[Esconder]
v•d•e

Objetos domiciliares
Sala de estar Televisão • Sofá • Rádio • Poltrona • Tapete • Estante • Telefone • Relógio de parede
Sala de jantar Mesa • Cadeira • Aparador
Geladeira • Fogão • Talher • Micro-ondas • Pia • Lava-louças • Armário • Liquidificador •
Cozinha
Batedeira • Espremedor de frutas
Cama • Guarda-roupas • Criado-mudo • Abajur • Beliche • Despertador • Colchão •
Quarto
Ventilador • Computador
Banheiro Vaso sanitário • Chuveiro • Torneira • Ralo • Espelho • Penico • Box • Escova de dentes
Área de serviço Rodo • Balde • Lixeira • Vassoura • Tanque • Máquina de lavar roupa • Aspirador de pó
Quadro • Gaveta • Porta • Janela • Maçaneta • Cadeado • Chave • Desentupidor de pia •
Outros
Desentupidor de vaso sanitário
Obtido em "http://pt.wikipedia.org/wiki/Computador"
Categoria: Computadores

História da computação
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
História da ciência

Navegação
Portal
Categorias
Cronologias
Teorias
Historiografia
Filosofia
Períodos
Civilizações antigas
Grécia e Roma
Mundo islâmico
Europa medieval
Renascimento
Revolução científica
Iluminismo
Industrial
Contemporânea
Disciplinas
Astronomia
Biologia
Computação
Física
Geografia
Geologia
Matemática
Medicina
Odontologia
Química
Tecnologia
Locais
Portugal
Brasil

O desenvolvimento da tecnologia da computação foi a união de várias áreas do conhecimento


humano, dentre as quais: a matemática, a eletrônica digital, a lógica de programação, entre
outras.

Índice
[esconder]
• 1 Computação
• 2 Os Algoritmos
• 3 A Revolução Industrial
• 4 Babbage e Ada
• 5 A Lógica Binária
• 6 Shannon e a Teoria da Informação
• 7 Hollerith e sua máquina de perfurar cartões
• 8 O primeiro computador
• 9 A guerra e os computadores
• 10 O nascimento da Ciência da Computação
• 11 O Trabalho Teórico
• 12 Alan Turing
• 13 O Teste de Turing
• 14 Von Neumann
• 15 Primeiros computadores pessoais
• 16 A Apple e a popularização
• 17 Os computadores pessoais para empresas
• 18 A Parceria IBM - Microsoft
• 19 A aposta da Apple para continuar no topo
• 20 Os "IBM-PC Compatíveis"
• 21 Gerações de computadores
• 22 Realizações para a sociedade
• 23 Ver também
• 24 Bibliografia Recomendada
• 25 Ligações Externas

[editar] Computação
Ver artigos principais: Numeração, Ábaco.
A capacidade do ser humano em calcular quantidades nos mais variados modos foi um dos
fatores que possibilitaram o desenvolvimento da matemática e da lógica. Nos primórdios da
matemática e da álgebra, utilizavam-se os dedos das mãos para efetuar cálculos.
Na região do Mar Mediterrâneo, surgiram o alfabeto e o ábaco.
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a
habitantes da Mesopotâmia, em torno de 2400 a.C.. Seu uso original era desenhar linhas na areia
com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa de bronze
cheia de sulcos. Também surgiram alguns termos matemáticos: em latim "Calx" significa
mármore, assim "Calculos" era uma bolinha do ábaco, e fazer cálculos aritméticos era
"Calculare".
No século V a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando
3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou
meta-regras, transformações e recursividade com tamanha sofisticação que sua gramática possuía
o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas
logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os
logaritmos para uso computacional no século XVI, seguiu-se um período de considerável
progresso na construção de ferramentas de cálculo.
John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier,
que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.
A primeira máquina de verdade foi construída por Wilhelm Schickard (1592-1635), sendo capaz
de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta
anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos
anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a
construção da primeira máquina calculadora, que fazia apenas somas e subtrações.
A primeira calculadora capaz de realizar as operações básicas de soma e subtração foi inventada
em 1642 pelo filósofo, físico e matemático francês Blaise Pascal. Pascal, que aos 18 anos
trabalhava com seu pai em um escritório de coleta de impostos na cidade de Rouen, desenvolveu
a máquina para auxiliar o seu trabalho de contabilidade. A calculadora usava engrenagens que a
faziam funcionar de maneira similar a um odômetro. Pascal recebeu uma patente do rei da
França para que lançasse sua máquina no comércio. A comercialização de suas calculadoras não
foi satisfatória devido a seu funcionamento pouco confiável, apesar de Pascal ter construído
cerca de 50 versões.
A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen,
França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm
Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo
o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.
Em 1671, o filósofo e matemático alemão de Leipzig,Gottfried Wilhelm Leibniz introduziu o
conceito de realizar multiplicações e divisões através de adições e subtrações sucessivas. Em
1694, a máquina foi construída, no entanto, sua operação apresentava muita dificuldade e sujeita
a erros.
Em 1820, o francês natural de Paris, Charles Xavier Thomas, conhecido como Thomas de
Colmar,projetou e construiu uma máquina capaz de efetuar as 4 operações aritméticas básicas: a
Arithmomet. Esta foi a primeira calculadora realmente comercializada com sucesso. Ela fazia
multiplicações com o mesmo princípio da calculadora de Leibnitz e efetuava as divisões com a
assistência do usuário.
Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram
programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a
respeito do que fazer com os números.
[editar] Os Algoritmos
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de
numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa Al-
Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do
sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do
século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais
livros apresentaram novos conceitos para definir sequências de passos para completar tarefas,
como aplicações de aritmética e álgebra. Por derivação do nome, atualmente usa-se o termo
algoritmo.
[editar] A Revolução Industrial
Em 1801, na França, durante a Revolução Industrial, Joseph Marie Jacquard, mecânico frânces,
(1752-1834) inventou um tear mecânico controlado por grandes cartões perfurados. Sua máquina
era capaz de produzir tecidos com desenhos bonitos e intrincados. Foi tamanho o sucesso que
Jacquard foi quase morto quando levou o tear para Lyon, pois as pessoas tinham medo de perder
o emprego. Em sete anos, já havia 11 mil teares desse tipo operando na França.
[editar] Babbage e Ada
Ver artigo principal: Máquina analítica
A origem da idéia de programar uma máquina vem da necessidade de que as máquinas de tecer
produzissem padrões de cores diferentes. Assim, no século XVIII foi criada uma forma de
representar os padrões em cartões de papel perfurado, que eram tratados manualmente. Em 1801,
Joseph Marie Jacquard (1752-1834) inventa um tear mecânico, com uma leitora automática de
cartões.
A idéia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage (1792-1871),
um professor de matemática de Cambridge, a desenvolver uma máquina de “tecer números”,
uma máquina de calcular onde a forma de calcular pudesse ser controlada por cartões.
O brilhante matemático inglês Charles Babbage (26 de dezembro de 1791 - 18 de outubro de
1871) é conhecido como o "Pai do Computador". Babbage projetou o chamado "Calculador
Analítico", muito próximo da concepção de um computador atual.

Charles Babbage foi um matemático inglês.


Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu
trabalho no engenho analítico. O equipamento, apesar de nunca ter sido construído com sucesso,
possuía todas as funcionalidades do computador moderno. Foi descrito originalmente em 1837,
mais de um século antes que qualquer equipamento do gênero tivesse sido construído com
sucesso. O grande diferencial do sistema de Babbage era o fato que seu dispositivo foi projetado
para ser programável, item imprescindível para qualquer computador moderno.
Tudo começou com a tentativa de desenvolver uma máquina capaz de calcular polinômios por
meio de diferenças, o calculador diferencial. Enquanto projetava seu calculador diferencial, a
idéia de Jacquard fez com que Babbage imaginasse uma nova e mais complexa máquina, o
calculador analítico, extremamente semelhante ao computador atual.
O projeto, totalmente mecânico, era composto de uma memória, um engenho central,
engrenagens e alavancas usadas para a transferência de dados da memória para o engenho central
e dispositivos para entrada e saída de dados. O calculador utilizaria cartões perfurados e seria
automático.
Sua parte principal seria um conjunto de rodas dentadas, o moinho, formando uma máquina de
somar com precisão de cinquenta dígitos. As instruções seriam lidas de cartões perfurados. Os
cartões seriam lidos em um dispositivo de entrada e armazenados, para futuras referências, em
um banco de mil registradores. Cada um dos registradores seria capaz de armazenar um número
de cinquenta dígitos, que poderiam ser colocados lá por meio de cartões a partir do resultado de
um dos cálculos do moinho.
Por algum tempo, o governo britânico financiou Babbage para construir a sua invenção.
Além disso tudo, Babbage imaginou a primeira máquina de impressão, que imprimiria os
resultados dos cálculos, contidos nos registradores. Babbage conseguiu, durante algum tempo,
fundos para sua pesquisa, porém não conseguiu completar sua máquina no tempo prometido e
não recebeu mais dinheiro. Hoje, partes de sua máquina podem ser vistas no Museu Britânico,
que também construiu uma versão completa, utilizando as técnicas disponíveis na época.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de
computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente
considerada como a primeira programadora.Em parceria com Charles Babbage, Ada Augusta
(1815-1852) ou Lady Lovelace, filha do poeta Lord Byron, era matemática amadora entusiasta.
Ela se tornou a pioneira da lógica de programação, escrevendo séries de instruções para o
calculador analítico. Ada inventou o conceito de subrotina, descobriu o valor das repetições - os
laços (loops) e iniciou o desenvolvimento do desvio condicional.Junto com Babbage, trabalhou a
jovem Ada Augusta, filha do poeta Lord Byron, conhecida como Lady Lovelace e Ada Lovelace.
Ada foi a primeira programadora da história, projetando e explicando, a pedido de Babbage,
programas para a máquina inexistente. Ada inventou os conceitos de subrotina, uma seqüência de
instruções que pode ser usada várias vezes, loop, uma instrução que permite a repetição de uma
seqüência de cartões, e do salto condicional, que permite saltar algum cartão caso uma condição
seja satisfeita.
Babbage teve muitas dificuldades com a tecnologia da época, que era inadequada para se
construir componentes mecânicos com a precisão necessária. Com a suspensão do financiamento
por parte do governo britânico, Babbage e Ada utilizaram a fortuna da família Byron até a
falência, sem que pudessem concluir o projeto, e assim o calculador analítico nunca foi
construído.
Ada Lovelace e Charles Babbage estavam avançados demais para o seu tempo, tanto que até a
década de 1940, nada se inventou parecido com seu computador analítico. Até essa época foram
construídas muitas máquinas mecânicas de somar destinadas a controlar negócios
(principalmente caixas registradoras) e algumas máquinas inspiradas na calculadora diferencial
de Babbage, para realizar cálculos de engenharia (que não alcançaram grande sucesso).
[editar] A Lógica Binária
Ver artigo principal: Lógica booleana
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração
binário. ainda usado atualmente no processamento de todos computadores modernos, o sistema
estabelece que sequências específicas de uns e zeros podem representar qualquer número, letra
ou imagem.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando
o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e
falso, ligado e desligado, válido e inválido. Levou mais de um século para que George Boole
publicasse a álgebra booleana (em 1854), com um sistema completo que permitia a construção
de modelos matemáticos para o processamento computacional. Em 1801 apareceu o tear
controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam
os uns, e áreas não furadas indicavam os zeros. O sistema está longe de ser um computador, mas
ilustrou que as máquinas poderiam ser controladas pelo sistema binário.
As máquinas do início do século XIX utilizavam base decimal (0 a 9), mas foram encontradas
dificuldades em implementar um dígito decimal em componentes eletrônicos, pois qualquer
variação provocada por um ruído causaria erros de cálculo consideráveis.
O matemático inglês George Boole (1815-1864) publicou em 1854 os princípios da lógica
booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e falso), que passou a ser
utilizada a partir do início do século XX.
[editar] Shannon e a Teoria da Informação
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para
resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de
forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude E.
Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas
de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que tal conceito
poderia ser aplicado em conjuntos eletro-mecânicos para resolver problemas de lógica. Tal idéia,
que utiliza propriedades de circuitos eletrônicos para a lógica, é o conceito básico de todos os
computadores digitais. Shannon desenvolveu a teoria da informação no artigo de 1948 A
Mathematical Theory of Communication, cujo conteúdo serve como fundamento para áreas de
estudo como compressão de dados e criptografia.
[editar] Hollerith e sua máquina de perfurar cartões
Ver artigo principal: Cartão perfurado
Por volta de 1890, Dr. Herman Hollerith (1860-1929) foi o responsável por uma grande mudança
na maneira de se processar os dados dos censos da época.
O próximo avanço dos computadores foi feito pelo americano Herman Hollerith (1860-1929),
que inventou uma máquina capaz de processar dados baseada na separação de cartões perfurados
(pelos seus furos). A máquina de Hollerith foi utilizada para auxiliar no censo de 1890, reduzindo
o tempo de processamento de dados de sete anos, do censo anterior, para apenas dois anos e
meio. Ela foi também pioneira ao utilizar a eletricidade na separação, contagem e tabulação dos
cartões.
Os dados do censo de 1880, manualmente processados, levaram 7 anos e meio para serem
compilados. Os do censo de 1890 foram processados em 2 anos e meio, com a ajuda de uma
máquina de perfurar cartões e máquinas de tabular e ordenar, criadas por Hollerith e sua equipe.
As informações sobre os indivíduos eram armazenadas por meio de perfurações em locais
específicos do cartão. Nas máquinas de tabular, um pino passava pelo furo e chegava a uma jarra
de mercúrio, fechando um circuito elétrico e causando um incremento de 1 em um contador
mecânico.
Mais tarde, Hollerith fundou uma companhia para produzir máquinas de tabulação. Anos depois,
em 1924, essa companhia veio a se chamar como International Business Machines,ou IBM,como
é hoje conhecida.
[editar] O primeiro computador
O primeiro computador eletro-mecânico foi construído por Konrad Zuse (1910-1995). Em 1936,
esse engenheiro alemão construiu, a partir de relés que executavam os cálculos e dados lidos em
fitas perfuradas, o Z1. Há uma grande polêmica em torno do primeiro computador. O Z-1 é
considerado por muitos como o primeiro computador eletromecânico. Zuse tentou vender o
computador ao governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de
guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos americanos de
desenvolver seus computadores.
[editar] A guerra e os computadores
Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A Marinha
americana, em conjunto com a Universidade de Harvard, desenvolveu o computador Harvard
Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O
Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos
em três segundos.
Com a II Guerra Mundial, as pesquisas aumentaram nessa área. Nos Estados Unidos, a Marinha,
em conjunto com a Universidade de Harvard e a IBM, construiu em 1944 o Mark I, um gigante
eletromagnético. Num certo sentido, essa máquina era a realização do projeto de Babbage.
Mark I ocupava 120 m3, tinha milhares de relés e fazia muito barulho. Uma multiplicação de
números de 10 dígitos levava 3 segundos para ser efetuada.
Em segredo, o exército norte-americano também desenvolvia seu computador. Esse usava apenas
válvulas e tinha por objetivo calcular as trajetórias de mísseis com maior precisão.
Simultaneamente, e em segredo, o Exército Americano desenvolvia um projeto semelhante,
chefiado pelos engenheiros J. Presper Eckert e John Mauchy, cujo resultado foi o primeiro
computador a válvulas, o Eletronic Numeric Integrator And Calculator (ENIAC)[2], capaz de
fazer quinhentas multiplicações por segundo. Tendo sido projetado para calcular trajetórias
balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra,
quando foi anunciado ao mundo.
O engenheiro John Presper Eckert (1919-1995) e o físico John Mauchly (1907-1980) projetaram
o ENIAC: Eletronic Numeric Integrator And Calculator. Com 18 000 válvulas, o ENIAC
conseguia fazer 500 multiplicações por segundo, porém só ficou pronto em 1946, vários meses
após o final da guerra. Os custos para a manutenção e conservação do ENIAC eram proibitivos,
pois dezenas a centenas de válvulas queimavam a cada hora e o calor gerado por elas necessitava
ser controlado por um complexo sistema de refrigeração, além dos gastos elevadíssimos de
energia elétrica.
No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von
Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”:
modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam
que ter três características:
1.Codificar as instruções de uma forma possível de ser armazenada na memória do computador.
Von Neumann sugeriu que fossem usados uns e zeros. 2.Armazenar as instruções na memória,
bem como toda e qualquer informação necessária a execução da tarefa, e 3.Quando processar o
programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão
perfurado a cada passo.
Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade
e automodificação. Assim, o computador programável que conhecemos hoje, onde o programa e
os dados estão armazenados na memória ficou conhecido como Arquitetura de von Neumann.
Para divulgar essa idéia, von Neumann publicou sozinho um artigo. Eckert e Mauchy não
ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC
acabou se dissolvendo em uma chuva de processos, mas já estava criado o computador moderno.
[editar] O nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam
cálculos, geralmente liderados por físicos em sua maioria mulheres. Milhares de computadores,
eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920,
a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que
realize o trabalho de um profissional computador, especialmente aquelas de acordo com os
métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no
final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing,
conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que
posteriormente evoluiu para o computador moderno.
[editar] O Trabalho Teórico
Os fundamentos matemáticos da ciência da computação moderna começaram a serem definidos
por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites
no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos
posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo
conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a
formalização de um algoritmo, definindo os limites do que pode ser computado, e um modelo
puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se
Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo.
Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo
executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de
tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter
infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de
qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a
ciência da computação, tanto que seu nome é usado para o Turing Award e o teste de Turing. Ele
contribuiu para as quebras de código da Grã-Bretanha na Segunda Guerra Mundial, e continuou
a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em
1954.
[editar] Alan Turing
Alan Mathison Turing nasceu em 23 de junho de 1912 em Londres, filho de um oficial britânico,
Julius Mathison e Ethel Sara Turing. Seu interesse pela ciência começou cedo, logo que aprendeu
a ler e escrever, distraia-se fatorando números de hinos religiosos e desenhando bicicletas
anfíbias. A maior parte do seu trabalho foi desenvolvido no serviço de espionagem, durante a II
Grande Guerra, levando-o somente por volta de 1975 a ser reconhecido como um dos grandes
pioneiros no campo da computação, Em 1928, Alan começou a estudar a Teoria da Relatividade,
conhecendo Christopher Morcom, que o influenciou profundamente. Morcom morreu em 1930 e
Alan se motivou a fazer o que o amigo não teve tempo, durante anos trocou correspondências
com a mãe de Morcom a respeito das idéias do amigo e se maravilhou com a possibilidade de
resolver problemas com a teoria mecânica quântica.Chegou inclusive a escrever sobre a
possibilidade do espirito sobreviver após a morte.
Depois de concluir o mestrado em King's College (1935) e receber o Smith's prize em 1936 com
um trabalho sobre a Teoria das Probabilidades, Turing se enveredou pela área da computação.
Sua preocupação era saber o que efetivamente a computação poderia fazer. As respostas vieram
sob a forma teórica, de uma máquina conhecida como Turing Universal Machine, que
possibilitava calcular qualquer número e função, de acordo com instruções apropriadas.
Quando a II Guerra Mundial eclodiu, Turing foi trabalhar no Departamento de Comunicações da
Gran Bretanha (Government Code and Cypher School) em Buckinghamshire, com o intuito de
quebrar o código das comunicações alemãs, produzido por um tipo de computador chamado
Enigma. Este código era constantemente trocado, obrigando os inimigos a tentar decodifica-lo
correndo contra o relógio. Turing e seus colegas cientistas trabalharam num sistema que foi
chamado de Colossus, um enorme emaranhado de servo-motores e metal, considerado um
precursor dos computadores digitais.
Durante a guerra, Turing foi enviado aos EUA a fim de estabelecer códigos seguros para
comunicações transatlânticas entre os aliados. Supõe-se que foi em Princeton, NJ, que conheceu
Von Neumann e daí ter participado no projeto do ENIAC na universidade da Pensilvânia..
Terminada a guerra, Alan se juntou ao National Physical Laboratory para desenvolver um
computador totalmente inglês que seria chamado de ACE (automatic computing
engine).Decepcionado com a demora da construção, Turing mudou-se para Manchester. Em
1952, foi preso por "indecência", sendo obrigado a se submeter à pisicoanálise e a tratamentos
que visavam curar sua homosexualidade.Turing suicidou-se em Manchester, no dia 7 de junho de
1954, durante uma crise de depressão, comendo uma maçã envenenada com cianureto de
potássio.
[editar] O Teste de Turing
O teste consistia em submeter um operador, fechado em uma sala, a descobrir se quem respondia
suas perguntas, introduzidas através do teclado, era um outro homem ou uma máquina. Sua
intenção era de descobrir se podiamos atribuir à máquina a noção de inteligência.
[editar] Von Neumann
O matemático húngaro John Von Neumann (1903-1957) formalizou o projeto lógico de um
computador.
Em sua proposta, Von Neumann sugeriu que as instruções fossem armazenadas na memória do
computador. Até então elas eram lidas de cartões perfurados e executadas, uma a uma.
Armazená-las na memória, para então executá-las, tornaria o computador mais rápido, já que, no
momento da execução, as instruções seriam obtidas com rapidez eletrônica.
A maioria dos computadores hoje em dia segue o modelo proposto por Von Neumann. Esse
modelo define um computador seqüencial digital em que o processamento das informações é
feito passo a passo, caracterizando um comportamento determinístico (ou seja, os mesmos dados
de entrada produzem sempre a mesma resposta).
[editar] Primeiros computadores pessoais

Os mainframes surgiam cada vez maiores e caros, sendo utilizados apenas por grandes empresas.
Até o final dos anos 70, reinavam absolutos os mainframes, computadores enormes, trancados
em salas refrigeradas e operados apenas por alguns poucos privilegiados. Apenas grandes
empresas e bancos podiam investir alguns milhões de dólares para tornar mais eficientes alguns
processos internos e o fluxo de informações. A maioria dos escritórios funcionava mais ou menos
da mesma maneira que no começo do século. Arquivos de metal, máquinas de escrever, papel
carbono e memorandos faziam parte do dia-a-dia.
Segundo o Computer History Museum, o primeiro "computador pessoal" foi o Kenbak-1,
lançado em 1971. Tinha 256 bytes de memória e foi anunciado na revista Scientific American por
US$ 750; todavia, não possuía CPU e era, como outros sistemas desta época, projetado para uso
educativo (ou seja, demonstrar como um "computador de verdade" funcionava). Em 1975, surge
o Altair 8800, um computador pessoal baseado na CPU Intel 8080. Vendido originalmente como
um kit de montar através da revista norte-americana Popular Electronics, os projetistas
pretendiam vender apenas algumas centenas de unidades, tendo ficado surpresos quando
venderam 10 vezes mais que o previsto para o primeiro mês. Custava cerca de 400 doláres e se
comunicava com o usuário através de luzes que piscavam. Entre os primeiros usuários estavam o
calouro da Universidade de Harvard, Bill Gates, e o jovem programador, Paul Allen, que juntos
desenvolveram uma versão da linguagem "Basic" para o Altair. Pouco tempo depois, a dupla
resolveu mudar o rumo de suas carreiras e criar uma empresa chamada Microsoft.
Nos anos seguintes, surgiram dezenas de novos computadores pessoais como o Radio Shack
TRS-80 (O TRS-80 foi comercializado com bastante sucesso no Brasil pela Prológica com os
nomes de CP-300 e CP-500), Commodore 64, Atari 400 e outros com sucesso moderado.
[editar] A Apple e a popularização

O Apple II foi lançado em 1977 com teclado integrado, gráficos coloridos, sons, gabinete de
plástico e oito slots de expansão.
Em 1976, outra dupla de jovens, Steve Jobs e Steve Wozniak, iniciou outra empresa que mudaria
o rumo da informática: a Apple.
Jobs e Wozniak abandonaram a Universidade de Berkeley para poderem se dedicar ao
computador pessoal criado por Wozniak, o Apple I. Como Wozniak trabalhava para a HP, o seu
projeto precisava ser apresentado para a empresa que recusou de imediato a idéia. Isso abriu o
caminho para a criação da Apple, empresa fundada pelos dois que comercializaria os
computadores. Montados na garagem de Jobs, os 200 primeiros computadores foram vendidos
nas lojas da vizinhança a US$ 500 cada. Interessado no projeto, Mike Makula (na época vice-
presidente de marketing da Intel), resolveu investir US$ 250 mil na Apple.
Alguns meses depois, já em 1977, foi lançado o primeiro microcomputador como conhecemos
hoje, o Apple II. O equipamento já vinha montado, com teclado integrado e era capaz de gerar
gráficos coloridos. Parte da linguagem de programação do Apple II havia sido feita pela
Microsoft, uma variação do BASIC para o Apple II. As vendas chegaram a US$ 2,5 milhões no
primeiro ano de comercialização e, com o seu rapido crescimento de vendas, a Apple tornou-se
uma empresa pública (ou seja, com ações que podem ser adquiridas por qualquer um na bolsa de
valores) e ela construiu a sua sede principal - Infinite Loop - em Cupertino, Califórnia.
Com o sucesso do Apple II, vieram o Visicalc (a primeira planilha eletrônica inventada),
processadores de texto e programas de banco de dados. Os micros já podiam substituir os fluxos
de caixa feitos com cadernos e calculadoras, máquinas de escrever e os arquivos de metal usados
para guardar milhares de documentos. Os computadores domésticos deixaram então de ser
apenas um hobby de adolescentes para se tornarem ferramentas indispensáveis para muitas
pessoas.
Entretanto, até o começo dos anos 80, muitos executivos ainda encaravam os computadores
pessoais como brinquedos. Além das mudanças de hábitos necessárias para aproveitar a nova
tecnologia, os mais conservadores tinham medo de comprar produtos de empresas dirigidas por
um rapaz de 26 anos que há menos de 5 trabalhava na garagem dos pais.
[editar] Os computadores pessoais para empresas
Ver artigo principal: IBM-PC

O IBM PC utilizava o PC-DOS e possuia a BIOS como única parte de produção exclusiva da
IBM.
Em 1980, a IBM estava convencida de que precisava entrar no mercado da microinformática e o
uso profissional dos micros só deslanchou quando ela entrou nesse mercado. A empresa
dominava (e domina até hoje) o mercado de computadores de grande porte e, desde a primeira
metade do século XX, máquinas de escrever com sua marca estavam presentes nos escritórios de
todo mundo. Como não estava acostumada à agilidade do novo mercado, criado e dominado por
jovens dinâmicos e entusiasmados, a gigantesca corporação decidiu que o PC não podia ser
criado na mesma velocidade na qual ela estava acostumada a desenvolver novos produtos.
Por isso, a empresa criou uma força tarefa especial para desenvolver o novo produto. Assim, um
grupo de 12 engenheiros liderados por William C. Lowe foi instalado em um laboratório em
Boca Raton, na Flórida, longe dos principais centros de desenvolvimento da corporação que, até
hoje, ficam na Califórnia e em Nova Iorque. O resultado desse trabalho foi o IBM-PC, que tinha
um preço de tabela de US$ 2.820, bem mais caro que os concorrentes, mas foi um sucesso
imediato. Em 4 meses foram vendidas 35 mil unidades, 5 vezes mais do que o esperado. Como
observou o jornalista Robert X Cringley: "ninguém nunca tinha sido despedido por comprar
produtos IBM". Os micros deixaram definitivamente de ser um brinquedo.
[editar] A Parceria IBM - Microsoft
Como todo computador, o IBM PC precisava de um Sistema Operacional para poder ser
utilizado. Durante o processo de desenvolvimento do IBM PC, houve uma tentativa sem sucesso
de contratar a Digital Research, uma empresa experiente na criação de Sistemas Operacionais,
para o desenvolvimento do Sistema Operacional da IBM.
Sem outra alternativa, a IBM recorreu a Microsoft que ofereceu um Sistema Operacional para a
IBM, mas na verdade eles não tinham nada pronto. Ao assinar o contrato de licenciamento do
DOS (Disk Operating System - Sistema Operacional de Disco) para a IBM, Bill Gates e Paul
Allen foram atrás da Seatlle Computer, uma pequena empresa que desenvolvia o Sistema
Operacional QDOS e que o vendeu para a Microsoft por US$ 50.000 sem imaginar o fim que
esse sistema teria.
A Microsoft então adaptou-o e criou o PC-DOS. O contrato com a IBM previa uma royalty (de
10 a 50 dólares por cada máquina vendida) e um pequeno pagamento inicial. Mas o sistema
continuava sobre propriedade da Microsoft, assim como a possibilidade de distribuir versões
modificadas (MS-DOS).
Esse contrato é, sem dúvida alguma, um dos mais importantes do século XX pois, através desse
contrato, a Microsoft deixou de ser uma microempresa de software para se tornar a empresa mais
poderosa no ramo da informática e tornar Bill Gates um dos homens mais ricos do mundo
actualmente.
[editar] A aposta da Apple para continuar no topo

A aposta Apple para se manter no topo do mercado: o Macintosh. Sua interface gráfica deixava a
IBM décadas atrás.
Em dezembro de 1979, a Apple Computer era a empresa de maior sucesso da microinformática.
O carro chefe da empresa, o Apple II+ já estava presente em escolas e residências da elite
americana. Entretanto, as máquinas ainda eram difíceis de usar. Para operar um
microcomputador, era preciso conhecer a "linguagem" do sistema operacional e a sintaxe correta
para aplicá-la. Todas as interações do usuário com a máquina eram feitas através da digitação de
comandos. Uma letra errada e a operação não era realizada, exigindo a digitação do comando
correto. Assim, antes de aproveitar os benefícios da informática, era indispensável aprender
todos os comandos de controle do computador.O computador da Apple estava com quase 2 anos
de existência e já começava a ficar velho. A empresa precisava criar algo novo para continuar
competindo.
A Xerox, empresa que dominava o mercado de copiadoras, acreditava que o seu negócio poderia
perder rentabilidade com a redução do fluxo de documentos em papel, por causa do uso de
documentos em formato eletrônico. Foi criado então, em 1970, o Palo Alto Research Center
(PARC) com o intuito de inventar o futuro.Nessa época o PARC desenvolvia muitas novidades
como as redes locais e impressoras laser, mas a pesquisa mais importante era a interface gráfica e
o mouse. Após grandes desastres na tentativa de comercializar computadores do PARC (o
computador do PARC saia por US$ 17 mil enquanto o da IBM custava apenas US$ 2,8 mil), a
Xerox desistiu do projeto.
Steve Jobs também desenvolvia nos laboratórios da Apple a interface gráfica. Buscando saber
detalhes de como ela ficaria depois de pronta, trocou opções de compra de ações da Apple por
uma visita detalhada de três dias ao PARC. O primeiro produto lançado pela Apple usando os
conceitos criados pela Xerox foi o Lisa. Apesar de moderno, não chegou a ser produzido em
grande quantidade, pois o mercado não estava preparado para pagar quase US$ 10 mil apenas
pela facilidade de uso.
Em 1979 Jef Raskin, um especialista em interfaces homem-máquina, imaginou um computador
fácil de utilizar e barato para o grande público. Ele então lançou as bases do projeto Macintosh.
O projeto inovador do Macintosh atraiu a atenção de Steve Jobs, que saiu do projeto Lisa com
sua equipe para se concentrar no projeto Macintosh. Em janeiro de 1981, ele tomou a direção do
projeto, forçando Jef Raskin a deixar o mesmo.
Em 24 de janeiro de 1984 surgiu o Macintosh, o primeiro computador de sucesso com uma
interface gráfica amigável, usando ícones, janelas e mouse. Sua acolhida foi extremamente
entusiástica, grande parte disso devido as campanhas publicitárias em massa da Apple. O
principal anúncio de seu lançamento foi durante o intervalo da Super Bowl XVIII (evento
comparável com a importância da Copa do Mundo para o Brasil). Essa propaganda é conhecida
como "1984", pois era baseada no livro "Nineteen Eighty-Four" (Mil Novecentos e Oitenta e
Quatro) de George Orwell, e retrata um mundo no qual todos eram submetidos ao regime
totalitário do "Big Brother" (Grande Irmão). Uma heroína representada por Anya Major destroí
um telão no qual o Big Brother falava ao público. O intuito do comercial era relacionar a IBM ao
"Big Brother" e a heroína à Apple.
[editar] Os "IBM-PC Compatíveis"
Ver artigo principal: IBM PC compatível
A clonagem do BIOS quase tirou a IBM do mercado de PCs.
O mesmo grupo que criou o IBM-PC também definiu que o componente básico do computador,
a BIOS, seria de fabricação exclusiva da IBM. Esse chip tem a finalidade de fornecer aos PCs
uma interface de entrada e saída de dados. Como todos os outros componentes do computador
eram fabricados por outras empresas, a IBM tinha nesses chips a sua maior fonte de renda e a
única coisa que vinculava qualquer PC à IBM.
Alguma empresas, dentre elas a Compaq, aplicaram a técnica de engenharia reversa no BIOS,
clonaram-na e construíram computadores similares ao da IBM. Em novembro de 1982, a
Compaq anuncia o Compaq Portable, primeiro PC que não usa a BIOS da IBM e mantém 100%
de compatibilidade com o IBM PC.
Esses computadores são conhecidos como "IBM PC compatíveis" e são os PCs que são vendidos
nas lojas até hoje, apenas bem mais evoluídos do que os primeiros PCs. Isso levou a IBM a se
tornar uma simples empresa que fabricava computadores pessoais e concorria como qualquer
outra nesse mercado. A IBM praticamente abandonou o mercado de PCs e se dedicou ao
mercado de servidores, na qual é imbatível até hoje.
[editar] Gerações de computadores
A arquitetura de um computador depende do seu projeto lógico, enquanto que a sua
implementação depende da tecnologia disponível.
As três primeiras gerações de computadores refletiam a evolução dos componentes básicos do
computador (hardware) e um aprimoramento dos programas (software) existentes.
Os computadores de primeira geração (1945–1959) usavam válvulas eletrônicas, quilômetros de
fios, eram lentos, enormes e esquentavam muito.
A segunda geração (1959–1964) substituiu as válvulas eletrônicas por transístores e os fios de
ligação por circuitos impressos, o que tornou os computadores mais rápidos, menores e de custo
mais baixo.
A terceira geração de computadores (1964–1970) foi construída com circuitos integrados,
proporcionando maior compactação, redução dos custos e velocidade de processamento da
ordem de microssegundos. Tem início a utilização de avançados sistemas operacionais.
A quarta geração, de 1970 até hoje, é caracterizada por um aperfeiçoamento da tecnologia já
existente, proporcionando uma otimização da máquina para os problemas do usuário, maior grau
de miniaturização, confiabilidade e velocidade maior, já da ordem de nanossegundos
(bilionésima parte do segundo).
O termo quinta geração foi criado pelos japoneses para descrever os potentes computadores
"inteligentes" que queriam construir em meados da década de 1990. Posteriormente, o termo
passou a envolver elementos de diversas áreas de pesquisa relacionadas à inteligência
computadorizada: inteligência artificial, sistemas especialistas e linguagem natural. Mas o
verdadeiro foco dessa ininterrupta quinta geração é a conectividade, o maciço esforço da
indústria para permitir aos usuários conectarem seus computadores a outros computadores. O
conceito de supervia da informação capturou a imaginação tanto de profissionais da computação
como de usuários comuns.
[editar] Realizações para a sociedade
Apesar de sua pequena história enquanto uma disciplina acadêmica, a ciência da computação deu
origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi
responsável pela definição formal de computação e computabilidade, e pela prova da existência
de problemas insolúveis ou intratáveis computacionalmente. Também foi possível a construção e
formalização do conceito de linguagem de computador, sobretudo linguagem de programação,
uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para
ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a ciência da computação
forneceu suporte para a Revolução Digital, dando origem a Era da Informação. A computação
científica é uma área da computação que permite o avanço de estudos como o mapeamento do
genoma humano
[editar] Ver também

Evolução dos pc

Os Primórdios da Computação
Apesar dos computadores eletrônicos terem efetivamente aparecido somente na década de 40, os
fundamentos em que se baseiam remontam a centenas ou até mesmo milhares de anos.
Se levarmos em conta que o termo COMPUTAR significa fazer cálculos, contar, efetuar operações
aritméticas, COMPUTADOR seria então o mecanismo ou máquina que auxilia essa tarefa, com
vantagens no tempo gasto e na precisão. Inicialmente o homem utilizou seus próprios dedos para essa
tarefa, dando origem ao sistema DECIMAL e aos termos DIGITAL e DIGITO. Para auxílio deste método,
eram usados gravetos, contas ou marcas na parede.
A partir do momento que o homem pré-histórico trocou seus hábitos nômades por aldeias e tribos fixas,
desenvolvendo a lavoura, tornou-se necessário um método para a contagem do tempo, delimitando as
épocas de plantio e colheita.
Tábuas de argila foram desenterradas por arqueólogos no Oriente Médio, próximo à Babilônia, contendo
tabuadas de multiplicação e recíprocos. Acredita-se que tenham sido escritas por volta de 1700 a.C. e
usavam o sistema sexagesimal (base 60), dando origem às nossas atuais unidades de tempo.

O Ábaco
Na medida em que os cálculos foram se complicando e aumentando de tamanho, sentiu-se a
necessidade de um instrumento que viesse em auxílio, surgindo assim há cerca de 2.500 anos o
ÁBACO. Este era formado por fios paralelos e contas ou arruelas deslizantes que, de acordo com a sua
posição, representava a quantidade a ser trabalhada.
O ábaco russo era o mais simples: continha 10 contas, bastando contá-las para obtermos suas
quantidades numéricas. O ábaco chinês possuía 2 conjuntos por fio, contendo 5 contas no conjunto das
unidades e 2 contas que representavam 5 unidades. A variante do ábaco mais conhecida é o SOROBAN,
ábaco japonês simplificado (com 5 contas por fio, agrupadas 4x1), ainda hoje utilizado, sendo que em
uso por mãos treinadas continuam eficientes e rápidos para trabalhos mais simples.
Esse sistema de contas e fios recebeu o nome de calculi pelos romanos, dando origem à palavra cálculo.
Ábaco Chinês - aproximadamente Soroban - Ábaco Japonês

O Logaritmo e a Régua de Cálculos


Os Bastões de Napier foram criados como auxílio à multiplicação, pelo nobre escocês de Edimburgo, o
matemático John Napier (1550-1617), inventor dos logaritmos. Dispositivos semelhantes já vinham
sendo usados desde o século XVI mas somente em 1614 foram documentados. Os bastões de Napier
eram um conjunto de 9 bastões, um para cada dígito, que transformavam a multiplicação de dois
números numa soma das tabuadas de cada dígito.

Bastões de Napier mostrando a multiplicação de 6 por 384

Em 1633, um sacerdote inglês chamado William Oughtred, teve a idéia de representar esses logaritmos
de Napier em escalas de madeira, marfim ou outro material, chamando-o de CÍRCULOS DE
PROPORÇÃO. Este dispositivo originou a conhecida RÉGUA DE CÁLCULOS. Como os logarítmos são
representados por traços na régua e sua divisão e produto são obtidos pela adição e subtração de
comprimentos, considera-se como o primeiro computador analógico da história.
Régua de Cálculos - O primeiro computador analógico

A Programação
A maior evolução seguinte foi o contador mecânico, criado pelo matemático Blaise Pascal, que utilizou
engrenagens para somas e multiplicações. Essas máquinas se chamavam Pascalinas. As calculadoras
da geração da Pascalina executavam somente operações seqüenciais, completamente independentes. A
cada cálculo o operador deve intervir, introduzindo novos dados e o comando para determinar qual
operação deve ser efetuada. Essas máquinas não tinham capacidade para tomar decisões baseadas nos
resultados.
Em 1801, Joseph Marie Jacquard, mecânico francês, sugeriu controlar teares por meio de cartões
perfurados. Os cartões forneceriam os comandos necessários para a tecelagem de padrões complicados
em tecidos. Os princípios de programação por cartões perfurados foram demonstrados por Bouchon,
Falcon e Jaques entre 1725 e 1745.
Em 1786, o engenheiro J. Muller, planejou a construção de uma máquina para calcular e preparar
tabelas matemáticas de algumas funções. A máquina Diferencial, como foi chamada, introduzia o
conceito de registros somadores.

A Informática
O que é Informática?
Ciência que desenvolve e utiliza máquinas para tratamento, transmissão, armazenamento, recuperação
e utilização de informações. O computador - capaz de realizar várias operações matemáticas em curto
espaço de tempo, de acordo com programas pré-estabelecidos - é a principal máquina utilizada.
O desenvolvimento da informática tem permitido o surgimento de computadores cada vez menores, mais
baratos e com maior capacidade. Atualmente, um computador laptop de US$ 2 mil é muito mais potente
do que um computador de grande porte da década de 70, que custava US$ 10 milhões. Esse
barateamento é um fator decisivo na popularização dos computadores. Se há 25 anos existiam apenas
50 mil computadores no mundo inteiro, hoje há cerca de 140 milhões.
Primeiros computadores
Em 1890, o norte americano Hermann Hollerith (1860-1929) desenvolve o primeiro computador
mecânico. A partir de 1930, começam as pesquisas para substituir as partes mecânicas por elétricas. O
Mark I, concluído em 1944 por uma equipe liderada por Howard Aiken, é o primeiro computador
eletromecânico capaz de efetuar cálculos mais complexos sem a interferência humana. Ele mede 15 m x
2,5 m e demora 11 segundos para executar um cálculo. Em 1946, surge o Eniac (Electronic Numerical
Integrator and Computer), primeiro computador eletrônico e digital automático: pesa 30 toneladas,
emprega cerca de 18 mil válvulas e realiza 4.500 cálculos por segundo. O Eniac contém a arquitetura
básica de um computador, empregada até hoje: memória principal (área de trabalho), memória auxiliar
(onde são armazenados os dados), unidade central de processamento (o "cérebro" da máquina, que
executa todas as informações) e dispositivos de entrada e saída de dados que atualmente permitem a
ligação de periféricos como monitor, teclado, mouse, scanner, tela, impressora, entre outros. A invenção
do transistor, em 1947, substitui progressivamente as válvulas, aumentando a velocidade das máquinas.
Os Computadores Pessoais
O tamanho e o preço dos computadores começam a diminuir a partir da década de 50. Neste período,
inicia-se a pesquisa dos circuitos integrados, os chips , responsáveis pela crescente miniaturização dos
equipamentos eletrônicos. Em 1974, a Intel projeta o microprocessador - dispositivo que reúne num
mesmo chip, todas as funções do processador central - tecnologia que permite a criação do computador
pessoal, ou microcomputador. O primeiro computador pessoal é o Apple I, inventado em 1976 pelos
americanos Steve Jobs (1955-) e Stephan Wozniak.
Em 1981, a IBM lança o seu PC (Personal Computer), que se torna um sucesso comercial. O sistema
operacional usado é o MS-DOS, desenvolvido pela empresa de softwares Microsoft. Na época, Bill Gates
, o dono da Microsoft, convence a IBM e as demais companhias a adotarem o sistema operacional de
sua empresa. Isso permite que um mesmo programa funcione em micros de diversos fabricantes.
Posteriormente, os PCs passam a usar microprocessadores cada vez mais potentes: 286, 386SX,
386DX, 486SX, 486DX. O Pentium, que surge nos anos 90, é atualmente o processador mais avançado
usado em PCs.
O único micro a fazer frente aos PCs é o Macintosh, lançado em 1984, que revoluciona o mercado ao
promover o uso de ícones e do mouse. No ano seguinte, a Microsoft lança a interface gráfica Windows,
adaptando para os PCs o uso de ícones e do mouse. O Windows só alcança sucesso a partir de 90, com
a versão 3.0. A nova versão, lançada em 1995, totaliza 45,8 milhões de usuários registrados pela
Microsoft em dezembro de 1996.
Na década de 90 surgem os computadores que, além do processamento de dados, reúnem fax, modem,
secretária eletrônica, scanner, acesso à Internet e drive para CD-ROM. Os CDs-ROM, sigla de compact
disc read-only memory, criados no início da década, são discos a laser que armazenam até 650
megabytes, 451 vezes mais do que um disquete (1,44 megabytes). Além de armazenar grande
quantidade de texto, o CD-ROM tem capacidade de arquivar fotos, vídeos e animações. Em 1996 é
anunciado o lançamento do DVD (digital vídeo disc), que nos próximos anos deve substituir o CD-ROM e
as fitas de videocassete. O DVD é um compact-disc com capacidade de 4,7 gigabytes (cerca de 7 CDs-
ROM). Segundo os fabricantes, terá a capacidade de vídeo de um filme de 135 minutos em padrão de
compressão MPEG (tela cheia) e alta qualidade de áudio. Terá o mesmo diâmetro e espessura dos CDs
atuais, mas será reproduzido em um driver específico, que também poderá ser ligado à televisão. Alguns
CDs-ROM são interativos, ou seja, permitem que o usuário controle, à vontade, a navegação pelo seu
conteúdo. Os computadores portáteis (laptops e palmtops), marcas da miniaturização da tecnologia,
também se popularizam nos anos 90.
Inteligência Artificial
Nesse final de século surge um novo ramo na informática, a inteligência artificial, que estuda métodos de
simular o pensamento humano nos computadores com o objetivo de substituir o homem pela máquina
em atividades mecanizadas. Alguns computadores já funcionam com modelos de raciocínio e
comportamento humanos, auxiliando médicos em diagnósticos, praticando diversos jogos e compondo
músicas. Entre eles está o Deep Blue, computador ultra veloz, com 256 unidades de processamento de
dados (o normal é uma), fabricado pela IBM após cinco anos de pesquisas. Em 1996, o Deep Blue -
capaz de analisar 200 milhões de lances por segundo em um jogo de xadrez - vence uma disputa com o
campeão mundial de xadrez, o russo Garry Kasparov. Há também o COG, protótipo de robô que está
sendo projetado e construído pelo Instituto de Tecnologia de Massachusetts (MIT). Sua forma é
semelhante à do homem: tem cabeça, olhos e braços. O robô, cujo sistema nervoso artificial é 64 vezes
mais potente do que um Macintosh, irá simular as fases de crescimento do homem, seus pensamentos e
sentimentos.

Impactos na Sociedade
O desenvolvimento da informática exerce um grande impacto no modo de produção da sociedade. O
computador torna-se uma importante ferramenta de trabalho, contribuindo para o aumento da
produtividade, redução de custos e melhoria da qualidade dos produtos. Vários setores da economia já
estão informatizados, entre os quais a indústria, a pesquisa científica, a educação, o sistema financeiro,
as comunicações e a astronáutica. Nas fábricas, os robôs substituem gradativamente a mão de obra
humana em trabalhos que envolvem risco e em atividades mecânicas, como as linhas de produção e
montagem. Essa automação progressiva é a causa da eliminação de vários postos de trabalho como
caixas de banco, telefonistas e datilógrafos, tendência que é conhecida por desemprego estrutural. Por
outro lado, a informática também cria novas categorias de profissionais, cuja principal característica é o
domínio das tecnologias da atualidade.
Na pesquisa científica, o computador tem possibilitado a simulação de experiências inviáveis na
realidade, devido ao alto custo ou periculosidade, como situações de temperatura excessiva ou de
explosões. Na educação há uma grande variedade de softwares que ensinam Desenho, Música ou
Gramática. Os bancos oferecem um número cada vez maior de serviços informatizados, como os caixas
eletrônicos e as consultas on-line a partir de um computador pessoal ligado à agência. Na área das
comunicações, a grande inovação é a interligação dos computadores de todo o mundo numa grande
rede, a Internet. Na astronáutica, os satélites artificiais informatizados fazem, entre outras aplicações, o
mapeamento da atmosfera terrestre e de outros planetas.

Resumo dos Principais Fatos


XVII - O francês Blaise Pascal projeta uma calculadora que soma e subtrai e o alemão Gottfried Wilhelm
Leibniz incorpora operações de multiplicar e dividir à máquina.
XVIII - O francês Joseph Marie Jacquard constrói um tear automatizado: cartões perfurados controlam o
movimento da máquina.
1834 - O inglês Charles Babbage projeta a máquina analítica capaz de armazenar informações.
1847 - O inglês George Boole estabelece a lógica binária para armazenar informações.
1890 - O norte-americano Hermann Hollerith constrói o primeiro computador mecânico.
1924 - Nasce a International Business Machines Corporation (IBM), nos Estados Unidos.
1938 - O alemão Konrad Zuse faz o primeiro computador elétrico usando a teoria binária.
1943 - O inglês Alan Turing constrói a primeira geração de computadores modernos, que utilizam
válvulas.
1944 - O norte-americano Howard Aiken termina o Mark I, o primeiro computador eletromecânico.
1946 - O Eletronic Numerical Integrator and Computer (Eniac), primeiro computador eletrônico, é criado
nos EUA.
1947 - Criação do transistor, substituto da válvula, que permite máquinas mais rápidas.
1957 - Primeiros modelos de computadores transistorizados chegam ao mercado.
1958 - Criação do chip, circuito integrado que permite a miniaturização dos equipamentos eletrônicos.
1969 - Criação da Arpanet, rede de informações do Departamento de Defesa norte-americano
interligando universidades e empresas, que dará origem à Internet.
1974 - A Intel projeta o microprocessador 8080, que origina os microcomputadores.
1975 - Os norte-americanos Bill Gates e Paul Alen fundam a Microsoft.
1976 - Lançamento do Apple I, primeiro microcomputador comercial, inventado por Steves Jobs e por
Steves Woznick.
1981 - A IBM o lança seu microcomputador - o PC - com o sistema operacional MS-DOS, elaborado pela
Microsoft.
1983 - A IBM lança o PC-XT, com disco rígido.
1984 - A National Science Foundation, nos Estados Unidos, cria a Internet, rede mundial de
computadores que conecta governos, universidades e companhias.
1984 -- A Apple lança o Macintosh, primeiro computador a utilizar ícones e mouse.
1985 - A Microsoft lança o Windows para o PC, que só obtém sucesso com a versão 3.0 (1990).
1993 - A Intel lança o Pentium.
1998 - A Intel lança o Pentium II.
1999 - A Intel lança o Pentium III.

O Sinclair/TK85 Spectrum

Sinclair

O Sinclair foi um dos primeiros computadores pessoais e foi muito famoso na sua época.

O Lançamento do Spectrum
Em 1982, segundo se conta, o empresário britânico Sir Clive Sinclair desenvolveu o ZX Spectrum para
participar de um concurso promovido pela BBC, que premiaria um computador pessoal de baixo preço
com acessão de suas iniciais e apoio no marketing. O vencedor, entretanto, foi outro (o Acorn), e Sinclair
decidiu lançar o seu micro por conta própria, como "sucessor" de suas espetaculares criações ZX 80 e
ZX 81.
Existiam então duas versões disponíveis: 16k e 48k de memória RAM. Além disso, contava com 16k de
ROM, 16 cores (uma revolução (!) numa época em que "cor" era sinônimo de videogame...) (oito básicas
mais um modo especial para cada uma delas, "Bright On/Off"), som, gráficos de alta resolução (256x192
pixels) e linguagem BASIC inclusa, fácil de usar. E tudo isso por apenas 180 libras! Por causa disso tudo,
jogos e aplicativos eram lançados num ritmo surpreendente.
Sir Clive Sinclair

A Ascensão do Spectrum
Em 1983, 200 mil computadores já tinham sido vendidos. No Brasil, a Microdigital lança um novo micro, o
TK85. Era, em poucas palavras, um ZX 81 com gabinete e teclado exatamente iguais ao ZX Spectrum
(isso inclusive gerou um processo judicial!) ... O clone brasileiro do ZX Spectrum demoraria ainda dois
anos para ser lançado, acompanhando a tradição do nosso mercado reservado, muito atrás do resto do
mundo!
Para atender às inúmeras reclamações dos usuários quanto às teclas de borracha, em 1984 foi lançado
o Spectrum +, com um novo teclado de plástico (que parece ter gerado uma nova onda de reclamações)
e um botão RESET. A Sinclair Research torna-se então campeã de vendas na Grã - Bretanha.
Em 1985, existiam então naquelas praias seis milhões de usuários, acompanhando o lançamento do
Spectrum 128. Entretanto, nessa época o mundo toma conhecimento da geração 16 bits, e o declínio
parece inevitável.
Em meados de 1985 a Microdigital lança no Brasil o TK 90X. Custando cerca de 250 dólares no
lançamento, chegando a US$200 alguns meses depois, torna-se imediatamente um estrondoso sucesso
de vendas. Era exatamente igual ao ZX Spectrum, com algumas "melhorias", como uma interface para
joysticks inclusa, um comando para edição de UDG (User-Defined Graphics) e ligação direta com uma
TV. No ano seguinte o mercado brasileiro vê o TK 95, basicamente a mesma coisa, só que com o teclado
e o gabinete mais "robustos", "copiados" do Commodore C64, um dos concorrentes do ZX Spectrum na
Grã-Bretanha ...
O Declínio do Spectrum
Em 1986, Alan Sugar, dono da Amstrad, compra a Sinclair Research e lança o Sinclair ZX Spectrum 2+ e
em seguida o modelo 3+, em 1987, incluindo disk drive de 3" e muitas mudanças na ROM. Em 1988 as
vendas de micros de 16 bits ultrapassam as de 8 bits na Grã-Bretanha. Em 1989 cessa a produção do
Spectrum. No Brasil, o declínio também é agudo. O mercado torna-se dividido entre as aplicações sérias
com os PCs e os assumidos videogames, os micros MSX. O TK95 perde cada vez mais espaço, até
literalmente desaparecer das páginas da mais conceituada publicação da época, a Micro Sistemas.
A Queda do Spectrum
No começo dos anos 90, milhares de usuários continuavam teimosamente editando revistas, programas
e acessórios (até um novo Spectrum "revolucionário" é lançado, o Sam Coupé). Entretanto, o inevitável
fim da "Era Spectrum" chega, em 1992.
O MSX
O que é o MSX?
O MSX faz parte da familia de computadores baseados no velho e eficiente processador de 8 bits da
Zilog, o Z-80. Esses computadores começaram a aparecer em 1983 tentando estabelecer um padrão em
computadores pessoais, assim como é o sistema VHS é em vídeo. Eles foram muito populares na Asia
(Japão, Coreia), Europa (Inglaterra, Holanda, França, Espanha), na América do Sul (Brasil, Chile,
Argentina) e na Antiga União Sovietica mas, são praticamente desconhecidos nos EUA. Entretanto em
1988 o MSX-1 começava a lentamente desaparecer, o mundo começava a ver o MSX-2 (uma grande
evolução), um ano depois o MSX-2 Plus e em 1990 o MSX Turbo-R (de 16 bits) o primeiro MSX de 16
bits, mas pouco depois começou a finalmente desaparecer sendo substituído pelos PC's que hoje
dominam totalmente o mercado. MSX quer dizer MicroSoft e Xtended, foi criado em parceria entre a
Microsoft (Bill Gates), e a ASCII japonesa (Kay Nishi). Até final de 87 MSX era marca registrada da
Microsoft Corp. Depois, Bill desfez sua sociedade com Nishi e voltou seus esforços totalmente para o
padrão PC. O MSX foi sem dúvida o melhor micro de 8 bits da história, sendo melhor que muitos de 16
bits. Ele é um computador muito bom, especialmente para fins educacionais, como foi claramente
indicado no caso da antiga URSS. O Ministro Russo da Educação, na época, comprou centenas de
MSXs (e posteriormente MSX2s). Eram agrupados em chamados "Sistema computadorizado de salas de
aula" de 10 a 16 máquinas interligadas numa pequena rede. Uma grande geração de programadores
nasceram usando esses computadores. O MSX, também era bastante eficiente em jogos (principalmente
o MSX2) e tem um grande número de jogos escritos ou adaptados para ele. A maioria desses jogos eram
bem superiores ao jogos do PC na época.
O MSX no Brasil
Dois assuntos são fundamentais para se entender o MSX no Brasil: a imprensa escrita (principalmente
as revistas) e o software. Até o advento do MSX, além de uns poucos abnegados, tudo o que existia
eram traduções e cópias, nenhum outro micro tinha produzido tanto software brasileiro genuíno. Tá certo
que houve muita pirataria, mas com ele apareceram os primeiros produtores de programas brasileiros. O
MSX surgiu no brasil em 1985 e era fabricado por duas empresas: a Sharp e a DYNACOM. A segunda
produzia uma máquina extremamente inferior, com apenas 8kb de RAM, componentes de péssima
qualidade e, por isso, foi rapidamente retirado do mercado. Já o MSX da Sharp chegou e em pouco
tempo fulminou seus concorrente diretos de 8bits (os clones de Apple-II e ZX-SPectrum), sendo, em
1988, era padrão do mercado, se tornando mais popular (pelo menos a nível doméstico) que os PCs.
Pouco depois, surgiu o Expert 1.0 da Gradiente, entretanto, ele trazia vários inconvenientes: a sua tabela
de caracteres não seguia o padrão e tinha algumas incompatibilidades a nível de endereços com os
outros MSX. Algo semelhante ocorria com o Hotbit branco da sharp, porém sem os problemas de tabela
ascii. Em 1987 surge o Hotbit preto e o Expert 1.1, que tinham a mesma tabela de caracteres e
resolvidos esses problemas. No mesmo ano surgem os primeiros kits de transformação 2.0 no Brasil, e
lá fora, é lançado o MSX 2+. Os kits 2.0 dessa época eram exclusivos para o Expert, tendo o
inconveniente de que se perdia o seu slot traseiro, o que não impediu a troca, por muitos, de seus
Hotbits por Experts; além do que, o gabinete da SHARP era muito pequeno, não havendo espaço físico
para o kit de MSX2. Apesar da primeira empresa a fabricar kits ter sido a MPO, a maior foi a DDX e a
melhor foi a ACVS. O kit (DDX) tinha o problema de, as vezes, a interface de data corder parar de
funcionar, mas, ninguém (nem os técnicos) sabia explicar o porque. Nunca foi fabricado um MSX2 no
Brasil, o que ocorria era uma "transformação" com a instalação de um Kit chamado Kit MSX-2 e o mais
popular era fabricado pela DDX, principal fabricante de acessórios. Apenas o Expert podia ser
transformado para MSX2 já que o Hotbit tinha, entre outros, problemas de espaço gabinete. Outra
empresa, a ACVS, também fazia kits de MSX2 e 2+, por sinal melhores que os kits da DDX, embora não
tão populares. Chegou a lançar um cartucho que transformava o MSX em MSX2/2+ acabando com o
problema da transformação do Hot Bit, o que isso não faria diferença, pois a Sharp já tinha parado de
fabricar o seu MSX Hot-Bit.
Em 88/89, quando todos esperavam um MSX 2 ou 2+ nacional, a Gradiente lançou o MSX PLUS e MSX
DD PLUS. Uma tremenda besteira, primeiro porque o MSX1 já estava super ultrapassado e segundo
porque esses novos Experts davam uma série de problemas. Foi a gota d'agua para a existência do
MSX no Brasil.
Invenções Nacionais
No Brasil também se inventou algumas coisas para o MSX, a mais popular delas foi a Megaram, que era
usada para rodar os jogos copiados de cartuchos (megaroms) originais. A Megaram foi inventada pela
ACVS (Ademir Carchano) mas, foi a DDX que a popularizou. Existiam vários tipo de megaram: a
megaram de 128 e 256, a Megaram Disk de 256, 512 e 768. A principal diferença entre a Megaram e a
Megaram Disk é que a segunda vinha com sistema operacional e podia ser usada como drive virtual.
Apenas o jogo Metal Gear 2 fazia uso da Megaram de 512. Outra coisa que inventaram era o Multi Drive,
que era um drive de 5 1/4 com um botão que fazia ele formatar discos de 360K em 720Kb. Isso porque
tinha muitos jogos de MSX2 em disquetes de 720K e por alguma razão drives de 3 1/2 nunca fizeram
sucesso no Brasil. Também existia o expansor de slots, já que os 2 slots do MSX já não eram em número
suficiente. O melhor expansor de slot fabricado foi o DDX Expander, que tinha como principal
característica o seu chamamento, ou seja não precisa ficar tirando e colocando cartucho, cada slot tinha
um botão de liga/desliga para cada cartucho.

Um MSX

O DOS
O DOS - Disk Operating System - durante muito
tempo foi o sistema operacional padrão em
micros de 16 bits ( semelhante ao CP/M que foi
padrão para os de 8 bits ) e surgiu em 1981
junto com o primeiro IBM PC. Desenvolvido pela Microsoft, pois a IBM não imaginou que as vendas
desse micro pudessem ir muito longe, o DOS possuía dois rótulos: PC-DOS comercializado pela IBM e
MS-DOS comercializado pela Microsoft.
Versões do MS-DOS
DOS 1.0 Esta primeira versão do PC-DOS comportava apenas discos flexíveis de face simples e
ocupava somente 10 Kb de RAM, pois o PC tinha apenas 64 K de memória RAM. A versão 1.1 atualizou
o sistema para trabalhar com discos de densidade dupla. O primeiro MS-DOS surgiu como versão 1.25.
DOS 2.0 Esta versão apareceu junto com o IBM XT em 1983, e permitia o uso de discos rígidos de alta
capacidade ( 10 Mb! ). O sistema ocupava 25 Kb de RAM e 40 Kb de espaço em disco. O MS-DOS
equivalente tinha como versão 2.11 e trazia o comando COUNTRY a mais.
DOS 3.0 Foi lançado com a chegada do AT em 1984, suportando o então novo drive de 1.2 Mb e o
utilitário VDISK ou RAM-DISK, que utilizava a memória que ultrapassava os 640 Kb. Os clusters foram
reduzidos de 4 para 2 Kb. A versão 3.1 suportava redes. A versão 3.2 suportava os novos discos de 3 1/2
polegadas e 720 Kb. de capacidade e possuía os comandos XCOPY e APREND. A versão 3.3 suportava
drives de 1.44 Mb., partições do disco rígido de até 32 Mb e introduziu o comando FASTOPEN. O
sistema ocupava cerca de 30Kb. de RAM e 59 Kb. de espaço em disco.
DOS 4.0 Lançado em julho de 1988, quebrou a barreira dos 32 Mb. para cada partição e apresentou
uma interface gráfica chamada DOS SHELL. Ocupava de 65 a 90 Kb. de RAM e 110 Kb. de espaço em
disco.
DOS 5.0 Esta versão possibilitava o uso de mais de dois discos rígidos, partições de 2 Gb. no disco
rígido, introduzia os comandos UNFORMAT, UNDELETE e DOSKEY, e possuía um gerenciamento mais
eficiente das memórias disponíveis (Upper, High, Extended e Expanded).
DOS 6.0 Com esta versão, foi introduzido os recursos do SCANDISK, DRIVESPACE, MEMMAKER,
DEFRAG, ANTI VIRUS, MSD (Microsoft Diagnostics), DELTREE, além de aprimoramentos nos
comandos MOVE, COPY, FORMAT e INTERLINK (para transferencia de arquivos entre dois
computadores).
Com a chegada do Windows 95, sistema operacional que não necessita da prévia instalação do DOS,
apesar de conter incorporado uma versão reduzida, possivelmente chegamos ao fim das constantes
evoluções deste sistema operacional que acompanhou o usuário por cerca de 15 anos.
O Os/2 Warp
O OS/2 Warp é um sistema operacional parecido com o Windows, mas só que é da IBM.
OS/2 Versão 1.0 O OS/2 foi um esforço conjunto da IBM e da Microsoft para poder aproveitar o
potencial das máquinas processadas por Intel 386 que surgiam em 1985. Seu objetivo era substituir o
DOS, explorando a memória acima dos 640Kb e aproveitando a capacidade de multitarefa que o novo
processador oferecia.
Para gerenciar a multitarefa, o OS/2 ganhou uma GUI (Graphic User Interface) baseada no Presentation
Mananger. Incluída ainda na versão 1.
Porém, a IBM sempre foi uma empresa voltada para o mercado corporativo e seu objetivo sempre foi de
oferecer soluções completas para seus clientes. Um sistema operacional forte era necessário para
cativar sua clientela e a IBM investiu no OS/2 para chegar nesse sistema. Assim, surgiu a versão
Extended Edition.
OS/2 Versão 2.0 Porém, a Microsoft desenvolveu seu próprio "substituto" para o DOS. O Windows,
que mesmo tendo uma aparência muito semelhante ao OS/2, era tecnicamente inferior ao sistema que
era desenvolvido em conjunto com a IBM. Porém, contrariando tudo o que se poderia prever, as vendas
do Windows superavam em larga escala as de OS/2. Assim, a versão 2 demorava a sair. Enquanto isso,
o Windows foi crescendo.
Porém, quando o OS/2 2.0 chegou, as diferenças entre ele e o Windows eram impressionantes. A
multitarefa do OS/2 era preceptiva (real) e a do Windows não. E como o OS/2 rodava aplicações Win16
através de emulação a IBM adotou o seguinte slogan para seu sistema: "Roda aplicações DOS melhor
que o DOS e aplicações Windows melhor que o Windows". Isso porque a Microsoft decidiu abandonar o
OS/2 e tocar o Windows sozinho.
Algumas das diferenças entre OS/2 e Windows iam além da arquitetura do sistema. Totalmente orientado
a objeto, o OS/2 permitia desde sua versão 2 o arraste de ícones de pasta para pasta e outros objetos,
como o triturador e a impressora. E essa orientação é melhor do que a de qualquer outro sistema. Além
disso, cada pasta pode ter suas próprias configurações de cores, papel de parede, etc.
Mesmo com vários pontos positivos, o OS/2 não vingou... Em 1 mês o Windows vendeu mais do que o
OS/2 em 3 anos. E esse foi a gota para que a Microsoft esquecesse de vez o Operating System/2.
OS/2 Warp Versão 3.0 Com a Microsoft fora do desenvolvimento a IBM sentiu-se mais a vontade
para deixar o OS/2 com sua "cara". Porém, sua estratégia de marketing surpreendeu a todos. Usando o
argumento de que o mercado doméstico havia rejeitado o OS/2 a Big Blue decidiu orientar totalmente o
seu sistema para as empresas. Isso fez com que os boatos de "O OS/2 está morto" crescerem. E os
usuários domésticos acabaram por ignorar soluções diferentes do Windows 3.11. No entanto, o sistema
continuava a ser vendido para pessoas físicas. O que dava esperanças aos reles mortais de ter um
sistema 32 bit realmente poderoso em seus PCs.
Além da real orientação a objetos, uma das melhores idéias aplicadas no OS/2 foi a Barra de
Lançamento. Ela surgiu na versão 3. Sua função é conter as operações e programas principais do
sistema. Para permitir ao usuário um acesso mais rápido aos seus programas e objetos prediletos. Por
ser totalmente customizável ela é adaptada facilmente ao gosto do usuário.

OS/2 Warp Versão 4.0 Lançada no início de 1996, essa versão trouxe munição para combater o
Windows 95. Principalmente no tocante é estabilidade e confiabilidade. O OS/2 Warp 4.0 é o sistema
operacional ideal para missões críticas graças às suas virtudes técnicas, como o gerenciamento
avançado de memória e o Crash Protection. Eles consistem em ferramentas controladas pelo sistema
para manter a máquina operando normalmente e executando outras tarefas caso algum aplicativo
provoque um erro de proteção de memória. Esse tipo de erro facilmente derrubaria o Windows 95. Mas
nos Grupos de Usuários e nas listas de discussão sobre OS/2 vários usuários comentam suas
experiências com aplicativos problemáticos que foram retirados de execução sem que o OS/2 tivesse
panes ou os outros programas fossem afetados. É verdade, no entanto, que nenhum sistema está 100%
imune a erros, portanto, uma vez ou outra, o Netscape consegue travar tudo. E então o reset é
necessário. Porém é de se notar que isso ocorre com pouca freqüência no OS/2.
A interface do OS/2 mudou na versão 4. Ele manteve a Barra de Ferramentas. Teve suas janelas
redesenhadas e herdou o SmartCenter do Lotus SmartSuite. Para quem já conhece o pacote ficou claro.
Para quem não conhece, o SmartCenter é uma barra que fica em uma extremidade de sua tela e permite
que você chame diversas funções e programas do pacote. No OS/2, essa barrinha milagrosa se tornou o
WarpCenter. Nele você pode ter praticamente tudo (ou tudo mesmo). Desde monitoramento de todos os
HDs, CPU, passando pelos programas que estão rodando, até ícones para chamar seus programas
favoritos e mesmo os Web Sites que você mais gosta, além de poder ver com um simples clique todo o
conteúdo de seu ambiente de trabalho.
Várias melhorias deixaram o OS/2 ainda mais sólido. A orientação a objetos é inteligente e rápida. Criar
sombras (os equivalentes aos atalhos do Win95) é simples e confiável. Depois dessa criação, se o objeto
original for movido, as sombras são atualizadas automaticamente, e o objeto é deletado, o sistema lhe
pergunta o que você quer fazer com a sombra. No Windows isso não existe!!! Ele simplesmente deixa o
atalho inútil e você teria de criar novos atalhos. Entre as melhorias gráficas, foram mudados ícones da
Barra de Ferramentas.
Além do mais, a notabilidade do OS/2 v. 4 sobre o Windows 95 estende-se até sobre uma área (e pode-
se dizer a única) onde o sistema da Microsoft pode ser considerado superior: Os Jogos. Para rodar jogos
pesados o Windows tem que reiniciar o velho DOS.
Além do Quake, rodam Indycar, Nascar, Doom, e vários outros jogos. Sempre com desempenho igual ou
algumas vezes até superior à execução em MS-DOS.
Por falar em execução, é bom lembrar que o OS/2 executa aplicações de windows 3.1 e Win32 s até a
versão 1.25 a. Além de aplicações JAVA nativamente. E aplicações PM para OS/2. E com relação aquela
história de que existem poucos programas para OS/2. Isso é uma grande besteira, existem e são muito
bons. A maioria deles é bem melhor que seus equivalentes para Windows 95.

A Internet
O que é a Internet?
É a rede mundial de computadores formada por redes interligadas por linhas telefônicas. Não pertence a
nenhum governo ou empresa. A Internet tem revolucionado a comunicação mundial ao permitir, por
exemplo, a conversa entre pessoas a milhares de quilômetros pelo preço de uma ligação local. O
número de seus usuários tem duplicado a cada ano - são cerca de 50 milhões em 1996 - e a cada dia
surgem 1.600 novos serviços. O grande número de usuários é responsável pelo maior problema da
Internet: o congestionamento e a lentidão no acesso aos serviços.
Com essa rede mundial surge a expressão ciberespaço, criada pelo escritor americano William Gibson,
em 1984. O ciberespaço é o espaço virtual e sem fronteiras onde circulam as milhares de informações
veiculadas nas redes de informática , como a Internet.

O Surgimento da Internet
A Internet surge nos Estados Unidos na década de 60, época da Guerra Fria, como uma rede de
informações militares que interliga centros de comando e de pesquisa bélica. Para atender à
necessidade militar de proteger os sistemas de defesa do país no caso de um ataque nuclear, a rede não
tem um "centro" que sirva de alvo principal ao inimigo. Nos anos 70, a rede começa a ser utilizada pela
comunidade acadêmica mundial e, em 1975, são feitas as primeiras ligações internacionais. Nesse
período, os computadores conectados não passavam de 200.
Entre a década de 80 e o início dos anos 90, a rede é aperfeiçoada: começam a surgir os serviços que
dão à Internet sua feição atual. O principal deles é a World Wide Web (WWW), lançado em 1991, que
viabiliza a transmissão de imagens, som e vídeo pela grande rede. Até então, só circulavam textos pela
Internet por meio de um software chamado Gopher. Com a WWW, a Internet se populariza entre os
usuários comuns de computadores. Nesta época surgem os provedores de acesso, empresas comerciais
que vendem aos clientes o acesso para "navegar" na Internet. Em 1995, o número de provedores em
todo o mundo é de 6,6 milhões.
A partir de 1994, a Internet amplia suas funções: além de ser uma rede de circulação de informações,
também torna-se um meio de comercialização de produtos e serviços. É o início do comércio eletrônico.
Apesar desse comércio ainda ser incipiente, é possível, por exemplo, comprar CDs, livros e programas
de computador.
Acesso à Internet
Para um usuário particular poder usar a Internet, é preciso uma linha telefônica, um microcomputador
com modem (aparelho que permite a recepção e transmissão de dados por telefone) e um programa de
acesso à rede: os principais são Navigator, da Netscape, e o Internet Explorer, da Microsoft. O passo
seguinte é cadastrar-se em um provedor de acesso à rede, de preferência um provedor local (na própria
cidade) para não pagar ligações interurbanas ao acessar a rede. Ao filiar-se, o novo usuário é rebatizado
com um nome (username), recebe uma senha (password) e um endereço na Internet. No endereço
eletrônico - ricardob@embratel.net.br, por exemplo - o nome do usuário e a identificação do provedor
escolhido são separados pelo sinal "@" (arroba).

Serviços na Internet
Os serviços mais populares da Internet são o E-mail (correio eletrônico) e a World Wide Web (WWW).
Pelo E-mail é possível trocar mensagens com pessoas ou empresas do mundo inteiro - estima-se que
sejam em média 16 milhões de mensagens diariamente. O serviço está substituindo gradativamente os
métodos tradicionais da comunicação interurbana e internacional (telefone e fax), que são bem mais
caros. Na WWW encontram-se as homepages, páginas criadas por pessoas, empresas, instituições e
órgãos governamentais. Elas trazem informações em forma de texto, imagens (fotografia, ilustrações),
vídeo e som. Atualmente existem cerca de 50 milhões de homepages no mundo.
Outros serviços bastante procurados são o listserv, o chat e o telnet. O listserv é a área da Internet
reservada aos grupos de discussão sobre assuntos específicos. Ao se inscrever, o usuário passa a
receber todas as mensagens que estão sendo trocadas sobre o tema de seu interesse. O chat é o
serviço de conversa on-line que permite a comunicação via teclado com qualquer pessoa de qualquer
lugar do mundo que esteja conectada na mesma hora. O telnet é um software que permite acessar
remotamente outras máquinas, por exemplo, onde estejam rodando BBSs (sigla em inglês de Bulletin
Board System), redes privadas de computadores, destinadas ao uso exclusivo de seus assinantes.
Algumas BBSs oferecem a seus usuários o acesso à Internet e serviços semelhantes ao da grande rede,
como o E-mail.
As intranets também são redes privadas que estão sendo desenvolvidas pelas empresas com o objetivo
de facilitar a comunicação interna. Elas utilizam os mesmos recursos gráficos da Internet e,
eventualmente, estão conectadas à grande rede.
Internet no Brasil
No Brasil, o acesso à Internet começa em 1990, pela Rede Nacional de Pesquisas (RNP), que liga as
principais instituições de ensino e pesquisa do país. Em julho de 1995, quando acaba o monopólio da
Embratel como provedor único, surgem diversas empresas privadas que disputam esse novo mercado.
Atualmente existem cerca de 500 provedores no país. A provedora Brasil Online, criada pelo Grupo Abril
em julho de 1996, associa-se em setembro do mesmo ano à Universo Online, provedora do Grupo Folha
da Manhã. Em 1996, cerca de 300 mil brasileiros estão conectados à Internet (60% em São Paulo, 15%
no Rio de Janeiro e o restante nas outras cidades) e a previsão era a de que esse número chegasse a 1
milhão em 1997.
O Ciberespaço
Universo virtual onde são produzidas e transportadas as informações dos milhões de usuários de
informática, como na mais famosa rede mundial de computadores, a Internet. A expressão "ciberespaço"
foi criada em 1984 pelo escritor William Gibson, no romance Neuromancer, para indicar o mundo futurista
que atrai o personagem principal.
Realidade Virtual
É a simulação via computador de uma situação real, possível graças ao ciberespaço. No espaço
cibernético, imaterial e sem fronteira, os computadores podem representar uma realidade em três
dimensões, conhecida também como realidade virtual. Ela estabelece uma nova interatividade do
usuário com o computador. Pode-se mexer objetos na tela do aparelho apenas com movimentos dos
dedos, sem o uso do teclado ou do mouse. Óculos, luvas, capacetes, máscaras e sensores ligados ao
corpo ajudam a criar sensações cada vez mais próximas da realidade. O usuário sente a textura de
objetos, a iluminação e temperatura do ambiente. Novos softwares buscam incluir as sensações olfativas
e gustativas.
A realidade virtual é usada na simulação de situações que no mundo real envolvem riscos, como a
análise do interior de um vulcão, uma cirurgia ou a adequação de um projeto arquitetônico ao uso de
deficientes físicos. A Nasa (Administração Nacional da Aeronáutica e Espaço dos Estados Unidos) utiliza
o ciberespaço no treinamento de astronautas para o conserto, por exemplo, de um satélite artificial em
órbita. Na área de entretenimento, os potenciais são enormes e polêmicos: os jogos de computador
ofereceriam sensações mais fortes, como a simulação do disparo de uma arma. O usuário também
poderia fazer sexo com os personagens de um videoerótico.
O que é uma BBS?
Sigla em inglês de Bulletin Board System (literalmente "Sistema para Quadro de Boletins"), significando
algo como um "quadro de avisos" eletrônico, que permite a comunicação entre pessoas através de
computadores e linhas telefônicas. Em geral, são exploradas por empresas. Funcionam basicamente
como um correio eletrônico, conhecido pela sigla (também do inglês) E-mail, através do qual os usuários
enviam e recebem mensagens de qualquer parte do mundo.
Para ter acesso a uma BBS é preciso possuir um computador, um modem (sigla de
modulador/desmodulador, um aparelho que transforma os sinais digitais do computador em sinais
analógicos à linha telefônica e vice-versa), um software de comunicação e uma linha telefônica.
O modem também pode permitir ao computador mandar fax. Para se conectar a uma BBS, é
recomendável um modem de grande velocidade de transmissão de dados, para diminuir o tempo de uso
do telefone. O modem mais simples transmite 2.400 bps (bits por segundo); os mais modernos
transmitem 14.400, 28.800, 36.600 e até mesmo 56.000 bps.
A pessoa pode se cadastrar em uma BBS ligando, via computador, para um número de telefone. Uma
"ficha de inscrição" aparece na tela do computador. A maioria das BBSs cobra pelo direito de acesso.
Cada usuário tem direito a um determinado tempo (minutos ou horas) de uso.
As BBSs costumam ter bibliotecas com softwares de domínio público (gratuitos), ou os chamados
sharewares, programas que podem ser experimentados em parte antes de decidir a sua aquisição.
Há BBSs especializadas em oferecer serviços destinados a públicos específicos, como jogos de
computador, previsão do tempo, indicadores econômicos, bancos de dados etc. Algumas BBSs
brasileiras permitem acesso à maior rede internacional de computadores, a Internet, pagando-se o preço
de uma ligação telefônica local. Atualmente, estão sendo substituídas pelos serviços dos provedores.
Observação
A programação do ENIAC fazia-se por meio do estabelecimento de ligações entre cabos elétricos e o
acionamento de um grande número de interruptores. A partir da década de 50, o progresso deste tipo de
instalações foi cada vez mais acelerado e seguiu uma série de etapas que recebem o nome de
gerações e que abarcam períodos determinados.
Primeira Geração A primeira geração é constituída pelos computadores construídos entre os anos
1950 e 1960. Trata-se das primeiras máquinas deste tipo fabricadas com fins comerciais, sendo o
componente eletrónico básico que tornava possível o seu funcionamento a válvula de vácuo (dispositivo
eletrónico formado por dois eletrodos encerrados numa ampola em que se criou um vácuo). Estas
máquinas programavam-se diretamente em código máquina e eram capazes de realizar até 1000
instruções por segundo.
Segunda Geração A segunda geração é a que compreende os computadores construídos entre
1960 e 1965. Caracteriza-se pelo fato de o componente eletrônico, sobre o qual se baseia, ser o
transistor (dispositivo eletrônico que atua como um interruptor, já que determina a passagem ou não da
corrente entre dois pontos , em função da tensão aplicada a um terceiro ). Este fato faz com que a
referida geração reduza substancialmente o consumo de energia e o volume ocupado pelas máquinas,
assim como por um aumento da fiabilidade e da velocidade de cálculo das instalações. Os progressos do
sistema lógico dos computadores deram lugar ao aparecimento dos sistemas operativos, do
processamento em regime de multi-utilizador das linguagens de alto nível , etc.
Terceira Geração A terceira geração, que abarca o período de 1965 a 1975, caracteriza-se
fundamentalmente pela redução das dimensões das instalações, já que a sua construção e
funcionamento se baseia no emprego de circuitos integrados. Por volta de 1974, logrou-se obter,
graças às técnicas VLSI (Very Large Scale Integrator, integração a muito grande escala) um circuito
integrado que albergava até 20 000 componentes numa superfície de 25 mm2.
Quarta Geração A quarta geração abarca o período desde 1975 até aos nossos dias e caracteriza-
se fundamentalmente pela continuação do processo de integração que culminou, em 1975, com a
consecução de uma escala de integração que permitia colocar 60 000 componentes numa superfície de
25 mm2. Neste aspecto, a integração dos circuitos alcança o nível de VLSI, isto é, a de pelo menos
1000000 transistores em 25 mm2. Por esta razão está ligada com o aparecimento do
microprocessamento (chip no qual se integram a unidade aritmética e lógica, a unidade de controlo e
os registos, isto é, a obtenção mediante circuitos integrados de uma unidade central de processamento).
O aparecimento do microcomputador permitiu, para além do mais, que a informática se popularizasse,
chegando a todos os cantos do planeta e aplicando-se a grande quantidade de atividades humanas,
passando a fazer parte da vida do ser humano. Esta etapa caracteriza-se pela especialização das
aplicações da informática, entre as quais se destacam as telecomunicações , o tratamento eletrônico
da imagem, as bases de dados (coleções de dados inter-relacionados e estruturados que se
armazenam independentemente do programa utilizado e que permitem evitar problemas tais como a
duplicação da informação contida nos ficheiros), a inteligência artificial (ramo da informática que,
superando o nível do cálculo aritmético, se especializa no tratamento lógico da informação), o
desenvolvimento de sistemas específicos, o desenvolvimento de autômatos ou robots capazes.
Quinta GeraçãoA quinta geração, posta em marcha pelas indústrias japonesas de setor e mediante a
qual, a partir de 1981, se trabalha no desenvolvimento de computadores inteligentes, do ponto de vista
do sistema físico, sem por isso abandonar a idéia de um sistema lógico que trabalhe com base na
simulação dos processos que tem lugar no intelecto humano. O conceito das máquinas da quinta
geração baseia-se em quatro elementos fundamentais: o módulo de resolução de problemas, o
dispositivo de gestão das bases de conhecimentos, uma fase intermédia de linguagem natural e,
finalmente, um módulo de programação.

Вам также может понравиться