Академический Документы
Профессиональный Документы
Культура Документы
Nos neste trabalho iremos falar de como surgiu as primeiras ideias , as primeiras
maquina antes de chegar no computador ,os primeiros computadores ,a evolução
do computador , iremos definir a palavra computador e as suas gerações .
Um computador pessoal
Índice
[esconder]
• 1 História dos computadores
○ 1.1 As primeiras máquinas de computar
○ 1.2 Babbage
○ 1.3 A máquina de tabular
○ 1.4 Os primeiros computadores de uso geral
• 2 Arquitetura de hardware
○ 2.1 Processamento
○ 2.2 Memória
2.2.1 Memória primária
2.2.2 Memória secundária
2.2.3 Memória terciária
○ 2.3 Entrada e saída
○ 2.4 Barramentos
• 3 Arquitetura de software
○ 3.1 Instruções
○ 3.2 Programas
○ 3.3 Sistema operacional
• 4 Impactos do computador na sociedade
• 5 Notas e referências
• 6 Ver também
• 7 Ligações externas
LEGENDA: 01- Monitor 02- Placa-Mãe 03- Processador 04- Memória RAM 05- Placas de
Rede, Som, Vídeo, Fax... 06- Fonte de Energia 07- Leitor de CDs e/ou DVDs 08- Disco Rígido
(HD) 09- Mouse (Rato) 10- Teclado
Mesmo que a tecnologia utilizada nos computadores digitais tenha mudado dramaticamente
desde os primeiros computadores da década de 1940 (veja história do hardware), quase todos os
computadores atuais ainda utilizam a arquitetura de von Neumann proposta por John von
Neumann.
Seguindo a arquitetura, os computadores possuem quatro sessões principais, a unidade lógica e
aritmética, a unidade de controle, a memória e os dispositivos de entrada e saída. Essas partes
são interconectadas por barramentos. A unidade lógica e aritmética, a unidade de controle, os
registradores e a parte básica de entrada e saída são conhecidos como a CPU.
Alguns computadores maiores diferem do modelo acima em um aspecto principal - eles têm
múltiplas CPUs trabalhando simultaneamente. Adicionalmente, poucos computadores, utilizados
principalmente para pesquisa e computação científica, têm diferenças significativas do modelo
acima, mas eles não tem grande aplicação comercial.
[editar] Processamento
Memória RAM de um PC
A memória RAM (Random Access Memory) é uma sequência de células numeradas, cada uma
contendo uma pequena quantidade de informação. A informação pode ser uma instrução para
dizer ao computador o que fazer. As células podem conter também dados que o computador
precisa para realizar uma instrução. Qualquer célula pode conter instrução ou dado, assim o que
em algum momento armazenava dados pode armazenar instruções em outro momento. Em geral,
o conteúdo de uma célula de memória pode ser alterado a qualquer momento, a memória RAM é
um rascunho e não um bloco de pedra.
As memórias RAM são denominadas genericamente de DRAM (RAM dinâmica), pelo fato de
possuírem uma característica chamada refrescamento de memória, que tem a finalidade de
regravar os dados armazenados em intervalos regulares de tempo,o que é necessário para a
manutenção de seu conteúdo. O tamanho de cada célula, e o número de células, varia de
computador para computador, e as tecnologias utilizadas para implementar a memória RAM
variam bastante. Atualmente o mais comum é a implementação em circuitos integrados.
Memória ROM
Memória ROM de um PC
A memória ROM (Read-Only Memory) é uma memória que só pode ser lida e os dados não são
perdidos com o desligamento do computador. A diferença entre a memória RAM e a ROM é que
a RAM aceita gravação, regravação e perda de dados. Mesmo se for enviada uma informação
para ser gravada na memória ROM, o procedimento não é executado (esta característica
praticamente elimina a criação de vírus que afetam a ROM).
Um software gravado na ROM recebe o nome de firmware. Em computadores da linha IBM-PC
eles são basicamente três, que são acessados toda vez que ligamos o computador, a saber: BIOS,
POST e SETUP.
Existe uma variação da ROM chamada memória preferencialmente de leitura que permite a re-
gravação de dados. São as chamadas EPROM (Erasable Programmable Read Only Memory) ou
EEPROM (Electrically Erasable Programmable Read-Only Memory).
[editar] Memória secundária
A memória secundária ou memória de massa é usada para gravar grande quantidade de dados,
que não são perdidos com o desligamento do computador, por um período longo de tempo.
Exemplos de memória de massa incluem o disco rígido e mídias removíveis como o CD-ROM, o
DVD, o disquete e o pen drive.
Normalmente a memória secundária não é acessada diretamente pela ULA, mas sim por meio
dos dispositivos de entrada e saída. Isso faz com que o acesso a essa memória seja muito mais
lento do que o acesso a memória primária. Para isso cada dispositivo encontra-se com um buffer
de escrita e leitura para melhoramento de desempenho.
Supostamente, consideramos que a memória terciária está permanentemente ligada ao
computador.
[editar] Memória terciária
Mouse
Os dispositivos de entrada e saída (E/S) são periféricos usados para a interação homem-
computador. Nos computadores pessoais modernos, dispositivos comuns de entrada incluem o
mouse (ou rato), o teclado, o digitalizador e a webcam. Dispositivos comuns de saída incluem a
caixa de som, o monitor[3] e a impressora.
O que todos os dispositivos de entrada têm em comum é que eles precisam codificar (converter)
a informação de algum tipo em dados que podem ser processados pelo sistema digital do
computador. Dispositivos de saída por outro lado, descodificam os dados em informação que é
entendida pelo usuário do computador. Neste sentido, um sistema de computadores digital é um
exemplo de um sistema de processamento de dados.
Podemos ter dispositivos que funcionam tanto para entrada como para saída de dados, como o
modem e o drive de disquete. Atualmente, outro dispositivo de híbrido de dados é a rede de
computadores.
Blocos funcionais de um computador
[editar] Barramentos
Para interligar todos esses dispositivos existe uma placa de suporte especial, a placa-mãe, que
através de barramentos, fios e soquetes conecta todos os dispositivos. Sua função inclui também
a conexão de placas auxiliares que sub-controlam os periféricos de entrada e saída, como a placa
de som (conecta-se com a caixa de som), a placa de vídeo (conecta-se com o monitor), placa de
rede (conecta-se com a LAN) e o fax-modem (conecta-se com a linha telefônica).
Nota-se que o barramento entre os componentes não constitui uma conexão ponto-a-ponto; ele
pode conectar logicamente diversos componentes utilizando o mesmo conjunto de fios. O
barramento pode utilizar uma interface serial ou uma interface paralela.
Outros equipamentos adicionais usados em conjunto com a placa-mãe são o dissipador, um
pequeno ventilador para resfriar o processador, e a fonte de energia, responsável pela
alimentação de energia de todos os componentes do computador.
[editar] Arquitetura de software
[editar] Instruções
A principal característica dos computadores modernos, o que o distingue de outras máquinas, é
que pode ser programado. Isto significa que uma lista de instruções pode ser armazenada na
memória e executa posteriormente.
e chegar na mesma resposta correta com pouco trabalho. Alguns computadores modernos
conseguem tomar algumas decisões para acelerar a execução dos programas ao prever instruções
futuras e reorganizar a ordem de instruções sem modificar seu significado. Entretanto, os
computadores ainda não conseguem determinar instintivamente uma maneira mais eficiente de
realizar sua tarefa, pois não possuem conhecimento para tal [4].
[editar] Programas
Definições no Wikcionário
Citações no Wikiquote
Imagens e media no
Commons
• Computador doméstico
• Computador pessoal
• Mainframe
• Notebook
• Servidor
• Sistema operacional
• Supercomputador
• Teoria da computação
[Esconder]
v•d•e
Objetos domiciliares
Sala de estar Televisão • Sofá • Rádio • Poltrona • Tapete • Estante • Telefone • Relógio de parede
Sala de jantar Mesa • Cadeira • Aparador
Geladeira • Fogão • Talher • Micro-ondas • Pia • Lava-louças • Armário • Liquidificador •
Cozinha
Batedeira • Espremedor de frutas
Cama • Guarda-roupas • Criado-mudo • Abajur • Beliche • Despertador • Colchão •
Quarto
Ventilador • Computador
Banheiro Vaso sanitário • Chuveiro • Torneira • Ralo • Espelho • Penico • Box • Escova de dentes
Área de serviço Rodo • Balde • Lixeira • Vassoura • Tanque • Máquina de lavar roupa • Aspirador de pó
Quadro • Gaveta • Porta • Janela • Maçaneta • Cadeado • Chave • Desentupidor de pia •
Outros
Desentupidor de vaso sanitário
Obtido em "http://pt.wikipedia.org/wiki/Computador"
Categoria: Computadores
História da computação
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
História da ciência
Navegação
Portal
Categorias
Cronologias
Teorias
Historiografia
Filosofia
Períodos
Civilizações antigas
Grécia e Roma
Mundo islâmico
Europa medieval
Renascimento
Revolução científica
Iluminismo
Industrial
Contemporânea
Disciplinas
Astronomia
Biologia
Computação
Física
Geografia
Geologia
Matemática
Medicina
Odontologia
Química
Tecnologia
Locais
Portugal
Brasil
Índice
[esconder]
• 1 Computação
• 2 Os Algoritmos
• 3 A Revolução Industrial
• 4 Babbage e Ada
• 5 A Lógica Binária
• 6 Shannon e a Teoria da Informação
• 7 Hollerith e sua máquina de perfurar cartões
• 8 O primeiro computador
• 9 A guerra e os computadores
• 10 O nascimento da Ciência da Computação
• 11 O Trabalho Teórico
• 12 Alan Turing
• 13 O Teste de Turing
• 14 Von Neumann
• 15 Primeiros computadores pessoais
• 16 A Apple e a popularização
• 17 Os computadores pessoais para empresas
• 18 A Parceria IBM - Microsoft
• 19 A aposta da Apple para continuar no topo
• 20 Os "IBM-PC Compatíveis"
• 21 Gerações de computadores
• 22 Realizações para a sociedade
• 23 Ver também
• 24 Bibliografia Recomendada
• 25 Ligações Externas
[editar] Computação
Ver artigos principais: Numeração, Ábaco.
A capacidade do ser humano em calcular quantidades nos mais variados modos foi um dos
fatores que possibilitaram o desenvolvimento da matemática e da lógica. Nos primórdios da
matemática e da álgebra, utilizavam-se os dedos das mãos para efetuar cálculos.
Na região do Mar Mediterrâneo, surgiram o alfabeto e o ábaco.
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a
habitantes da Mesopotâmia, em torno de 2400 a.C.. Seu uso original era desenhar linhas na areia
com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa de bronze
cheia de sulcos. Também surgiram alguns termos matemáticos: em latim "Calx" significa
mármore, assim "Calculos" era uma bolinha do ábaco, e fazer cálculos aritméticos era
"Calculare".
No século V a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando
3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou
meta-regras, transformações e recursividade com tamanha sofisticação que sua gramática possuía
o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas
logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os
logaritmos para uso computacional no século XVI, seguiu-se um período de considerável
progresso na construção de ferramentas de cálculo.
John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier,
que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.
A primeira máquina de verdade foi construída por Wilhelm Schickard (1592-1635), sendo capaz
de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta
anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos
anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a
construção da primeira máquina calculadora, que fazia apenas somas e subtrações.
A primeira calculadora capaz de realizar as operações básicas de soma e subtração foi inventada
em 1642 pelo filósofo, físico e matemático francês Blaise Pascal. Pascal, que aos 18 anos
trabalhava com seu pai em um escritório de coleta de impostos na cidade de Rouen, desenvolveu
a máquina para auxiliar o seu trabalho de contabilidade. A calculadora usava engrenagens que a
faziam funcionar de maneira similar a um odômetro. Pascal recebeu uma patente do rei da
França para que lançasse sua máquina no comércio. A comercialização de suas calculadoras não
foi satisfatória devido a seu funcionamento pouco confiável, apesar de Pascal ter construído
cerca de 50 versões.
A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen,
França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm
Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo
o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.
Em 1671, o filósofo e matemático alemão de Leipzig,Gottfried Wilhelm Leibniz introduziu o
conceito de realizar multiplicações e divisões através de adições e subtrações sucessivas. Em
1694, a máquina foi construída, no entanto, sua operação apresentava muita dificuldade e sujeita
a erros.
Em 1820, o francês natural de Paris, Charles Xavier Thomas, conhecido como Thomas de
Colmar,projetou e construiu uma máquina capaz de efetuar as 4 operações aritméticas básicas: a
Arithmomet. Esta foi a primeira calculadora realmente comercializada com sucesso. Ela fazia
multiplicações com o mesmo princípio da calculadora de Leibnitz e efetuava as divisões com a
assistência do usuário.
Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram
programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a
respeito do que fazer com os números.
[editar] Os Algoritmos
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de
numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa Al-
Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do
sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do
século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais
livros apresentaram novos conceitos para definir sequências de passos para completar tarefas,
como aplicações de aritmética e álgebra. Por derivação do nome, atualmente usa-se o termo
algoritmo.
[editar] A Revolução Industrial
Em 1801, na França, durante a Revolução Industrial, Joseph Marie Jacquard, mecânico frânces,
(1752-1834) inventou um tear mecânico controlado por grandes cartões perfurados. Sua máquina
era capaz de produzir tecidos com desenhos bonitos e intrincados. Foi tamanho o sucesso que
Jacquard foi quase morto quando levou o tear para Lyon, pois as pessoas tinham medo de perder
o emprego. Em sete anos, já havia 11 mil teares desse tipo operando na França.
[editar] Babbage e Ada
Ver artigo principal: Máquina analítica
A origem da idéia de programar uma máquina vem da necessidade de que as máquinas de tecer
produzissem padrões de cores diferentes. Assim, no século XVIII foi criada uma forma de
representar os padrões em cartões de papel perfurado, que eram tratados manualmente. Em 1801,
Joseph Marie Jacquard (1752-1834) inventa um tear mecânico, com uma leitora automática de
cartões.
A idéia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage (1792-1871),
um professor de matemática de Cambridge, a desenvolver uma máquina de “tecer números”,
uma máquina de calcular onde a forma de calcular pudesse ser controlada por cartões.
O brilhante matemático inglês Charles Babbage (26 de dezembro de 1791 - 18 de outubro de
1871) é conhecido como o "Pai do Computador". Babbage projetou o chamado "Calculador
Analítico", muito próximo da concepção de um computador atual.
Os mainframes surgiam cada vez maiores e caros, sendo utilizados apenas por grandes empresas.
Até o final dos anos 70, reinavam absolutos os mainframes, computadores enormes, trancados
em salas refrigeradas e operados apenas por alguns poucos privilegiados. Apenas grandes
empresas e bancos podiam investir alguns milhões de dólares para tornar mais eficientes alguns
processos internos e o fluxo de informações. A maioria dos escritórios funcionava mais ou menos
da mesma maneira que no começo do século. Arquivos de metal, máquinas de escrever, papel
carbono e memorandos faziam parte do dia-a-dia.
Segundo o Computer History Museum, o primeiro "computador pessoal" foi o Kenbak-1,
lançado em 1971. Tinha 256 bytes de memória e foi anunciado na revista Scientific American por
US$ 750; todavia, não possuía CPU e era, como outros sistemas desta época, projetado para uso
educativo (ou seja, demonstrar como um "computador de verdade" funcionava). Em 1975, surge
o Altair 8800, um computador pessoal baseado na CPU Intel 8080. Vendido originalmente como
um kit de montar através da revista norte-americana Popular Electronics, os projetistas
pretendiam vender apenas algumas centenas de unidades, tendo ficado surpresos quando
venderam 10 vezes mais que o previsto para o primeiro mês. Custava cerca de 400 doláres e se
comunicava com o usuário através de luzes que piscavam. Entre os primeiros usuários estavam o
calouro da Universidade de Harvard, Bill Gates, e o jovem programador, Paul Allen, que juntos
desenvolveram uma versão da linguagem "Basic" para o Altair. Pouco tempo depois, a dupla
resolveu mudar o rumo de suas carreiras e criar uma empresa chamada Microsoft.
Nos anos seguintes, surgiram dezenas de novos computadores pessoais como o Radio Shack
TRS-80 (O TRS-80 foi comercializado com bastante sucesso no Brasil pela Prológica com os
nomes de CP-300 e CP-500), Commodore 64, Atari 400 e outros com sucesso moderado.
[editar] A Apple e a popularização
O Apple II foi lançado em 1977 com teclado integrado, gráficos coloridos, sons, gabinete de
plástico e oito slots de expansão.
Em 1976, outra dupla de jovens, Steve Jobs e Steve Wozniak, iniciou outra empresa que mudaria
o rumo da informática: a Apple.
Jobs e Wozniak abandonaram a Universidade de Berkeley para poderem se dedicar ao
computador pessoal criado por Wozniak, o Apple I. Como Wozniak trabalhava para a HP, o seu
projeto precisava ser apresentado para a empresa que recusou de imediato a idéia. Isso abriu o
caminho para a criação da Apple, empresa fundada pelos dois que comercializaria os
computadores. Montados na garagem de Jobs, os 200 primeiros computadores foram vendidos
nas lojas da vizinhança a US$ 500 cada. Interessado no projeto, Mike Makula (na época vice-
presidente de marketing da Intel), resolveu investir US$ 250 mil na Apple.
Alguns meses depois, já em 1977, foi lançado o primeiro microcomputador como conhecemos
hoje, o Apple II. O equipamento já vinha montado, com teclado integrado e era capaz de gerar
gráficos coloridos. Parte da linguagem de programação do Apple II havia sido feita pela
Microsoft, uma variação do BASIC para o Apple II. As vendas chegaram a US$ 2,5 milhões no
primeiro ano de comercialização e, com o seu rapido crescimento de vendas, a Apple tornou-se
uma empresa pública (ou seja, com ações que podem ser adquiridas por qualquer um na bolsa de
valores) e ela construiu a sua sede principal - Infinite Loop - em Cupertino, Califórnia.
Com o sucesso do Apple II, vieram o Visicalc (a primeira planilha eletrônica inventada),
processadores de texto e programas de banco de dados. Os micros já podiam substituir os fluxos
de caixa feitos com cadernos e calculadoras, máquinas de escrever e os arquivos de metal usados
para guardar milhares de documentos. Os computadores domésticos deixaram então de ser
apenas um hobby de adolescentes para se tornarem ferramentas indispensáveis para muitas
pessoas.
Entretanto, até o começo dos anos 80, muitos executivos ainda encaravam os computadores
pessoais como brinquedos. Além das mudanças de hábitos necessárias para aproveitar a nova
tecnologia, os mais conservadores tinham medo de comprar produtos de empresas dirigidas por
um rapaz de 26 anos que há menos de 5 trabalhava na garagem dos pais.
[editar] Os computadores pessoais para empresas
Ver artigo principal: IBM-PC
O IBM PC utilizava o PC-DOS e possuia a BIOS como única parte de produção exclusiva da
IBM.
Em 1980, a IBM estava convencida de que precisava entrar no mercado da microinformática e o
uso profissional dos micros só deslanchou quando ela entrou nesse mercado. A empresa
dominava (e domina até hoje) o mercado de computadores de grande porte e, desde a primeira
metade do século XX, máquinas de escrever com sua marca estavam presentes nos escritórios de
todo mundo. Como não estava acostumada à agilidade do novo mercado, criado e dominado por
jovens dinâmicos e entusiasmados, a gigantesca corporação decidiu que o PC não podia ser
criado na mesma velocidade na qual ela estava acostumada a desenvolver novos produtos.
Por isso, a empresa criou uma força tarefa especial para desenvolver o novo produto. Assim, um
grupo de 12 engenheiros liderados por William C. Lowe foi instalado em um laboratório em
Boca Raton, na Flórida, longe dos principais centros de desenvolvimento da corporação que, até
hoje, ficam na Califórnia e em Nova Iorque. O resultado desse trabalho foi o IBM-PC, que tinha
um preço de tabela de US$ 2.820, bem mais caro que os concorrentes, mas foi um sucesso
imediato. Em 4 meses foram vendidas 35 mil unidades, 5 vezes mais do que o esperado. Como
observou o jornalista Robert X Cringley: "ninguém nunca tinha sido despedido por comprar
produtos IBM". Os micros deixaram definitivamente de ser um brinquedo.
[editar] A Parceria IBM - Microsoft
Como todo computador, o IBM PC precisava de um Sistema Operacional para poder ser
utilizado. Durante o processo de desenvolvimento do IBM PC, houve uma tentativa sem sucesso
de contratar a Digital Research, uma empresa experiente na criação de Sistemas Operacionais,
para o desenvolvimento do Sistema Operacional da IBM.
Sem outra alternativa, a IBM recorreu a Microsoft que ofereceu um Sistema Operacional para a
IBM, mas na verdade eles não tinham nada pronto. Ao assinar o contrato de licenciamento do
DOS (Disk Operating System - Sistema Operacional de Disco) para a IBM, Bill Gates e Paul
Allen foram atrás da Seatlle Computer, uma pequena empresa que desenvolvia o Sistema
Operacional QDOS e que o vendeu para a Microsoft por US$ 50.000 sem imaginar o fim que
esse sistema teria.
A Microsoft então adaptou-o e criou o PC-DOS. O contrato com a IBM previa uma royalty (de
10 a 50 dólares por cada máquina vendida) e um pequeno pagamento inicial. Mas o sistema
continuava sobre propriedade da Microsoft, assim como a possibilidade de distribuir versões
modificadas (MS-DOS).
Esse contrato é, sem dúvida alguma, um dos mais importantes do século XX pois, através desse
contrato, a Microsoft deixou de ser uma microempresa de software para se tornar a empresa mais
poderosa no ramo da informática e tornar Bill Gates um dos homens mais ricos do mundo
actualmente.
[editar] A aposta da Apple para continuar no topo
A aposta Apple para se manter no topo do mercado: o Macintosh. Sua interface gráfica deixava a
IBM décadas atrás.
Em dezembro de 1979, a Apple Computer era a empresa de maior sucesso da microinformática.
O carro chefe da empresa, o Apple II+ já estava presente em escolas e residências da elite
americana. Entretanto, as máquinas ainda eram difíceis de usar. Para operar um
microcomputador, era preciso conhecer a "linguagem" do sistema operacional e a sintaxe correta
para aplicá-la. Todas as interações do usuário com a máquina eram feitas através da digitação de
comandos. Uma letra errada e a operação não era realizada, exigindo a digitação do comando
correto. Assim, antes de aproveitar os benefícios da informática, era indispensável aprender
todos os comandos de controle do computador.O computador da Apple estava com quase 2 anos
de existência e já começava a ficar velho. A empresa precisava criar algo novo para continuar
competindo.
A Xerox, empresa que dominava o mercado de copiadoras, acreditava que o seu negócio poderia
perder rentabilidade com a redução do fluxo de documentos em papel, por causa do uso de
documentos em formato eletrônico. Foi criado então, em 1970, o Palo Alto Research Center
(PARC) com o intuito de inventar o futuro.Nessa época o PARC desenvolvia muitas novidades
como as redes locais e impressoras laser, mas a pesquisa mais importante era a interface gráfica e
o mouse. Após grandes desastres na tentativa de comercializar computadores do PARC (o
computador do PARC saia por US$ 17 mil enquanto o da IBM custava apenas US$ 2,8 mil), a
Xerox desistiu do projeto.
Steve Jobs também desenvolvia nos laboratórios da Apple a interface gráfica. Buscando saber
detalhes de como ela ficaria depois de pronta, trocou opções de compra de ações da Apple por
uma visita detalhada de três dias ao PARC. O primeiro produto lançado pela Apple usando os
conceitos criados pela Xerox foi o Lisa. Apesar de moderno, não chegou a ser produzido em
grande quantidade, pois o mercado não estava preparado para pagar quase US$ 10 mil apenas
pela facilidade de uso.
Em 1979 Jef Raskin, um especialista em interfaces homem-máquina, imaginou um computador
fácil de utilizar e barato para o grande público. Ele então lançou as bases do projeto Macintosh.
O projeto inovador do Macintosh atraiu a atenção de Steve Jobs, que saiu do projeto Lisa com
sua equipe para se concentrar no projeto Macintosh. Em janeiro de 1981, ele tomou a direção do
projeto, forçando Jef Raskin a deixar o mesmo.
Em 24 de janeiro de 1984 surgiu o Macintosh, o primeiro computador de sucesso com uma
interface gráfica amigável, usando ícones, janelas e mouse. Sua acolhida foi extremamente
entusiástica, grande parte disso devido as campanhas publicitárias em massa da Apple. O
principal anúncio de seu lançamento foi durante o intervalo da Super Bowl XVIII (evento
comparável com a importância da Copa do Mundo para o Brasil). Essa propaganda é conhecida
como "1984", pois era baseada no livro "Nineteen Eighty-Four" (Mil Novecentos e Oitenta e
Quatro) de George Orwell, e retrata um mundo no qual todos eram submetidos ao regime
totalitário do "Big Brother" (Grande Irmão). Uma heroína representada por Anya Major destroí
um telão no qual o Big Brother falava ao público. O intuito do comercial era relacionar a IBM ao
"Big Brother" e a heroína à Apple.
[editar] Os "IBM-PC Compatíveis"
Ver artigo principal: IBM PC compatível
A clonagem do BIOS quase tirou a IBM do mercado de PCs.
O mesmo grupo que criou o IBM-PC também definiu que o componente básico do computador,
a BIOS, seria de fabricação exclusiva da IBM. Esse chip tem a finalidade de fornecer aos PCs
uma interface de entrada e saída de dados. Como todos os outros componentes do computador
eram fabricados por outras empresas, a IBM tinha nesses chips a sua maior fonte de renda e a
única coisa que vinculava qualquer PC à IBM.
Alguma empresas, dentre elas a Compaq, aplicaram a técnica de engenharia reversa no BIOS,
clonaram-na e construíram computadores similares ao da IBM. Em novembro de 1982, a
Compaq anuncia o Compaq Portable, primeiro PC que não usa a BIOS da IBM e mantém 100%
de compatibilidade com o IBM PC.
Esses computadores são conhecidos como "IBM PC compatíveis" e são os PCs que são vendidos
nas lojas até hoje, apenas bem mais evoluídos do que os primeiros PCs. Isso levou a IBM a se
tornar uma simples empresa que fabricava computadores pessoais e concorria como qualquer
outra nesse mercado. A IBM praticamente abandonou o mercado de PCs e se dedicou ao
mercado de servidores, na qual é imbatível até hoje.
[editar] Gerações de computadores
A arquitetura de um computador depende do seu projeto lógico, enquanto que a sua
implementação depende da tecnologia disponível.
As três primeiras gerações de computadores refletiam a evolução dos componentes básicos do
computador (hardware) e um aprimoramento dos programas (software) existentes.
Os computadores de primeira geração (1945–1959) usavam válvulas eletrônicas, quilômetros de
fios, eram lentos, enormes e esquentavam muito.
A segunda geração (1959–1964) substituiu as válvulas eletrônicas por transístores e os fios de
ligação por circuitos impressos, o que tornou os computadores mais rápidos, menores e de custo
mais baixo.
A terceira geração de computadores (1964–1970) foi construída com circuitos integrados,
proporcionando maior compactação, redução dos custos e velocidade de processamento da
ordem de microssegundos. Tem início a utilização de avançados sistemas operacionais.
A quarta geração, de 1970 até hoje, é caracterizada por um aperfeiçoamento da tecnologia já
existente, proporcionando uma otimização da máquina para os problemas do usuário, maior grau
de miniaturização, confiabilidade e velocidade maior, já da ordem de nanossegundos
(bilionésima parte do segundo).
O termo quinta geração foi criado pelos japoneses para descrever os potentes computadores
"inteligentes" que queriam construir em meados da década de 1990. Posteriormente, o termo
passou a envolver elementos de diversas áreas de pesquisa relacionadas à inteligência
computadorizada: inteligência artificial, sistemas especialistas e linguagem natural. Mas o
verdadeiro foco dessa ininterrupta quinta geração é a conectividade, o maciço esforço da
indústria para permitir aos usuários conectarem seus computadores a outros computadores. O
conceito de supervia da informação capturou a imaginação tanto de profissionais da computação
como de usuários comuns.
[editar] Realizações para a sociedade
Apesar de sua pequena história enquanto uma disciplina acadêmica, a ciência da computação deu
origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi
responsável pela definição formal de computação e computabilidade, e pela prova da existência
de problemas insolúveis ou intratáveis computacionalmente. Também foi possível a construção e
formalização do conceito de linguagem de computador, sobretudo linguagem de programação,
uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para
ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a ciência da computação
forneceu suporte para a Revolução Digital, dando origem a Era da Informação. A computação
científica é uma área da computação que permite o avanço de estudos como o mapeamento do
genoma humano
[editar] Ver também
Evolução dos pc
Os Primórdios da Computação
Apesar dos computadores eletrônicos terem efetivamente aparecido somente na década de 40, os
fundamentos em que se baseiam remontam a centenas ou até mesmo milhares de anos.
Se levarmos em conta que o termo COMPUTAR significa fazer cálculos, contar, efetuar operações
aritméticas, COMPUTADOR seria então o mecanismo ou máquina que auxilia essa tarefa, com
vantagens no tempo gasto e na precisão. Inicialmente o homem utilizou seus próprios dedos para essa
tarefa, dando origem ao sistema DECIMAL e aos termos DIGITAL e DIGITO. Para auxílio deste método,
eram usados gravetos, contas ou marcas na parede.
A partir do momento que o homem pré-histórico trocou seus hábitos nômades por aldeias e tribos fixas,
desenvolvendo a lavoura, tornou-se necessário um método para a contagem do tempo, delimitando as
épocas de plantio e colheita.
Tábuas de argila foram desenterradas por arqueólogos no Oriente Médio, próximo à Babilônia, contendo
tabuadas de multiplicação e recíprocos. Acredita-se que tenham sido escritas por volta de 1700 a.C. e
usavam o sistema sexagesimal (base 60), dando origem às nossas atuais unidades de tempo.
O Ábaco
Na medida em que os cálculos foram se complicando e aumentando de tamanho, sentiu-se a
necessidade de um instrumento que viesse em auxílio, surgindo assim há cerca de 2.500 anos o
ÁBACO. Este era formado por fios paralelos e contas ou arruelas deslizantes que, de acordo com a sua
posição, representava a quantidade a ser trabalhada.
O ábaco russo era o mais simples: continha 10 contas, bastando contá-las para obtermos suas
quantidades numéricas. O ábaco chinês possuía 2 conjuntos por fio, contendo 5 contas no conjunto das
unidades e 2 contas que representavam 5 unidades. A variante do ábaco mais conhecida é o SOROBAN,
ábaco japonês simplificado (com 5 contas por fio, agrupadas 4x1), ainda hoje utilizado, sendo que em
uso por mãos treinadas continuam eficientes e rápidos para trabalhos mais simples.
Esse sistema de contas e fios recebeu o nome de calculi pelos romanos, dando origem à palavra cálculo.
Ábaco Chinês - aproximadamente Soroban - Ábaco Japonês
Em 1633, um sacerdote inglês chamado William Oughtred, teve a idéia de representar esses logaritmos
de Napier em escalas de madeira, marfim ou outro material, chamando-o de CÍRCULOS DE
PROPORÇÃO. Este dispositivo originou a conhecida RÉGUA DE CÁLCULOS. Como os logarítmos são
representados por traços na régua e sua divisão e produto são obtidos pela adição e subtração de
comprimentos, considera-se como o primeiro computador analógico da história.
Régua de Cálculos - O primeiro computador analógico
A Programação
A maior evolução seguinte foi o contador mecânico, criado pelo matemático Blaise Pascal, que utilizou
engrenagens para somas e multiplicações. Essas máquinas se chamavam Pascalinas. As calculadoras
da geração da Pascalina executavam somente operações seqüenciais, completamente independentes. A
cada cálculo o operador deve intervir, introduzindo novos dados e o comando para determinar qual
operação deve ser efetuada. Essas máquinas não tinham capacidade para tomar decisões baseadas nos
resultados.
Em 1801, Joseph Marie Jacquard, mecânico francês, sugeriu controlar teares por meio de cartões
perfurados. Os cartões forneceriam os comandos necessários para a tecelagem de padrões complicados
em tecidos. Os princípios de programação por cartões perfurados foram demonstrados por Bouchon,
Falcon e Jaques entre 1725 e 1745.
Em 1786, o engenheiro J. Muller, planejou a construção de uma máquina para calcular e preparar
tabelas matemáticas de algumas funções. A máquina Diferencial, como foi chamada, introduzia o
conceito de registros somadores.
A Informática
O que é Informática?
Ciência que desenvolve e utiliza máquinas para tratamento, transmissão, armazenamento, recuperação
e utilização de informações. O computador - capaz de realizar várias operações matemáticas em curto
espaço de tempo, de acordo com programas pré-estabelecidos - é a principal máquina utilizada.
O desenvolvimento da informática tem permitido o surgimento de computadores cada vez menores, mais
baratos e com maior capacidade. Atualmente, um computador laptop de US$ 2 mil é muito mais potente
do que um computador de grande porte da década de 70, que custava US$ 10 milhões. Esse
barateamento é um fator decisivo na popularização dos computadores. Se há 25 anos existiam apenas
50 mil computadores no mundo inteiro, hoje há cerca de 140 milhões.
Primeiros computadores
Em 1890, o norte americano Hermann Hollerith (1860-1929) desenvolve o primeiro computador
mecânico. A partir de 1930, começam as pesquisas para substituir as partes mecânicas por elétricas. O
Mark I, concluído em 1944 por uma equipe liderada por Howard Aiken, é o primeiro computador
eletromecânico capaz de efetuar cálculos mais complexos sem a interferência humana. Ele mede 15 m x
2,5 m e demora 11 segundos para executar um cálculo. Em 1946, surge o Eniac (Electronic Numerical
Integrator and Computer), primeiro computador eletrônico e digital automático: pesa 30 toneladas,
emprega cerca de 18 mil válvulas e realiza 4.500 cálculos por segundo. O Eniac contém a arquitetura
básica de um computador, empregada até hoje: memória principal (área de trabalho), memória auxiliar
(onde são armazenados os dados), unidade central de processamento (o "cérebro" da máquina, que
executa todas as informações) e dispositivos de entrada e saída de dados que atualmente permitem a
ligação de periféricos como monitor, teclado, mouse, scanner, tela, impressora, entre outros. A invenção
do transistor, em 1947, substitui progressivamente as válvulas, aumentando a velocidade das máquinas.
Os Computadores Pessoais
O tamanho e o preço dos computadores começam a diminuir a partir da década de 50. Neste período,
inicia-se a pesquisa dos circuitos integrados, os chips , responsáveis pela crescente miniaturização dos
equipamentos eletrônicos. Em 1974, a Intel projeta o microprocessador - dispositivo que reúne num
mesmo chip, todas as funções do processador central - tecnologia que permite a criação do computador
pessoal, ou microcomputador. O primeiro computador pessoal é o Apple I, inventado em 1976 pelos
americanos Steve Jobs (1955-) e Stephan Wozniak.
Em 1981, a IBM lança o seu PC (Personal Computer), que se torna um sucesso comercial. O sistema
operacional usado é o MS-DOS, desenvolvido pela empresa de softwares Microsoft. Na época, Bill Gates
, o dono da Microsoft, convence a IBM e as demais companhias a adotarem o sistema operacional de
sua empresa. Isso permite que um mesmo programa funcione em micros de diversos fabricantes.
Posteriormente, os PCs passam a usar microprocessadores cada vez mais potentes: 286, 386SX,
386DX, 486SX, 486DX. O Pentium, que surge nos anos 90, é atualmente o processador mais avançado
usado em PCs.
O único micro a fazer frente aos PCs é o Macintosh, lançado em 1984, que revoluciona o mercado ao
promover o uso de ícones e do mouse. No ano seguinte, a Microsoft lança a interface gráfica Windows,
adaptando para os PCs o uso de ícones e do mouse. O Windows só alcança sucesso a partir de 90, com
a versão 3.0. A nova versão, lançada em 1995, totaliza 45,8 milhões de usuários registrados pela
Microsoft em dezembro de 1996.
Na década de 90 surgem os computadores que, além do processamento de dados, reúnem fax, modem,
secretária eletrônica, scanner, acesso à Internet e drive para CD-ROM. Os CDs-ROM, sigla de compact
disc read-only memory, criados no início da década, são discos a laser que armazenam até 650
megabytes, 451 vezes mais do que um disquete (1,44 megabytes). Além de armazenar grande
quantidade de texto, o CD-ROM tem capacidade de arquivar fotos, vídeos e animações. Em 1996 é
anunciado o lançamento do DVD (digital vídeo disc), que nos próximos anos deve substituir o CD-ROM e
as fitas de videocassete. O DVD é um compact-disc com capacidade de 4,7 gigabytes (cerca de 7 CDs-
ROM). Segundo os fabricantes, terá a capacidade de vídeo de um filme de 135 minutos em padrão de
compressão MPEG (tela cheia) e alta qualidade de áudio. Terá o mesmo diâmetro e espessura dos CDs
atuais, mas será reproduzido em um driver específico, que também poderá ser ligado à televisão. Alguns
CDs-ROM são interativos, ou seja, permitem que o usuário controle, à vontade, a navegação pelo seu
conteúdo. Os computadores portáteis (laptops e palmtops), marcas da miniaturização da tecnologia,
também se popularizam nos anos 90.
Inteligência Artificial
Nesse final de século surge um novo ramo na informática, a inteligência artificial, que estuda métodos de
simular o pensamento humano nos computadores com o objetivo de substituir o homem pela máquina
em atividades mecanizadas. Alguns computadores já funcionam com modelos de raciocínio e
comportamento humanos, auxiliando médicos em diagnósticos, praticando diversos jogos e compondo
músicas. Entre eles está o Deep Blue, computador ultra veloz, com 256 unidades de processamento de
dados (o normal é uma), fabricado pela IBM após cinco anos de pesquisas. Em 1996, o Deep Blue -
capaz de analisar 200 milhões de lances por segundo em um jogo de xadrez - vence uma disputa com o
campeão mundial de xadrez, o russo Garry Kasparov. Há também o COG, protótipo de robô que está
sendo projetado e construído pelo Instituto de Tecnologia de Massachusetts (MIT). Sua forma é
semelhante à do homem: tem cabeça, olhos e braços. O robô, cujo sistema nervoso artificial é 64 vezes
mais potente do que um Macintosh, irá simular as fases de crescimento do homem, seus pensamentos e
sentimentos.
Impactos na Sociedade
O desenvolvimento da informática exerce um grande impacto no modo de produção da sociedade. O
computador torna-se uma importante ferramenta de trabalho, contribuindo para o aumento da
produtividade, redução de custos e melhoria da qualidade dos produtos. Vários setores da economia já
estão informatizados, entre os quais a indústria, a pesquisa científica, a educação, o sistema financeiro,
as comunicações e a astronáutica. Nas fábricas, os robôs substituem gradativamente a mão de obra
humana em trabalhos que envolvem risco e em atividades mecânicas, como as linhas de produção e
montagem. Essa automação progressiva é a causa da eliminação de vários postos de trabalho como
caixas de banco, telefonistas e datilógrafos, tendência que é conhecida por desemprego estrutural. Por
outro lado, a informática também cria novas categorias de profissionais, cuja principal característica é o
domínio das tecnologias da atualidade.
Na pesquisa científica, o computador tem possibilitado a simulação de experiências inviáveis na
realidade, devido ao alto custo ou periculosidade, como situações de temperatura excessiva ou de
explosões. Na educação há uma grande variedade de softwares que ensinam Desenho, Música ou
Gramática. Os bancos oferecem um número cada vez maior de serviços informatizados, como os caixas
eletrônicos e as consultas on-line a partir de um computador pessoal ligado à agência. Na área das
comunicações, a grande inovação é a interligação dos computadores de todo o mundo numa grande
rede, a Internet. Na astronáutica, os satélites artificiais informatizados fazem, entre outras aplicações, o
mapeamento da atmosfera terrestre e de outros planetas.
O Sinclair/TK85 Spectrum
Sinclair
O Sinclair foi um dos primeiros computadores pessoais e foi muito famoso na sua época.
O Lançamento do Spectrum
Em 1982, segundo se conta, o empresário britânico Sir Clive Sinclair desenvolveu o ZX Spectrum para
participar de um concurso promovido pela BBC, que premiaria um computador pessoal de baixo preço
com acessão de suas iniciais e apoio no marketing. O vencedor, entretanto, foi outro (o Acorn), e Sinclair
decidiu lançar o seu micro por conta própria, como "sucessor" de suas espetaculares criações ZX 80 e
ZX 81.
Existiam então duas versões disponíveis: 16k e 48k de memória RAM. Além disso, contava com 16k de
ROM, 16 cores (uma revolução (!) numa época em que "cor" era sinônimo de videogame...) (oito básicas
mais um modo especial para cada uma delas, "Bright On/Off"), som, gráficos de alta resolução (256x192
pixels) e linguagem BASIC inclusa, fácil de usar. E tudo isso por apenas 180 libras! Por causa disso tudo,
jogos e aplicativos eram lançados num ritmo surpreendente.
Sir Clive Sinclair
A Ascensão do Spectrum
Em 1983, 200 mil computadores já tinham sido vendidos. No Brasil, a Microdigital lança um novo micro, o
TK85. Era, em poucas palavras, um ZX 81 com gabinete e teclado exatamente iguais ao ZX Spectrum
(isso inclusive gerou um processo judicial!) ... O clone brasileiro do ZX Spectrum demoraria ainda dois
anos para ser lançado, acompanhando a tradição do nosso mercado reservado, muito atrás do resto do
mundo!
Para atender às inúmeras reclamações dos usuários quanto às teclas de borracha, em 1984 foi lançado
o Spectrum +, com um novo teclado de plástico (que parece ter gerado uma nova onda de reclamações)
e um botão RESET. A Sinclair Research torna-se então campeã de vendas na Grã - Bretanha.
Em 1985, existiam então naquelas praias seis milhões de usuários, acompanhando o lançamento do
Spectrum 128. Entretanto, nessa época o mundo toma conhecimento da geração 16 bits, e o declínio
parece inevitável.
Em meados de 1985 a Microdigital lança no Brasil o TK 90X. Custando cerca de 250 dólares no
lançamento, chegando a US$200 alguns meses depois, torna-se imediatamente um estrondoso sucesso
de vendas. Era exatamente igual ao ZX Spectrum, com algumas "melhorias", como uma interface para
joysticks inclusa, um comando para edição de UDG (User-Defined Graphics) e ligação direta com uma
TV. No ano seguinte o mercado brasileiro vê o TK 95, basicamente a mesma coisa, só que com o teclado
e o gabinete mais "robustos", "copiados" do Commodore C64, um dos concorrentes do ZX Spectrum na
Grã-Bretanha ...
O Declínio do Spectrum
Em 1986, Alan Sugar, dono da Amstrad, compra a Sinclair Research e lança o Sinclair ZX Spectrum 2+ e
em seguida o modelo 3+, em 1987, incluindo disk drive de 3" e muitas mudanças na ROM. Em 1988 as
vendas de micros de 16 bits ultrapassam as de 8 bits na Grã-Bretanha. Em 1989 cessa a produção do
Spectrum. No Brasil, o declínio também é agudo. O mercado torna-se dividido entre as aplicações sérias
com os PCs e os assumidos videogames, os micros MSX. O TK95 perde cada vez mais espaço, até
literalmente desaparecer das páginas da mais conceituada publicação da época, a Micro Sistemas.
A Queda do Spectrum
No começo dos anos 90, milhares de usuários continuavam teimosamente editando revistas, programas
e acessórios (até um novo Spectrum "revolucionário" é lançado, o Sam Coupé). Entretanto, o inevitável
fim da "Era Spectrum" chega, em 1992.
O MSX
O que é o MSX?
O MSX faz parte da familia de computadores baseados no velho e eficiente processador de 8 bits da
Zilog, o Z-80. Esses computadores começaram a aparecer em 1983 tentando estabelecer um padrão em
computadores pessoais, assim como é o sistema VHS é em vídeo. Eles foram muito populares na Asia
(Japão, Coreia), Europa (Inglaterra, Holanda, França, Espanha), na América do Sul (Brasil, Chile,
Argentina) e na Antiga União Sovietica mas, são praticamente desconhecidos nos EUA. Entretanto em
1988 o MSX-1 começava a lentamente desaparecer, o mundo começava a ver o MSX-2 (uma grande
evolução), um ano depois o MSX-2 Plus e em 1990 o MSX Turbo-R (de 16 bits) o primeiro MSX de 16
bits, mas pouco depois começou a finalmente desaparecer sendo substituído pelos PC's que hoje
dominam totalmente o mercado. MSX quer dizer MicroSoft e Xtended, foi criado em parceria entre a
Microsoft (Bill Gates), e a ASCII japonesa (Kay Nishi). Até final de 87 MSX era marca registrada da
Microsoft Corp. Depois, Bill desfez sua sociedade com Nishi e voltou seus esforços totalmente para o
padrão PC. O MSX foi sem dúvida o melhor micro de 8 bits da história, sendo melhor que muitos de 16
bits. Ele é um computador muito bom, especialmente para fins educacionais, como foi claramente
indicado no caso da antiga URSS. O Ministro Russo da Educação, na época, comprou centenas de
MSXs (e posteriormente MSX2s). Eram agrupados em chamados "Sistema computadorizado de salas de
aula" de 10 a 16 máquinas interligadas numa pequena rede. Uma grande geração de programadores
nasceram usando esses computadores. O MSX, também era bastante eficiente em jogos (principalmente
o MSX2) e tem um grande número de jogos escritos ou adaptados para ele. A maioria desses jogos eram
bem superiores ao jogos do PC na época.
O MSX no Brasil
Dois assuntos são fundamentais para se entender o MSX no Brasil: a imprensa escrita (principalmente
as revistas) e o software. Até o advento do MSX, além de uns poucos abnegados, tudo o que existia
eram traduções e cópias, nenhum outro micro tinha produzido tanto software brasileiro genuíno. Tá certo
que houve muita pirataria, mas com ele apareceram os primeiros produtores de programas brasileiros. O
MSX surgiu no brasil em 1985 e era fabricado por duas empresas: a Sharp e a DYNACOM. A segunda
produzia uma máquina extremamente inferior, com apenas 8kb de RAM, componentes de péssima
qualidade e, por isso, foi rapidamente retirado do mercado. Já o MSX da Sharp chegou e em pouco
tempo fulminou seus concorrente diretos de 8bits (os clones de Apple-II e ZX-SPectrum), sendo, em
1988, era padrão do mercado, se tornando mais popular (pelo menos a nível doméstico) que os PCs.
Pouco depois, surgiu o Expert 1.0 da Gradiente, entretanto, ele trazia vários inconvenientes: a sua tabela
de caracteres não seguia o padrão e tinha algumas incompatibilidades a nível de endereços com os
outros MSX. Algo semelhante ocorria com o Hotbit branco da sharp, porém sem os problemas de tabela
ascii. Em 1987 surge o Hotbit preto e o Expert 1.1, que tinham a mesma tabela de caracteres e
resolvidos esses problemas. No mesmo ano surgem os primeiros kits de transformação 2.0 no Brasil, e
lá fora, é lançado o MSX 2+. Os kits 2.0 dessa época eram exclusivos para o Expert, tendo o
inconveniente de que se perdia o seu slot traseiro, o que não impediu a troca, por muitos, de seus
Hotbits por Experts; além do que, o gabinete da SHARP era muito pequeno, não havendo espaço físico
para o kit de MSX2. Apesar da primeira empresa a fabricar kits ter sido a MPO, a maior foi a DDX e a
melhor foi a ACVS. O kit (DDX) tinha o problema de, as vezes, a interface de data corder parar de
funcionar, mas, ninguém (nem os técnicos) sabia explicar o porque. Nunca foi fabricado um MSX2 no
Brasil, o que ocorria era uma "transformação" com a instalação de um Kit chamado Kit MSX-2 e o mais
popular era fabricado pela DDX, principal fabricante de acessórios. Apenas o Expert podia ser
transformado para MSX2 já que o Hotbit tinha, entre outros, problemas de espaço gabinete. Outra
empresa, a ACVS, também fazia kits de MSX2 e 2+, por sinal melhores que os kits da DDX, embora não
tão populares. Chegou a lançar um cartucho que transformava o MSX em MSX2/2+ acabando com o
problema da transformação do Hot Bit, o que isso não faria diferença, pois a Sharp já tinha parado de
fabricar o seu MSX Hot-Bit.
Em 88/89, quando todos esperavam um MSX 2 ou 2+ nacional, a Gradiente lançou o MSX PLUS e MSX
DD PLUS. Uma tremenda besteira, primeiro porque o MSX1 já estava super ultrapassado e segundo
porque esses novos Experts davam uma série de problemas. Foi a gota d'agua para a existência do
MSX no Brasil.
Invenções Nacionais
No Brasil também se inventou algumas coisas para o MSX, a mais popular delas foi a Megaram, que era
usada para rodar os jogos copiados de cartuchos (megaroms) originais. A Megaram foi inventada pela
ACVS (Ademir Carchano) mas, foi a DDX que a popularizou. Existiam vários tipo de megaram: a
megaram de 128 e 256, a Megaram Disk de 256, 512 e 768. A principal diferença entre a Megaram e a
Megaram Disk é que a segunda vinha com sistema operacional e podia ser usada como drive virtual.
Apenas o jogo Metal Gear 2 fazia uso da Megaram de 512. Outra coisa que inventaram era o Multi Drive,
que era um drive de 5 1/4 com um botão que fazia ele formatar discos de 360K em 720Kb. Isso porque
tinha muitos jogos de MSX2 em disquetes de 720K e por alguma razão drives de 3 1/2 nunca fizeram
sucesso no Brasil. Também existia o expansor de slots, já que os 2 slots do MSX já não eram em número
suficiente. O melhor expansor de slot fabricado foi o DDX Expander, que tinha como principal
característica o seu chamamento, ou seja não precisa ficar tirando e colocando cartucho, cada slot tinha
um botão de liga/desliga para cada cartucho.
Um MSX
O DOS
O DOS - Disk Operating System - durante muito
tempo foi o sistema operacional padrão em
micros de 16 bits ( semelhante ao CP/M que foi
padrão para os de 8 bits ) e surgiu em 1981
junto com o primeiro IBM PC. Desenvolvido pela Microsoft, pois a IBM não imaginou que as vendas
desse micro pudessem ir muito longe, o DOS possuía dois rótulos: PC-DOS comercializado pela IBM e
MS-DOS comercializado pela Microsoft.
Versões do MS-DOS
DOS 1.0 Esta primeira versão do PC-DOS comportava apenas discos flexíveis de face simples e
ocupava somente 10 Kb de RAM, pois o PC tinha apenas 64 K de memória RAM. A versão 1.1 atualizou
o sistema para trabalhar com discos de densidade dupla. O primeiro MS-DOS surgiu como versão 1.25.
DOS 2.0 Esta versão apareceu junto com o IBM XT em 1983, e permitia o uso de discos rígidos de alta
capacidade ( 10 Mb! ). O sistema ocupava 25 Kb de RAM e 40 Kb de espaço em disco. O MS-DOS
equivalente tinha como versão 2.11 e trazia o comando COUNTRY a mais.
DOS 3.0 Foi lançado com a chegada do AT em 1984, suportando o então novo drive de 1.2 Mb e o
utilitário VDISK ou RAM-DISK, que utilizava a memória que ultrapassava os 640 Kb. Os clusters foram
reduzidos de 4 para 2 Kb. A versão 3.1 suportava redes. A versão 3.2 suportava os novos discos de 3 1/2
polegadas e 720 Kb. de capacidade e possuía os comandos XCOPY e APREND. A versão 3.3 suportava
drives de 1.44 Mb., partições do disco rígido de até 32 Mb e introduziu o comando FASTOPEN. O
sistema ocupava cerca de 30Kb. de RAM e 59 Kb. de espaço em disco.
DOS 4.0 Lançado em julho de 1988, quebrou a barreira dos 32 Mb. para cada partição e apresentou
uma interface gráfica chamada DOS SHELL. Ocupava de 65 a 90 Kb. de RAM e 110 Kb. de espaço em
disco.
DOS 5.0 Esta versão possibilitava o uso de mais de dois discos rígidos, partições de 2 Gb. no disco
rígido, introduzia os comandos UNFORMAT, UNDELETE e DOSKEY, e possuía um gerenciamento mais
eficiente das memórias disponíveis (Upper, High, Extended e Expanded).
DOS 6.0 Com esta versão, foi introduzido os recursos do SCANDISK, DRIVESPACE, MEMMAKER,
DEFRAG, ANTI VIRUS, MSD (Microsoft Diagnostics), DELTREE, além de aprimoramentos nos
comandos MOVE, COPY, FORMAT e INTERLINK (para transferencia de arquivos entre dois
computadores).
Com a chegada do Windows 95, sistema operacional que não necessita da prévia instalação do DOS,
apesar de conter incorporado uma versão reduzida, possivelmente chegamos ao fim das constantes
evoluções deste sistema operacional que acompanhou o usuário por cerca de 15 anos.
O Os/2 Warp
O OS/2 Warp é um sistema operacional parecido com o Windows, mas só que é da IBM.
OS/2 Versão 1.0 O OS/2 foi um esforço conjunto da IBM e da Microsoft para poder aproveitar o
potencial das máquinas processadas por Intel 386 que surgiam em 1985. Seu objetivo era substituir o
DOS, explorando a memória acima dos 640Kb e aproveitando a capacidade de multitarefa que o novo
processador oferecia.
Para gerenciar a multitarefa, o OS/2 ganhou uma GUI (Graphic User Interface) baseada no Presentation
Mananger. Incluída ainda na versão 1.
Porém, a IBM sempre foi uma empresa voltada para o mercado corporativo e seu objetivo sempre foi de
oferecer soluções completas para seus clientes. Um sistema operacional forte era necessário para
cativar sua clientela e a IBM investiu no OS/2 para chegar nesse sistema. Assim, surgiu a versão
Extended Edition.
OS/2 Versão 2.0 Porém, a Microsoft desenvolveu seu próprio "substituto" para o DOS. O Windows,
que mesmo tendo uma aparência muito semelhante ao OS/2, era tecnicamente inferior ao sistema que
era desenvolvido em conjunto com a IBM. Porém, contrariando tudo o que se poderia prever, as vendas
do Windows superavam em larga escala as de OS/2. Assim, a versão 2 demorava a sair. Enquanto isso,
o Windows foi crescendo.
Porém, quando o OS/2 2.0 chegou, as diferenças entre ele e o Windows eram impressionantes. A
multitarefa do OS/2 era preceptiva (real) e a do Windows não. E como o OS/2 rodava aplicações Win16
através de emulação a IBM adotou o seguinte slogan para seu sistema: "Roda aplicações DOS melhor
que o DOS e aplicações Windows melhor que o Windows". Isso porque a Microsoft decidiu abandonar o
OS/2 e tocar o Windows sozinho.
Algumas das diferenças entre OS/2 e Windows iam além da arquitetura do sistema. Totalmente orientado
a objeto, o OS/2 permitia desde sua versão 2 o arraste de ícones de pasta para pasta e outros objetos,
como o triturador e a impressora. E essa orientação é melhor do que a de qualquer outro sistema. Além
disso, cada pasta pode ter suas próprias configurações de cores, papel de parede, etc.
Mesmo com vários pontos positivos, o OS/2 não vingou... Em 1 mês o Windows vendeu mais do que o
OS/2 em 3 anos. E esse foi a gota para que a Microsoft esquecesse de vez o Operating System/2.
OS/2 Warp Versão 3.0 Com a Microsoft fora do desenvolvimento a IBM sentiu-se mais a vontade
para deixar o OS/2 com sua "cara". Porém, sua estratégia de marketing surpreendeu a todos. Usando o
argumento de que o mercado doméstico havia rejeitado o OS/2 a Big Blue decidiu orientar totalmente o
seu sistema para as empresas. Isso fez com que os boatos de "O OS/2 está morto" crescerem. E os
usuários domésticos acabaram por ignorar soluções diferentes do Windows 3.11. No entanto, o sistema
continuava a ser vendido para pessoas físicas. O que dava esperanças aos reles mortais de ter um
sistema 32 bit realmente poderoso em seus PCs.
Além da real orientação a objetos, uma das melhores idéias aplicadas no OS/2 foi a Barra de
Lançamento. Ela surgiu na versão 3. Sua função é conter as operações e programas principais do
sistema. Para permitir ao usuário um acesso mais rápido aos seus programas e objetos prediletos. Por
ser totalmente customizável ela é adaptada facilmente ao gosto do usuário.
OS/2 Warp Versão 4.0 Lançada no início de 1996, essa versão trouxe munição para combater o
Windows 95. Principalmente no tocante é estabilidade e confiabilidade. O OS/2 Warp 4.0 é o sistema
operacional ideal para missões críticas graças às suas virtudes técnicas, como o gerenciamento
avançado de memória e o Crash Protection. Eles consistem em ferramentas controladas pelo sistema
para manter a máquina operando normalmente e executando outras tarefas caso algum aplicativo
provoque um erro de proteção de memória. Esse tipo de erro facilmente derrubaria o Windows 95. Mas
nos Grupos de Usuários e nas listas de discussão sobre OS/2 vários usuários comentam suas
experiências com aplicativos problemáticos que foram retirados de execução sem que o OS/2 tivesse
panes ou os outros programas fossem afetados. É verdade, no entanto, que nenhum sistema está 100%
imune a erros, portanto, uma vez ou outra, o Netscape consegue travar tudo. E então o reset é
necessário. Porém é de se notar que isso ocorre com pouca freqüência no OS/2.
A interface do OS/2 mudou na versão 4. Ele manteve a Barra de Ferramentas. Teve suas janelas
redesenhadas e herdou o SmartCenter do Lotus SmartSuite. Para quem já conhece o pacote ficou claro.
Para quem não conhece, o SmartCenter é uma barra que fica em uma extremidade de sua tela e permite
que você chame diversas funções e programas do pacote. No OS/2, essa barrinha milagrosa se tornou o
WarpCenter. Nele você pode ter praticamente tudo (ou tudo mesmo). Desde monitoramento de todos os
HDs, CPU, passando pelos programas que estão rodando, até ícones para chamar seus programas
favoritos e mesmo os Web Sites que você mais gosta, além de poder ver com um simples clique todo o
conteúdo de seu ambiente de trabalho.
Várias melhorias deixaram o OS/2 ainda mais sólido. A orientação a objetos é inteligente e rápida. Criar
sombras (os equivalentes aos atalhos do Win95) é simples e confiável. Depois dessa criação, se o objeto
original for movido, as sombras são atualizadas automaticamente, e o objeto é deletado, o sistema lhe
pergunta o que você quer fazer com a sombra. No Windows isso não existe!!! Ele simplesmente deixa o
atalho inútil e você teria de criar novos atalhos. Entre as melhorias gráficas, foram mudados ícones da
Barra de Ferramentas.
Além do mais, a notabilidade do OS/2 v. 4 sobre o Windows 95 estende-se até sobre uma área (e pode-
se dizer a única) onde o sistema da Microsoft pode ser considerado superior: Os Jogos. Para rodar jogos
pesados o Windows tem que reiniciar o velho DOS.
Além do Quake, rodam Indycar, Nascar, Doom, e vários outros jogos. Sempre com desempenho igual ou
algumas vezes até superior à execução em MS-DOS.
Por falar em execução, é bom lembrar que o OS/2 executa aplicações de windows 3.1 e Win32 s até a
versão 1.25 a. Além de aplicações JAVA nativamente. E aplicações PM para OS/2. E com relação aquela
história de que existem poucos programas para OS/2. Isso é uma grande besteira, existem e são muito
bons. A maioria deles é bem melhor que seus equivalentes para Windows 95.
A Internet
O que é a Internet?
É a rede mundial de computadores formada por redes interligadas por linhas telefônicas. Não pertence a
nenhum governo ou empresa. A Internet tem revolucionado a comunicação mundial ao permitir, por
exemplo, a conversa entre pessoas a milhares de quilômetros pelo preço de uma ligação local. O
número de seus usuários tem duplicado a cada ano - são cerca de 50 milhões em 1996 - e a cada dia
surgem 1.600 novos serviços. O grande número de usuários é responsável pelo maior problema da
Internet: o congestionamento e a lentidão no acesso aos serviços.
Com essa rede mundial surge a expressão ciberespaço, criada pelo escritor americano William Gibson,
em 1984. O ciberespaço é o espaço virtual e sem fronteiras onde circulam as milhares de informações
veiculadas nas redes de informática , como a Internet.
O Surgimento da Internet
A Internet surge nos Estados Unidos na década de 60, época da Guerra Fria, como uma rede de
informações militares que interliga centros de comando e de pesquisa bélica. Para atender à
necessidade militar de proteger os sistemas de defesa do país no caso de um ataque nuclear, a rede não
tem um "centro" que sirva de alvo principal ao inimigo. Nos anos 70, a rede começa a ser utilizada pela
comunidade acadêmica mundial e, em 1975, são feitas as primeiras ligações internacionais. Nesse
período, os computadores conectados não passavam de 200.
Entre a década de 80 e o início dos anos 90, a rede é aperfeiçoada: começam a surgir os serviços que
dão à Internet sua feição atual. O principal deles é a World Wide Web (WWW), lançado em 1991, que
viabiliza a transmissão de imagens, som e vídeo pela grande rede. Até então, só circulavam textos pela
Internet por meio de um software chamado Gopher. Com a WWW, a Internet se populariza entre os
usuários comuns de computadores. Nesta época surgem os provedores de acesso, empresas comerciais
que vendem aos clientes o acesso para "navegar" na Internet. Em 1995, o número de provedores em
todo o mundo é de 6,6 milhões.
A partir de 1994, a Internet amplia suas funções: além de ser uma rede de circulação de informações,
também torna-se um meio de comercialização de produtos e serviços. É o início do comércio eletrônico.
Apesar desse comércio ainda ser incipiente, é possível, por exemplo, comprar CDs, livros e programas
de computador.
Acesso à Internet
Para um usuário particular poder usar a Internet, é preciso uma linha telefônica, um microcomputador
com modem (aparelho que permite a recepção e transmissão de dados por telefone) e um programa de
acesso à rede: os principais são Navigator, da Netscape, e o Internet Explorer, da Microsoft. O passo
seguinte é cadastrar-se em um provedor de acesso à rede, de preferência um provedor local (na própria
cidade) para não pagar ligações interurbanas ao acessar a rede. Ao filiar-se, o novo usuário é rebatizado
com um nome (username), recebe uma senha (password) e um endereço na Internet. No endereço
eletrônico - ricardob@embratel.net.br, por exemplo - o nome do usuário e a identificação do provedor
escolhido são separados pelo sinal "@" (arroba).
Serviços na Internet
Os serviços mais populares da Internet são o E-mail (correio eletrônico) e a World Wide Web (WWW).
Pelo E-mail é possível trocar mensagens com pessoas ou empresas do mundo inteiro - estima-se que
sejam em média 16 milhões de mensagens diariamente. O serviço está substituindo gradativamente os
métodos tradicionais da comunicação interurbana e internacional (telefone e fax), que são bem mais
caros. Na WWW encontram-se as homepages, páginas criadas por pessoas, empresas, instituições e
órgãos governamentais. Elas trazem informações em forma de texto, imagens (fotografia, ilustrações),
vídeo e som. Atualmente existem cerca de 50 milhões de homepages no mundo.
Outros serviços bastante procurados são o listserv, o chat e o telnet. O listserv é a área da Internet
reservada aos grupos de discussão sobre assuntos específicos. Ao se inscrever, o usuário passa a
receber todas as mensagens que estão sendo trocadas sobre o tema de seu interesse. O chat é o
serviço de conversa on-line que permite a comunicação via teclado com qualquer pessoa de qualquer
lugar do mundo que esteja conectada na mesma hora. O telnet é um software que permite acessar
remotamente outras máquinas, por exemplo, onde estejam rodando BBSs (sigla em inglês de Bulletin
Board System), redes privadas de computadores, destinadas ao uso exclusivo de seus assinantes.
Algumas BBSs oferecem a seus usuários o acesso à Internet e serviços semelhantes ao da grande rede,
como o E-mail.
As intranets também são redes privadas que estão sendo desenvolvidas pelas empresas com o objetivo
de facilitar a comunicação interna. Elas utilizam os mesmos recursos gráficos da Internet e,
eventualmente, estão conectadas à grande rede.
Internet no Brasil
No Brasil, o acesso à Internet começa em 1990, pela Rede Nacional de Pesquisas (RNP), que liga as
principais instituições de ensino e pesquisa do país. Em julho de 1995, quando acaba o monopólio da
Embratel como provedor único, surgem diversas empresas privadas que disputam esse novo mercado.
Atualmente existem cerca de 500 provedores no país. A provedora Brasil Online, criada pelo Grupo Abril
em julho de 1996, associa-se em setembro do mesmo ano à Universo Online, provedora do Grupo Folha
da Manhã. Em 1996, cerca de 300 mil brasileiros estão conectados à Internet (60% em São Paulo, 15%
no Rio de Janeiro e o restante nas outras cidades) e a previsão era a de que esse número chegasse a 1
milhão em 1997.
O Ciberespaço
Universo virtual onde são produzidas e transportadas as informações dos milhões de usuários de
informática, como na mais famosa rede mundial de computadores, a Internet. A expressão "ciberespaço"
foi criada em 1984 pelo escritor William Gibson, no romance Neuromancer, para indicar o mundo futurista
que atrai o personagem principal.
Realidade Virtual
É a simulação via computador de uma situação real, possível graças ao ciberespaço. No espaço
cibernético, imaterial e sem fronteira, os computadores podem representar uma realidade em três
dimensões, conhecida também como realidade virtual. Ela estabelece uma nova interatividade do
usuário com o computador. Pode-se mexer objetos na tela do aparelho apenas com movimentos dos
dedos, sem o uso do teclado ou do mouse. Óculos, luvas, capacetes, máscaras e sensores ligados ao
corpo ajudam a criar sensações cada vez mais próximas da realidade. O usuário sente a textura de
objetos, a iluminação e temperatura do ambiente. Novos softwares buscam incluir as sensações olfativas
e gustativas.
A realidade virtual é usada na simulação de situações que no mundo real envolvem riscos, como a
análise do interior de um vulcão, uma cirurgia ou a adequação de um projeto arquitetônico ao uso de
deficientes físicos. A Nasa (Administração Nacional da Aeronáutica e Espaço dos Estados Unidos) utiliza
o ciberespaço no treinamento de astronautas para o conserto, por exemplo, de um satélite artificial em
órbita. Na área de entretenimento, os potenciais são enormes e polêmicos: os jogos de computador
ofereceriam sensações mais fortes, como a simulação do disparo de uma arma. O usuário também
poderia fazer sexo com os personagens de um videoerótico.
O que é uma BBS?
Sigla em inglês de Bulletin Board System (literalmente "Sistema para Quadro de Boletins"), significando
algo como um "quadro de avisos" eletrônico, que permite a comunicação entre pessoas através de
computadores e linhas telefônicas. Em geral, são exploradas por empresas. Funcionam basicamente
como um correio eletrônico, conhecido pela sigla (também do inglês) E-mail, através do qual os usuários
enviam e recebem mensagens de qualquer parte do mundo.
Para ter acesso a uma BBS é preciso possuir um computador, um modem (sigla de
modulador/desmodulador, um aparelho que transforma os sinais digitais do computador em sinais
analógicos à linha telefônica e vice-versa), um software de comunicação e uma linha telefônica.
O modem também pode permitir ao computador mandar fax. Para se conectar a uma BBS, é
recomendável um modem de grande velocidade de transmissão de dados, para diminuir o tempo de uso
do telefone. O modem mais simples transmite 2.400 bps (bits por segundo); os mais modernos
transmitem 14.400, 28.800, 36.600 e até mesmo 56.000 bps.
A pessoa pode se cadastrar em uma BBS ligando, via computador, para um número de telefone. Uma
"ficha de inscrição" aparece na tela do computador. A maioria das BBSs cobra pelo direito de acesso.
Cada usuário tem direito a um determinado tempo (minutos ou horas) de uso.
As BBSs costumam ter bibliotecas com softwares de domínio público (gratuitos), ou os chamados
sharewares, programas que podem ser experimentados em parte antes de decidir a sua aquisição.
Há BBSs especializadas em oferecer serviços destinados a públicos específicos, como jogos de
computador, previsão do tempo, indicadores econômicos, bancos de dados etc. Algumas BBSs
brasileiras permitem acesso à maior rede internacional de computadores, a Internet, pagando-se o preço
de uma ligação telefônica local. Atualmente, estão sendo substituídas pelos serviços dos provedores.
Observação
A programação do ENIAC fazia-se por meio do estabelecimento de ligações entre cabos elétricos e o
acionamento de um grande número de interruptores. A partir da década de 50, o progresso deste tipo de
instalações foi cada vez mais acelerado e seguiu uma série de etapas que recebem o nome de
gerações e que abarcam períodos determinados.
Primeira Geração A primeira geração é constituída pelos computadores construídos entre os anos
1950 e 1960. Trata-se das primeiras máquinas deste tipo fabricadas com fins comerciais, sendo o
componente eletrónico básico que tornava possível o seu funcionamento a válvula de vácuo (dispositivo
eletrónico formado por dois eletrodos encerrados numa ampola em que se criou um vácuo). Estas
máquinas programavam-se diretamente em código máquina e eram capazes de realizar até 1000
instruções por segundo.
Segunda Geração A segunda geração é a que compreende os computadores construídos entre
1960 e 1965. Caracteriza-se pelo fato de o componente eletrônico, sobre o qual se baseia, ser o
transistor (dispositivo eletrônico que atua como um interruptor, já que determina a passagem ou não da
corrente entre dois pontos , em função da tensão aplicada a um terceiro ). Este fato faz com que a
referida geração reduza substancialmente o consumo de energia e o volume ocupado pelas máquinas,
assim como por um aumento da fiabilidade e da velocidade de cálculo das instalações. Os progressos do
sistema lógico dos computadores deram lugar ao aparecimento dos sistemas operativos, do
processamento em regime de multi-utilizador das linguagens de alto nível , etc.
Terceira Geração A terceira geração, que abarca o período de 1965 a 1975, caracteriza-se
fundamentalmente pela redução das dimensões das instalações, já que a sua construção e
funcionamento se baseia no emprego de circuitos integrados. Por volta de 1974, logrou-se obter,
graças às técnicas VLSI (Very Large Scale Integrator, integração a muito grande escala) um circuito
integrado que albergava até 20 000 componentes numa superfície de 25 mm2.
Quarta Geração A quarta geração abarca o período desde 1975 até aos nossos dias e caracteriza-
se fundamentalmente pela continuação do processo de integração que culminou, em 1975, com a
consecução de uma escala de integração que permitia colocar 60 000 componentes numa superfície de
25 mm2. Neste aspecto, a integração dos circuitos alcança o nível de VLSI, isto é, a de pelo menos
1000000 transistores em 25 mm2. Por esta razão está ligada com o aparecimento do
microprocessamento (chip no qual se integram a unidade aritmética e lógica, a unidade de controlo e
os registos, isto é, a obtenção mediante circuitos integrados de uma unidade central de processamento).
O aparecimento do microcomputador permitiu, para além do mais, que a informática se popularizasse,
chegando a todos os cantos do planeta e aplicando-se a grande quantidade de atividades humanas,
passando a fazer parte da vida do ser humano. Esta etapa caracteriza-se pela especialização das
aplicações da informática, entre as quais se destacam as telecomunicações , o tratamento eletrônico
da imagem, as bases de dados (coleções de dados inter-relacionados e estruturados que se
armazenam independentemente do programa utilizado e que permitem evitar problemas tais como a
duplicação da informação contida nos ficheiros), a inteligência artificial (ramo da informática que,
superando o nível do cálculo aritmético, se especializa no tratamento lógico da informação), o
desenvolvimento de sistemas específicos, o desenvolvimento de autômatos ou robots capazes.
Quinta GeraçãoA quinta geração, posta em marcha pelas indústrias japonesas de setor e mediante a
qual, a partir de 1981, se trabalha no desenvolvimento de computadores inteligentes, do ponto de vista
do sistema físico, sem por isso abandonar a idéia de um sistema lógico que trabalhe com base na
simulação dos processos que tem lugar no intelecto humano. O conceito das máquinas da quinta
geração baseia-se em quatro elementos fundamentais: o módulo de resolução de problemas, o
dispositivo de gestão das bases de conhecimentos, uma fase intermédia de linguagem natural e,
finalmente, um módulo de programação.