Академический Документы
Профессиональный Документы
Культура Документы
GLEICK, James. A informao: uma histria, uma teoria, uma enxurrada. So Paulo:
Companhia das Letras, 2013.
A questo O que a Informao? j proporcionou uma quantidade incrvel de
respostas, geralmente dependentes da origem e do lugar que ocupa quem se prope a respondla. Isso no diferente no caso de James Gleick. Jornalista e bigrafo com experincia
acumulada na rea de divulgao cientfica, particularmente na rea de Fsica __ autor de um
livro explicando a teoria do caos, alm de biografias de cientistas como Newton e Feynman __
Gleick opta em sua mais recente obra pelo panorama histrico relacionado construo do
conceito de informao.
Nesse sentido, A informao: uma histria, uma teoria, uma enxurrada, diferenciase de obras do gnero que optam por tentar capturar o sentido do conceito voltando-se para uma
genealogia ou discusso do mesmo nas diversas reas do conhecimento1, ou optando por
circunscrev-lo a uma rea especfica, como a teoria matemtica da informao2. A abordagem
proposta por Gleick a do painel histrico, buscando conjugar teorias e mudanas tecnolgicas
e sociais.
Os dois primeiros captulos podem ser considerados como uma breve introduo ao
tema, embora se ocupem de um largo espao de tempo entre a constituio da linguagem
humana e o vasto predomnio da oralidade, at a constituio das formas rudimentares de
escrita, o aparecimento dos primeiros alfabetos e o surgimento da imprensa. Na sequncia, os
captulos terceiro e quarto faro menes s mudanas correlacionadas aos primrdios da
revoluo cientfica, e s novas necessidades do conhecimento decorrentes desse processo. A
partir da o livro se concentra no perodo compreendido entre o sculo XIX e a
contemporaneidade, momento das grandes transformaes cientficas, tecnolgicas e sociais
que determinaro o papel central a ser exercido pela informao.
DOI: 10.11606/issn.2178-2075.v6i1p116-119
117
Gleick lana mo de uma interessante estratgia narrativa para costurar seu vasto painel,
que a de selecionar alguns personagens-chave dessa histria. Assim, destaca inicialmente o
importante papel desempenhado por Charles Babbage (1791-1871), e sua proposta pioneira de
construo de uma Mquina Analtica, inteiramente mecnica, tornada impossvel pelas
condies tecnolgicas da poca. Embora prenunciasse os princpios do computador, seu
trabalho permaneceu desconhecido para os pioneiros da informtica do sculo XX. Destino
semelhante teve Ada Byron King, Condessa de Lovelace (1815-1852), inicialmente aluna e
depois colaboradora de Babbage, para cuja mquina desenvolveu os algoritmos que permitiriam
a computao das funes matemticas necessrias para os clculos. Desse modo, Ada
Lovelace pode ser considerada a primeira programadora da histria.
A ideia de uma mquina capaz de processar grandes quantidades de dados e
informaes, realizando clculos complexos, estar na gnese do desenvolvimento dos
computadores quase cem anos depois, mas sem conexo direta com essas contribuies. No
desenvolvimento dessa nova tecnologia confluram avanos nas concepes tericas, avanos
nos processos industriais e tecnolgicos e descobertas acidentais
__
118
Claude Shannon (1916-2001) talvez seja o autor da tese de mestrado mais influente do
sculo XX, completada quando ele tinha apenas 21 anos. Nesse trabalho, resumido em artigo
publicado em 1938, ele provou que a lgebra e a aritmtica binria poderiam ser aplicadas para
simplificar o arranjo dos rels dos comutadores telefnicos, e, expandindo o conceito, que
tambm seria possvel sua utilizao para resolver problemas de lgebra booleana. A lgica e
os conceitos mais bsicos dos computadores digitais tm razes no desenvolvimento dessas
ideias, frutos do trabalho terico rigoroso de Shannon. Posteriormente, assim como Turing, ele
tambm participaria no esforo de guerra, colaborando com os Aliados no deciframento dos
cdigos nazistas. Mas a contribuio que tornaria Shannon realmente conhecido no mundo
cientfico seria o artigo publicado em 1948, no boletim interno das Indstrias Bell, onde
trabalhava: Uma Teoria Matemtica da Comunicao. No texto publicado em duas partes,
Shannon enfocava o problema da melhor forma de codificar uma informao a ser transmitida
por um emissor, utilizando-se das ferramentas da teoria da probabilidade, desenvolvidas por
Norbert Wiener, que ainda se encontravam em seus estgios iniciais de formulao. Nesse
trabalho, Shannon postulou a entropia da informao como uma medida de incerteza em uma
mensagem, criando as bases para o processamento da linguagem natural e para a lingstica
computacional.
Claude Shannon faleceu em 2001, tendo seus ltimos anos obscurecidos justamente pela
doena do apagamento de informaes, o Mal de Alzheimer. Para Gleick, Sua vida abrangeu
o sculo XX e ajudou a defini-lo. Mais do que qualquer outra pessoa, foi ele o progenitor da
era da informao. O ciberespao , em parte, sua criao. (p. 381) Ciberespao que fruto,
em grande medida, da aplicao de teorias cientficas dos campos da Fsica e da Matemtica
que sempre trataram dos aspectos quantitativos da informao.
O nascimento da teoria da informao implicou no sacrifcio do significado. Ou seja,
fundamentou-se em teorias cujos focos estavam no tratamento numrico dos canais de
comunicao, nas infinitas combinaes de dados, que desembocaram no imensurvel oceano
de informaes que a internet hoje. Por outro lado, como lembra-nos Gleick, trata-se de uma
beno ambgua. Antes, havia uma clara fronteira, separando aquilo que estudiosos,
colecionadores ou fs podiam ter acesso daquilo que eles no podiam, e que agora se desvanece.
O acesso s informaes quase instantneo, porm a satisfao das necessidades vai sendo
substituda pelo mal-estar provocado pelo questionamento do quanto mais h para se conhecer
ou experimentar: O constrangimento da fartura. Outro lembrete de que a informao no
conhecimento, e conhecimento no sabedoria. (p. 419)
InCID: R. Ci. Inf. e Doc., Ribeiro Preto, v. 6, n. 1, p. 116-119, mar./ago. 2015.
119