Вы находитесь на странице: 1из 7

A Teoria Matemática da Comunicação

Warren Weaver

A palavra comunicação, na verdade, será usada aqui num sentido muito amplo, de forma a incluir
todos os procedimentos pelos quais uma mente pode influenciar outra. Embora a linguagem se
referirá, especificamente, à comunicação da fala, praticamente tudo que será dito se aplica, de
igual forma, à música, às imagens e a uma variedade de outros métodos de transmissão de
informações.

Parece haver três níveis de problemas em comunicação:


1) técnico; 2) semântico; 3) de influência.

Os problemas técnicos referem-se à precisão na transferência de informações do emissor para o


receptor. São inerentes a todas as formas de comunicação, seja por conjuntos de símbolos
discretos (palavra escrita), por um sinal variável (transmissão da voz ou de música, por telefone ou
rádio) ou por um padrão bidimensional variável (televisão).

Os problemas semânticos referem-se à interpretação de significado pelo receptor, comparada ao


significado pretendido pelo emissor. Esta é uma situação muito profunda e complexa, mesmo
quando se está lidando com problemas relativamente simples da comunicação através da fala. Por
exemplo se se suspeita que uma pessoa X não está entendendo o que Y diz, não é possível
esclarecer-se a situação num tempo finito, se Y fizer nada além de falar mais.
No campo restrito da comunicação pela fala , a dificuldade pode ser reduzida a uma proporção
tolerável, mas nunca totalmente eliminada através de “explicações”. Estas, presumivelmente,
nunca serão mais do que aproximações de idéias explicadas 1, mas são compreensíveis quando
ditas numa linguagem que o uso anterior tenha tornado razoavelmente clara. Por exemplo, o
símbolo para “sim” em qualquer língua não leva tempo para se tornar compreensível.

Os problemas de influência ou eficácia referem-se ao êxito de, através do significado transmitido


ao receptor, provocar a conduta desejada de sua parte.

Poder-se-ia estar inclinado a pensar que os problemas técnicos envolvem apenas os pormenores
de construção de um sistema de comunicações, enquanto que os problemas semânticos e eficácia
abrangem a maior parte, senão todo o conteúdo filosófico do problema geral da comunicação. Para
Demonstrar que não é isso que ocorre, precisamos examinar agora alguns trabalhos importantes e
recentes em teoria matemática de comunicação.
Ludwig Boltzmann (século XIX) sugeriu que alguns conceitos de mecânica estatística eram
aplicáveis ao conceito de informação. O trabalho a que nos referiremos aqui é o de Claude
Shannon. Esse trabalho refere-se, primordialmente, ao problema técnico apenas, mas a teoria tem
uma significação mais ampla. Para começar, o significado e a eficácia são inevitavelmente
restringidos pelos limites teóricos de precisão na transmissão de símbolos. Mais significativo,
ainda, é que a análise teórica do problema técnico se justapõe , mais do que se poderia suspeitar,
aos problemas de semântica e de eficácia.


W. Weaver, “The Mathematics of Communication” (sinopse), Scientific American, 181, 1949, p. 11-15.
Tradução de Fátima P. Jordão.
1
A Idéia
Um sistema de comunicações é representado simbolicamente na figura 1.

FIGURA 1 - Um sistema de comunicação pode ser reduzido a esses elementos fundamentais. Na


telefonia, o sinal é uma corrente elétrica variável e o canal é um fio. Na fala, o sinal é a pressão
sonora variável e o canal é o ar. Frequentemente, coisas não pretendidas pela fonte de
informação são impressas no sinal.
A estática no rádio é um exemplo; outro é a distorção em telefonia. Todos esses acréscimos
podem ser chamados de ruído.

A fonte de informação seleciona uma mensagem desejada a partir de um conjunto de


mensagens possíveis. O transmissor transforma essa mensagem num sinal que é enviado ao
receptor através do canal de comunicação.
O receptor é uma espécie de transmissor ao inverso que transforma, novamente, o sinal
transmitido em mensagem, levando-a a seu destino. Quando eu falo com você, meu cérebro é a
fonte de informação e o seu é o destinatário; meu sistema vocal é o transmissor e o seu ouvido,
com o oitavo nervo, o receptor.
2

No processo de transmissão do sinal, é infelizmente caracterizado que certas outras coisas não
pretendidas pela fonte de informação sejam acrescidas ao sinal. Esses acréscimos inúteis podem
ser distorções de som (na telefonia, por exemplo), estática (no rádio), distorções na forma ou tons
de uma imagem (televisão), erros de transmissão (telegrafia ou fac-símile). Todas essas
alterações no sinal podem ser chamadas de ruído.
As questões a serem estudadas num sistema de comunicação dizem respeito à quantidade de
informação, à capacidade o canal de comunicação, ao processo de codificação utilizável para
transformar uma mensagem em um sinal, e aos efeitos do ruído. 3

É surpreendente, mas verdadeiro, que , de acordo com este ponto de vista (da teoria matemática
da comunicação), duas mensagens, uma pesadamente carregada de significado, e outra,
completamente sem sentido, possam ser equivalentes no que se refere à informação.
Na verdade, nesta nova teoria, a palavra informação não se refere tanto ao que você efetivamente
diz, mas ao que poderia dizer. Isto é: informação é uma medida de liberdade de escolha quando
seleciona uma mensagem. Diante de uma situação muito simples, em que você precisa escolher
entre duas mensagens alternativas, afirma-se arbitrariamente que a informação associada a essa
situação corresponde a uma unidade. O conceito de informação não se aplica às mensagens
individuais, como seria o caso do conceito de significado, mas sim à situação como um todo; a
2
Compatível à metalinguagem.
3
Dimensão Logotécnica da Comunicação; Variedade de linguagens (idiomas); traduções; tradições; vogais e
consoantes em vários idiomas.
informação indica que, nesta situação, tem-se um grau de liberdade de escolha na seleção da
mensagem, que convém encarar como uma quantidade padrão correspondente à unidade. Nessa
seleção, as duas mensagens entre as quais se deve escolher podem ser qualquer coisa que se
queira. Uma delas4 pode ser a versão da Bíblia do Rei Jaime e a outra pode ser simplesmente
“sim”.
As observações feitas até aqui relacionam-se a situações artificialmente simples, em que a fonte
de informação é livre para escolher entre diversas mensagens definitivas - como um homem que
escolhe um, dentre um conjunto padronizado de cartões de Boas Festas. Uma situação mais
natural e mais importante é aquela em que a fonte de informação faz uma sequência de escolhas a
partir de um conjunto de símbolos elementares, sendo que a sequência selecionada forma, então,
a mensagem. A probabilidade desempenha, obviamente, em papel importante na formação da
mensagem e as escolhas dos símbolos sucessivos dependem das escolhas precedentes. Isto é,
no caso da língua [portuguesa], se o último símbolo foi o artigo “o”, a probabilidade da próxima
escolha ser um outro artigo ou uma forma verbal, é muito pequena. Depois de duas palavras “no
caso”, a probabilidade da próxima palavra ser “de” é muito grande, enquanto que a de “elefante” é
muito pequena.5
Shannon já demonstrou que letras e palavras, escolhidas ao acaso, postas em sequências ditadas
exclusivamente por considerações de probabilidade, tendem a formar palavras e frases
significativas.6
Retomemos, agora, a idéia de informação. A quantidade que satisfaz singularmente as exigências
naturais estabelecidas para uma medida de informação é, exatamente, aquela conhecida em
termodinâmica como entropia, ou o grau de casualidade – ou “mistura” se se preferir - em uma
situação. Ela se exprime em termos das várias probalidades envolvidas.

“entropia”... na teoria da comunicação como uma medida de informação.

O conceito de entropia, introduzido pelo físico alemão Rudolf Classius 7 há cerca de 100 anos,
intimamente associado ao nome de Boltzmann, e que ganhou profundo significado na obra clássica
de mecânica estatística do físico de Yale, Willard Gibbs. Tornou-se um conceito tão básico e
difundido que Sir Arthur Eddington observou: “ A lei segundo a qual a entropia sempre aumenta –
segunda lei da termodinâmica – ocupa, a meu ver, a posição suprema entre as leis da Natureza”.

Assim, poderíamos dizer de uma fonte de comunicação o mesmo que diríamos de um conjunto
termodinâmico: “Esta situação é altamente organizada; ela não é caracterizada por um alto grau de
causalidade ou de escolha – o que vale dizer, a informação, ou a entropia, é baixa.”

Na teoria matemática da comunicação, preocupamo-nos não com o significado de mensagens


individuais, mas com a natureza estatística da fonte de informação. Assim não é de surpreender
que a capacidade de um canal de comunicação deva ser descrita em termos de quantidade de
informação que ele pode transmitir, ou melhor, em termos de sua capacidade de transmitir aquilo
que é produzido a partir de uma fonte de informação dada.
O transmissor pode tomar uma mensagem escrita e usar algum código para cifrar essa mensagem,
por exemplo, numa sequência de números que são enviados pelo canal como sinal. Por isso, diz-
se em geral que a função do transmissor é codificar e a do receptor, decodificar a mensagem. A
teoria é aplicável a receptores e transmissores muito sofisticados, como, por exemplo, os que

4
delas- deals
5
The Gold Bug: criptografia ( ver também Heroes of Cyberspace: Shannon)
6
Ver : A Mathematical Theory of Communication By C. E. SHANNON pgs. 4 and 5
Reprinted with corrections from The Bell System Technical Journal,
Vol. 27, pp. 379–423, 623–656, July, October, 1948.
7
"A entropia global de um sistema isolado mantém-se constante ao longo de uma transformação reversível,
e aumenta ao longo de uma transformação real ou irreversível."
Física e Química Web Site; Pensamentos celebres; Rudolf Clausius (1822-1888)
http://web.educom.pt/luisperna/pensamentos.htm
possuem “memórias”, de maneira que a forma como eles codificam um determinado símbolo da
mensagem depende não só daquele símbolo, mas também de símbolos anteriores da mensagem e
da forma como eles foram codificados.8
Estamos agora em condições de enunciar o teorema fundamental para um canal sem ruído que
transmite símbolos discretos. Esse teorema se refere a um canal de comunicação com uma
capacidade de C unidades por segundo, que aceita sinais de uma fonte de informação de H
unidades por segundo. O teorema estabelece que, pela criação de processos adequados de
codificação para o transmissor, é possível transmitirem-se símbolos através de um canal a uma
proporção média equivalente, aproximadamente, a C/H, mas que nunca pode exceder C/H, por
mais engenhos que seja o código.9
Superficialmente, digamos, numa analogia ao uso de transformadores par combinar impedâncias
em circuitos elétricos, parece muito natural, ainda que certamente bem claro, a existência desse
teorema no que diz ser a codificação eficiente que aquela que combina as características
estatísticas da fonte de informação e do canal. Quando, porém, examinamos em detalhe, em
qualquer dos muitos arranjos de situações a que esse resultado se aplica, percebemos quão
profunda e poderosa é essa teoria.
Como o ruído afeta a informação? Precisamo-nos lembrar, frequentemente, de que a informação é
a medida da liberdade de escolha que se tem na seleção da mensagem. Quanto maior essa
liberdade de escolha, maior a incerteza de que a mensagem realmente selecionada seja uma
particular. Assim, maior liberdade de escolha, maior incerteza e maior informação 10 caminham
juntas.
Se for introduzido o ruído, a mensagem recebida passa a conter determinadas distorções,
determinados erros, determinado material estranho, que certamente provocam maior incerteza. Se
no entanto a incerteza aumenta, o que dá a impressão de que o ruído seja benéfico!
Quando há ruído, é certo que o sinal recebido foi selecionado a partir de um conjunto mais variado
de sinais do que o originalmente pretendido pelo emissor. Esta situação ilustra belamente a
armadilha semântica em que se pode cair, se não se tiver em mente que “informação” é usada
aqui com significado especial, que mede a liberdade de escolha e, por conseguinte, a incerteza a
respeito da escolha feita. A incerteza que decorre da liberdade de escolha da parte do emissor é
uma incerteza desejável. A incerteza que de erros ou da influência de ruído é uma incerteza
indesejável.11 Para obtermos a informação útil do sinal recebido, precisamos subtrair a porção
espúria. Na teoria, isto se consegue pelo estabelecimento de uam quantidade conhecida como
“equívoco”, que significa a quantidade de ambiguidade introduzida por ruído. Dessa maneira,
refinamos ou ampliamos a definição anterior da capacidade de um canal sem ruído a afirmamos
que a capacidade de um canal afetado por ruído é definida como equivalente à taxa máxima na
qual informações úteis ( isto é, incerteza total menos incerteza de ruído ) podem ser transmitidas
pelo canal.
Finalmente podemos enunciar o teorema central desta teoria geral de comunicação.
Suponhamos que um canal afetado por ruído de capacidade C, esteja aceitando informação de
uma fonte de entropia H, entropia correspondendo ao número de mensagens possíveis da fonte.
Se a capacidade C do canal for igual ou maior do que H, então, criando-se sistemas apropriados
de codificação, a produção da fonte pode ser transmitida pelo canal com tão pouco erro quanto
se queira. Se, entretanto, a capacidade C do canal for menor do que H, a entropia da fonte, será
impossível criar códigos capazes de reduzir, ao mínimo desejado, a frequência do erro.
Por mais engenhoso que possa ser o processo de codificação, sempre subsiste, depois de
recebido o sinal, alguma incerteza indesejável – esse ruído ou “equívoco” – será sempre igual ou
maior do que H menos C. Existe sempre, porém, pelo menos um código capaz de reduzir essa
incerteza indesejável a um valor apenas um pouco maior do que H menos C.

8
The Gold Bug
9
Metalinguagem Artificial
10
neologismo: inflormação
11
“O inverno, mau hóspede, penetra na minha morada; tenho as mãos arroxeadas do apertão da sua amizade.”
Assim Falava Zaratustra; Terceira Parte; No Monte das Oliveiras
Autor: Friedrich Nietzsche; Tradutor: José Mendes de Souza;
Fonte: EbooksBrasil
Esse poderoso teorema fornece uma descrição precisa e quase assustadoramente simples
da fidedignidade máxima possível de obter um canal de comunicação que opera na
presença de ruído. É preciso pensar muito e considerar muitas aplicações, até se
compreender inteiramente como esse teorema, admiravelmente compacto, é realmente
poderoso e geral.
Podemos indicar aqui uma única aplicação, mas, para tanto, precisamos retornar por um momento
à idéia de informação de uma fonte.
Tendo calculado a entropia ( ou informação, ou a liberdade de escolha ) de uma determinada fonte
de informação , podemos compará-la ao valor máximo que essa entropia poderia ter, sujeita
apenas à condição de a fonte continuar empregando os mesmos símbolos. A proporção da
entropia real para a entropia máxima é chamada de entropia relativa da fonte. Se a entropia
relativa de uma determinada fonte é, digamos, oito décimos, isto significa mais ou menos que essa
fonte tem, na sua escolha de símbolos para formar uma mensagem, cerca de 80 por cento da
liberdade que poderia, possivelmente, ter com esses mesmos símbolos.
A unidade menos a entropia relativa é chamada “redundância”, o que vale dizer que essa fração da
mensagem é desnecessária, no sentido que, se estivesse faltando, a mensagem ainda seria
completa em sua essência, ou pelo menos poderia ser completada.
É interessante observar que a redundância da língua inglesa é de cerca de cinquenta por cento.
Em outras palavras, cerca da metade das letras ou palavras que escolhemos, ao escrever ou falar,
é de nossa livre escolha e cerca de metade é realmente controlada pela estrutura estática da
língua, embora comumente não tenhamos consciência disso. Dito de passagem, isto constitui mais
ou menos o mínimo necessário de liberdade ( ou entropia relativa ) na escolha de letras para
construir problemas satisfatórios de palavras cruzadas. Numa língua que tivesse apenas 20 por
cento de liberdade, ou 80 por cento de redundância, seria impossível construir palavras cruzadas
com a complexidade e o número suficientes para tornar o jogo popular.
Como a língua inglesa é de cerca de cinquenta por cento redundante, seria possível economizar
metade do tempo de telégrafo, usando-se um processo de codificação adequado, desde que a
transmissão fosse feita por um canal sem ruído. Havendo, no entanto, ruído num canal, existe
alguma vantagem em não se usar um processo de codificação que elimine totalmente a
redundância, pois a remanescente ajuda a combater o ruído. 12 Por exemplo, é a alta redundância
do inglês do inglês que torna fácil corrigir os erros no soletrar, surgidos durante a transmissão.
Os sistemas de comunicação de que tratamos até agora envolvem o uso de um conjunto discreto
de símbolos – digamos, letras – não muito numerosos. Poder-se-ia esperar que a teoria se
tornasse muito mais complexa ao ser aplicada a mensagens contínuas, com as da fala, com sua
variação contínua de tom e energia. Como ocorre frequentemente, contudo, podemos nos valer de
um teorema matemático muito interessante. Do ponto de vista prático, estamos sempre
interessados num sinal contínuo, formado de componentes harmônicos simples, não de todas as
frequências, mas daquelas localizadas dentro de uma faixa de zero a, digamos, W ciclos por
segundo. Dessa forma, podemos obter comunicação muito satisfatória por um canal telefônico, que
comporta frequências de até, aproximadamente, 4.000 ciclos por segundo, embora a voz humana
contenha frequências mais altas. Com frequências de 10.000 ou 12.000, é possível a transmissão
de música sinfônica por rádio de alta fidelidade.
O teorema, que nos ajudará, propõe um sinal contínuo, de duração de T segundos e com uma
frequência de faixa limitada de zero a W, pode ser totalmente especificado através de 2TW
números. Trata-se de um teorema notável. Normalmente, uma curva contínua pode ser definida,
apenas aproximadamente, por um número finito de pontos. Se, no entanto, a curva é formada a
partir de componentes harmônicos simples, de um número limitado de frequências, assim como um
som complexo é formado a partir de um número limitado de tons puros, então tudo o que é
necessário par definir a curva é um número finito de quantidades.
Graças, em parte, a esse teorema e, em parte, à natureza essencial da situação, ocorre que a
teoria ampliada da comunicação contínua é uma tanto mais difícil e complicada matematicamente,
mas não difere essencialmente da teoria par símbolos discretos. Muitas das afirmativas para o
caso discreto não requerem qualquer modificação para o caso contínuo, e outras requerem apenas
pequenas alterações.
12
A metalinguagem é peça fundamental para preservar o centro da informação. Ela acrescenta “tecido
adiposo” para que a mensagem conserve as proteínas ao percorrer o canal do deserto.
A teoria matemática da comunicação é tão geral que não precisamos especificar os tipos de
símbolos considerados, sejam eles palavras ou letras escritas, notas musicais, palavras faladas,
música sinfônica ou imagens. As relações, que a teoria revela, aplicam-se a todas essas e a outras
formas de comunicação. Uma prova de sua generalidade é que a teoria contribui de forma
importante e realmente constitui a teoria básica da criptografia que é, evidentemente, uma forma
de codificação. Da mesma forma, a teoria contribui para o problema de tradução de uma língua
para outra, embora, neste caso, seja evidentemente necessário considerar-se também o
significado, além da informação. De forma análoga, as idéias desenvolvidas neste trabalhose
relacionam tão intimamente com o problema do esquema lógico dos computadores, que não é de
surpreender que Shannon tenha escrito um trabalho sobre a concepção de um computador que
seria capaz de jogar habilmente uma partida de xadrez. É ainda pertinente a essa argumentação a
observação final de seu trabalho, segundo a qual, ou temos que afirmar que um computador
desse tipo “pensa”, ou temos de modificar substancialmente a implicação convencional do verbo
“pensar”.
A teoria vai mais além. Embora, na aparência se aplique apenas a problemas ao nível técnico, é
também valiosa e sugestiva aos níveis da semântica e da eficácia. Com toda probabilidade, o
diagrama formal de um sistema de comunicação da figura 1 pode ser ampliado para incluir
questões fundamentais de significado e eficácia.
Dessa forma, quando passamos para aqueles níveis, pode tornar-se essencial levar em conta as
características estatísticas da destinação. Podemos imaginar, como um acréscimo ao diagrama,
outro retângulo rotulado “Receptor Semântico”, colocado entre o aparelho receptor (que transforma
sinais em mensagens) e a destinação. Esse receptor semântico submete a mensagem a uma
segunda decodificação, cuja função é combinar as características estatístico-semânticas da
mensagem com as capacidades estatístico-semânticas da totalidade de receptores que constitui a
audiência que desejamos atingir.
Da mesma forma, podemos imaginar outro retângulo no diagrama, colocado entre a fonte de
informações e o transmissor e rotulado “Ruído Semântico” (não confundir com ruído técnico
“engineering noise”) . Este retângulo representaria as distorções de significado introduzidas pela
fonte de informações, como uma pessoa falando; essas distorções, embora não intencionais,
afetam a destinação ou ouvinte. E o problema da decodificação semântica deve levar em conta
esse ruído semântico. Também é possível pensar-se em um tratamento, ou ajuste da mensagem,
mais o ruído semântico, igual ao significado total desejado da mensagem no destino.
Outra forma em que a teoria pode ajudar a melhorar a comunicação é sugerida pelo fato de que,
quando tentamos sobrecarregar um canal, por melhor que seja o código, aumentamos a margem
de erro ou confusão e diminuímos a fidelidade. Uma teoria geral, em todos os níveis, terá
certamente que levar em consideração não só a capacidade do canal, como também (mesmo as
palavras são adequadas!) a capacidade da audiência.
Se sobrecarregamos a capacidade de audiência, é provável, por analogia direta, impomos erro e
confusão gerais.
O conceito de informação desenvolvido nesta teoria parece, à primeira vista, decepcionante e
bizarro; decepcionante porque não tem nada a ver com o significado e bizarro porque não lida com
uma mensagem única, e sim com o caráter estatístico de todo um conjunto de mensagens. Bizarro,
também, porque, nesses termos estatísticos, as palavras informação e incerteza estão associadas.
Com um novo exame da teoria, no entanto, vimos que esta análise é tão esclarecedora que talvez
estejamos, pela primeira vez, em condições de formular uma verdadeira teoria do significado. Uma
teoria técnica (“engineering theory”) da comunicação é como uma funcionária muito eficiente e
discreta dos Correios e Telégrafos ao passar nosso telegrama. O significado não a preocupa, seja
ele triste, alegre ou embaraçoso, mas ela tem que saber encaminhar adequadamente todas as
mensagens que passam por suas mãos.
Seguramente, não é insignificante para a comunicação em geral essa idéia de que um sistema de
comunicação deve tentar lidar com todas as mensagens possíveis, e que a forma adequada de se
tentar isso é basear o esquema no caráter estatístico da fonte. A língua deve ser concebida, ou
desenvolvida, tendo em vista a totalidade das coisas que o homem possa querer dizer; mas, não
sendo capaz de abranger aquela totalidade, ela deve aproximar-se disso o máximo e o mais
frequentemente possível. Vale dizer: a linguagem deve executar a sua tarefa de maneira
estatística.
Esse estudo revela, à guisa de exemplo, fatos sobre a estrutura da língua inglesa, que devem
parecer significativos para os estudiosos das várias fases da linguagem e da comunicação. O
estudo sugere, como uma pista particularmente promissora, a aplicação da teoria da probabilidade
aos estudos semânticos. Nesse caso, é especialmente pertinente aquele poderoso corpo
integrante da teoria da probabilidade relativos ao que os matemáticos chamam de processos de
Markoff, nos quais eventos passados influenciam probablidades presentes. Isto porque essa teoria
se adapta especificamente ao tratamento de um dos aspectos mais importantes, porém difíceis, do
significado, qual seja a influência do contexto. Tem-se a vaga impressão de que informação e
significado podem parecer um par de variáveis canonicamente conjugadas na teoria dos quanta,
isto é, que a informação e o significado podem estar sujeitos a alguma restrição conjunta, de tal
maneira que a insistência em obter muito implica o sacrifício do outro. 13
Pode ocorrer, também, ser possível demonstrar que significado é análogo a uma das quantidades
da qual depende a entropia de um conjunto termodinâmico. Nesse caso Eddington faz outra
observação oportuna:
“Suponhamos que tenhamos que arrumar em suas categorias o seguinte: distância, massa, força elétrica, entropia,
beleza e melodia. Acredito que há mais fortes razões par colocarmos entropia junto com beleza e melodia, e não
com os três primeiros. Só encontramos entropia quando as partes são vistas em associação , e é vendo ou ouvindo
as partes em associação que distinguimos beleza e melodia. Todas as três são aspectos de arranjos. Constitui uma
reflexão fecunda que um desses três associados possa aparecer como uma entidade comum da ciência. A razão
pela qual esse estranho pode conviver com os nativos do mundo físico é sua capacidade de falar a língua deles, isto
é, a linguagem aritmética.”

Podemos Ter a certeza de que Eddington gostaria de Ter incluído a palavra significado ao lado de
beleza e melodia; e imaginamos que ficaria entusiasmado ao verificar, nesta teoria, que a entropia
não fala só a linguagem da aritmética; ela fala também a linguagem da linguagem.

13
Este binômio é especialmente válido no caso de traduções de poemas como The Bells (Os Sinos) de Edgar
Allan Poe.
Ver Cibernética e Sociedade caps. 1 e2

Вам также может понравиться