Вы находитесь на странице: 1из 73

Historia de la información

Pablo Rodríguez

Historia de
la información
Xxxxxx xxxxx xxxxxxxxxxxxx

ESTACIÓN CIENCIA
Colección dirigida por Leonardo Moledo
DIRECCIÓN EDITORIAL: Jorge Sigal
DIRECCIÓN DE LA COLECCIÓN: Leonardo Moledo
ILUSTRACIÓN DE TAPA: Juan Lima
DIAGRAMACIÓN: Verónica Feinmann
CORRECCIÓN: Adolfo González Tuñón
COORDINACIÓN: Inés Barba
PRODUCCIÓN: Norberto Natale

© 2012, Pablo Rodríguez


© 2012, Capital Intelectual
A Margarita, Lisandro y Leticia
1ª edición: x.xxx ejemplares • Impreso en Argentina
A Maricarmen
Capital Intelectual S.A.
A Oscar y Élida
Paraguay 1535 (1061) • Buenos Aires, Argentina
Teléfono: (+54 11) 4872-1300 • Telefax: (+54 11) 4872-1329
www.editorialcapin.com.ar • info@capin.com.ar

Pedidos en Argentina: pedidos@capin.com.ar


Pedidos desde el exterior: exterior@capin.com.ar

Queda hecho el depósito que prevé la Ley 11723. Impreso en Argentina.


Todos los derechos reservados. Ninguna parte de esta publicación puede
ser reproducida sin el permiso escrito del editor.

catalogación
Agradecimientos

A Leonardo Moledo, ante todo, por su insistencia y su inmensa


confianza en mí.
Y por orden alfabético:
A Gonzalo Aguirre, y con él al grupo de Bonpland.
A Flavia Costa, y con ella a mis alumnos en la UBA.
A Diego Ferreiro, y con él a Ignacio Sánchez.
A Andrés Fortunato, y con él al grupo simondoniano.
A Margarita Martínez.
Por escuchar mis obsesiones, por sugerirme los aciertos que haya
en este libro y por intentar alejarme de los errores que de todos
modos cometí, por leerme y corregirme.
Introducción
Una broma para comenzar

La historia de la información contiene varias historias: una muy larga,


otra más corta y una tercera extremadamente reciente. Trata de la
información sin nombrarla como tal o lo hace por impulso de los cam-
bios tecnológicos en los medios de transporte y de comunicación
iniciados hace menos de dos siglos. Es una historia que se escribe,
que se está escribiendo ahora y que deparará muchos textos
escritos en el futuro. La tan proclamada “revolución de la informa-
ción”, por efecto mismo de las tecnologías informacionales, quizá
no sea sólo escrita, sino también transmitida por voces, imágenes
u otras formas, visibles o invisibles en la actualidad.
Justamente este relato podría comenzar con la resistencia a ser
escrito. Entre los siglos V y IV antes de Cristo, Platón hizo algo muy
extraño para su época: comenzó a escribir los diálogos que se suce-
dían en el ágora ateniense. Es posible que se tratara de una respuesta
a la elaboración de recetas retóricas por los sofistas, pues lo que estaba

Pablo Rodríguez 11
en juego era nada menos que la forma futura que adoptaría la filoso- fundamental de la Europa medieval cristiana a través de sus monas-
fía occidental, si se piensa en el lugar central que ocupa Platón en ella. terios, como se puede leer en la novela El nombre de la rosa, de
El filosofar griego era fundamentalmente una dialéctica, una polémica Umberto Eco, o incluso antes, con la gigantesca biblioteca de Ale-
oral, y una gran obra no era otra cosa que una discusión bien jandría (Egipto), incendiada en tiempos del Imperio Romano. El asunto
ganada; en eso Sócrates, maestro de Platón, parecía imbatible. es que casi nadie sabía leer, por lo cual la autoridad de la escritura
Pero resultó ser que Platón comenzó a escribir eso que se era transferida a aquel que sabía leerla y transmitirla a quienes no
escuchaba. Hacia el final del diálogo Fedro cita un mito en el cual se podían hacerlo. Grande fue la sorpresa de San Agustín, quien con
condena a la escritura por muchos motivos: entre otros, porque la sus célebres Confesiones construyó una de las cumbres más altas
letra muerta no es capaz de responder a una pregunta (o sea, pierde del género de las confesiones íntimas escritas, cuando vio que su
la vivacidad de la dialéctica), porque lo escrito vuelve a los hom- maestro San Ambrosio leía en voz baja y hasta en silencio.
bres olvidadizos al tener a su alcance un dispositivo externo a su La broma de Platón había tenido un extraño éxito, porque los nue-
alma y porque, en definitiva, de este modo los hombres ya no pue- vos sabios comenzaron a definirse por la formación espiritual basada
den ser sabios (pues la sabiduría es la habilidad para la discusión) y en la lectura en silencio, en intimidad con el libro, aunque los com-
sólo serán aspirantes a la sabiduría, o sea, filósofos. Giorgio Colli, un bates dialécticos seguían siendo importantes gracias a las reglas de
gran estudioso de Platón, afirma que la filosofía occidental se funda la Escolástica medieval. Habría que entender a la Reforma protes-
en este lugar ambivalente de la escritura. Pues si se suele decir que tante, que impulsó la libre interpretación de la Biblia, y a la invención
Platón condena en Fedro la escritura, mejor sería aclarar que se trata de la imprenta por Gutenberg, en los siglos XV y XVI, como la ins-
de un diálogo en el que Platón no habla, sino escribe. Platón no quiere talación definitiva de la cultura escrita en el seno de la civilización
ser el autor de las palabras. Pero cuando sí quiso serlo, por ejemplo, occidental, pues comenzó a abrir el camino para que todo el mundo
en la llamada Carta Séptima, donde narra sus problemas para fuera capaz de leer, y no sólo los sabios o los sacerdotes. Así, de
constituirse en el filósofo principal de la corte del tirano Dionisio II todas las civilizaciones de la escritura, la europea fue la que trans-
de Siracusa, afirma que no hay que tomar en serio lo que un hom- formó esta tecnología en la clave de la constitución subjetiva y de la
bre escribe, ya que lo más importante es lo que sabe. Si se tomaran construcción social. Tan importante es la escritura para un occiden-
al pie de la letra los escritos de Platón, habría que pensar, como lo tal que aún hoy, mientras se habla livianamente del fin de lo escrito,
hace Colli, que el nacimiento de la filosofía occidental es el producto la genética afirma que la vida “está escrita en los genes”.
de una inmensa broma. Hasta aquí se desarrolla la historia larga de la información, la
Lo que no es broma es el rol de la escritura en las grandes religio- que no aparece como tal. Si para el sentido común la información es
nes monoteístas. El judaísmo, el cristianismo y el Islam son “religio- sinónimo de dato, durante varios siglos la tecnología de transmisión
nes del libro” y se fundan en las diversas interpretaciones de esa de esos datos se limitó a un soporte material y extenso llamado papel
palabra escrita, que es sagrada. Por eso la conservación de lo escrito, (con sus variantes, papiros, etcétera) y su expansión tuvo que apo-
incluso de los diálogos de Platón, se transformó en una misión yarse en un largo proceso de reconversión en el terreno de la sub-

12 Historia de la información Pablo Rodríguez 13


jetividad acerca de las definiciones de saber y conocimiento. Se trata tica misma. Ahora bien, si fue posible semejante transformación en
de la tensión clásica entre la oralidad y la escritura como formas de tan poco tiempo, su motivo es la multiplicación de las tecnologías
transmisión de saber. de transmisión de datos. A la prensa escrita hay que sumar, en un
En los tiempos de Platón, era prácticamente imposible pensar período de apenas un siglo y medio, la invención del telégrafo, del
que los datos contenidos en algo escrito podían suponer alguna teléfono y de los medios masivos de comunicación (la radio y la tele-
clase de saber. En los tiempos de San Agustín, lo escrito ya había visión), junto con otras innovaciones que retroalimentan la importan-
logrado expresar un tipo de autoconocimiento. Luego de Gutem- cia de estos medios, como la fotografía y el cine. Más aún, se pro-
berg y de Lutero, el padre de la Reforma protestante, los textos dujo paralelamente una revolución en los medios de transporte con
escritos pasaron a ser sinónimos de saber y de conocimiento acce- la creación del tren, del auto, del avión y del barco de vapor. Si hoy
sible a cualquier ser humano, lo que hizo posible el ideal de la Ilus- se habla de la “sociedad de la información y de la comunicación”,
tración, manifestado en la Enciclopedia y fundamentalmente en la parece evidente que no se trata de algo tan reciente ni era preciso
equiparación entre educación y alfabetización, algo que hubiera esperar a la aparición de Internet o de los celulares para anunciarla.
horrorizado a Platón, que rechazaba la escritura pero no se privó De hecho, las “utopías del vínculo universal”, que avizoraban un
de ser fundador de academias. mundo feliz por obra y gracia de las transformaciones de los trans-
Aquí comienza la historia corta de la información. Entre los siglos portes y de las transmisiones, pertenecen al siglo XIX.
XVIII y XIX, en la intersección entre la preocupación de las monar- Sin embargo, en otro sentido, Internet y los celulares, por poner
quías absolutistas en decadencia y de la teoría política moderna sólo dos ejemplos de tecnologías con una base digital de funciona-
por conocer el clima social que era cada vez más incontrolable, las miento, son consecuencia de la emergencia de la noción científica
revoluciones que anuncian la figura del ciudadano y los cambios tec- y tecnológica de información. Se trata de la historia reciente, la que
nológicos que originan la diversificación de la prensa escrita, emerge ahora sí se nombra explícitamente como “información”, y de la que
la posibilidad de una opinión pública, que no es otra cosa que el ideal se va a ocupar este libro. La expansión de la información es tan ace-
de una masa de personas “informadas”. Al principio fue un ideal cla- lerada respecto de su historia corta, la de la opinión pública, como la
ramente restringido a ciertas clases. De hecho, cabría sostener la de ésta respecto de la historia larga. En menos de medio siglo, las
hipótesis de que los grupos más poderosos buscaron impedir que tecnologías de la información se han infiltrado en todos los sistemas
se extendiera este ideal, dado que la agitación social que recorrió técnicos previos y han inventado otros de inusual potencia. Y como
todo el siglo XIX, tanto en Europa como en sus colonias y las que si fuera poco, han trastrocado el modo en que se entiende la polí-
dejaban de serlo, estaba en constante expansión. tica, la sociedad, la naturaleza, más allá de los debates que existen
Y así fue como los sujetos informados terminaron constituyendo acerca de cuán profundo es el cambio.
en el siglo XX un tipo de opinión pública inimaginable para los idea- El tiempo dirá si las pasiones que se alojan en Facebook, Twit-
les ilustrados: el que se expresa hoy, por ejemplo, a través de las ter y YouTube, como se alojaron en otros nombres antes y lo harán
encuestas y los sondeos, y que tiene un peso fundamental en la polí- en otros sistemas después, son tan importantes como se las pinta.

14 Historia de la información Pablo Rodríguez 15


El tiempo dirá si hay o no apuro en hablar de la “sociedad de la infor-
mación” cuando no se sabe todavía hoy qué es exactamente la infor-
mación, como si tras la invención de la máquina de vapor se hubiera
proclamado el nacimiento de la “sociedad de la energía”. Pero ya
que se ha hablado –y escrito– aquí sobre academias y alfabetizacio-
nes, por citar sólo un ejemplo, conviene observar todo lo que ocurre
1. La teoría matemática y estadística
de la información
en el mundo de la educación respecto de la avalancha tecnológica,
todos los debates, crisis y nuevos caminos que se abren, para
convencerse de que algo importante está ocurriendo. No es acon-
sejable tomárselo a broma.

Para una historia de la información entendida como datos, el siglo


XVIII es fundamental porque surge la idea de una opinión pública.
Para la historia de lo que hoy es la información, sin embargo, ese
siglo es más importante aún por el nacimiento de la estadística. Si
no fuera por la estadística, es probable (y hablar de probabilidad es
absolutamente ajustado a los problemas que se verán a continua-
ción) que todas las ciencias, las naturales, las sociales y las exactas,
que se desarrollaron en el siglo XIX hubieran sido bastante diferen-
tes. Sobre la base del cimbronazo epistemológico que significó la
estadística se edificó la teorización y la experimentación con las tec-
nologías de transmisión que explotaron en el siglo XX. El resultado
fue la Teoría Matemática de la Información (TMI), el punto de refe-
rencia de buena parte de lo que se dice y hace sobre la informa-
ción en la actualidad.

16 Historia de la información Pablo Rodríguez 17


La estadística trial. Así fue como Thomas Malthus identificó en 1798 una de las pri-
meras leyes estadísticas, en este caso aplicada a la demografía: “La
Es notable la primera definición de estadística, brindada por el pru- población, libre de restricciones, crece en proporción geométrica.
siano Gottfried Achenwall a mediados del siglo XVIII: “Los hechos Los alimentos sólo crecen en progresión aritmética”.
notables acerca del Estado”. Un siglo antes, el inglés William A partir de Malthus se puede continuar una historia de singulares
Petty ya había realizado una “aritmética política” de las tierras irlan- cruces entre las ciencias naturales y las sociales que modeló el
desas. Para el siglo XIX, la estadística se había transformado en una rostro de la estadística. La obra de Malthus fue leída con atención
de las tareas más importantes de los Estados europeos. En la cons- por Charles Darwin. Las teorías acerca de la población corrían para-
titución del Estado moderno intervienen el monopolio de la violen- lelas a las teorías de la evolución desarrolladas en una ciencia de bau-
cia física en un territorio, el establecimiento de la soberanía dentro tismo reciente: la biología. Pues bien, la celebridad de Darwin reside
de ese territorio, el reconocimiento de otros Estados, pero también, en parte en haber logrado reunir ambas series en una teoría común.
y de modo central, las estadísticas. Así se entiende cómo en aque- Darwin consideró que la adaptación que los individuos de una espe-
llos tiempos los Estados comenzaron a medir todo: desde las minas cie parecían tener respecto de las características de su medio
hasta el tamaño del tórax de los soldados, desde la balanza comer- ambiente no residía en cada uno de ellos, sino en todos tomados en
cial hasta los bosques, desde la proporción correcta de un jurado conjunto. De hecho, no es un individuo es el que se adapta a un
hasta la tasa de natalidad. La estadística fue fundamental para la ela- medio ambiente, sino una población. Por lo tanto, la famosa evolu-
boración de las teorías económicas liberales y también para las estra- ción de los seres vivos es un resultado estadístico. Cada especie
tegias de guerra. Hacer el cálculo de la cosecha anual de trigo o con- tiene individuos con características diferentes que luego serán “selec-
tar cuántos hombres adultos estaban en condiciones de ir al campo cionadas” por el medio ambiente para “decidir” cuáles sobreviven
de batalla hacían a la determinación de la fortaleza o la debilidad de y cuáles no.
un Estado. Las comillas de la oración anterior tienen su sentido, porque aquí
La estadística no era un mero asunto de registro, pues lo que daba se genera una nueva traslación, ahora de las ciencias naturales a las
a conocer era una regularidad imposible de ver contando a cada indi- sociales (como anteriormente de Malthus a Darwin), de consecuen-
viduo por separado. Los filósofos utilitaristas ingleses (cuyo repre- cias enormes. Esta traslación implica una transformación de la esta-
sentante más célebre es Jeremy Bentham, creador de la figura del dística misma. Las regularidades de cualquier conjunto de individuos,
Panóptico, el modelo arquitectónico sobre el que se construyeron en este caso una población, fueron catalogadas como “lo normal”.
muchas cárceles) sostenían que las regularidades ofrecidas por las Pero a lo largo del siglo XIX la “normalidad” misma pasó a asumir
estadísticas brindaban una radiografía del Estado y al mismo tiempo un carácter moral. Decir que lo anormal es lo que se desvía de la
la indicación de dónde estaban los problemas, y por ende las solu- norma no es algo inocuo, porque comenzó a pensarse que en el caso
ciones, para sociedades que, como la inglesa, en aquellos tiempos de las poblaciones humanas la anormalidad como desviación debía
atravesaban turbulencias enormes, como fue la Revolución Indus- ser tratada, analizada y en lo posible eliminada. La eugenesia, enten-

18 Historia de la información Pablo Rodríguez 19


dida como “la aplicación de las leyes biológicas de la herencia al per- de los individuos, como plantea el racismo. Si en una población de
feccionamiento de la especie humana” (definición del diccionario de tucanes hay varios tipos de picos y acaece un cambio en el medio
la Real Academia Española) fue durante muchas décadas el sentido ambiente, sobrevivirán aquellos que tengan el pico mejor adap-
común de reformadores políticos y sociales, de derecha y de izquierda, tado al nuevo escenario. Pero no es el pico, ni el individuo, el que se
y su corolario fue el nazismo. De este modo se realizaba lo que ima- adaptó, sino que fue la propia población, pues disponer de una cierta
ginaban los utilitaristas, esto es, que la estadística podía mostrar los diversidad de picos ya existentes permitió que el cambio en el medio
defectos de las sociedades industriales modernas y sus posibles ambiente no provocara la extinción de todos los tucanes. Se
soluciones, pero de un modo que no hubieran imaginado. puede imaginar qué diferente hubiera sido la elaboración de lo nor-
Ahora bien, este proceso sería inexplicable si no se atendiese a mal y lo patológico en lo social si se hubiera derivado de esta inter-
las ramificaciones de la teoría de la evolución. Todos los términos pretación. Sin dudas, a Darwin no lo favoreció que su propio
conocidos de la teoría darwiniana (selección natural, supervivencia primo, Francis Galton, haya sido uno de los principales mentores teó-
del más apto, adaptación al medio ambiente) fueron aplicados a la ricos de la alianza entre eugenesia y estadística.
sociedad humana como si fuera sólo un caso más de población en La estadística también fue decisiva para el surgimiento de la socio-
la naturaleza. Pero no lo es. Por lo pronto, los seres humanos son logía. Como con Darwin y Galton, es fácil seguir la historia a través
capaces de intervenir conscientemente en su condición biológica de los personajes. Émile Durkheim, uno de sus padres fundado-
(tal es el caso de la medicina, sin ir más lejos). Y, además, fueron res, comenzó a pergeñar El suicidio, obra fundamental de la socio-
ellos quienes formularon la teoría de la evolución. Por lo tanto, la logía, en contacto con la Dirección de Estadística francesa a cargo
población humana pasó a ser una moneda con dos caras: en una de de Gabriel Tarde, a quien luego Durkheim le ganará una pulseada
ellas se trata de un dato natural, como la población de conejos; pero fundamental para la definición misma de la sociología. De hecho,
en la otra es un hecho social, moldeable según diferentes paráme- Durkheim construye el problema del suicidio en Francia a partir de
tros. Cuando las dos caras se confundieron, aquellos fenómenos las curvas de lo normal y lo anormal reveladas por las estadísticas.
que son ciegos, sin fin alguno en la naturaleza, fueron dotados de Y más allá, fue el propio Durkheim quien apostó decididamente
intencionalidad y la desviación de la norma fue considerada como por la homologación epistemológica de las ciencias sociales con las
algo a evitar. Lo que se conoce como darwinismo social postula, con- ciencias naturales y las exactas.
tra la teoría consagrada de la evolución, que no es la población sino Y como si todo esto fuera poco, la estadística es fundamental
cada uno de sus individuos los que no son capaces de adaptarse a para comprender lo que ocurre en la física del siglo XIX, más preci-
una sociedad que, en una singular pieza de ingenio, es equiparada samente en la termodinámica, de la cual se derivará la primera noción
al medio ambiente. Así se responsabiliza a cada sujeto, en la socie- científica fuerte de información. La termodinámica surgió como la
dad, por lo que en términos de la relación entre poblaciones y medios respuesta a la posibilidad de mejorar el funcionamiento de las diver-
ambientes, en la naturaleza, es un fenómeno estadístico indiferente sas máquinas de energía (fundamentalmente la máquina de vapor)
a cualquier clase de voluntad, o de “error” inscripto en la naturaleza que empujaron la Revolución Industrial. Su primer principio dice que

20 Historia de la información Pablo Rodríguez 21


en los fenómenos de calor la energía total de un sistema se con- dad porque no se puede observar el comportamiento de cada una
serva, más allá de que se manifieste de diferentes maneras y de que de las moléculas, cuyas velocidades cambian con la temperatura,
un tipo de energía se transforme en otra (el caso típico es el de un tomadas en forma aislada. Curiosamente, algo parecido se plantea-
motor, en el que la energía calórica se transforma en energía ciné- ron las ciencias humanas y sociales cuando en esa misma época, el
tica). El segundo principio establece que todo intercambio de ener- último tercio del siglo XIX, observaron que el comportamiento de los
gía conduce a un sistema cerrado (esto es, a un sistema que no seres humanos en masas o multitudes tenía una lógica propia, dife-
puede intercambiar masas con su exterior, aunque sí energía), a un rente a la de la vida de cada uno de los individuos en soledad. Podría
equilibrio térmico en el que no son posibles más transformacio- decirse que las moléculas de un gas, así como las personas y tan-
nes, y que para llegar a ese equilibrio existe una cantidad de energía tas cosas en el universo, actúan de modo diferente según se las
calórica que no puede ser reutilizada en otra cosa. Se trata de un estudie en forma individual o en la totalidad de la que forman
fenómeno irreversible. Cuando se habla hoy de recalentamiento glo- parte. Esto quiere decir que en algunos niveles no se puede obser-
bal, se trata en esencia de un problema termodinámico: los seres var cómo se comporta cada individuo en particular, sino todos los
humanos liberan mucha más cantidad de energía de la que pue- individuos formando un conjunto. Y esto es provisto, justamente,
den reinvertir en procesos de transformación de la misma, y ese por la estadística. Así, el impulso de la estadística colaboró de manera
“sobrante” es lo que pone el peligro la vida futura en la Tierra, decisiva para pasar de una física de estados determinados a otra de
pues eleva la temperatura del planeta y provoca cambios irreversi- estados apenas probables.
bles, como el derretimiento de hielos y glaciares. En ese caso, la
energía “sobrante” y los hielos habrán llegado a un equilibrio, que
está expresado en la función entropía de la segunda ley. Aunque su La matemática
definición es aún hoy materia de controversias y su utilización cre-
ciente no ayuda para resolverlas, se puede decir que la entropía crece Como la física, la matemática moderna también vio surgir hacia fines
cuanto más probable es el estado que alcanza un sistema. Esto será del siglo XIX nuevas vías de investigación que tomaron la forma de
importante a la hora de definir el problema de la información querellas. La principal disputa versó sobre la posibilidad de reducir
La termodinámica es algo muy complejo para agotar en unos la matemática a la lógica y enfrentó a lo que más adelante se cono-
pocos párrafos y sus postulados son aún hoy objeto de muchas polé- ció como intuicionismo versus formalismo. A mediados del siglo XIX,
micas, dentro de las cuales emerge el problema de la información. siguiendo la propuesta hecha siglos antes por el filósofo alemán Gott-
Sin embargo, es en la termodinámica donde se aplicaron por primera fried Leibniz acerca de una gramática formalizada para la manipula-
vez los hallazgos de la mecánica estadística de Ludwig Bolztmann ción algebraica, el matemático George Boole había planteado que
y Josiah Gibbs. Dado que la termodinámica es en buena medida un en la medida en que tanto la lógica como la matemática son meto-
asunto de gases y los gases están compuestos de millones de molé- dologías que emplean símbolos, con leyes y combinaciones cono-
culas, no es posible estudiar las leyes del calor con absoluta fiabili- cidas, ambas pueden ser tratadas del mismo modo. Luego, otro ale-

22 Historia de la información Pablo Rodríguez 23


mán, Gottlob Frege, intentó a comienzos del siglo XX llevar la arit- esto es, conjuntos finitos de instrucciones o pasos que sirven para
mética al plano de la lógica. Los Principia Mathematica de Bertrand ejecutar una tarea o resolver un problema. Este autómata consta de
Russell y Alfred Whitehead pretendieron completar la tarea. Muchos un cabezal que lee y escribe sobre una secuencia lineal de datos,
filósofos, como Ludwig Wittgenstein y Charles Sanders Peirce, se que Turing imaginó como una cinta infinita. Para leer y escribir,
basaron en esta aserción sobre el empleo de símbolos para tender está dotado de un conjunto de estados internos y de instrucciones
puentes entre la lógica y el lenguaje, dado que la matemática es tam- para relacionar tal estado con tal dato leído y determinar si el cabe-
bién un lenguaje, vista desde este ángulo. Se dividieron entonces zal debe moverse a la derecha, a la izquierda, borrar y reescribir la
los bandos. Muchos matemáticos, como Luitzen Brouwer, Hermann celda en la que se encuentra el dato con uno nuevo o con el mismo.
Weyl y Henri Poincaré, rechazaron este camino lógico aludiendo a Tanto los datos de la cinta como los estados internos y las instruc-
que el significado de los símbolos matemáticos no puede ser ciones están escritos en código binario. Así, se puede imaginar a la
obtenido de manera formal; esto es, que el edificio de la matemá- “máquina de Turing” como un cabezal que barre de un lado a otro
tica pura, aunque tenga sus reglas de formación, no podía usarlas una serie de ceros y unos y los va modificando, mientras registra
de basamento. cada nuevo estado interno resultante de esos cambios. Si en un
Son muy complejos los argumentos que se esgrimieron en la que- momento dado el dato leído no es asociado por ninguna instrucción
rella y su resultado es incierto, pero del impulso formalista unido a con el dato actual del estado interno, el autómata se detiene. Habrá
ciertas investigaciones tecnológicas surgió en pocos años la com- terminado el cálculo pero, y esto es lo importante para Turing, habrá
putadora, tal como hoy se la conoce. La historia de la matemática logrado computar de manera completamente mecánica.
que le interesa a la de la información comienza con David Hilbert, Éste es el principio de las cintas y tarjetas perforadas, que fueron
una figura fundamental de las matemáticas modernas, que en 1900 las primeras unidades de almacenamiento de datos para computa-
planteó, en el Segundo Congreso Internacional de Matemáticos doras. Los algoritmos, que siempre existieron en matemática, encuen-
de París, los célebres 23 problemas que la matemática debía resol- tran una definición más precisa y a la vez se manifiestan en una
ver de allí en adelante. Las teorías de Hilbert y de muchos de sus máquina. Que sea una máquina remite a que el algoritmo, dentro de
alumnos y discípulos en la Universidad de Göttingen fueron funda- la formalización, debe poder ser abstraído de quien lo realiza, y por
mentales para las teorías de la relatividad y la teoría cuántica que lo tanto lo característico es que lo haga alguien distinto del hom-
revolucionaron la física. Y en el seno de estas investigaciones sur- bre. La computación como manipulación de símbolos a través de
gió la teoría de la computabilidad, que se ramificó en varias líneas. algoritmos señala el camino definitivo hacia la informática por dos
Una de esas líneas es la que siguió el matemático inglés Alan vías diferentes. La primera es lo que terminará siendo la contraposi-
Turing. A partir de algunos problemas que presentaba la teoría de ción entre sistemas decimales y sistemas digitales, donde estos últi-
Hilbert, Turing estableció en 1936 que la computabilidad, compren- mos “codifican” en ceros y unos la chorrera de números de un
dida como capacidad de cálculo, podía ser realizada por una máquina cálculo cualquiera, multiplicando la capacidad de cálculo con tres
“abstracta”. La llamada máquina de Turing lleva a cabo algoritmos, operaciones lógicas del álgebra de Boole (unión, intersección, com-

24 Historia de la información Pablo Rodríguez 25


plemento). La segunda es el delicado pero espectacular salto que tal, no en todo pero sí en parte. Los nombres ayudaron a que esta
lleva de la computación de símbolos a las metáforas acerca del pen- máquina fuera el ABC de las computadoras, ya que así la llamaron:
samiento y que lleva, una vez más, a otra invención de Turing (el ABC, Atanasoff Berry Computer.
“test de Turing”), por la cual se intenta demostrar la similitud entre Ahora bien, es preciso aclarar que la historia de la información difí-
el pensamiento humano y el maquinal. En la visión de Turing, ambos cilmente pueda ser resumida en la historia de las tecnologías que hicie-
son procedimientos formales. ron posible su postulación. Esas tecnologías son, quizá como en nin-
La “máquina de Turing” era una propuesta abstracta, pero tenía guna otra época, la proyección de un conjunto de analogías sobre los
bases muy concretas. Tanto Turing como muchos de los nombres parecidos del mundo artificial con el mundo viviente y el mundo humano.
que se leerán de aquí en más fueron matemáticos empleados por El propio Turing representa un caso ejemplar al respecto, pues pen-
los Estados y las empresas de Estados Unidos y Gran Bretaña sando en modelos matemáticos derivó rápidamente hacia la construc-
para que inventaran artefactos que sostuvieran los planes bélicos de ción de artefactos que confirmaran dichos modelos (no es el único
estos países en la Segunda Guerra Mundial. Turing, por ejemplo, tra- caso en la historia, por supuesto, pero sí el que más consecuencias
bajaba en Enigma, un aparato que se encargaba de descifrar men- tuvo) y de allí postuló que el cerebro, algo vivo y particularmente desa-
sajes encriptados en las comunicaciones del Tercer Reich, y años rrollado en los seres humanos, era un tipo especial de tal artefacto. Sig-
más tarde, en 1950, sería el programador de la primera computa- nifica una ruptura fundamental en el pensamiento occidental, que hasta
dora inglesa, realizada en la Universidad de Manchester. Y si de com- entonces sólo se había atrevido a comparar a la máquina con el cuerpo
putadoras entendidas como “máquinas de Turing” se trata, no hubo y al cuerpo con la condición animal del hombre, como se da en el cuerpo-
que esperar hasta el fin de la Segunda Guerra Mundial, en 1945. A máquina de Descartes y de La Mettrie.
fines de los años ’30, en la Universidad de Iowa (Estados Unidos), Otro caso paralelo al de Turing es el modelo neuronal de Warren
dos físicos, John Atanasoff y Clifford Berry, estaban buscando la McCulloch y Walter Pitts, matemáticos también, quienes basándose
manera de mecanizar el cálculo matemático siguiendo el modelo de en las investigaciones neurológicas de aquellos años llegaron a pro-
la calculadora. Y llegaron a componer una máquina increíble para la poner que las conexiones neuronales son sistemas lógicos. Las neu-
época, aunque hay que decir que la cuestión estaba en el aire, pues ronas se relacionan unas con otras por medio de descargas eléctri-
en esos años muchos hicieron artefactos parecidos y hay varias “pri- cas que se producen o se inhiben a partir de la superación de
meras computadoras” según la historia que se lea. Desde el punto cierto umbral. Por lo tanto, dicen McCulloch y Pitts, tienen un fun-
de vista físico, esta calculadora utilizaba válvulas electrónicas en lugar cionamiento binario, de todo o nada, por lo cual las sinapsis, esos
de engranajes y palancas y tenía un sistema de memoria basado en modos de relación, pueden ser comprendidas con la lógica binaria y
electricidad acumulada en capacitores; o sea, era una máquina eléc- se puede proponer que lo que hacen es un cálculo. La neurona for-
trica-electrónica. Desde el punto de vista del funcionamiento, utili- mal sería, así, una suerte de computadora viviente. El artículo donde
zaba una codificación en base 2 (ceros y unos) y una lógica binaria plantean este modelo es de 1943 y su elocuente título es “Un cál-
para realizar las operaciones de cálculos; o sea, era una máquina digi- culo lógico de las ideas inmanentes en la actividad nerviosa”.

26 Historia de la información Pablo Rodríguez 27


Fue John Von Neumann, célebre matemático norteamericano por pasarse todo (los cálculos, los datos, las instrucciones) a un formato
opción y húngaro de nacimiento, quien realizó una trama uniendo digital o binario, mientras que antes, con la ABC o la ENIAC, lo único
los hilos de la computadora ABC, la máquina de Turing y el modelo binario era la representación de los datos a calcular. Esa gran unidad
de McCulloch-Pitts. La fama de Von Neumann no está exenta de de memoria sería posible por el mejoramiento veloz que se produ-
polémica, y su recorrido es tan sorprendente como emblemático de cía en la tecnología de las válvulas, pero a la vez generaba la necesi-
esta historia de la información, tal como se la está narrando. Fue dad de concebir una unidad de cálculo diferente a la memoria.
alumno de Einstein, asistió a “La Meca” matemática de la Universi- Con el tiempo, las instrucciones almacenadas en la máquina fue-
dad de Göttingen, trabajó junto a Hilbert y a Werner Heisenberg, fue ron llamadas programas. Que todo pueda ser “pasado” a digital se
el autor de la famosa “teoría de los juegos” junto a Hans Morgens- explica hoy por la existencia de un código, y la distinción entre la uni-
tern y, ya en Estados Unidos, participó del Proyecto Manhattan, que dad de memoria y la de cálculo es la que corresponderá al disco rígido
culminó en la fabricación de la bomba atómica. Con ese proyecto ini- y al microprocesador. Pero, fundamentalmente, a lo que apuntaba
ció su colaboración activa con el ejército norteamericano. De sus Von Neumann era a automatizar los procesos de manera tal de no
charlas y conferencias de los años ’50 se puede inferir que tenía tener que intervenir en el funcionamiento de la máquina una vez que
mucha tela para cortar en lo que serían las futuras ciencias de la infor- comenzara a hacer cálculos. Por lo tanto, la codificación binaria y la
mación, pero en 1957, con 53 años, murió de un cáncer fulminante. programación a partir de esa codificación permitieron concebir una
El 30 de junio de 1945, un mes antes del lanzamiento sobre Hiros- organización lógica de la máquina independiente de la organización
hima de la primera bomba atómica que él había ayudado a construir, física, que así dejaría de necesitar las manos humanas. En términos
Von Neumann inventó la computadora tal como la conocemos de la ENIAC, la nueva máquina se “recablearía” sola. Por lo tanto,
hoy. Lo hizo bajo la forma de un boceto para la mejora sustancial no hacía falta que un ser humano estuviera allí para “cambiar” mate-
de la ENIAC (Electronic Numerical Integrator and Computer), una rialmente la composición de la máquina, modificando el set de cone-
máquina gigantesca y pesadísima que suele ser calificada como la xiones para que la máquina “entendiera” que tenía que hacer un
primera computadora, aunque fuera posterior a la ABC. La ENIAC, nuevo cálculo o que tenía que usar los datos del cálculo anterior en
por ejemplo, necesitaba que varias operarias cambiaran los cables uno u otro sentido. Esas instrucciones almacenadas, ese programa,
de lugar cada vez que terminaba un cálculo. Von Neumann pensó hacen que la máquina se maneje a sí misma. Esta separación apa-
entonces que se podía generar un conjunto de instrucciones (los rente entre una máquina que no cambia su disposición física y una
algoritmos de la máquina de Turing) que estuvieran almacenados en serie de instrucciones que hace que esa misma máquina modifique
la máquina y que ésta activara lo que necesitara, con una orden dada de modo automático los cálculos que realiza es lo que se conoce
desde fuera, sin necesidad de “tocarla” físicamente. A la vez, tam- como un software opuesto a un hardware.
bién los datos y los resultados de esos datos combinados en cál- Von Neumann imaginaba que una máquina que respondiera a
culos podían ser almacenados en el mismo lugar, que llamó una uni- estas características sería una interesante imitación del modo en
dad de memoria. Para que todo pudiera estar en esa unidad, podía que funciona el cerebro humano, gracias a la analogía que permitía

28 Historia de la información Pablo Rodríguez 29


el modelo de McCulloch-Pitts (donde las válvulas podrían ser las neu- XIX, los sistemas de telégrafos presentaban varios problemas: difi-
ronas), y que la introducción de dispositivos de entrada y salida de cultad para extenderse en grandes distancias, saturación de las redes
datos en esa máquina se acercaría al funcionamiento de una máquina locales, costos muy altos para abrir nuevas líneas, entre otros. Pero
de Turing. Von Neumann no fue más allá de esto, pues las famo- a fines de siglo la cuestión se trasladó a los sistemas de telefonía.
sas competencias entre computadoras y humanos serían objeto de Las empresas telefónicas cayeron en la cuenta de que el negocio
teorías posteriores, como las de la inteligencia artificial (IA), y las con- estaba por acabarse antes de haber comenzado y se plantearon inver-
creciones de sus planes ocurrirían años más tarde. Pero fue mucho tir grandes cantidades de dinero en investigación y desarrollo. El pri-
más allá de lo que se podía ir con la analogía entre calculadora y com- mer resultado serio fue la puesta a punto de equipos de repetidoras
putadora. Una máquina que tiene un hardware y un software, que eléctricas que amplificaban las señales transmitidas cada cierta can-
puede transformar cualquier dato (imagen, sonido, números, letras, tidad de kilómetros para evitar que éstas se degradasen conforme
etcétera) en materia para los millones de cálculos de diferente orden crecía la distancia recorrida. Así fue posible inaugurar, en 1915, la pri-
que puede realizar al mismo tiempo, y que puede entregar los resul- mera línea transcontinental telefónica que unía Nueva York con
tados de esos cálculos de un modo que cualquier ser humano puede San Francisco. De todos modos, la inercia de los componentes de
comprender sin que necesite entender cómo funciona el disposi- las repetidoras solía introducir demasiadas distorsiones en las seña-
tivo, eso es una computadora como se la conoce actualmente. les transmitidas.
En las primeras décadas del siglo XX, buena parte de la física
moderna se transformó gracias al descubrimiento de que la luz puede
La teoría matemática de la información (TMI) comportarse como onda o como partícula. Algo similar ocurrió en el
campo de las telecomunicaciones, mucho antes de que fuera evi-
Ni Von Neumann ni Turing hablaban de información. ¿En qué momento, dente el viaje de ondas lumínicas mediante los cables de fibras ópti-
pues, aparece el término, y por qué hoy es obvio afirmar que la com- cas, como en la actualidad. En aquellos tiempos se trataba de la
putadora es una máquina que procesa información? La respuesta corriente eléctrica, una corriente que había que aumentar para ampli-
depende de la resolución de un enigma dentro del proyecto de ficar la señal y que terminaba por quemar los cables. De este modo,
Von Neumann: de qué modo una máquina puede “codificar” datos buscando superar los límites impuestos por los materiales, a fines
provenientes de distintas formas y diferentes materias; cómo hace del siglo XIX comenzaron a estudiarse las señales de las líneas tele-
una computadora, o cualquier dispositivo parecido a ella, para “digi- fónicas en tanto ondas que utilizan la electricidad como soporte. Así
talizar”. Y esto conduce a la descripción de un linaje teórico y tecno- comienzan a relacionarse las señales con frecuencias, que pueden
lógico diferente del recorrido hasta ahora. ser tratadas mediante cálculos. Se intentaba mejorar la forma de las
Aquí los protagonistas no son el Estado, las universidades o las señales para que se montasen sobre las ondas con la menor canti-
fuerzas armadas norteamericanas, sino los institutos de investiga- dad de deformaciones posibles. Así nace lo que hoy se conoce como
ción de las empresas telefónicas. Ya en la segunda mitad del siglo la frecuencia modulada: un trabajo sobre las ondas para permitir que

30 Historia de la información Pablo Rodríguez 31


las señales no sufrieran el “ruido” de la transmisión al punto tal de Las investigaciones de Nyquist y Hartley son citadas en el famoso
ser inaudibles. Esto permitió a su vez la transmisión de varias fre- artículo de Claude Shannon y Warren Weaver de 1948, “Teoría mate-
cuencias al mismo tiempo, con otras tantas señales moduladas, sin mática de la información” (de aquí en adelante, TMI). Shannon y
que se recargara el sistema eléctrico. Weaver elaboraron esta teoría para los Laboratorios Bell, y por
Al poco tiempo surgieron las limitaciones en la velocidad de supuesto la referencia eran los teléfonos, pero al mismo tiempo
transmisión de las señales. El ingeniero sueco Harry Nyquist, que tra- habían trabajado en proyectos relativos a la Segunda Guerra Mun-
bajaba para la empresa telefónica AT&T, propuso concentrarse en dial, especialmente la criptografía, como Turing. De aquí se derivó
mejorar los dos factores que incidían en la velocidad de transmisión: un primer corte importante con las investigaciones anteriores en teo-
el tipo de códigos elegido y la conformación de la señal. Nyquist com- ría de la información, que apuntaban a la selección de símbolos
probó que algunas señales presentaban fluctuaciones previsibles que con la misma probabilidad de aparición. Para descifrar un mensaje
no aportaban ningún elemento nuevo en la codificación, a las que llamó cuyo código no se conoce, es necesario ser muy preciso en la iden-
redundancia. También encontró la manera de representar en forma tificación de ciertos patrones de aparición de los símbolos. Así, Shan-
discreta los valores de la corriente eléctrica, que no es otra cosa que non y Weaver llegaron a la conclusión de que debía aplicarse el cál-
el primer esbozo de la transformación de lo analógico a lo digital. Pero culo de probabilidades a la medición de la información que habían
lo más significativo es que los dos aspectos, la codificación y el trabajo concebido Nyquist y Hartley. En definitiva, los símbolos a descifrar
sobre las formas de la señal, obligaron a considerar que había algo eran como las moléculas de gas de la termodinámica: no se puede
nuevo que se medía en la transmisión de las señales, y que signifi- saber la posición de cada uno, sino inferirla a través de la posición
cativamente llamó “inteligencia”. Tres años más tarde, un director de de algunos otros. Así, la TMI considera que la cantidad de informa-
departamento de los Laboratorios Bell de la empresa AT&T, Ralph Har- ción se define como la suma del logaritmo de las probabilidades
tley, renombró a la “inteligencia” como “información”, lo cual no deja de aparición de los diferentes símbolos. En su artículo, Shannon y
de mostrar cierta literalidad, puesto que el trabajo sobre las señales Weaver denominaron significativamente entropía a esa cantidad de
trataba de dar constantemente nuevas formas a las señales mismas. información. Medir matemáticamente la información es medir la
Y desde los tiempos de Aristóteles, filosóficamente hablando, se llama incertidumbre asociada al producto de una fuente de mensajes. Por
“in-formar” a la acción de dar forma a una materia. Así, la información lo tanto, el concepto de información no se aplica a los mensajes indi-
aparece relacionada con las formas desligadas de su soporte físico viduales, sino a todas las señales emitidas por una fuente. Dicho de
más evidente (la electricidad, aunque las ondas generadas seguían otro modo, son las propiedades estadísticas de la fuente las que mar-
siendo un soporte físico) y con la noción de código. Para medir la infor- can cuánta información hay en un conjunto de mensajes.
mación, Hartley se concentró en la cantidad de opciones de símbolos Con el cálculo estadístico, la TMI reformuló aquello que buscaba
posibles de ser transmitidos por un emisor: a más opciones, más infor- Nyquist: la codificación de las señales. Ya no se trataba sólo de deri-
mación tendría el símbolo elegido. Hasta la década del ’50, la informa- var el código de las propiedades de la corriente eléctrica (de donde
ción no fue medida en bits o bytes, como lo es hoy, sino en hartleys. proviene el sistema digital como opuesto al analógico), sino de gene-

32 Historia de la información Pablo Rodríguez 33


rar un código, o llegar a conocer un código ya existente, de manera operacionalmente en la TMI sea manipulada por un usuario mediante
tal que se pudieran evitar las interrupciones del mensaje transmitido un conocimiento “intuitivo” de esa misma teoría.
debido a problemas físicos o de otro tipo. Pero si se llegaba a una Sin embargo, la celebridad de la TMI proviene en gran medida de
codificación exacta, en donde cada uno de los símbolos era absolu- la postulación de un modelo de la comunicación válido para cualquier
tamente necesario para reconstruir los símbolos faltantes y así cap- sistema, natural o artificial. No es que Shannon y Weaver lo hayan
tar el mensaje total, bastaba con que uno de esos símbolos fuera mal planteado así, sino que fueron otras disciplinas las que adoptaron el
recibido por problemas en la señal para que la transmisión misma modelo. Es algo bastante conocido: un emisor de un lado y un recep-
fallase. Y en lugar de apuntar a mejorar los canales de transmisión, la tor del otro, un mensaje en el medio y, rodeándolo, el código y el
TMI, tal como había hecho Von Neumann respecto del quiebre entre canal. Aquí es donde comenzó la historia de la información propia-
la calculadora y la computadora, se concentró en las formas de los mente dicha. De hecho, no se podría entender la expansión de la
mensajes, aquella que preocupaba ya a Nyquist, pero en relación con información como concepto de no ser por su imbricación con las teo-
las propiedades estadísticas de la fuente que emite los símbolos. rías de la comunicación. Como se verá en el capítulo siguiente, los
Una buena manera de comprender la TMI es lo que se hace a dia- sistemas biológicos, artificiales y sociales fueron comprendidos rápi-
rio al enviar un mensaje de texto por un celular. Cuando se escribe damente como sistemas de comunicación y, como tal, pudieron ser
“q” para significar “que”, se está asumiendo que la letra “q” es analizados como sistemas de procesamiento de información. Como
información, ya que no se puede predecir su aparición, y que las la máquina de Turing, la prueba decisiva no es que la entidad de la
letras “u” y “e” no tienen valor informacional, en un caso porque en que se trate (animal, hombre, máquina) pueda ser capaz de obede-
castellano la “u” siempre acompaña a la “q” y en el otro porque, cer a una serie de instrucciones provenientes de sí misma o de alguien
habiendo sólo dos opciones que seguirían a la “u” (las letras “e” o que las introdujo, sino que pueda generar un mensaje de salida dife-
“i”), la “e” es la única que corresponde a una palabra en castellano; rente al mensaje de entrada, lo que hablaría de alguna clase de estado
de hecho, la única palabra que puede tener tres letras comen- interno (¿la “inteligencia”, como la llamaba Nyquist?). Aquí se pro-
zando con la “q” es “que”, de manera que escribir “q”, luego un duce una alianza entre el linaje tecnológico de las telecomunicacio-
espacio y luego otra palabra equivaldría a un “que”. Si se intentara nes y el de las calculadoras. Emisor-mensaje-receptor será el equi-
escribir “querer”, habría que introducir una “r” como segunda uni- valente de entrada-estado interno-salida, donde esta última tríada es
dad informativa luego de la “q”. Shannon y Weaver hicieron exac- la que garantiza que se generen todo el tiempo los mensajes que
tamente lo mismo, sin que hubiera ni remotamente algo parecido serán entendidos como emisión y recepción en los sistemas en
a un teléfono celular, con un sistema de derivaciones que llevaba de los que participan estas entidades.
un mensaje inentendible a uno medianamente comprensible en En el modelo de la comunicación derivado de la TMI, tal como lo
inglés, simplemente introduciendo modificaciones “automatizadas” formularon Shannon y Weaver, hay una fuente que emite el mensaje
a partir de las probabilidades de asociación de las letras en ese idioma. y un transmisor que lo codifica. El mensaje codificado es enviado por
No deja de ser curioso que, años después, una tecnología basada un canal que necesariamente introduce ruido y pone a prueba la efi-

34 Historia de la información Pablo Rodríguez 35


cacia de la codificación. Quien recibe ese mensaje es un receptor que
lo decodifica para que pueda ser leído por el destinatario. El fuerte del
sistema reside en la codificación, ya que la fuente y el destinatario
quizá no conozcan todo lo que ocurre para que el mensaje llegue a
buen puerto a pesar de los problemas del canal, pero la comunica-
ción efectivamente se produce. Ya que se habla aquí de la reunión de
2. La información procesa al hombre

la informática con las telecomunicaciones, esto es lo que sucede,


millones de veces por segundo, cuando se envía o recibe un mail o
cuando se mira un video en YouTube: un proceso de intensa codifi-
cación, decodificación y recodificación para que una serie de letras,
imágenes y sonidos sea “desarmada” o “resumida” para pasar por
un estrecho túnel al final del cual es “rearmada” y “desplegada”. Eso
que se manipula en el proceso es información. Quien lo manipula son
las máquinas, pero a la vez esas máquinas tienen una inspiración fuer-
temente natural y, por qué no, social. Seguir el rastro de esas inspi-
raciones es lo que permitirá comprender los motivos por los cuales
dos enormes y acelerados procesos de transformación tecnoló-
gica, el de la informática y el de las telecomunicaciones, constituyen Además de su obra y de su peculiar vida, sobre la que tanto se ha
el puntapié inicial de un cambio mucho más general. dicho, lo que se le reconoce al escritor inglés Oscar Wilde son sus
frases célebres y sus anécdotas. Hacia 1882, en su gira por Estados
Unidos, le presentaron en Nueva York el teléfono.
–Con este aparato usted puede hablar con alguien en Boston
en menos de dos minutos.
–¿Y para decirse qué? –respondió Wilde.
En las referencias al hecho no aparece la respuesta del interlocu-
tor de Wilde y eso ayuda a la elegancia de la anécdota. Pero hoy
en día se podría responder: “No importa qué, lo que importa es que
todo habla”. Para la biología molecular de la actualidad, los genes,
responsables de la transmisión de la herencia biológica de padres
a hijos, “se expresan”. Con esto se quiere decir que las instruccio-
nes contenidas en un código, contenido a su vez en las conocidas

36 Historia de la información Pablo Rodríguez 37


moléculas de ADN (ácido desoxirribonucleico), terminan siendo cum- funciona como una máquina; una máquina de información. No son
plidas por medio de un proceso que será explicado más adelante, cuentos de ciencia ficción ni meras especulaciones. Todo esto se
y que es fundamental para entender ciertos usos corrientes sobre puede leer en libros de divulgación de biología molecular, en progra-
la noción de información. Cuando se regula esa “expresión gené- mas de investigación de importantes institutos y universidades y se
tica” para que efectivamente no se cumplan ciertas instrucciones, puede experimentar directamente cuando la computadora “se
se dice que esos genes “se silencian”, como si se censuraran. Otros cuelga” del mismo modo en que lo hace su usuario. Lo que se puede
de los protagonistas centrales de la genética son las proteínas, leer hoy, en definitiva, es que los seres humanos no somos los
que son las responsables de que aquello que está escrito en el código únicos que leemos, escribimos e interpretamos en este mundo. Qui-
se realice materialmente en las células y formen todo lo que com- zás ahora se entiendan mejor los miedos y las bromas de Platón y
pone un ser vivo. Las proteínas distribuyen la energía en distintas la sorpresa de San Agustín.
estructuras, produciéndose mutaciones y cambios en la conforma-
ción de sus enlaces químicos. Para hablar de esa distribución, se
dicen que las proteínas están más o menos “frustradas”. De la entrada a la salida pasando por el mensaje
Los genes y las proteínas, como se verá, están vinculados por
la noción de información aplicada a la biología molecular. Hay entre Quien dijo que la máquina puede sentir dolor es Norbert Wiener.
ellos procesos de transmisión de información. ¿Transmitir informa- Este matemático fue un personaje muy peculiar, un científico con
ción es el equivalente estricto a “decir algo”, dotarlo de sentido, proyección política que tuvo no pocos problemas en un Estados Uni-
ya que un gen “se expresa” o “es silenciado” como podría serlo una dos atravesado por la paranoia del anticomunismo. Fue el creador
persona? ¿Por qué la distribución de energía en las proteínas es carac- de un vocablo muy habitual en la actualidad, el de cibernética: “Cien-
terizada a través de un vocablo tan humano como la “frustración”? cia que estudia la comunicación y el control en animales, hombres
Las cosas se complican aún más al escuchar el siguiente diálogo, y máquinas”, como reza su definición. Quizá no sean necesarias
ocurrido en un congreso sobre información de la década del ’60: explicaciones adicionales, pues se postula que animales, hombres
–Es cierto que las máquinas parecen expresar inteligencia, pero y máquinas comparten una misma realidad comunicacional. Pero
no sienten dolor. cuando se piensa que esa idea de comunicación es absoluta-
–Eso no es seguro. mente dependiente de la teoría de la información y que es ésta la
Lo que se va a contar a continuación es cómo, en menos de tres que organiza las equivalencias entre reinos, estas explicaciones
décadas, el problema de la información consiguió realizar todos estos adquieren un sentido, quizás el que buscaba Wilde o el que resuena
desplazamientos y convirtió en algo verosímil que una máquina cada vez que se le agrega el prefijo “ciber” a una palabra: cibercafé,
“sienta dolor” o que una proteína “se frustre”. O al revés: que una cibercultura, ciberpolítica, ciberespacio.
máquina se frustre y que una proteína sienta dolor, porque tam- En realidad, Wiener, al postular la constitución de la cibernética,
bién se postula hoy que la vida (esto es, los genes y las proteínas) intentó unificar un campo de investigaciones que surgió en la inme-

38 Historia de la información Pablo Rodríguez 39


diata posguerra en lo que se conoce como las “conferencias Macy”. muchas aplicaciones inicialmente porque en la época se desconfiaba
Participaron de ellas psicólogos, programadores, sociólogos, mate- mucho de una técnica que pudiera hacer incrementar las oscilacio-
máticos, ingenieros, antropólogos, economistas, fisiólogos y neuró- nes en la amplificación. Lo que hicieron Wiener, un ingeniero llamado
logos, y es sintomático para lo que vendría luego que estuvieran Julian Bigelow y un cardiólogo llamado Arturo Rosenblueth, fue gene-
ausentes figuras medianamente relevantes de la física y la biología. ralizar el principio del feedback negativo a los procesos biológicos
Muchos de ellos ya estaban realizando investigaciones conjuntas, y artificiales, hasta llegar al punto de proponer, como hará Wiener
en su mayoría patrocinadas por el gobierno y las fuerzas armadas más tarde, que “la conciencia es un fenómeno de feedback”.
estadounidenses, y se pueden encontrar en las ponencias casi todos ¿Por qué feedback “negativo”? ¿Cuál sería el positivo? Dado el
los nombres del capítulo anterior: Von Neumann, Shannon, Weaver, hecho de que cualquier entidad procesadora de información recibe
McCulloch y Pitts, entre otros. un input (entrada) que genera un output (salida) diferente a ese input,
El eje a partir del cual estos científicos construyeron las analogías también puede evaluar el resultado provisorio de su acción como
entre lo técnico, lo humano y lo social ya fue mencionado: la trans- otro input para generar otro output. La cadena recursiva se detiene
formación de toda realidad en una entidad comunicacional, que con- cuando esa entidad logra completar la acción. Feedback es enten-
siste en un dispositivo de entrada, otro de salida y entre ellos un dido tanto como retroalimentación como retroacción; esto es, aque-
estado interno. Dicha entidad puede ser comprendida según el llo que alimenta a esa entidad es lo que genera que actúe sobre su
esquema del emisor, el receptor y el mensaje, unidos por un código acción inmediatamente anterior, lo que se llama un proceso de
y un canal. Pero Wiener y su gente aportaron la noción de feedback, “ajuste”. El feedback negativo es aquel en el que la retroacción se
el famoso mecanismo de retroalimentación, que habían tenido opor- dirige a achicar el margen de maniobra para alcanzar el fin de la acción;
tunidad de investigar a propósito de los cañones antiaéreos y de la el positivo, en cambio, alude a la retroacción que amplía el campo
elaboración de prótesis corporales. El feedback, el retorno, eso que de posibilidades de acción, eso que querían evitar los ingenieros
tanto se utiliza hoy en la jerga corriente, fue lo que permitió ofrecer de la Bell cuando desconfiaban de la idea de Black. Wiener da el
una explicación sobre cómo funcionan las telecomunicaciones y ejemplo de alcanzar un vaso con la mano. El sistema nervioso rea-
cómo se expresa la existencia de esos estados internos que crean liza miles de retroacciones para ir acercando la mano al vaso. Pues
los mensajes, que no son otra cosa que la transformación de algo bien, el sistema nervioso, pero también las redes de telecomuni-
que entra en algo que sale. Eso se llamó, como se dijo, “procesa- caciones, el corazón, un cañón antiaéreo que calcula la trayectoria
miento de información”. del avión al que pretende derribar y hasta una neurosis pueden ser
En sus inicios, el feedback negativo fue concebido por el inge- esas entidades que se retroalimentan para alcanzar un fin.
niero Harold Black, en 1927 y una vez más para los Laboratorios Bell, Por eso Wiener, Rosenblueth y Bigelow llamaron a su artículo
como un mecanismo eléctrico para controlar la ganancia o la dis- “Conducta, propósito y teleología”. Como en el caso del modelo de
torsión de los amplificadores, lo que generó una mayor manipula- neurona de McCulloch-Pitts (de hecho, ambos artículos son del
ción de las señales transmitidas. Sin embargo, el feedback no tuvo mismo año, 1943), se trata de abstraer características generales

40 Historia de la información Pablo Rodríguez 41


de los procesos de información en un modelo teórico con innume- previo, que es la entrada. Por lo tanto, el éxito de todas estas
rables ejemplos concretos, relacionando lo artificial con lo natural investigaciones, la fortuna de la idea de que “todo procesa informa-
mediante analogías. Pero al mismo tiempo, como en el caso del pro- ción”, depende de poder postular algo acerca de un estado interno
yecto de Von Neumann para crear una nueva computadora com- de esas entidades.
parando a las válvulas con las neuronas, ese modelo teórico con
ejemplos artificiales de realización tiene un ineludible referente natu-
ral. En este caso es la homeostasis, fenómeno por el cual cual- Buscando el estado interno
quier organismo tiende a mantener su equilibrio a través de una
suerte de finalidad interna, inmanente, que reajusta incesantemente, La búsqueda y descripción de ese estado interno impulsó a las llama-
a través de miles de feedback, la actividad metabólica que mantiene das ciencias cognitivas, y a esa corriente tan en boga en los últimos
dicho equilibrio. De hecho, los tres mantenían una relación estrecha años llamada cognitivismo. Como su nombre deja entrever, se trata
con Walter Cannon, famoso en la época por sus investigaciones del estudio de la cognición entendida como el conjunto de procesos
sobre este tema. implicados en la situación del conocimiento, desde la percepción hasta
Las primeras conferencias Macy, que se desarrollaron entre 1946 la memoria y desde la formación de los conceptos y el razonamiento
y 1953, estuvieron consagradas a explotar al máximo dichas analo- lógico hasta la capacidad de aprendizaje. Los inicios del cognitivismo
gías respecto del feedback. En el fondo, el problema de la teleolo- están fuertemente emparentados con la experimentación con las
gía es la verdadera llave para relacionar los dos esquemas mencio- máquinas de información, en especial las computadoras, y con las
nados: el del emisor-mensaje-receptor con el de entrada-salida. No ciencias neuronales, pero también con problemas de larga data de la
hay manera de transformar una entrada en una salida, o de comuni- filosofía y la psicología modernas, a tal punto que es difícil establecer
car un mensaje que sea algo más que el mensaje o entrada que cual- cuáles son los límites disciplinarios del cognitivismo. Cibernéticamente
quier entidad recibe, sin que haya algo en el interior de esa entidad hablando, la cuestión parece ser bastante sencilla. Por lo visto hasta
que le permita hacerlo. De otro modo, todo lo que se cuenta aquí no aquí, procesar información implica establecer una equivalencia entre
sería otra cosa que una variante de psicología conductista, en la cual el paso de una corriente eléctrica y la elaboración de un procedimiento
a un estímulo le corresponde una respuesta, y el repertorio de estí- lógico, tal como postularon McCulloch y Pitts. Por otra parte, la neu-
mulos-respuestas se obtiene por mera experimentación. Pero pro- rología ya había demostrado, con el español Santiago Ramón y Cajal,
cesar información, según los cánones establecidos por Shannon y que el sistema nervioso central de los mamíferos superiores consiste
Weaver, es agregar al mundo algo cuya probabilidad de aparición no en una red de comunicación entre las neuronas. Por lo tanto, las
era muy alta. De hecho, en las historias que se han escrito de la ciber- neuronas se comunican entre sí realizando un cómputo de sus res-
nética, el modelo de Wiener-Rosenblueth-Bigelow suele ser eva- pectivos impulsos eléctricos.
luado como “demasiado” conductista, pues si bien propone pensar Al mismo tiempo, como las neuronas son las células constituyen-
la teleología y el propósito, lo hace siempre a partir de un estímulo tes del cerebro y del sistema nervioso, se puede decir que su acti-

42 Historia de la información Pablo Rodríguez 43


vidad es responsable de que los seres humanos piensen, perciban de lingüista. Pero de hecho su teoría, de donde proviene su celebri-
y sientan, entre otras muchas cosas. Von Neumann había sido claro dad, es un buen ejemplo del tipo de cuestiones que se juegan en el
al respecto al proponer que la computadora fuera homologada a cognitivismo. René Descartes, en el siglo XVII, había establecido
un cerebro. En congresos contemporáneos (y sobre todo posterio- que el pensamiento del hombre es producto de las ideas innatas
res a las conferencias Macy), un conjunto de científicos comenzó a que introdujo Dios en él. Chomsky afirmaba que la gramática es algo
elaborar el revés de la trama. Ya no se tratará de imaginar a la com- innato en el hombre, aunque anclado en las neuronas y no en la inter-
putadora como un cerebro artificial sino al cerebro como una com- vención divina, y que puede ser definido como un conjunto de algorit-
putadora natural. Así, a la dimensión eléctrica y a la dimensión lógica mos que permiten convertir una cadena lingüística en otra diferente.
de las redes neuronales y artificiales que procesan información se La sola combinación de las reglas basta para permitir la transforma-
les sumó una tercera dimensión: las condiciones de la representa- ción. No es necesario que intervengan ni los aspectos sociales ni
ción, del modo en que los sistemas así definidos se forman una ima- psicológicos de quien representa, porque por su condición informa-
gen de lo que hacen, piensan, sienten y perciben. cional (la probabilidad de la ocurrencia de algo diferente según Shan-
Esto supone, en primer término, usar la semántica conductista para non y Weaver), se trata de un sistema finito que produce combinacio-
luego abandonarla. El sistema nervioso es un sistema plenamente nes ilimitadas: las leyes de la gramática crean poemas. La lingüística
activo, que se forma representaciones y las reorganiza sin cesar, en puede entonces concentrarse en la sintaxis, sin preocuparse ni por el
procesos interminables de feedback, y que no necesita de estímu- nivel de las significaciones (semántica) ni por quien habla (pragmática).
los para desplegar su actividad. El sistema nervioso es el responsable Entonces, si los programas de las computadoras son conjuntos de
del estado interno, y en la medida en que se intenta replicar artificial- algoritmos como la gramática, nada impide que aquello que es innato
mente dicho sistema, todos los elementos que llevan a imaginar dicho en el hombre pueda ser replicado en una máquina, siendo que en
estado interno en una computadora deben ser válidos para los siste- los otros dos niveles (la transmisión de corrientes eléctricas y la
mas naturales y, por qué no, para los sistemas psíquicos y sociales. computación lógica) las analogías ya habían sido realizadas.
De allí que el cognitivismo pretendiera extenderse a la psicología o la La descripción de cómo funcionarían todos los niveles juntos desa-
filosofía, pues partiendo de un sustrato material como los cables de fía al sentido común. Las representaciones no son binarias, sino ana-
las computadoras o los axones de las neuronas, intentaba llegar a lógicas. La señal en las neuronas depende del paso del impulso
las condiciones mismas que hacen posible el conocimiento, la repre- eléctrico. Entonces, la teoría de la información, tanto en el modelo de
sentación y el deseo en los seres humanos, cuestiones que hasta el McCulloch-Pitts como en el de Shannon-Weaver, trata de “significar”
siglo XIX pertenecían a las llamadas “ciencias del espíritu”. Por eso esta ausencia, dado que los ceros y unos de la codificación binaria per-
las ciencias de la información se aseguran así la participación en vio- miten siempre darle un valor de representación al impulso eléctrico,
lentos debates epistemológicos que están aún lejos de saldarse. esté o no presente. Dicho de otro modo, el impulso puede estar ausente
Noam Chomsky es hoy más conocido por su condición de crítico o presente, pero para la codificación siempre da lugar a una señal pre-
implacable de la política exterior norteamericana que por su carácter sente. No se puede no codificar. Los ceros y unos persisten a pesar

44 Historia de la información Pablo Rodríguez 45


de las perturbaciones operacionales de máquinas que funcionan con ción lógica; es también, en la misma acción, una operación de repre-
energía eléctrica, como una computadora. Son pequeños “signos” sentación, si se entiende que cuando alguien utiliza el lenguaje para
que necesitan ser traducidos a otros signos mayores, accesibles para expresar algo, de hecho está representando.
los seres humanos en tanto palabras, sonidos o imágenes. Gracias a La programación puede ir en sentido ascendente o descendente.
esas cadenas interminables de números que se reducen a medida Los programas compaginadores separan subrutinas para integrarlas
que se asigna un valor único a patrones finitos de combinación, esos en un programa principal, mientras que los programas compilado-
signos pueden constituir mensajes internos de la máquina. Gracias a res traducen un lenguaje de programación de alto nivel en otro más
la codificación, las máquinas acceden al lenguaje, desde lo más mate- elemental, que se pueda reflejar en las operaciones electromecá-
rial (un impulso eléctrico) a lo más abstracto (una representación). A nicas efectivas de la máquina. De este modo, el programa y el código
más codificación, a más resumen de las chorreras de ceros y unos, funcionan como las correas de transmisión simbólicas entre la dimen-
mayor es la posibilidad de procesar información. sión física, se trate de circuitos electrónicos o de circuitos neuro-
El programa, que es un algoritmo pero también una gramática, nales, y la dimensión significante que adquiere un nivel material, una
como se dijo antes, es el elemento que “almacena” las codifica- suerte de encarnación o incorporación. El “procesamiento de
ciones. En realidad, lo que acumula son las instrucciones que información” es el paso intermedio para ir de una dimensión a
han sido introducidas en la computadora por el hombre. El sentido otra, el ámbito en el cual existen el código y el programa. Y ellos ase-
del programa es que la máquina ejecute las instrucciones sin nece- guran la posibilidad, para la computadora y para cualquier sistema
sidad de que el hombre dé la orden de hacerlo cada vez, como pro- basado en tecnología digital, de dotarse de un estado interno que
ponía Von Neumann para solucionar el problema del “recableado” elabore un mensaje de manera tal de obedecer a una teleología, a
constante de las máquinas. Y aquí viene la razón por la cual es fun- un fin inscripto en la materialidad y alcanzado mediante feedback.
damental aludir al formalismo en matemática, del que se habló en
el capítulo anterior. Desde el punto de vista formalista, el número
y el signo tienen en común el hecho de ser símbolos. Así, tanto Un barco se enamora de un escocés
la matemática como la lógica manipulan símbolos, mediante leyes
de combinación y composición. Como la computadora ejecuta algo- Sin embargo, no basta con imaginar un estado interno semejante a
ritmos, que son un conjunto finito de instrucciones expresado en un procesamiento algorítmico, autocorregido por feedback, en el que
símbolos, se puede decir que sus cálculos equivalen a un trabajo la idea misma de pensamiento es equiparado a la lógica. Si se quiere
lógico y a la vez matemático sobre los símbolos. El lenguaje for- replicar el funcionamiento del organismo, las representaciones que él
mal se hace equivalente al lenguaje interno de la máquina y éste, se hace no se limitan a la idea de pensamiento, sino que son el
a su vez, equivalente al lenguaje en el que pueden ser expresados resultado de operaciones de percepción. Por lo demás, dado que en
los sonidos, las imágenes y las palabras. Por lo tanto, siguiendo términos cibernéticos toda entidad informacional es un dispositivo de
este razonamiento, “manipular símbolos” no será sólo una opera- entrada y de salida, de emisión y de recepción, está claro que ese con-

46 Historia de la información Pablo Rodríguez 47


tacto con el mundo es fundamental para formar la representación ción cibernética y cognitivista de la teoría gestáltica, si la sensación
como actividad del estado interno. Una cosa es una computadora que puede ser individual, la percepción es la generalidad que se extrae
posee una entrada de datos (vía teclado o micrófono) y una salida de la suma de las individualidades, pero no por una regularidad esta-
(vía programa de transformación y pantallas o auriculares), donde las dística, sino por medio de una estructura “innata” al hombre, igual
órdenes vienen dadas del exterior, y otra cosa es un dispositivo que a la imaginada por Chomsky para el lenguaje. O sea que, según esta
percibe merced a su propia estructura, sin que nadie le ordene hacerlo, visión, la sensación es toda aquella impresión causada por los sen-
como cuando Von Neumann pensó el programa almacenado como tidos, mientras que la percepción es la estructuración de esas impre-
alternativa al recableado humano de la computadora. siones en algunos tipos comunes, que permiten de algún modo la
Así fue que la búsqueda cognitivista se dirigió a crear artificial- inteligibilidad de aquello que se siente.
mente sistemas de sensibilidad y de percepción. No es algo tan Resulta que en esta perspectiva la cantidad de información reci-
extraño: una puerta automática es uno de esos sistemas. Hay que bida por cualquier dispositivo cibernético (que son el hombre tanto
decir que la automatización de ciertos procesos relativos a sistemas como la computadora, es preciso recordarlo) es mucho mayor que
de reconocimiento de voz o de producción de dispositivos fotoeléc- la que puede recibir este dispositivo por efecto de su limitado sis-
tricos acoplados a comandos de retroacción no esperaron a que tema de percepción. Las especies tienen de hecho un sistema innato
las teorías de la información estuvieran a punto; más bien colabo- de percepción que les permite seleccionar ciertas cosas de su medio
raron para que ellas fueran posibles. Wiener imaginó buena parte de ambiente en detrimento de otras. Según el “procesamiento” que
los elementos de la cibernética buscando crear un cañón antiaéreo hace el primer cognitivismo de los aportes de la Gestalt, existen sis-
automático o desarrollando prótesis. Shannon y Turing trabajaron en temas de percepción, con leyes generales, que reducen la com-
el desciframiento de mensajes encriptados y emplearon su esfuerzo plejidad de lo percibido a fin de poder procesar la información que
en hacer que las máquinas resolvieran automáticamente, mediante se recibe. Entonces, las ciencias cognitivas desplegaron, en esos
millones de cálculos, la reconstrucción de la lógica de encriptación. años, vastos sistemas de percepción para experimentar con esas
Y también es fundamental saber que en las mismas conferencias diferencias y estudiar qué estructura general se adaptaba a percibir
Macy, entre las figuras más respetadas estuvieron los psicólogos de la mayor información posible del mundo exterior. Y aquí se puede
la Gestalt, escuela alemana que debió emigrar a Estados Unidos, ver claramente el cambio de roles entre hombres y máquinas, pues
como Von Neumann y tantos otros, en los años del Tercer Reich. si hasta este momento se puede decir que la experimentación ciber-
La Gestalt elaboró las leyes de la percepción, las de semejanza, nética estaba dirigida a replicar en una máquina la actividad mental
proximidad, continuidad y simetría, que demuestran que la sensa- del hombre, de allí en más resultó que sería la máquina la que brin-
ción no puede ser comprendida de manera atomista, “impresión por daría mejores performances que el propio hombre y se transfor-
impresión”, sino que supone ya un conjunto total, se llame forma, maría en modelo, y ya no imitación, de lo humano. Esto es lo que
figura, configuración (todas traducciones posibles de Gestalt). O sea, despertó fuertes críticas filosóficas a las aún balbuceantes ciencias
el todo perceptivo es más que la suma de sus partes. En la traduc- de la información, como se verá en el próximo capítulo.

48 Historia de la información Pablo Rodríguez 49


Para que se entienda mejor qué es lo que está en juego, quizás posible, los sistemas digitales quizás sean más pobres que los
sirva pensar en lo que ocurre con cualquier archivo digital que pro- analógicos, pero al operar con rayos láser y otros dispositivos ópti-
cesa imágenes o sonidos obtenidos analógicamente, a través de una cos, son mucho más fiables que un disco o una cinta, de rápido dete-
grabación o de una filmación. “Pasar” una imagen o sonido a infor- rioro. A la larga contienen más información por el solo hecho de que
mación supone codificarlos, y codificar implica seleccionar de toda los dispositivos de almacenamiento duran más. Al mismo tiempo,
la información que hay en el archivo original un conjunto de señales la codificación permite una manipulación mucho mayor de los archi-
que son relevantes y descartar aquellas que son redundantes, tal vos. Un plasma o un LCD serían impensables si no fuera por este
como lo establece la TMI. Como es claro que la relevancia o la redun- concepto de información, pues la codificación les permite ampliar
dancia de una señal dependen de quién la reciba, no hay leyes gene- las imágenes a niveles muy superiores a los de los viejos televiso-
rales para tal definición. Por consiguiente, lo que hacen los disposi- res a color, y de allí se dice que “tienen una mejor definición”. Y en
tivos digitales es elaborar dicha selección para las estructuras la medida en que los datos (colores, sonidos) son registrados
perceptivas humanas. Un CD o un DVD contienen un promedio de directamente por dispositivos digitales, de manera que no hay nece-
la información total del original, en el caso de que éste exista ana- sidad de “digitalizar” lo analógico, esa ampliación de detalles crece
lógicamente, ya sea en su registro o en su dispositivo de almacena- sensiblemente. Es el caso de la reciente televisión digital cuando se
miento (una cinta). En sentido estricto, tiene menos información que la capta con los llamados “plasmas” y los LCDs. A la inversa, en los
ese original, pero los seres humanos reconstruyen sin dificultad lo televisores comunes, no hay diferencia significativa entre una ima-
que falta mediante su estructura perceptiva, un poco a la manera en gen digital “de origen” o “digitalizada”.
que el cine genera el movimiento con 24 cuadros por segundo en De este modo, las ciencias cognitivas llegaron a cubrir en las
una cinta de celuloide. máquinas todo lo que tiene que ver con la representación tal como
El pixelado de las imágenes, esas fotos o dibujos llenos de peque- se manifiesta en los seres humanos, ya sea lo que se percibe o lo
ños cuadrados que bajan su definición, es un ejemplo de una que se piensa. Gracias a los mecanismos de feedback, además,
decodificación no adecuada al sistema perceptivo humano que la se puede postular que una máquina tiene un fin en sí mismo, sin
observa, porque se advierte que hay allí un procesamiento de la ima- duda introducido por el hombre, pero sólo una vez. No hay necesi-
gen. Y en el caso de los archivos visuales o sonoros creados en la dad de que los hombres intervengan casi en ninguna etapa del
digitalidad (la música electrónica, una película de animación compu- procesamiento, y eso determinó el avance en términos de auto-
tada), éstos ya son elaborados desde el código mismo, sin necesi- matización de todo tipo de procesos, desde los años ’30 a la actua-
dad de comprimir algo que no está codificado previamente. Así, lo lidad. Y las máquinas pueden presentar una ventaja sobre los
que hacen las máquinas de información es codificar cuando crean seres humanos, toda vez que en éstos hay límites innatos a la capa-
un archivo y decodificarlo cuando lo leen, desde un pendrive hasta cidad de percepción y de sensación. Entonces, por todas estas razo-
una cámara digital, tal como hacían Shannon y Turing en los años ’40 nes, ¿por qué no imaginar, siempre en esta tesitura, que los siste-
sin computadora alguna. Desde el punto de vista de la información mas de procesamiento de información también pueden tener

50 Historia de la información Pablo Rodríguez 51


sentimientos? Marvin Minsky, uno de los principales animadores de por qué no, al superar esas limitaciones se superen tanto la felicidad
la disciplina cognitiva de la inteligencia artificial, razonaba que la com- como el dolor en tanto vivencias. La ciencia ficción es pródiga en
putadora no podía equipararse al hombre por la única razón de que este tipo de mundos, comenzando por Un mundo feliz de Aldous
el hombre no la colocaba en sistemas tan complejos como los que Huxley, escrito cuando ni siquiera existía la cibernética. El diálogo
le tocan vivir a él. Según estas corrientes, cuantos más desafíos pre- entre Wiener, Alquié y los otros participantes no terminó allí. Uno de
sente el entorno, la computadora, dotada de un estado interno, de ellos comentó que el principal problema era que “todavía no tene-
“pensamiento”, de “sensación” y de “percepción”, más posibilida- mos máquinas que posean un número de elementos comparable al
des tendrá de presentar sentimientos. del organismo humano”. Se trata de un argumento parecido al de
A principios de los ’50, un ingeniero llamado Grey Walter inventó Minsky. El cerebro, por ejemplo, tiene muchísimos más componen-
una tortuga electrónica que participaba de una larga serie de anima- tes que una computadora, y además puede cambiar de configura-
les artificiales que se puede remontar al siglo XVII de Descartes: ción, pues las redes neuronales son mucho más plásticas que las
en todos los casos, se trata de demostrar que el cuerpo es una informáticas, como se verá más adelante. Aquí lo innato juega a favor
máquina, sólo que ahora es una máquina de información. Esta tor- de los seres humanos. Pero la esperanza cognitivista es mejorar las
tuga se movía por el suelo hasta que sus baterías estaban bajas, condiciones técnicas para que las máquinas de información sean
entonces iba al enchufe más próximo, se conectaba y las recargaba. materialmente semejantes a las “máquinas humanas” y allí supe-
Una vez reabastecida, la tortuga se desconectaba y volvía a sus acti- rar las limitaciones innatas de éstas.
vidades. ¿Podría decirse que la tortuga tiene hambre? A juzgar por En la sexta conferencia Macy, Warren McCulloch, el coautor del
su actividad, sí. Pero es difícil saber si ella tiene la sensación de tener modelo de la neurona lógica, confesó en una charla informal que,
hambre y, por otra parte, estar hambriento es algo propio de la “como todos los escoceses, suelo enamorarme de los barcos”.
condición animal. ¿No se podría considerar entonces que el hambre La antropóloga norteamericana Margaret Mead le respondió que,
es una programación “natural”? Esto piensan muchos científicos de todos modos, ningún barco se enamoraría de él; no se sabe si
embarcados en el proyecto cibernético-cognitivista. fue un ataque personal o se refería a un hecho general. Pero McCu-
La imitación adquiere, entonces, un grado de verdad. Y lo hace lloch, como antes Wiener, le dijo que no estaba seguro.
llevando conceptos propios de las máquinas hacia la naturaleza y
organizando toda una serie de préstamos conceptuales en ese sen-
tido. Eso permite comprender la razón de la provocadora respuesta
de Wiener a un importante filósofo francés, como Ferdinand Alquié,
acerca de que no es seguro que la máquina sienta dolor. Por lo pronto,
puede superar las limitaciones innatas de los humanos en cuanto al
pensamiento y la percepción, tal como la codificación social logra
superar las limitaciones en los sentimientos de los hombres. Quizá,

52 Historia de la información Pablo Rodríguez 53


3. Cuando todo es información

La biología, como se dijo en el primer capítulo, cambió de configu-


ración con la teoría de la evolución que, al igual que la termodinámica
y buena parte de las ciencias sociales, recibió el influjo del progreso
de la estadística. Fueron también estudios estadísticos los que lle-
varon en 1866 al sacerdote checo Gregor Mendel a postular las
primeras leyes de la herencia, lo que luego será la genética. Mendel
permaneció en el olvido hasta que en las primeras décadas del siglo
XX fue recuperado por la mediación de otros biólogos. Así se cons-
tituyó una ciencia que estudia la transmisión de la herencia entre
individuos de una misma especie y que se separa de las biologías
del desarrollo, que apuntan a cómo los individuos despliegan en el
tiempo esa apropiación de la herencia. Es preciso retener esta dis-
tinción porque será fundamental cuando ingrese la información en
esta historia. Baste, por el momento, con señalar que la llamada “teo-
ría sintética de la evolución”, que reunía la evolución darwiniana con

Pablo Rodríguez 55
la herencia mendeliana, fue formulada en sus primeros esbozos por conocer su estructura. A Schrödinger, escudándose en su carácter
Ronald Fisher, quien en 1927, el mismo año en que fue publicado el de físico que especula sobre cuestiones biológicas (y por qué no, en
artículo de Hartley sobre la cantidad de información, propone aplicar su celebridad como físico), le bastó con estos conocimientos en
la idea de información a la biología, aunque obviamente sin el apa- forma mínima para exponer su teoría. De hecho, cree que las prote-
rato conceptual que sobrevendrá años más tarde. ínas, por su dinamismo, son la sede material de la transmisión de
Tampoco hizo falta que el célebre ADN, la estructura material del dicho orden, lo cual no es cierto pero tampoco errado, como se verá.
contenido informacional de la genética, fuera descubierto ni mucho En primer lugar, Schrödinger interpreta la genética dentro
menos manipulado. En tren de coincidencias de fechas, en 1943, el de la segunda ley de la termodinámica, siguiendo el camino que ya
mismo año de la publicación de los artículos de Wiener-Rosenblueth- había sido trazado sobre la relación entre la información y la resis-
Bigelow y de McCulloch-Pitts, el físico Erwin Schrödinger, Premio tencia a la entropía. La transmisión de la herencia demuestra que
Nobel de Física en 1933 y uno de los principales referentes de la mecá- la vida en general, manifestada en cada individuo, puede replicarse
nica cuántica, pronunció unas conferencias no en Estados Unidos, con bastante exactitud durante mucho tiempo, aunque haya modi-
sino en Dublín (Irlanda del Sur), muy cerca de una Inglaterra inten- ficaciones debidas a la misma evolución, de modo que aquello que
samente bombardeada por los nazis. Las tituló con una pregunta iró- rige su funcionamiento es un tanto diferente a la tendencia general
nica para aquellos tiempos, ¿Qué es la vida?, y su respuesta es bas- a la entropía. Si la entropía es desorden, la vida es orden. Esto quiere
tante parecida a la que da hoy la biología molecular, por intermedio decir que quizás las leyes que rigen la materia viva no sean exacta-
del problema de la información. La curiosidad es que Schrödinger, mente las mismas que rigen la materia en general.
como Von Neumann en su momento respecto de la computadora, En segundo lugar, Schrödinger afirma que los cromosomas, o una
no habla de información y que Max Delbrück, otro de los padres fun- parte de ellos, contienen una suerte de “código-guión” (code-script,
dadores de la biología molecular, declinó la invitación a seguir asis- dado que las conferencias fueron leídas en inglés), que guardan
tiendo a las conferencias Macy porque lo que escuchó allí, en un “todo el patrón de desarrollo futuro del individuo y de su funcionamiento
par de sesiones, le había parecido absolutamente insensato. en el estado de madurez”, por lo que a través del conocimiento de ese
Hasta ese momento, la genética había llegado al punto de soste- código se puede “averiguar a partir de su estructura si el huevo se desa-
ner que el gen era la unidad de la herencia, que para realizarla como rrollará, en condiciones adecuadas, hasta convertirse en un gallo negro
tal desencadenaba una serie de reacciones químicas (enzimáticas, o una gallina moteada”. Como si esto fuera poco, los cromosomas son
más precisamente) que trasladaban de algún modo las instruccio- a la vez el conjunto de instrucciones para el desarrollo y los medios de
nes para la replicación del orden biológico. Se podía suponer que su realización. “Son el código jurídico y el poder ejecutivo, o, para
habría algunas sustancias dentro de la materia viva responsable de usar otro símil, son el plano del arquitecto y la destreza del constructor,
alojar al gen como tal, pero fue un año después de la conferencia de a la vez”, según el físico alemán. Pasado en limpio, está diciendo que
Schrödinger cuando se aisló el ácido desoxirribonucleico (ADN) como la biología del desarrollo debe plegarse a la genética, alterando la divi-
un material responsable de algún modo de esa herencia, aún sin sión de tareas que hasta el momento habían establecido.

56 Historia de la información Pablo Rodríguez 57


En tercer lugar, Schrödinger imagina que el sustrato material de cionar a la vida con la entropía, ofreció un punto de vista fisicalista de
los cromosomas debe ser un “cristal aperiódico”, único cristal que los fenómenos vitales. Si la microbiología es un asunto de moléculas
puede soportar la turbulencia termodinámica de las sustancias en los y de átomos, los conocimientos de la física del siglo XX, desde las
seres vivos. El cristal aperiódico es en lo esencial una forma, una derivas de la termodinámica a la mecánica cuántica, deben ser parte
estructura, “que puede duplicarse en tanto tal”. La estructura de este del corpus de la biología molecular. Luego, porque lo que llama código-
cristal contiene el plan de lo que será el individuo desarrollado, reto- guión no es otra cosa que lo que hoy se conoce como código gené-
mando en una versión material más sofisticada, más acorde con la tico, que tiene además funciones de programa para esta teoría, en la
física cuántica, la teoría de la preformación, que afirmaba que la heren- medida en que tiene en sí el desarrollo en las instrucciones, tal como
cia se transmitía por un homúnculo que tenía las mismas caracterís- el algoritmo en la computadora. Más aún, la bella imagen del cristal
ticas en miniatura que el individuo ya desarrollado. Que la estruc- aperiódico es lo que en muy poco tiempo se llamará información:
tura física fuera un cristal marcaba que ya no se trataba de un aquello que tiene la forma y que además se puede duplicar y trans-
homúnculo y que el cristal obedeciera a un código-guión atacaba a la mitir, de manera muy similar a los procedimientos para mejorar las
teoría rival de la preformación, la de la epigénesis, que sostenía que telecomunicaciones desde fines del siglo XIX hasta la TMI, aún no
las características del individuo aparecían durante su desarrollo. formulada cuando Schrödinger pronunció estas conferencias. Des-
Por último, para el físico alemán la manera en que se realiza la pués de todo, se trata en todos los casos de un fenómeno de trans-
transmisión de la herencia en el nivel molecular, dentro de cada indi- misión, sea de la herencia o de una comunicación telefónica.
viduo, responde tanto a un modelo político de delegación de pode- Ahora bien, lo interesante de esta historia es que la reconstruc-
res como al funcionamiento de una oficina de correo. En cada célula ción de las especulaciones de Schrödinger se realizó en los años
hay un representante que, con una copia del código-guión y munido ’60, cuando ya se había desentrañado la estructura del ADN, la
de un poder ejecutivo, controla la replicación del orden de la heren- famosa doble hélice, y cuando la referencia para hablar de transmi-
cia en sus más mínimos detalles. Por otro lado, hay un sistema de sión de información ya no era la teoría de la información como la de
correo que traslada el código-guión hacia los lugares en los que falta, Shannon-Weaver sino la teoría cognitivista, con la computadora
de manera tal que los errores en las copias, producido por un código- como estrella. Todo lo que se ha visto en detalle acerca del cogni-
guión ilegible o inexistente, se reduzcan al mínimo. tivismo y de la complejización de los sistemas digitales explica la
inflación de las determinaciones con las que el ADN carga aún hoy.
Cualquiera que haya accedido a un libro o nota de divulgación sobre
La vida es una computadora la genética actual podrá leer que el ADN contiene información, y
que esa información es la memoria de la vida (el orden biológico,
Muchos biólogos, y no pocas historias de la biología en el siglo XX, que se transmite con perturbaciones desde la noche de los tiem-
señalan que las conferencias de Schrödinger constituyen un basa- pos), pero a la vez es el conjunto de instrucciones, el programa, por
mento de la biología a nivel molecular. Antes que nada, porque al rela- lo que sería el software de un hardware constituido por la doble

58 Historia de la información Pablo Rodríguez 59


hélice. También podrá leer que esa información tiene la forma de marse en una “máquina del alma”, y en ese mismo movimiento de
un código genético que es obedecido por otro tipo de moléculas, complejización también pasa a ser el modelo epistemológico de com-
llamadas proteínas. Y también que el código es transmitido mediante prensión de la vida.
formas muy materiales, semejantes a las viejas postales que se Por otro lado, las explicaciones habituales sobre lo que es la gené-
enviaban en los viajes, como el ARN mensajero, predicho por Jac- tica a partir del impulso dado por la biología molecular abundan en
ques Monod y François Jacob, quienes junto a Lwoff, el mismo que referencias al código genético como un alfabeto y, más allá, como
había participado del Coloquio de Royaumont, obtuvieron en 1965 un lenguaje, que como tal es interpretado, transcripto, retraducido,
el Premio Nobel de Medicina por el descubrimiento de genes regu- modificado o repetido por la increíble actividad metabólica de las
ladores. Monod y Jacob fueron, además, autores de libros funda- células. Una vez más, la comparación con las experimentaciones
mentales de la biología molecular, como El azar y la necesidad y La cognitivistas es ilustrativa. Si la computadora puede manipular repre-
lógica de lo viviente, respectivamente. sentaciones y eso puede ser tomado como algo equivalente a sig-
En definitiva, en esta etapa de la biología molecular la vida fun- nificar algo, a pronunciar algo con sentido, los genes también pue-
ciona como una computadora, y como en el programa está conte- den hacerlo. Si un dispositivo artificial de procesamiento de
nido el desarrollo del ser vivo, la transmisión de la herencia se con- información puede percibir y sentir, las proteínas podrán hacer lo pro-
funde con el desarrollo de esa herencia en cada individuo. Se produce pio, como se verá más adelante.
así un fabuloso desplazamiento. En los años ’40, Von Neumann había El problema reside en la extensión de las teorías cibernéticas
dado un salto en la historia de la informática al tomar como modelo de la información al mundo social. En el caso de la genética, en un
al cerebro humano para fabricar una computadora. En los ’60, esa principio se concibió a los genes como “cristales aperiódicos” y luego
computadora, con todos sus parámetros básicos ya establecidos como computadoras bajo una analogía entre lo vivo y lo maquínico
(funciones de cálculo y de memoria, separación de software y hard- que fue conocida como “Dogma Central” de la biología molecular.
ware), fue tomada como modelo para explicar algo no menor de los Formulado por James Watson y Francis Crick, quienes descubrie-
fenómenos vitales, como la transmisión de la herencia biológica, ron la estructura del ADN, este “dogma” dice que “la información
arrastrando consigo, por arte de magia del programa y del código, al siempre va del ADN a las proteínas”. Esto quiere decir que el ADN
desarrollo mismo de los individuos vivientes. Ahora bien, la expe- “gobierna” y “controla” (tales son los términos que se emplean habi-
riencia que proponen las ciencias cognitivas pretende demostrar que tualmente para describir la acción de esta molécula) todo el desarro-
la computadora no es simplemente una máquina, sino un disposi- llo de un ser vivo. Y como el ser humano también es un ser vivo, por
tivo de procesamiento de información comparable en muchos aspec- cierto de extraordinaria complejidad, es alcanzado por este determi-
tos al ser humano; o, en todo caso, que como máquina, la compu- nismo. Así, en la actualidad algunos postulan que existe una deter-
tadora “se le anima” a lo más espiritual y menos mecanizable que minación genética de las conductas criminales o de la predilección
hay en lo humano, como el amor o el dolor. La computadora deja de por ciertas opiniones políticas, por poner ejemplos disparatados pero
ser el cerebro artificial imaginado por Von Neumann para transfor- sostenidos por muchos laboratorios e institutos de investigación.

60 Historia de la información Pablo Rodríguez 61


Una simple búsqueda en Internet de diferentes noticias sobre dis- nes tenían a mano definiciones acerca de qué es un ser humano.
tintas investigaciones revelará la insistencia de estas postulaciones. Hay algo de cierto, entonces, en las críticas que recibió el proyecto
De ser cierto, se estarían alterando gravemente ciertos principios cibernético en sus inicios por parte de algunos voceros calificados
básicos de la propia genética, que señalan que lo que se transmite de las ciencias sociales. En el fondo, se trata de un problema expuesto
son los caracteres fenotípicos, esto es, los rasgos físicos (pigmen- en la célebre conferencia de Charles Sanders Snow en 1959 sobre
tación, tamaño de huesos, contextura, etcétera) y a lo sumo algu- las dos culturas: una cultura científica y una cultura humanista,
nas enfermedades que están “programadas” (las cada vez mejor destinadas a no encontrarse.
estudiadas enfermedades genéticas). Además, de ser cierto que hay Sin embargo, la cibernética también es el puntapié inicial de todas
un gen de la criminalidad, deberían desaparecer las instituciones que las propuestas de interdisciplinaridad que desde los ’50 intentan jus-
enseñan derecho y ciencias sociales, o en todo caso fundirse en las tamente reunir a esas dos culturas. Es que de hecho los científicos
carreras de ciencias naturales, para no hablar de la curiosa simetría sociales estaban allí, en las conferencias Macy, y en el caso de los
de estas propuestas con viejas formas de biologicismo y de racismo psicólogos de la Gestalt, por ejemplo, sus teorías sí fueron de gran
que condujeron, por ejemplo, a los campos de concentración nazis, utilidad para el experimento cognitivista en sus primeros años. Quien
en la medida en que se “naturalizan” ciertas cuestiones que nada sin dudas llevó la voz cantante fue el entonces antropólogo Gregory
tienen de naturales y mucho menos de innatas. Al fin de cuentas, la Bateson, hijo de William Bateson, uno de los padres de la genética
información, que surgió entre otras cosas descifrando los mensajes moderna, quien eligió para su hijo el nombre de Gregor Mendel. Wie-
codificados del régimen del Tercer Reich, estaría colaborando para ner y Bateson son quizás los personajes más salientes de la ciber-
que esos mismos mensajes reaparezcan en la materia viva y perma- nética. En el caso de este inglés, en su curriculum figura haber cre-
nezcan, así, más vivos de lo que parecían. ado la psicología sistémica y una filosofía holista de inspiración oriental
que viborea alrededor de las principales teorías de las ciencias moder-
nas, desde la física cuántica a la teoría de la evolución, además de
De los matemáticos a los antropólogos una teoría alternativa de la información que será precursora de las
investigaciones actuales, como se verá en el último capítulo. Al igual
De todos modos, y hasta nuevo aviso, la influencia de la información que el matemático, su participación en la cibernética comenzó con
en las ciencias sociales no tomó este camino sino que se tradujo, la investigación para el gobierno norteamericano durante la Segunda
como en el caso de la informática posándose sobre la biología, en Guerra Mundial, pero luego fue un duro crítico de la política exte-
una traslación de modelos epistemológicos. Las conferencias Macy rior norteamericana y además un personaje que no encajaba en los
contaron con la presencia de psicólogos, psiquiatras, antropólogos moldes de la academia norteamericana, lo que le valió el retaceo
y sociólogos, pero hay que decir que no siempre fueron bien trata- constante de fondos para sus investigaciones. Así fue como se paseó
dos. La voz cantante la tenían los ingenieros y los matemáticos. Ellos por muchos institutos de investigación, dedicándose a la antropolo-
querían “humanizar” a las máquinas, y no creían necesitar de quie- gía, la etología, la psicología y la biología.

62 Historia de la información Pablo Rodríguez 63


En las conferencias Macy, Bateson se entusiasmó con la noción códigos. O sea: aplicación masiva a la sociología de los conceptos
de feedback y con las consecuencias filosóficas de la noción de infor- cibernéticos asociados a la información.
mación, a la cual transformó en el concepto de comunicación. Como Ya por fuera de quienes asistieron a las conferencias Macy, el largo
Wiener, consideraba que la comunicación estaba en la base de la brazo de la información llegó a donde difícilmente se hubiera podido
comprensión de lo social, pero a diferencia de él, no creía que los imaginar, como las disposiciones corporales o el ordenamiento social
puntos a identificar fueran las tecnologías de información, sino el del espacio. Raymond Birdwhistell, un antropólogo que trabajó con
hecho mismo de desarrollar una teoría de la comunicación, para lo Bateson, concibió desde allí a la kinésica, la ciencia que estudia los ges-
cual la cibernética era más potente aún que lo que manifiestan sus tos corporales. Así como la psiquis o la sociedad son sistemas de inte-
logros materiales (la computadora, los sistemas de telecomunica- racción, dotados de entradas y salidas, el cuerpo está compuesto de
ciones). Así fue como propuso que la comunicación era “la matriz gestos codificados culturalmente, al punto tal que puede ser construida
social de la psiquiatría” y así fue como pensó una terapia psicológica una lingüística del cuerpo con sus unidades mínimas, los kinemas, que
que consistía en el análisis de grupos, más que de individuos, para significan ciertas cosas y no otra: mover objetos con las manos
ver en ellos el funcionamiento de las leyes de la comunicación y mientras se habla, bajar o subir las cejas, rascarse la nariz, mover las
encontrar la solución a las dolencias psíquicas. La conocida Escuela piernas haciendo rebotar los talones en el piso, y todos estos kinemas
de Palo Alto, continuada por Paul Watzlawick, está en la base de lo no son considerados aisladamente, sino que tienen significado en su
que se conoce hoy como “terapias breves”. En todas ellas se mez- combinación. Como en el caso de la terapia sistémica, lo principal es
clan cuestionamientos al tipo de conocimiento propuesto por las considerar el principio de metacomunicación: toda acción comunica-
ciencias y el pensamiento moderno (esto es, a lo que los cognitivis- tiva comunica además algo acerca de lo que quiere comunicar, cons-
tas mismos aplicaban en las máquinas) con referencias al budismo tituye un metamensaje del mensaje principal que se quiere transmitir.
y otras filosofías orientales, siguiendo la estela de Bateson. Bateson decía que “no se puede no comunicar”, tal como el cogniti-
La otra corriente de influencia de la teoría de la información en las vismo planteaba que “no se puede no codificar” para transformar
ciencias sociales fue el funcionalismo sociológico norteamericano, los impulsos eléctricos en ceros y unos. Pero a diferencia de la codifi-
de gran importancia en los ’60 y ’70 para las llamadas “teorías de cación técnica, toda comunicación humana supone a su vez un marco
la modernización” que aplicaba el hemisferio norte al resto del mundo. que ella quiere crear sobre esa misma comunicación.
En el caso de Talcott Parsons, el célebre sociólogo funcionalista que Curiosamente, entre los sistémicos hay un afecto especial por
estaba construyendo su teoría de los sistemas sociales cuando asis- las paradojas de tipo lógico que fueron utilizadas en la matemática
tió a las conferencias Macy como invitado, se trataba de construir para alumbrar la teoría de la información, de Hilbert a Turing y de
una unidad de lo social que sería el sistema social, dotado de dispo- Turing a Von Neumann. Es imposible saber si cuando alguien dice
sitivos de entrada y salida, regulado por dispositivos que mantienen “estoy mintiendo”, miente o dice la verdad. Pues bien, en el terreno
la homeostasis a través de mecanismos de retroalimentación ase- de la pragmática humana, esa que queda entre paréntesis en la sin-
gurados por la comprensión de la cultura como un sistema de taxis y hasta la semántica computacional de los cognitivistas, la comu-

64 Historia de la información Pablo Rodríguez 65


nicación está llena de esos mensajes ocultos que hay que descifrar. De los antropólogos a los psicoanalistas
Si para Shannon o Turing el desciframiento pertenecía a la máquina,
ahora era propiedad del antropólogo o del terapeuta. Para quien piense que ésta es una historia demasiado norteameri-
Otro tanto ocurre con la proxémica, la ciencia que estudia la orga- cana –que en cierto modo lo es, y sobran razones si se observa cuál
nización social del espacio. Otro antropólogo, Edward T. Hall, también es el lugar de Estados Unidos en el mundo desde la Segunda Gue-
íntimamente relacionado con los planes de los gobiernos norteameri- rra Mundial, la fecha de nacimiento de la cibernética–, es preciso
canos (sin rebeldías como las que sobrevinieron en Wiener y Bateson), mencionar que el estructuralismo, movimiento intelectual francés
comenzó a considerar que las culturas se basan en programas que que aglutinó y luego dispersó a una gran generación de pensadores,
determinan reglas de comportamiento para los individuos que las cons- se constituyó en buena medida recortando sus líneas de análisis de
tituyen. Por lo tanto, es preciso estudiar las diferentes culturas, ya su confrontación con la cibernética. Esta historia comienza más atrás
sea en sus gestos corporales como en la manera en que organizan sus que la cibernética y por razones que sin dudas ella retomará. A
espacios sonoros y visuales, para conocer sus códigos de funciona- principios del siglo XX, el suizo Ferdinand de Saussure propuso crear
miento. Como la terapia sistémica extendida hacia las terapias breves, una nueva disciplina, llamada lingüística, sobre la base de las inves-
tanto la kinésica como la proxémica son saberes muy prácticos. Cual- tigaciones de la filología en el siglo XIX. Saussure hablaba en aquel
quier manual de atención al cliente de una empresa que vende servi- entonces de código, de creación de significación por juego de dife-
cios, en la medida en que debe crear productos “intangibles” como rencias entre signos. En pocos años, la lingüística pasó a la antropo-
la “satisfacción del cliente”, elabora un código de acciones que logía culturalista norteamericana, generó su propia escuela y eso sin
determinan cómo debe expresarse un sujeto. En ese código figura dudas ayudó a que la proxémica y la kinésica aceptaran rápidamente
no rascarse la nariz porque se dice con esa acción que se está min- los principios cibernéticos, vinculados con algunas zonas de la lin-
tiendo, no cruzarse de brazos porque demuestra actitud de defensa y güística. De hecho, en el terreno cognitivista, el propio Chomsky
desconfianza o sonreír siempre, incluso cuando se habla por teléfono comenzó con la lingüística saussureana. Y no hace falta notar la impor-
porque la sonrisa se oye. Esos códigos fueron pensados originalmente tancia del problema del código en la zona calificada como “tecno-
por la kinésica, más allá de que Birdwhistell expresara luego su males- lógica” de la información.
tar sobre el exceso de codificación de la expresión humana. En cuanto Todos estos hilos fueron entretejidos por el lingüista checo Roman
a la proxémica, baste señalar que solía ser tema de estudio de la diplo- Jakobson, otro de los exiliados europeos de la Segunda Guerra Mun-
macia norteamericana (por ejemplo, cómo organizar el espacio en una dial, que desde la fonología organizó la reunión entre la cibernética
cumbre de paz para no ofender a las culturas orientales o árabes, cómo de las conferencias Macy y las teorías estructuralistas. El modelo de
comunicar ciertas cosas sin explicitarlas) y que está presente en algo la comunicación de Jakobson, que consta de un emisor que envía
tan nimio como la remodelación de una oficina, mediante la inclusión un mensaje a un receptor, en un proceso en el que intervienen el
de sofisticadas teorías sobre el efecto psíquico de una ventana, un espa- código, el contexto y el canal o contacto, está calcado de la TMI de
cio vacío o una visión perspectiva, así como el aislamiento sonoro. Shannon y Weaver. De Jakobson, que estuvo en las conferencias

66 Historia de la información Pablo Rodríguez 67


Macy, el mensaje de la cibernética llega a Claude Lévi-Strauss, ción teórica del padre del psicoanálisis y, para ello, se apoyó en Lévi-
otro antropólogo, padre indiscutible del estructuralismo. Lévi-Strauss, Strauss y en Jakobson. En el seminario de 1954-1955, titulado “El
Bateson y Jakobson se habían conocido dictando cursos en la New yo en la teoría de Freud y en la técnica psicoanalítica”, Lacan recu-
School of Social Research de Nueva York, donde habían recalado rrió a la cibernética porque le ofrecía una representación del lenguaje
otras figuras ilustres como la filósofa Hannah Arendt. Lévi-Strauss como máquina que le permitía reformular el inconsciente freudiano.
estableció que las culturas eran sistemas de comunicación y que Destacaba, como hoy parece de sentido común, que las máquinas
el modelo para comprenderlas era la lingüística, tomando tanto los de información realizan operaciones simbólicas a partir de oposicio-
aportes de Saussure como los de Jakobson. Se podría decir que nes mínimas asociadas a lo binario, como más y menos, presencia
Lévi-Strauss no necesitaba del paso por la cibernética para pensar y ausencia, abierto y cerrado, tal como lo hacía Lévi-Strauss para
el problema de la estructura (análogo al de sistema para las disci- explicar las estructuras elementales del parentesco. El psicoanalista
plinas que luego renegarán de la primera cibernética, como se verá francés sostenía en aquellos años que en el inconsciente hay
en el capítulo siguiente). Sin embargo, se lo puede ver, en esa gran mensajes que se modulan siguiendo las leyes de la probabilidad, sin
recopilación de artículos llamada Antropología estructural, elogiando intervención del sujeto, y que en los signos hay combinatorias, tal
la temprana teoría antropológica de Bateson, o discutiendo férrea- como ocurría con la lingüística de Saussure, y también interrupcio-
mente con Wiener acerca de la posibilidad de aplicar los conocimien- nes del circuito, como en la TMI. Esta interpretación maquinal de
tos matemáticos a las ciencias sociales, casi queriendo revertir el la subjetividad será objeto de crítica para las nuevas oleadas cogni-
desdén del tándem ingenieril frente a los científicos sociales en las tivistas influidas por la teoría de los sistemas, como se verá en el
conferencias Macy. En esa discusión, Lévi-Strauss llegó a proponer capítulo 5.
nada menos que la elaboración de una “tabla periódica de las estruc-
turas lingüísticas” por parte de computadoras que calcularan todas
las combinaciones posibles de las estructuras de las lenguas. Como De los psicoanalistas a los filósofos
se ve, no se está tan lejos de las hipótesis de Chomsky ni del cog-
nitivismo en esta formulación estructuralista, aunque sería del Así como las conferencias Macy, en Estados Unidos, fueron el
todo errado, por la historia posterior de ambas corrientes, decir impulso básico de la cibernética, la primera etapa de la historia de la
que son lo mismo. información se cierra en otra reunión, en Francia, sobre “el concepto
El tren que corre desde los matemáticos ansiosos por crear arte- de información en la ciencia contemporánea”, dentro del marco de
factos técnicos hasta los antropólogos que ven sistemas de infor- un coloquio realizado en Royaumont y organizado, entre otros, por
mación en las culturas y las sociedades también pasa por el psico- un filósofo muy importante para la historia del pensamiento en la
análisis, aunque más no sea porque la figura de Jacques Lacan era segunda mitad del siglo XX que, sin embargo, recién hoy comienza
considerada estructuralista. Lacan propuso su famoso “retorno a a ser reconocido: Gilbert Simondon. El Coloquio de Royaumont invir-
Freud” buscando eliminar los aspectos biologicistas de la elabora- tió el vector de las conferencias Macy, pues ahora los biólogos, mate-

68 Historia de la información Pablo Rodríguez 69


máticos, ingenieros y antropólogos comparecían ante el tribunal miento de información no dejan de ser meros imitadores de algu-
de los filósofos, dando como resultado una serie de discusiones aún nos aspectos de lo humano. Por consiguiente, que hubiera finalidad
hoy insuperadas en complejidad respecto del problema de la infor- no quería decir que hubiese intencionalidad.
mación. La pregunta fue “qué es la información en la actualidad y Esto conduce a otro tema, que es la concepción de lo que signi-
qué puede ser”. Benoît Mandelbrot, que había estudiado con Von fica pensar. La lógica puede ser una parte del pensamiento humano,
Neumann y que sería luego conocido por su teoría de los fractales, y una muy importante, pero de ningún modo puede ser equivalente
propuso renunciar a la noción de información ante la desmesurada a todo el espacio de ese pensamiento. Aurel David, otro filósofo fran-
cantidad de cosas que significaba. André Lwoff, biólogo molecular, cés, había afirmado que si el pensamiento como lógica es reproduc-
habló de “represión” en los genes y de feedback en el metabolismo tible en una máquina, entonces no forma parte de lo más íntimo del
y sentenció que la vida era sencillamente información. Hay protago- hombre. Una gigantesca grúa es en algún sentido la abstracción
nismo de Donald McKay, un ingeniero que propuso en los tiempos de la actividad de un brazo humano y su materialización posterior en
de las conferencias Macy una teoría de la información alternativa a artefacto técnico, pero a nadie se le ocurriría pensar que por ello la
la de Shannon-Weaver, poniendo el énfasis en la posición de la recep- grúa tiene una porción importante de humanidad, porque algo de
ción de las señales; y sobre todo de Wiener, que intervino en lo humano se juega, efectivamente, en la actividad del pensamiento.
varias discusiones, incluida la de la máquina que quizá sienta dolor. Ahora bien, en el árbol de derivaciones del cognitivismo, que a par-
En los debates de aquellas jornadas de 1962 se establecieron tir de una teoría de la representación recorría el camino que iba del
temas que venían desplegándose en los años ’50 y que repercuti- pensamiento a la percepción y de la percepción a la sensación (y de
rán mucho más adelante, por ejemplo cuando en la actualidad se allí a sentimiento y, por qué no, a cuestionamientos metafísicos),
discuta acerca de la virtualidad o la inmaterialidad de la información. comenzó a verse que la apuesta era más grande y se dirigía a todo
Uno de esos temas era el alcance de las analogías sobre el problema lo que se considera humano. Como en esos tiempos se discutía, jus-
de la finalidad. ¿Realmente se puede decir que los objetos ciberné- tamente, qué era el humanismo, el tema era más que candente.
ticos, “objetos dotados de un proyecto”, como los llamará Jacques Y así fue como Martin Heidegger, considerado por muchos como
Monod, conciben un fin en sí mismos, cuando en realidad ese fin ha el principal filósofo del siglo XX, el mismo que había dicho que no
sido introducido por los hombres? ¿En qué sentido se podía afirmar, tenía sentido seguir siendo humanista en una célebre carta de 1946,
como lo hace Wiener, que las máquinas tienen la capacidad de apren- emprendió a su turno la crítica a la cibernética. A través del problema
der algo, de crear sobre la base de algo transmitido por otros, como de la representación, según Heidegger, la cibernética busca maqui-
ocurre o debería ocurrir entre los alumnos y los maestros? Simon- nizar lo más propio del hombre, que es el lenguaje. Un lenguaje de
don no dudaba en afirmar que la cibernética “nos liberó del presti- máquina señala el definitivo reino de la técnica moderna, que es una
gio incondicional de la idea de finalidad”, pero otro gran crítico de fuerza destinada a deshumanizar todo el mundo, sin por ello pro-
la cibernética, Raymond Ruyer, sostenía que en realidad el origen de poner otra imagen del universo más esperanzadora que la anterior.
la información es humano, con lo cual los dispositivos de procesa- Como en el caso de Lacan, con quien mantuvo estrecha relación, el

70 Historia de la información Pablo Rodríguez 71


pensamiento de Heidegger presenta una complejidad que no se deja hay nadie para entender lo que “dice”; o sea, en realidad no es
atrapar en su vínculo con la cibernética, pero es cierto que el cues- una información (como dato) para nadie. Por eso es abusivo, decía
tionamiento, en tiempos de ascenso de las ciencias del lenguaje Simondon, creer con ciertas ramas de la cibernética que las máqui-
(años ’60), no dejaba de ser importante. El asunto, como se verá más nas funcionan igual que un sistema vivo, pues en este caso las for-
adelante, es que el problema aparecerá más elaborado en otro lugar mas se redefinen con el tiempo, y dan lugar a la proliferación de infor-
diferente al de la reflexión académica e intelectual. mación tanto en sentido filosófico como en el de la TMI, mientras
Otro tema crucial es la tensión entre forma y azar. La física anterior que en los sistemas artificiales creados por el hombre, estas formas
a las conferencias Macy había dejado un tendal de heridos, entre ellos están dadas de antemano y no cambian. Y esto lo asocia a una
el determinismo a ultranza. Es recordada la disputa entre Albert teoría filosófica propia acerca de la información, que denomina “indi-
Einstein y Niels Bohr sobre el lugar del azar en el mundo físico: si es viduación”, cuyos vericuetos serían arduos de describir aquí.
algo que existe realmente o es el nombre de la ignorancia humana En definitiva, todo parece resumirse en las derivas de una frase
respecto de ciertas leyes físicas. Todo se complicaba aún más con el decisiva de Norbert Wiener al promediar su libro Cibernética: “La infor-
modelo probabilístico. No sólo el observador incide sobre el sistema mación es información, no es materia ni energía. Ningún materialista
observado (principio de incertidumbre de Heisenberg), sino que la pro- que no admita esto podrá sobrevivir en nuestros días”. En el Coloquio
pia idea de información nace de una medida de probabilidad tal como de Royaumont, Jiri Zeman, de la Academia de Ciencias de Praga, detrás
era visible ya en la termodinámica. Entonces, ¿qué es la información? de la antigua Cortina de Hierro soviética, y firme materialista como
Por un lado, filosóficamente hablando, es entendida como un proceso debe serlo cualquiera que se coloque bajo el signo de la obra de Karl
de donación de forma a una materia (in-formar, dar una forma), algo Marx, fue más allá: “La información es, junto con el espacio y el tiempo,
heredado de los tiempos de los antiguos griegos. Pero, por el otro, otra forma fundamental de la existencia de la materia: es la cualidad
según la TMI la información es algo que depende de la improbabilidad de la evolución, la capacidad de alcanzar cualidades superiores”.
de su ocurrencia. ¿Cómo se pueden aunar estas dos definiciones? Menudo problema, toda vez que el espacio y el tiempo son las
Para responder esta pregunta, Simondon planteó lo siguiente en formas a priori de la sensibilidad humana según filosofías tan impor-
su tesis doctoral. Si una unidad de un código fuera absolutamente tantes como las de Immanuel Kant, y que la materia y la energía ya
impredecible en su aparición para un hipotético receptor, ¿podría eran una y la misma cosa desde los tiempos de Einstein. Por lo tanto,
entender éste qué quiere decir? Para Simondon, en sintonía con la ¿la información es algo material? La distinción entre un software y
teoría de la información de McKay, la información era algo relativo un hardware parecería desmentirlo. ¿No habrá una nueva definición
a la situación de recepción, y por lo tanto fluctuaba entre el azar abso- de materia, consistente con los descubrimientos de la física cuán-
luto y la determinación completa de la forma. Por lo tanto, algo com- tica? La respuesta será dada al final de este libro, porque antes hay
pletamente in-forme, carente de forma alguna (definición filosófica), que entender por qué la información es algo tan importante en el
podría ser algo altamente improbable en su aparición (definición de mundo contemporáneo, más allá de las discusiones entre científi-
la TMI) y tener entonces un alto contenido informacional, pero no cos, tecnólogos y filósofos.

72 Historia de la información Pablo Rodríguez 73


4. Geopolítica de la información

Norbert Wiener, el padre de la cibernética, tuvo una revelación al tér-


mino de las conferencias Macy. La información estaba destinada a
cambiar completamente la faz del mundo, pero al mismo tiempo
estaba cayendo en las peores manos, que son las del gobierno
norteamericano. Wiener, como Von Neumann, Bateson, Parsons,
Paul Lazarsfeld, McCulloch, Pitts y Margaret Mead, había realizado
sus investigaciones con el apoyo directo de las agencias guberna-
mentales de Estados Unidos para ser aplicadas en la guerra. El apuro
por inventar las calculadoras electrónicas que luego serán las com-
putadoras, por ejemplo, se debía a la puesta a punto de la bomba
atómica. Pero luego del lanzamiento de esas bombas en Hiroshima
y Nagasaki, nada bueno se podía esperar en el futuro.
Wiener renunció rápidamente a seguir investigando con financia-
miento estatal. Publicó en diarios y revistas una gran cantidad de
artículos sobre responsabilidad científica, sobre la libre circulación de

Pablo Rodríguez 75
la información, en contra de la carrera armamentística y muy en espe- “Computadoras para la gente”
cial en contra de la injerencia de las fuerzas armadas en la investiga-
ción. Un día envió una carta a la dirigencia de la AFL-CIO, la principal Éste es el lema que surgió a principios de los ’70 en la costa oeste
central gremial norteamericana, pidiendo una entrevista urgente para de los Estados Unidos, en las universidades e institutos que esta-
explicarles cómo los descubrimientos de la cibernética iban a reem- ban conformando el famoso Sillicon Valley (Valle de Silicio), cuando
plazar a los trabajadores de las fábricas por los robots en un plazo de las computadoras de escritorio no existían. La visión de Wiener sobre
algunas décadas. Había que pensar un plan de lucha a largo plazo. La el futuro de la cibernética encontraba un medio mucho más recep-
AFL-CIO nunca respondió. El científico norteamericano se transformó tivo que en los ’50, porque el macartismo se había disipado y la socie-
en una persona inconveniente, también para él mismo. Tuvo que resig- dad norteamericana estaba convulsionada por la guerra de Vietnam.
narse a “lavar” la segunda edición del libro de divulgación que le habían Efectivamente, gracias a su actividad y la de muchos más, el pro-
encomendado, titulado El uso humano de los seres humanos (The blema de la información había adquirido relevancia pública antes
human use of human beings, lavado a su vez en la traducción caste- de que existieran las tecnologías que lo harían evidente. En este sen-
llana por Cibernética y sociedad), porque su editor consideró que las tido, se puede decir que la información fue primero un hecho sim-
diatribas contenidas allí lo convertían automáticamente en un “comu- bólico antes que un conjunto de tecnologías que efectivamente pro-
nista”. La primera edición del libro se había vendido como pan caliente. vocó y provoca grandes transformaciones en todos los niveles. El
Entre las muchas predicciones que Wiener lanzó en Cibernética pacifismo y la resistencia a la belicosa presencia de Estados Unidos
y sociedad, se destacan tres: la información es la base de una “segunda en el sudeste asiático tenían, como uno de sus temas principales,
Revolución Industrial”, en la que la industria se transformará com- el combate de la censura informativa junto con la esperanza de
pletamente por el impacto de la automatización y la robotización; la que las tecnologías prometidas en la década del ’50 fueran la llave
comunicación humana se va a reconfigurar porque crecerán, sobre para triunfar en dicho combate. De todos modos, no hacía falta espe-
todo, los mensajes entre máquinas y máquinas (de información); y rar a Internet. Marshall McLuhan, el célebre autor de La galaxia
será posible en el futuro cercano “manipular, duplicar y transmitir” Gutemberg, comenzó a hablar de la “aldea global” con los ele-
formas vivientes. Todas, en buena medida, se cumplieron. Pero sor- mentos brindados únicamente por la televisión y la transmisión en
prende que las haya escrito cuando las industrias consolidadas y su directo del conflicto desde el campo de batalla. Y la televisión con-
organización del trabajo no atestiguaban un nivel mínimo de auto- sistía en unos pocos canales de aire (no existía el cable), con progra-
matización, cuando las computadoras ni siquiera se conectaban entre maciones limitadas en horarios y en capacidades técnicas, si se la
sí y cuando no se conocía aún la estructura de la doble hélice del compara con la de la actualidad. Quizá no sea inútil recordar que
ADN. Pues bien, esta particular combinación de perspectivas de Richard Nixon, el presidente norteamericano que había sido vicepre-
cambio junto con fuertes disputas políticas que se dio en la vida de sidente durante la caza de brujas macartista de los ’50, que había
Norbert Wiener fue la que dominó la historia de la información en impulsado la retirada de Vietnam y que había sido reelecto en
las décadas del ’60 y ’70. 1972 con el 60% de los votos, tuvo que renunciar dos años después

76 Historia de la información Pablo Rodríguez 77


por un escándalo de escuchas ilegales a políticos opositores, cono- sobre los cables eléctricos, encontraba su corolario, pues la trans-
cido como Watergate. El carácter emblemático del caso Water- misión de información podía ahora realizarse directamente por medio
gate reside en el hecho de transformar al periodismo en un aliado de las ondas, con una capacidad de cobertura y una fiabilidad mucho
de la transparencia frente a la opacidad del poder; temas sobre los mayor que las amplificaciones terrestres por repetición. Fue un largo
que Wiener había insistido dos décadas antes. proceso, porque a medida que el sistema internacional de telecomu-
Fuera de la política doméstica norteamericana, el destino de la infor- nicaciones mejoraba el manejo de las frecuencias de esas ondas, se
mación comenzó a ser objeto de disputa geopolítica. Ya desde los años hacía posible reemplazar con la comunicación en el aire lo que se daba
’50, el Movimiento de Países No Alineados, formado por países en su por tierra. En la historia reciente, basta pensar en la aparición del telé-
mayoría del hemisferio sur que buscaban construir una tercera posi- fono celular o de las conexiones inalámbricas de Internet, en relación
ción entre Estados Unidos y la Unión Soviética, pugnaba por contra- con el teléfono fijo y con la Internet telefónica, para percibir las dimen-
rrestar uno de los principales caballitos de batalla norteamericanos: el siones de este problema.
free flow of information, el libre flujo de la información. Es un tema que Ahora bien, con los satélites, las principales empresas de televi-
tendrá proyección a futuro, como se verá en los próximos capítulos. sión, de radio y las agencias de noticias de los países del Norte refor-
Los países no alineados llevaban a los foros internacionales la propuesta zaban considerablemente el flujo “libre” de la información en un sen-
de un “Nuevo Orden de la Información” (NOI), que se manifestaba en tido unidireccional, y contra eso se alzaban los países no alineados.
la necesidad de los Estados de controlar los sistemas de telecomuni- De esa época, de los ’60, datan las primeras transmisiones en vivo
caciones ante el dominio tecnológico de los países del Norte. Más ade- y en directo y de ellas, a su vez, se nutrió el conflicto interno en Esta-
lante esto se transformará en el “Nuevo Orden Mundial de la Informa- dos Unidos por la guerra de Vietnam. En ese clima, McLuhan pudo
ción y la Comunicación” (NOMIC), cuya pregnancia provocará reacciones imaginar una “aldea global” que sería más democrática por
rotundas de parte de los norteamericanos. exceso de información, en un estilo que recuerda claramente al de
En algún sentido, la intención de constituir el NOI abría el paraguas Wiener. Que tal cuestión fuera cierta o no, es algo que se ha discu-
antes de que lloviera; en este caso, de que llovieran los satélites. A tido mucho, pero no se puede dudar de que, en este nuevo quiebre
fines de los ’50, pero especialmente en los ’60, las dos grandes super- de la historia de las telecomunicaciones, la lucha por cuáles serían
potencias iniciaron la carrera por conquistar el espacio, espejo de la las significaciones sociales dominantes adquiría nuevas y potentí-
carrera armamentística que libraban en el seno de la Guerra Fría. En simas formas. Es preciso recordar, además, que a la guerra ideoló-
1957, la Unión Soviética llegó primero al espacio, pero doce años des- gica entre Estados Unidos y la Unión Soviética se sumaban pro-
pués Estados Unidos llegó primero a la Luna. Ambos, de todos modos, yectos revolucionarios por todos conocidos. En todos esos proyectos,
utilizaron la carrera espacial para poner en órbita los primeros satéli- en todas esas luchas, el combate por quién brindaba qué tipo de
tes, lo cual sin duda es un hito en la historia de la información. información era esencial. Y si esta idea de información no se dis-
Aquella preocupación inicial de la cual emergió la teoría de la informa- tinguía demasiado de la que se tenía en el siglo XIX respecto de la
ción, acerca de la posibilidad de dominar las ondas que se montaban existencia de una opinión pública, hay que agregar que este nuevo

78 Historia de la información Pablo Rodríguez 79


escenario fue posible por la otra idea de información, la que surgió Es una historia que merece ser contada con cierto detalle, tal
a partir de la investigación tecnológica en las telecomunicaciones. como la construcción de la computadora como máquina total (pen-
De no ser por la teoría de la codificación, por los cambios técnicos samiento, percepción, acción, sentimiento) en el capítulo 2. Luego
que se sucedieron a partir de la cibernética (incluyendo a las com- de que la Unión Soviética lanzara en 1957 el famoso Sputnik, el pri-
putadoras, que en ese momento seguían sin existir tal como se las mer satélite artificial de la Tierra, Estados Unidos invirtió fuertemente
conoce hoy), no habría satélites artificiales. en desarrollos tecnológicos creando, entre otras cosas, la agencia
espacial NASA y la Agencia de Proyectos de Investigación Militar
(ARPA, por sus siglas en inglés), todas ellas férreamente vinculadas
Una red a prueba de bombas con universidades e institutos de investigación. Era la pesadilla de
Wiener hecha realidad. El Massachusetts Institute of Technology
La carrera armamentística de la Guerra Fría estaba sostenida en (MIT), mítica referencia de la historia de la información (fue uno de
una amenaza enorme, esa amenaza que hizo que fuera “Fría” los pilares de la cibernética, por ejemplo), llevaba la delantera en este
–más allá de que los conflictos mundiales fueron intensísimos, ya sea complejo “militar-científico”. A uno de sus investigadores, Joseph
en la guerra de Vietnam, en Latinoamérica o en África–, porque el pri- Licklider, se le ocurrió que una red de computadoras interconecta-
mero que tiraba la bomba podía originar la catástrofe del planeta entero. das permitiría que cualquier usuario de ellas accediera a datos y pro-
Pero aun así, los estrategas y técnicos norteamericanos se pusieron gramas de diferentes máquinas. Otro, Leonard Kleinrock, escribió
a pensar cuál era la manera de evitar que un primer bombardeo de la un artículo teórico sobre la posibilidad de enviar y recibir paquetes
Unión Soviética hiciera colapsar los sistemas de comunicaciones de información. Basándose en los sistemas de codificación de infor-
de su país, haciendo inviable la respuesta militar a la agresión. Imagi- mación, supuso que los datos podían ser agrupados en paquetes en
naron, entonces, que se podía crear una red de información que sobre- lugar de viajar de manera individual a través de los circuitos, y de esa
viviera a tal bombardeo, de manera tal que la extinción de los apara- manera lo que se codificaba y decodificaba no era cada dato sino
tos físicos no afectara a los sistemas de comunicaciones. En los conjuntos definidos de ellos.
hechos, las computadoras de aquel entonces tenían un hardware La cereza del postre fue aportada desde una corporación de
material y un software lógico, “soft”, liviano. Se trataba de ver si las tecnología militar, llamada Rand, donde Paul Baran combinó las pro-
computadoras, tal como imaginaba Wiener, podían comunicarse en puestas de los dos investigadores. Así, las computadoras podían
términos de software. Por otro lado, también es cierto que la idea de conectarse fraccionando los mensajes en distintos paquetes, para
una red de información respondía a fallas comunes en los sistemas lo cual era preferible que se comunicaran en el formato de una red
de conmutaciones para el intercambio de datos, algo que se estaba antes que a través de un centro de comunicaciones, pues éste, al
haciendo evidente en la investigación sobre los satélites. Los elemen- ser atacado, haría caer todo el sistema de interconexión. En cambio,
tos, las fallas en las conmutaciones y el proyecto de una red “inma- con el envío de paquetes de información por distintos caminos, cuya
terial” contribuyeron en dosis parecidas en esta historia. identificación estaba distribuida entre varias máquinas, la pérdida de

80 Historia de la información Pablo Rodríguez 81


uno de ellos podía ser reconstruida. Esto es lo que ocurre, por ejem- Fritz Machlup, que como tantos en esta historia huyó de su país (en
plo, cuando alguien se baja una película o un disco de Internet. La este caso, Austria) dominado por los nazis para radicarse en Esta-
información está en muchas computadoras y la velocidad del down- dos Unidos, planteó que las industrias de la información estaban a
load depende de las máquinas que estén conectadas en ese punto de cambiar la faz de la economía mundial y que era necesa-
momento y de la fiabilidad de cada una de las conexiones. Si por rio, entonces, ponderar su peso. Lo que debía medirse era el cono-
alguna razón las conexiones se interrumpen, la computadora deja cimiento, cuya expansión dependería en gran medida de las tecno-
las cosas como están y las retoma cuando sea posible, sin que se logías de información. En un estudio posterior a esa época, Machlup
pierda lo ya obtenido. pudo establecer que las industrias del conocimiento representa-
Esta comparación no es antojadiza, pues aquella propuesta de ban el 29% del Producto Bruto Interno norteamericano en 1958, el
principios de los años ’60 culminó en 1969 con la instalación de una 43% en 1963 y el 46% en 1967, apenas dos años después de la
red llamada, justamente, ARPANET, que conectaba cuatro sedes puesta en órbita del primer satélite artificial con financiamiento comer-
universitarias en la costa oeste de Estados Unidos, en la zona del cial y dos años antes de la primera conexión de la ARPANET. ¿Cómo
Sillicon Valley. La estructura misma de la red permitía que nuevas definía Machlup, entonces, el conocimiento? Como todo lo que pro-
máquinas se conectaran fácilmente, y más adelante, en los años ’70, ducen las tecnologías de información, los medios de comunicación,
se constituyeron computadoras específicas para asegurar la inter- la educación, los conocimientos banales de las charlas cotidianas
conexión ante el crecimiento de la red, que son conocidas como (small talks) y todo aquello que se puede conocer sin querer hacerlo.
nodos. A mediados de los ’80, por ese mismo crecimiento, se sepa- La medida común de todas estas instancias es su carácter
raron las redes civiles de las militares y científicas que estaban en el comunicacional, y desde allí Machlup realizó una analogía entre teo-
origen del sistema, dando lugar a Internet. Ahora bien, la expan- ría económica y teoría de la comunicación. Como en el modelo de
sión de Internet dependió en gran medida de los cambios tecnoló- Shannon-Weaver y Jakobson, en el de Machlup hay emisores,
gicos ocurridos en los ’70, que se produjeron en el seno de grandes mensajes y receptores. La circulación de mensajes se divide en las
disputas geopolíticas, herederas de las propuestas del NOIC de actividades de transporte (sin cambio ni en la forma ni en el contenido
los países no alineados, como se verá en el próximo capítulo. del mensaje), transformación (cambio de forma pero no de contenido),
procesamiento (cambio de forma y de contenido), interpretación (cre-
ación de una forma nueva a partir del procesamiento), análisis
La sociedad y la economía de la información (modificación del mensaje mismo, más allá del respeto a la forma y
al contenido), y creación (invención de un nuevo mensaje, ya desli-
No hizo falta que los satélites recorrieran la órbita del planeta o que gado de las modificaciones internas a la información). Las tres últimas
Internet se expandiera por todo el mundo para que comenzara a producen conocimiento y existen en el ámbito de la educación, por
hablarse de una “economía de la información” o de una “sociedad lo que hay que tener en cuenta muy seriamente el estudio de
de la información”. A principios de los ’60, un economista llamado Machlup como un antecedente fundamental de lo que será, en la

82 Historia de la información Pablo Rodríguez 83


década del ’90, la comprensión de la educación en términos pura- identificación y de acción de los sujetos. Las empresas de servicios
mente economicistas. Las tres primeras, más ligadas a las tecnolo- serían objeto de luchas por su gobierno entre el Estado y los grupos
gías de información, consumen conocimiento. Cuanto más aumente financieros. Así, en términos políticos, habría en el futuro una dis-
el consumo de conocimiento, más se requiere su producción, pero puta muy seria entre tecnócratas y consumidores, más que entre
lo fundamental es que el ciclo se retroalimenta, para decirlo ciberné- patrones y sindicatos. Y en términos culturales, según el problema
ticamente, mediante la conversión del conocimiento en información. se decline en la versión norteamericana de Bell o en la francesa de
A partir de estudios como los de Machlup y de pronósticos como Touraine, se planteaba la posibilidad de una nueva ética del consumo
los de Wiener sobre “la segunda Revolución Industrial”, se erigió (que reemplazaba a la ética protestante que estaba en la base del
en las ciencias sociales la figura de la sociedad posindustrial. capitalismo, según el análisis célebre de Max Weber) o de un rechazo
Obras como las del norteamericano Daniel Bell, el francés Alain Tou- absoluto a esta transformación. En este punto, la teoría posindus-
raine y, en el bloque soviético, el checo Radovan Richta constitu- trialista buscaba reunir la descripción de la naciente “cibercultura”
yeron el esqueleto de un cuerpo de predicciones, proyecciones y (pues ya en 1965 había institutos consagrados a este tema en Esta-
mediciones que buscaron hacer realidad ese tipo de sociedad a dos Unidos) con alguna explicación sobre las revueltas culturales de
través de proyectos de políticas públicas que culminan en el slo- esos tiempos: el Mayo Francés y la contracultura norteamericana.
gan contemporáneo de la “sociedad de la información”. A la luz de lo que ocurrió años más tarde con el ascenso del neoli-
Para estos proyectos, en términos económicos, la sociedad posin- beralismo, los pronósticos posindustrialistas se revelarían tan verda-
dustrial suponía el paso de una economía de bienes a una economía deros como falsos.
de servicios que provocaría la desaparición de la fábrica como insti-
tución relevante de las configuraciones sociales. La información se
coloca a ambos lados del pasaje, pues es la condición de posibilidad ¿Quién se queda con las redes posindustriales?
para que no se necesiten más brazos humanos en la producción de
bienes materiales y, al mismo tiempo, multiplica el rango de acción Como se puede ver en los congresos sobre información de los ’50
de los servicios que hoy se identifican bajo la lógica general de la y ’60, en la literatura posindustrial de los ’70 y en la promoción de
empresa, distinta de la fábrica. A principios de los ’70, durante la lla- tecnologías –Internet y los satélites– por efecto de la Guerra Fría,
mada “crisis del petróleo”, comenzó a pensarse en la información el mundo de la información, antes de plegarse a cierta lógica neoli-
como el soporte de un nuevo patrón tecnológico productivo. beral, estaba a la derecha y a la izquierda. Valga como ejemplo la
En lo que tiene que ver con la sociedad, en esta perspectiva las experiencia de Stafford Beer. Este cibernético inglés, especialista en
clases sociales tradicionales no serían más los sujetos activos de gestión organizacional, autor de un libro llamado El cerebro de la firma
la historia, o no al menos en el sentido de un enfrentamiento entre (The Brain of the Firm), fue contratado en 1971 por el gobierno socia-
sindicatos y empresarios, con el Estado como garante de negocia- lista chileno de Salvador Allende para desarrollar un sistema de ges-
ción, porque las industrias tradicionales dejarían de ser el patrón de tión y transferencia de información, llamado Cybersyn, para todas

84 Historia de la información Pablo Rodríguez 85


las empresas del Estado, incluyendo las recientemente nacionaliza- a la “sociedad de la información” como una cuestión de Estado y
das. En 1973, el Cybersyn ya estaba listo para ser implementado, además como un acto de soberanía frente a los planes norteameri-
como prueba general, en el Palacio de la Moneda, antes de que fuera canos, no sólo estatales sino también privados De hecho, el ene-
brutalmente bombardado durante el golpe militar de Augusto Pino- migo declarado era IBM, por entonces el mayor fabricante mundial
chet. El Cybersyn quedó en la nada. de computadoras. Viene a cuento recordar que las computadoras
Pero en los años ’70 muchos países montaron proyectos diver- personales todavía no existían.
sos de “industrialización informática” y otros directamente diseña- Con un tono tecnocrático, el informe planteaba que el gobierno
ron a partir de ella otros proyectos geopolíticos en el ámbito mun- debía determinar “el proyecto colectivo” de la sociedad informati-
dial, todo ello acompañado de más y más visiones de futuro con gran zada, que habría un “ágora informacional” en el que se desplegarían
éxito de marketing, desde la “tercera ola” de Alvin Toffler hasta el las relaciones políticas y culturales y que el mercado regularía, como
“desafío mundial” de Jean-Jacques Servan Schreiber. Parecía que en la célebre mano invisible de Adam Smith, “los deseos espontá-
la sociedad posindustrial estaba basada, en aquellos no tan lejanos neos de los grupos”. El “ágora informacional” permitiría que el pro-
tiempos, en la industria de los pronósticos. Zbigniew Brzezinski, nor- yecto gubernamental eventualmente pudiera ser corregido, por lo
teamericano de origen polaco, creó en 1973 el futurista término cual el sistema formado por el Estado, la sociedad civil y el mercado
“sociedad tecnotrónica”, en la que “por primera vez en la historia, podría “autocorregirse”. El proyecto que emanaba del informe Nora-
el conocimiento acumulado de la humanidad será accesible a escala Minc fue archivado en 1981 cuando llegó al poder el socialista François
global, y podrá obtenerse en forma casi instantánea, a pedido”. Ahora Mitterrand, cuyo gobierno consideró que se trataba de una propuesta
bien, Estados Unidos era el país que debía liderar el camino a esa “de derecha”, a la inversa de lo que ocurrió en Chile con el Cybersyn.
sociedad porque era el dueño de la “parrilla mundial de la informa- Pero el legado fue muy grande en términos simbólicos, pues estas
ción”. Tres años después, otro economista, Marc Uri Porat, tomó la cuestiones del “ágora informacional”, por ejemplo, estarían a la orden
vieja medición de Machlup y la aplicó a los avances de la informática del día años más tarde con el furor de Internet. Fue justamente
y las telecomunicaciones. Así fue como se redactó el informe para ese furor el que terminó con un sistema de telecomunicaciones que
la Política Nacional de Información norteamericana, combinando fue pionero en todo el mundo.
estas mediciones con los lineamientos de Brzezinski, quien será ase- Telecom, la compañía telefónica francesa, venía trabajando hacía
sor de Seguridad Nacional del gobierno de Jimmy Carter (1977-1981). años en la puesta a punto de un sistema de videotexto con termina-
La industria de los vaticinios llegaba a los gobiernos. les domésticas dotadas de un teclado y una pantalla. El Minitel fue
Fue Francia el país que con más firmeza tomó el envite geopolí- lanzado comercialmente en 1982 y en 20 años llegó a ofrecer 23.000
tico. Un informe llamado “La informatización de la sociedad”, cono- servicios, era usado por uno cada cuatro hogares franceses y tenía
cido como “Informe Nora-Minc” por el nombre de sus autores, esta- una facturación apreciable. Fue el único servicio de este tipo que fun-
bleció categorías que años más tarde serían prêt-à-porter cuando cionó en todo el mundo, ya que por efecto de los distintos proyec-
explotara Internet. Según este informe, Francia debía asumir la entrada tos nacionales de sociedad de la información, también fue implan-

86 Historia de la información Pablo Rodríguez 87


tado en Japón, Gran Bretaña y Alemania, pero sin demasiado
éxito. Luego de la presentación del Informe Nora-Minc se dio impulso
gubernamental al Minitel. Las terminales se entregaron en forma
gratuita, en lugar de la guía telefónica, y el sistema fue subvencio-
nado. Los primeros servicios que ofreció el Minitel eran informes
sobre el tiempo, información y reserva de transportes, venta antici-
5. La vida cotidiana de la información

pada de entradas a espectáculos. Luego, Telecom abrió el juego para


que participara el sector privado y llegaron la publicidad, los servicios
de telecompra y otros servicios empresariales. Pero entre fines de
los ’80 y principios de los ’90 se produjo el boom de las líneas de
conversación, entre las cuales sobresalieron, como no podía ser
de otra manera, las sexuales.
En este sentido, el Minitel fue el primer experimento de lo que
sería Internet a gran escala, pues para entonces la World Wide Web
no existía. Fue justamente la introducción de Internet lo que confinó
al Minitel a usos limitados, como las comunicaciones internas de las
empresas. Las terminales de Minitel no pudieron adaptarse a la tec-
nología de Internet. Como se trataba de conexiones telefónicas con-
troladas por una sola empresa y de terminales que no eran compu- En 2011, murió Steve Jobs, el fundador, junto a Steve Wozniak, de
tadoras sino teléfonos con video y teclado, no pudo transformarse la empresa Apple Macintosh. Sus necrológicas llegaron a compa-
en una máquina en la que convergieran varias funciones simultá- rarlo con Leonardo Da Vinci, con un creador extraordinario, un
neas, como ocurría con la PC, para entonces ya existente. Así, cuando revolucionario de la tecnología que cambió la vida cotidiana de todos
las computadoras lograron conectarse a velocidades cada vez más los seres humanos que usan alguna computadora. De su discurso
altas, hasta llegar a las bandas anchas de frecuencia actuales, las ter- pronunciado en la ceremonia de graduación de la Universidad de
minales de Minitel se transformaron en algo obsoleto, hasta por su Stanford, en 2005, se dijo que era “memorable”, “emotivo”, “céle-
escasa velocidad de conexión para los servicios que ofrecían. Tele- bre”, “intemporal”, “un canto al inconformismo”. Quizás haya con-
com anunció el cierre definitivo del Teletel-Minitel para junio de 2012. movido que hablara allí del cáncer de páncreas que le habían diag-
En definitiva, la historia de la información también es la historia de nosticado y por el que murió seis años después de lo previsto, ya
las tecnologías que, si bien no fracasan, tienen poca vida útil. que le habían dado un par de meses de vida. Por lo demás, Jobs
habló de su hogar pobre, de cómo no fue a la universidad que ahora
lo recibía, de que el secreto de la vida es “hacer lo que quieras hacer”

88 Historia de la información Pablo Rodríguez 89


y de sus empresas. Eso alcanza, parece, para transformarlo en una taron la computadora personal, la que está hoy en día en las casas,
magistral pieza de retórica. más allá de que el término PC (personal computer) haya sido paten-
Son exageraciones propias de un mito tradicional, el del self made tado originalmente por IBM. Pero la saga de la información en la vida
man, el hombre que se hace a sí mismo, cuyas raíces se pueden cotidiana empieza más atrás en el tiempo y en los laboratorios, no
remontar a Robinson Crusoe. También son exageraciones propias en los garajes.
de la historia de la información, ya que cualquier interesado en
este tema podrá leer, en muchos libros y artículos de divulgación,
que en los años ’70 un grupo de jóvenes desaliñados se dedicaron Del transistor al circuito integrado y al chip
a experimentar, como en los viejos juegos de química, con compo-
nentes electrónicos y pequeños rudimentos de software en los gara- Hay que remontarse a principios del siglo XX, cuando los ingenieros
jes de las casas de sus padres y así inventaron la informática moderna, en telecomunicaciones buscaban la forma de configurar las ondas
las computadoras personales y la base de todo lo que constituye hoy electromagnéticas que viajaban gracias a la corriente eléctrica. En
Internet en cuanto a su interactividad. Estos jóvenes, prototipos de esos años nació la electrónica, una gran referencia de la información,
los nerds, serían los herederos de la contracultura norteamericana que consistía en el control del comportamiento de los electrones para
que pedía “computadoras para el pueblo”. Cuando les fue bien se lograr una mejor amplificación de la señal transmitida. Uno de los pri-
transformaron en multimillonarios al frente de empresas monopó- meros inventos al respecto fue la válvula electrónica. A diferencia de
licas, como el caso de Bill Gates. la válvula de un motor de combustión, que es una compuerta que
Lo que parece cierto es que en la década del ’70 los Jobs, los abre y cierra el paso del combustible líquido, la válvula electrónica es
Gates, los Wozniak y los Paul Allen (el primer socio de Gates) explo- un sistema de compuertas de corrientes eléctricas basado en los
taron, mucho más que las grandes empresas, los beneficios de una movimientos de los electrones libres en un campo electromagnético.
transformación radical de la informática producida por una serie de Las primeras válvulas tenían el aspecto de una bombita eléctrica, esas
cambios tecnológicos profundos, cuyos principios y materialidades que ahora fueron reemplazadas por las luces de bajo consumo. El
ellos no inventaron. Estas pequeñas empresas (Microsoft, Apple) problema que con los años presentaban las válvulas electrónicas era,
obligaron a las grandes, como IBM o Texas Instruments, a acelerar precisamente, un consumo demasiado alto, por lo cual al integrar
procesos tecnológicos que pensaban demorar para sacarle el jugo muchas de ellas en un aparato (una radio, una televisión, una compu-
a la tecnología ya existente, pues así como hay tecnologías que tadora), no sólo requerían mucha energía, sino que eran inestables y
tienen éxito y otras que no duran lo que se pretende, como el tendían a quemar los componentes, tal como ocurría con la amplifi-
Minitel, también las hay que son mantenidas a raya por motivos cación de las telecomunicaciones a través de un aumento de la inten-
meramente económicos. Con el paso del tiempo, las Microsoft y sidad de la corriente. Esto no impidió que Von Neumann, como se
Apple terminaron ocupando el lugar de las IBM, tanto económica vio en el capítulo 2, hiciera la analogía entre la neurona y la válvula
como simbólicamente. La razón es sencilla: fueron ellas las que inven- para imaginar un cerebro artificial.

90 Historia de la información Pablo Rodríguez 91


Cuando terminó la Segunda Guerra Mundial, en los Laboratorios más fino para el trabajo electrónico que la válvula y, además, presen-
Bell, como no podía ser de otra manera, comenzaron a desarrollar un taba entonces muchas más posibilidades de miniaturización. Teniendo
nuevo modelo de válvula. La clave pasaba por trabajar con un en cuenta el volumen que tenían las computadoras de entonces, por
nuevo tipo de material llamado semiconductor. Los semiconducto- ejemplo la ENIAC, parecía evidente que la investigación en transis-
res son elementos existentes en la naturaleza que pueden compor- tores podía darles un curso nuevo a la informática y a las teleco-
tarse alternativamente como conductor o como aislante del paso municaciones en general. Eso ocurrió cuando se reemplazó el ger-
de una corriente eléctrica. Debido a su configuración electrónica, esto manio por el silicio y, fundamentalmente, cuando se trasladó el modelo
es, a la cantidad de electrones que pueden viajar por diferentes enla- de interconexión de las distintas partes de la computadora a las medi-
ces dentro de los átomos, estos elementos, además de ser extrema- das de los transistores.
damente sensibles a muchos factores (el campo electromagnético En lo esencial, los transistores, al igual que las válvulas y que la
en el que se hallan, desde ya, pero también la presión atmosférica, corriente eléctrica en el siglo XIX, se utilizaban para amplificar
la radiación ambiente o la temperatura), pueden modificar justamente señales. Para eso fueron creados. Para poder aplicar los transisto-
su configuración con el estímulo de cargas eléctricas muy pequeñas. res a cualquier máquina electrónica había que achicarlos, lo cual supo-
Esto es lo que pasa justamente en una computadora: recibe una carga nía conservar, en escalas cada vez más pequeñas, la precisión en las
de 200 o 110 voltios, dependiendo del país, pero internamente fun- soldaduras de todos los componentes de la máquina. Esas soldadu-
ciona con cargas de 3 a 12 voltios. Hubo y hay muchos materiales ras, en aquellos tiempos (años ’50), se hacían a mano. Entonces a
semiconductores. En principio se usó el germanio, pero más adelante Jack Kilby, un técnico que por una vez no era de los Laboratorios Bell,
se generalizó la producción del silicio, que se obtiene en diferentes sino de la empresa Texas Instruments, se le ocurrió que el material
grados de pureza de la arena. No es, como se puede ver, algo muy semiconductor del transistor podía ser el mismo para todas las pie-
costoso de conseguir, aunque sí de trabajar, porque los tamaños hiper- zas soldadas. En lugar de tener diferentes componentes soldados,
pequeños en los que se manipula exigen mayor asepsia que un qui- se trataba de hacer todos los componentes con el mismo material
rófano. Una simple bacteria puede hacer fallar la construcción de millo- semiconductor. Así fue como inventó un circuito sólido en germa-
nes de microcomponentes. nio, que sería la primera versión del circuito integrado.
En 1947, los físicos William Shockley, John Bardeen y Walter Brat- Persistía el problema del cableado. Von Neumann había imagi-
tain crearon un dispositivo electrónico basado en el germanio al que nado que el programa podía ser el dispositivo lógico que reconec-
llamaron “transistor”, que proviene de transfer resistor, resistor de tara a la computadora para que terminara un cálculo y comenzara
transferencia. Los primeros transistores fueron una gran innovación otro sin necesidad de ser recableada desde su exterior. Un físico lla-
técnica frente a las válvulas, no sólo por las tensiones más bajas con mado Robert Noyce, que supo trabajar con Shockley, llevó ese dis-
las que pueden trabajar y el bajo consumo de energía que requieren, positivo lógico a una entidad material: un circuito plano, hecho ínte-
sino también porque la base material para hacerlos es mucho menos gramente en una placa de silicio que, al ser corroída químicamente
pesada que para las válvulas. El transistor es un dispositivo mucho con una matriz hecha de interconexiones para regular su carácter

92 Historia de la información Pablo Rodríguez 93


semiconductor, llevaría tallados todos los “cables”, ahora incorpo- En resumen, se trataba de la computadora de Von Neumann en
rados a la placa. Para ello se valió de algunos descubrimientos para miniatura y la llamó microprocesador. En realidad fue creado por
miniaturizar y automatizar las soldaduras y los aislamientos eléctri- varias empresas casi al mismo tiempo (por ejemplo, Texas Instru-
cos necesarios para que no hubiera cortocircuitos o interferencias ments lanzó un modelo de microprocesador menos de dos meses
electromagnéticas menores, teniendo en cuenta la cercanía de todas después del de Intel), pues no se trataba sólo de “mentes brillan-
las conexiones. Eso es lo que hoy cualquiera que abra un dispositivo tes”, sino más bien de millones de dólares invertidos en laborato-
electrónico podrá ver: una placa anaranjada, en la cual van adosados rios y experimentos que, a diferencia de los años ’50, provenían del
pequeños cilindros (entre ellos, resistores y capacitores), surcada sector privado tanto o más que del sector estatal. Quizá por eso se
por muchas líneas que describen cuadrados de diverso tamaño. Esas pueda pensar, en una versión liberal que tendrá sus consecuencias
líneas son los reemplazos de los viejos cables. A partir de ese en la década del ’90, que el salto tecnológico de la información fue
momento, fue posible manipular los cristales de silicio de manera producido por unos genios que creaban libremente gracias a que
tal de poder fabricar placas, trabajadas químicamente, cada vez más una mano invisible, llamada mercado, premiaba a “los mejores”.
pequeñas. Con esta invención, Noyce fundó la empresa Intel, el Pero hay que decir que el desarrollo de la informática, en Estados
mayor fabricante de chips del mundo. Unidos, Francia, Gran Bretaña, Alemania, dependió durante muchos
En esas placas anaranjadas suele haber un cuadrado negro. Ese años de un aporte económico mayoritariamente estatal y tardó
es el tercer elemento fundamental de la “revolución de la informa- muchos años en dar ganancias. Por ejemplo: entre 1959 y 1962, en
ción” que, hasta ahora, no tiene a ningún libertario en sus filas, sino Estados Unidos, la producción de las empresas de semiconducto-
más bien a físicos que se dedican luego a fundar (y en algunos casos res se multiplicó por 20, pero el 50% se destinaba a usos milita-
fundir) empresas a partir de sus inventos, de Shockley a Noyce. Ese res. El mítico modelo del Sillicon Valley, el de una usina creativa sin
cuadrado negro es el microprocesador, creado por un empleado límites, se generó a partir de las universidades que tenían contratos
de Noyce, Ted Hoff. A partir de un encargo hecho por una empresa con el Estado, aunque más adelante su actividad se complejizara
electrónica japonesa, Hoff tenía que hacer 12 circuitos diferentes, notoriamente. En definitiva, las tecnologías de la información tenían
cada uno con una función de cálculo específico, para una supercal- importancia estratégica, en tiempos de plena Guerra Fría y de las
culadora. Pensó, como Noyce había hecho respecto de Kilby, que políticas nacionales para la información y la comunicación.
se podía comprimir esos circuitos en uno solo: juntar, en un
mismo y pequeño aparato, una unidad aritmético-lógica, una memo-
ria con instrucciones, otra con direcciones para ordenar la emisión y La caja negra de la información
recepción de datos (bajo la forma de electricidad, pues hay que recor-
dar que la codificación binaria se produce a partir de impulsos eléc- Con la miniaturización de sus componentes, la computadora,
tricos), y diferentes controladores “de tráfico” de todo el proceso ahora diseminada en cualquier dispositivo bajo la forma del micro-
de cálculo. procesador, ingresó en la vida cotidiana y sólo a partir de este

94 Historia de la información Pablo Rodríguez 95


momento puede hablarse de una “era de la información”. Hasta aquí una década a esta parte, son numerosísimas: no sólo el termos-
se trataba de un conjunto de teorías científicas y filosóficas, deriva- tato que mide la temperatura del motor e introduce correcciones, tal
das de las transformaciones de la física a principios del siglo XX, que como una máquina termodinámica del siglo XIX, sino también la regu-
ensayaban la posibilidad de una nueva entidad en el universo llamada lación de la suspensión, de la inyección de combustible, de la entrada
información, y cuyo componente tecnológico principal se hallaba en de aire al motor, del sistema eléctrico, entre otros muchísimos dis-
la mejora de las redes de telecomunicaciones. En algún sentido fue positivos, están gobernados por chips, o sea, por computadoras.
el transistor el puntapié inicial para que las computadoras abando- Antes, el mecánico podía reparar el automóvil conociendo sus com-
naran los grandes laboratorios y llegaran a cualquier casa u oficina o ponentes. Hoy en gran medida ya no puede, porque la regulación de
para que los satélites pudieran rodear al mundo de transmisiones. esos componentes es informática. Se requiere entonces llevar el
El modelo computacional de Von Neumann proveyó las bases teó- auto al taller no para desarmarlo, sino para hacerle correr el programa
ricas para pasar del transistor al circuito integrado y de éste al micro- que regula aquello que se descompuso, del mismo modo en que,
procesador. Al mismo tiempo, sin esos pasajes, tal modelo, y con él cuando la computadora se descompone, la solución habitual es reins-
parte de la definición de la información, no estaría hoy plenamente talar el sistema operativo.
realizado. Hizo falta que los circuitos integrados pasaran de tener Tanto el técnico informático como el mecánico enfrentan a las
diez transistores a fines de los ’50 a 700 millones en la actualidad máquinas respectivas que tienen que arreglar como si fueran una
para que la cuestión de la información, durante ese largo y a la vez gran caja negra. No saben qué es lo que ocurre en su interior, pero
cortísimo proceso, fuera algo cotidiano en este mundo. sí saben que se puede “resetear”. Esto es lo que proyectaban los
Se dan dos concreciones a la vez. La primera es que con el cibernéticos, y en particular los cognitivistas, respecto de las máqui-
chip, todo aparato puede ser convertido en un dispositivo de infor- nas de información. Éstas reciben los datos del entorno a partir de
mación, desde un reloj hasta un televisor, desde un equipo de música distintos tipos de sensores, los codifican, los procesan en función
hasta un avión. Hay máquinas que son por definición “de informa- de la teleología inmanente o el fin inscripto en el programa y orde-
ción”, como un teléfono celular o un satélite, pero hay otras máqui- nan una acción sobre el exterior que es función de la combinación
nas que han sido convertidas en tales: un termómetro, una cafetera, de esos datos con esos programas, que serán los datos de salida,
un auto o un avión. El proceso de digitalización de buena parte del decodificados para que sean comprensibles fuera de la máquina. Al
parque técnico mundial ha generado varias teorías y debates, que mismo tiempo, la misma acción se transforma en una nueva entrada
serán expuestos en el próximo capítulo, pero en algún sentido es la de datos, que nuevamente se codifican para volver a evaluar la dis-
confirmación de los primeros esbozos de las ciencias de la informa- tancia que hay entre la acción realizada y el fin buscado (feedback).
ción, esos que van de las conferencias Macy al Coloquio de Así, la máquina de información recubre a su núcleo donde reside su
Royaumont. Sea, por ejemplo, un automóvil, uno de los símbolos finalidad, el programa, con códigos que la hacen compatible con el
de lo que debe ser una máquina basada en la energía. En la actuali- mundo exterior. Todo lo que ocurre entre los códigos y los progra-
dad, las autorregulaciones de prácticamente cualquier automóvil, de mas será oscuro para ese mundo: una caja negra. A la vez, como

96 Historia de la información Pablo Rodríguez 97


efectivamente puede actuar en ese mundo, como parece percibir, mediaran entre el núcleo de codificación y programación de la com-
pensar y actuar, la máquina pasa a ser parte constitutiva de él, y se putadora y un usuario que, siguiendo instrucciones básicas, pudiera
podrá decir, entonces, que procesa información, no simplemente escribir programas, tal como se explicó en el capítulo 2. Los famo-
que la da y que la recibe. ¿Qué otra cosa sería, por ejemplo, pilotear sos programas BASIC o Fortran son lenguajes de programación que
automáticamente una máquina? Es algo habitual en los aviones y van compilando el lenguaje de máquina, cercano a la materialidad
ahora se está trasladando a los automóviles, algunos de los cuales electrónica, hasta llevarlo a una serie de instrucciones fáciles de com-
ya tienen inscriptos programas para estacionar, algo sin dudas muy prender. Gates y Allen inventaron un compilador del BASIC, que es
útil. Curioso homenaje a la cibernética, vocablo inventado a partir de un lenguaje de programación de la década del ’60, para introducirlo
la palabra griega kubernetes, que quiere decir piloto. en la Altair y luego en otras máquinas. Lo que hicieron fue vender
La segunda concreción a la que da lugar el chip es la generaliza- software. A eso se dedica Microsoft.
ción de las computadoras personales en lo que tiene que ver con los Ahora bien, el popular sistema operativo Windows de Microsoft,
sistemas de programación. En el proyecto cibernético-cognitivista, basado en estos programas compiladores, es en realidad una
además de la entrada y salida de mensajes y de la teleología con- copia del sistema que había ideado Steve Jobs para la Macintosh,
tenida en el programa, existía la idea de trasladar el lenguaje a las computadora inventada hace menos de tres décadas, en 1984. Siete
máquinas. Hasta los ’70, el complejo mecanismo para transmutar años antes, la empresa Apple había creado la Apple II, la primera
los algoritmos matemáticos en signos de un lenguaje (el viejo sueño computadora del mundo en ofrecer un monitor color. La Macintosh,
del formalismo del matemático Hilbert) era algo para entendidos den- además del color, tenía un sistema de visualización de sus operacio-
tro de los laboratorios e institutos de investigación. Parte de la nes basado en ventanas que se abren y se cierran operadas con
celebridad de Steve Jobs y Bill Gates radica en transformar a la com- un nuevo dispositivo, el mouse, que complementaba el del teclado.
putadora en algo “amigable” (tal fue durante mucho tiempo el slo- El lector que tenga más de tres décadas de vida podrá recordar cómo
gan publicitario de las PC), de fácil acceso a cualquier usuario. Esto era trabajar en el sistema DOS, que como toda resolución gráfica
es lo que las grandes empresas no querían hacer, pues iban a per- ofrecía una pantalla de fondo negro y letras que podían ser blan-
der el monopolio de la provisión y mantenimiento de las máquinas. cas, naranjas, verdes o azules, según la computadora y el tipo de
El abaratamiento de los costos de producción de los compo- monitor, en la cual había que tipear las instrucciones, un poco
nentes microelectrónicos hizo que aparecieran computadoras ensam- –sólo un poco– a la manera en que lo hace un programador cuando
bladas fuera de las cadenas de producción habituales. Pero esas quiere modificar algo del sistema operativo de la computadora.
computadoras (la Altair 8800, por ejemplo, creada en 1975 y consi- Las ventanas, las Windows, hacen amigable a la computadora en la
derada la primera microcomputadora “casera”) seguían siendo un misma medida en que vuelve más misterioso su funcionamiento
misterio para cualquiera que no supiera no sólo de programación, para un usuario que sólo teclea cuando dentro de ese entorno de
sino también de electrónica. Entonces, lo que hicieron Bill Gates y ventanas se ofrece un dispositivo de texto escrito, sea en un proce-
Paul Allen, entre muchos otros, fue crear una serie de lenguajes que sador de texto o en un chat. Y eso mismo le pasa al técnico en com-

98 Historia de la información Pablo Rodríguez 99


putación que decide arrasar con, esto es, reinstalar, el sistema corriente eléctrica que permite, luego, sostener que hay procesa-
operativo cuando falla, porque lleva mucho menos tiempo que estu- miento de información.
diar dónde “se colgó”. Todo esto ya estaba definido en la década del ’60 y tanto Wie-
ner como Schrödinger podían vaticinar que algún día la vida podría
ser transmitida y multiplicada. Para ello, el ADN debía ser manipula-
Vida recombinada ble, y eso fue lo que se consiguió a principios de los ’70. Hasta enton-
ces, la genética tenía mucha teoría a disposición, con nombres pom-
En los años de ascenso de la cibernética se había logrado determi- posos como el ya mencionado Dogma Central de la biología molecular,
nar que el ADN era un programa que contenía instrucciones para la pero estaba condenada a experimentar con lo supuestamente menos
división y la multiplicación celular y de tal manera podía conformar interesante de la genética: el ARN y las proteínas. Las moléculas de
los organismos, desde las bacterias hasta los mamíferos superio- ADN podían ser observables en los microscopios, pero en la natura-
res. Esas instrucciones eran transmitidas por medio de los diversos leza se presentan con un tamaño demasiado grande como para poder
tipos de ARN (ácido ribonucleico) que intervienen en la síntesis de aislar toda la secuencia de sus bases, copiarla luego en un papel e
proteínas, entre los cuales se puede destacar el ARN mensajero identificar así qué partes de esa secuencia puede considerarse un
(ARNm), del que se dice que es codificante. En el ADN convivían gen, esto es, una unidad mínima de información que transfiere la
entonces el software y el hardware, contemplándolo desde la teo- herencia del orden biológico a las células.
ría de la información. Por un lado, la molécula de ADN está consti- Se recordará que el físico Max Delbrück había rechazado a las
tuida por la secuencia precisa de las bases que unen a las dos cade- conferencias Macy como algo sin fundamento. Pues bien, resulta
nas que se retuercen en la hélice: a la adenina siempre le corresponde que la investigación que él lideraba acerca de los virus que infectan
la timina, a la guanina siempre le corresponde la citosina, y viceversa. y parasitan bacterias, llamados bacteriófagos, terminó por generar
La secuencia misma, el orden invariable en el que se acomodan las condiciones para poder manipular el ADN y eventualmente
las cuatro bases, es considerada información bajo la forma de un confirmar la importancia del modelo cibernético para comprender la
código genético. Ahora bien, por otro lado, para que ese código sea genética. De hecho, Delbrück y sus colaboradores recibieron el Pre-
responsable del crecimiento celular, hace falta que la transmisión mio Nobel de Medicina en 1969 por sus hallazgos. En esos años se
bajo ese código ocurra materialmente, que es lo que hace el ARN descubrió un conjunto de enzimas que las bacterias crean para evi-
llamado “mensajero” (ARNm). Aunque hay varios ARN y con fun- tar que su ADN se mezcle con el de los virus. Por sus característi-
ciones complejas, para simplificar se dice que el ARNm “copia” el cas (abundancia en la naturaleza, fácil obtención y multiplicación,
orden del ADN a partir de su semejanza material (las mismas bases, sensibilidad a cualquier cambio, especialmente lumínico, pocos pru-
salvo la timina del ADN que es el uracilo del ARN) y lo lleva al ribo- ritos legales y éticos para su manipulación), las bacterias se prestan
soma, que es donde se realizan las síntesis de las proteínas. Ciber- a la experimentación en laboratorios más que cualquier otra entidad
néticamente hablando, el ARN sería el cableado por donde pasa la viva. Estas enzimas bacterianas son capaces de cortar la secuen-

100 Historia de la información Pablo Rodríguez 101


cia de ADN en fragmentos para neutralizarlos. Lo que se hizo enton- cen las mutaciones genéticas, decía Monod, quizá se producían o
ces fue manipular esas enzimas para cortar el ADN en fragmentos impedían tales mutaciones sin saberlo, y con consecuencias lógica-
específicos y de ese modo, como el orden de las bases (su informa- mente impredecibles.
ción) se cumple inexorablemente, poder pegar un segmento con En los ’80, mientras se lanzaban las primeras computado-
otro a través de una enzima denominada ligasa. ras personales que pronto fueron copiadas sin control de las gran-
En otras palabras, se podía crear un ADN artificial sin necesidad des empresas que las habían creado (IBM, por ejemplo), mientras
de verlo funcionar en organismos complejos. Se lo llama “ADN recom- se multiplicaban lo que se conocen como “clones”, la genética logró
binante” y es la base de la ingeniería genética actual. Así, mientras clonar el ADN. Lo hizo a través de una reacción en cadena, un tipo
el microprocesador hacía de una cafetera una procesadora de de reacción química que, en otras materias, es la base de esa bomba
información e iniciaba el camino de la “informática popular”, la de atómica tan decisiva para el nacimiento de la cibernética. La reac-
los Jobs y los Gates, la biología molecular se encontraba ante la posi- ción en cadena de polimerasa (Polymerase Chain Reaction, PCR) es
bilidad de observar si el ADN funcionaba o no como una computa- la técnica más utilizada para poder copiar y guardar los ADN
dora, pues ahora podía trabajar con él directamente. A partir de recombinados, fundamentalmente en bacterias. Las heladeras
uno de los primeros experimentos en ADN recombinante, particu- que contienen a estos singulares organismos se transforman así en
larmente el de Paul Berg en 1974 sobre el virus SV40, que afecta a bibliotecas de las combinaciones de información hechas en los labo-
ciertos monos, se disparó en Estados Unidos una serie de proce- ratorios para dar con las instrucciones que cada secuencia brinda a
sos: discusiones sobre bioseguridad ante la posibilidad de perder el las moléculas encargadas de “transmitir el orden biológico”. Así, no
control de los nuevos organismos; creación de empresas que, como sólo la biología molecular entraba en el momento de la verdad para
las de Gates y Jobs, explotarían el nuevo mercado genético la acumulación de definiciones elaboradas en los ’50 y ’60, sino que
(patentamiento de segmentos, desarrollo de nuevos productos trans- también se abría el campo para el diagnóstico genético, para la iden-
génicos), y discusiones éticas que relacionaban ambas cuestiones tificación de perfiles genéticos en la investigación criminológica y
(bioseguridad y patentamiento) para preguntarse si la investigación para la elaboración de organismos transgénicos.
en genética podía o no proseguir. El tema es complejo, pues por Si todo esto parece poco, aquí está el puntapié para el inicio del
efecto del concepto de información aplicada a los fenómenos vita- Proyecto Genoma Humano, ahora ya terminado. Gracias a la poten-
les, éstos se hacían manipulables a nivel molecular por primera cia de cálculo de las computadoras, que creció exponencialmente
vez en la historia y se convertian en algo apropiable según la lógica con los circuitos integrados y los microchips, se hizo posible realizar
de la empresa; sin contar con que Jacques Monod, aquel que había la secuenciación del mapa genético de cualquier especie, que no es
obtenido el Premio Nobel de Medicina en 1965 junto a André Lwoff otra cosa que la partición de las secuencias existentes, imposibles
y François Jacob, había advertido en 1970 que la genética se encon- de analizar si se las dejara “al natural”, y su posterior rearmado en
traría rápidamente con una disyuntiva fundamental. Al poder mani- nuevas secuencias, ahora artificiales, que replican ese orden natu-
pular el ADN sin conocer aún los mecanismos por los que se produ- ral. Como se mantiene la divisa del ADN como un programa, que

102 Historia de la información Pablo Rodríguez 103


contiene en su código todo el desarrollo de un ser vivo, la investiga- rida al mantenimiento de la constancia de un sistema, y la morfogé-
ción genética promete, en alianza con la medicina, descubrir el ori- nesis, referida al modo en que los sistemas superan su norma de
gen genético de las enfermedades que tengan que ver con una mala acción, se desvían de su finalidad homeostática y tienden hacia nue-
duplicación celular. Son fallas en la transmisión, en la transcripción, vos estados más inestables, sin que ello signifique necesariamente
en el envío de la información: la vida parece ser perfectamente ciber- destrucción; o sea, aquello que los ingenieros de los Laboratorios Bell
nética, como se anunciaba en los ’50. El diagnóstico prenatal, por lamentaban de los hallazgos de Harold Black sobre amplificadores de
ejemplo, permite predecir un conjunto de enfermedades que ya gran oscilación en los años ’30. Esta “segunda cibernética” se apo-
están en el feto, no desarrolladas en algunos casos. En realidad, yaba en nuevas teorías físicas, como las de Ilya Prigogine sobre las
las cosas son mucho más complicadas por varias razones, algunas estructuras disipativas, que plantean que puede haber producción de
de las cuales se expondrán en el próximo capítulo. orden a partir de la fluctuación, del “desorden” o el “ruido”, para decirlo
con el vocabulario de las telecomunicaciones. Un problema similar se
le había planteado al propio Schrödinger cuando se había preocupado
La cibernética ha muerto, viva la cibernética por realizar el matrimonio entre la termodinámica y la genética sin recu-
rrir al arsenal teórico de la “primera” cibernética.
Por esas curiosidades de la historia, resultó ser que cuando el cog- El segundo presupuesto atacado fue el de la noción de sistema.
nitivismo fue confirmado en las máquinas de información que comen- Fue en esos años’60 cuando el biólogo y físico austríaco Ludwig Von
zaron a poblar el mundo, o cuando el ADN como programa por fin Bertalanffy intentó tomar por asalto a la cibernética y transformarla
comenzaba a ser experimentado, los postulados de la cibernética en apenas un capítulo de la Teoría General de los Sistemas (TGS).
fueron desmentidos en algunos terrenos científicos. Entre los ’60 La cibernética había estudiado a los sistemas cerrados, sistemas arti-
y los ’70, el proyecto cibernético recibió tantas críticas como amplia- ficiales que han sido cerrados voluntariamente por ser tratados como
ciones a partir de la discusión sobre sus presupuestos más básicos. objetos, tal como se podía derivar de la ley de entropía, que no
El primer punto fue el legado de la termodinámica. La teoría de la vale para sistemas abiertos. Éstos, que tienen por modelo a los
información, más allá de las muchas diferencias entre autores y mar- sistemas vivos y no a los técnicos, muestran que la finalidad de una
cos teóricos, había calcado de la segunda ley de la termodinámica, organización no siempre está dada de antemano y que existe una
aquella que hablaba de la entropía, el modelo para analizar qué es lo autoorganización de los seres vivos, una creación de nuevas finali-
que hace una entidad dotada de organización para “frenar” local- dades en la que la homeostasis, la conservación del orden, es sólo
mente dicha entropía. Y la organización “antientrópica” dependía de uno de los aspectos a tomar en cuenta. La relación de los siste-
una interpretación de la retroalimentación en términos de búsqueda mas abiertos entre sí puede ser definida como una relación de com-
de homeostasis: el feedback negativo. plejidad, en la que las consecuencias de los intercambios tampoco
Hacia mediados de los ’60, Magoroh Maruyama propuso hablar de son enteramente deducibles de lo que hace cada sistema por sepa-
una “segunda cibernética” que distingue entre la morfostasis, refe- rado. Por lo tanto, la complejidad y la autoorganización conducen a

104 Historia de la información Pablo Rodríguez 105


pensar que hay en los sistemas abiertos una autopoiesis, una micas, en muchos casos estériles. Pues bien, las estructuras disipati-
autocreación de pautas de comportamiento y de intercambio. El vas, la autoorganización, la autopoiesis y la complejidad resultan en la
modelo cibernético de una entrada, un procesamiento y una res- segunda cibernética mezcladas y reorganizadas con el constructivismo.
puesta debe ser considerablemente amplificado, porque los siste- Y el principal autor que realizó estas uniones fue Heinz Von Foerster,
mas abiertos generan sin cesar nuevos “receptores” y nuevos “acti- el secretario de las conferencias Macy, el que tomó notas que fue-
vadores”, más allá incluso del feedback negativo, como se dijo ron esenciales para reconstruir la historia de la información ante las
anteriormente. Así, lo que en sustancia le diría la TGS a la ciberné- carencias materiales y circunstanciales de buenos grabadores en esos
tica es que una inspiración más fuerte en el análisis de los sistemas años ’40. Habrá que creerle, entonces, acerca de la importancia de
vivos conduciría a pensar otro tipo de seres artificiales, mucho esta construcción, así como la reconstrucción del pensamiento y la
más complejos que los sistemas de procesamiento de información. acción de Sócrates, y de tantos otros antes que él, dependieron en
El tercer presupuesto cibernético comprometido resultó ser el de gran medida de que a Platón se le ocurriera escribir lo que pasaba, para
la relación entre los inventores y lo inventado. En 1972, Margaret Mead, luego afirmar que hay que desconfiar de lo que está escrito. Quizá Von
ex esposa de Bateson y figura central de la conferencias Macy, declaró Foerster haya jugado, él también, una gran broma.
que era hora de hacer la “cibernética de la cibernética”. Se trataba Apoyándose en nuevos conocimientos sobre el cerebro y el sistema
de una cibernética del observador. Así como Heisenberg había mos- nervioso, las ciencias cognitivas derivadas de este cambio de frente
trado con el principio de incertidumbre que es imposible observar un intentaron e intentan desmentir los principios de funcionamiento de los
sistema cuántico sin incidir en él; así como en esos mismos tiempos chips, y por ende de las computadoras tal como se las conoce ahora.
lejanos de principios del siglo XX, la teoría de la relatividad y la física En primer lugar, la neurona, considerada como un dispositivo eléc-
cuántica habían demostrado que este mundo es a la vez mucho más trico que además realiza cálculos, dejó de ser la base biológica de la
grande y más pequeño del que vivencia un ser humano; así como el cognición, como se derivaba de aquellas comparaciones fundan-
principio de incompletitud en matemática enunciado por Kurt Gödel tes de Von Neumann. El conexionismo afirma que el cerebro
señalaba un límite para el formalismo matemático; la cibernética debía opera a partir de interconexiones masivas y en forma distribuida, y
mirarse a sí misma y concentrarse en su caso, en qué tipo de entrada que esas conexiones pueden cambiar, por lo cual tampoco tiene sen-
y qué tipo de salida genera el hecho de crear y analizar dispositivos de tido imaginar un set predeterminado de cables, los que tenía la ENIAC
entrada y salida. En algún sentido se trataba de una variante de los prin- y los que tiene tallados un circuito integrado. En resumidas cuentas,
cipios de la metacomunicación de Bateson, ahora aplicado a la misma el cerebro es lo que es porque su materialidad es plástica, puede
cibernética. El psicólogo austríaco Paul Watzlawick, principal discípulo cambiar, y porque su funcionamiento depende de la totalidad que
de Bateson, elaboró a partir de dichos principios una teoría construc- forman sus componentes, y no por lo que hace cada uno en sí. De
tivista, que estudia el marco en el que se produce un conocimiento allí que, invirtiendo las primeras experiencias cognitivistas, el cere-
que cree predicar algo sobre una realidad. Más de un lector habrá oído bro termina siendo una computadora mucho más compleja y potente
hablar de “la realidad como algo construido”, que se abre a tantas polé- que la mejor de las máquinas artificiales.

106 Historia de la información Pablo Rodríguez 107


En segundo lugar, lo único que expresarían la inteligencia artificial medida de lo posible a través de un mejor conocimiento de los seres
y los programas expertos, que realizan una gran cantidad de tareas vivos, sin proponerse equiparación alguna entre ambos reinos.
de manera automática, es la posibilidad de artificializar aquellas tareas Ahora bien, no es que todo esto haya estado ausente de los pri-
humanas de carácter rutinario. Aquí es clave la argumentación de dos meros desarrollos de la cibernética. Los más audaces dentro de
biólogos chilenos, Humberto Maturana y Francisco Varela, quienes las ciencias cognitivas, como William Ross Ashby (quien de hecho
con todo el bagaje de la segunda cibernética y la TGS se acercan curio- es uno de los padres de la “segunda cibernética”) o el mismo Von
samente a las posiciones filosóficas que cuestionaban la audacia ciber- Neumann, que al morir estaba precisando su teoría de los autóma-
nética de los tiempos de las conferencias Macy. Plantean, por tas celulares, habían avanzado bastante en estos principios ahora
ejemplo, que lo traducible en algoritmos y programas son ciertos prin- esgrimidos. Hasta se podría decir que en la formulación de Marvin
cipios lógicos, que en absoluto cubren todo el espacio del pensa- Minsky sobre las computadoras que adquirirían nuevas complejida-
miento humano, entre otras cosas, porque este pensamiento depende des si se las colocara en un mundo con los problemas que enfren-
de su encarnación en un cuerpo y por lo tanto es inescindible de una tan los seres humanos (y no como productoras de simples resolu-
percepción y una sensación animales, a la vez que humanas. No es ciones de tareas asignadas por éstos) anida un reconocimiento
posible transferirlas, ni mucho menos escindir pensamiento de per- bastante explícito de la posibilidad de que una máquina tenga “capa-
cepción y de sentimiento. Esto recuerda posiciones filosóficas de la cidades evolutivas”. Después de todo, fue el propio Wiener el que
fenomenología, como las de Maurice Merleau-Ponty. había demostrado gran entusiasmo por las máquinas capaces de
En tercer lugar, todo ello procede del hecho de que la represen- aprendizaje, cifrando en ellas el futuro de la cibernética. Pero todos
tación no depende de la manipulación física de los símbolos, ni de estos vasos comunicantes entre la primera y la segunda etapa de la
su combinación sintáctica, sino de algo del orden de lo vivido. Aquí cibernética quedaron ocultos tras la explosión de las definiciones
se plantea al máximo la diferencia de punto de apoyo que se pro- más clásicas y simples de la información en las máquinas y los arte-
duce al pasar de la primera a la segunda cibernética y de ambas a factos, en la realización de los chips, en la introducción de estos asun-
la TGS. Al principio se trataba de ver cómo funcionaba lo vivo para tos en la vida cotidiana de millones de personas en un tiempo muy
replicarlo en lo artificial, y de allí se llegó a concebir lo artificial escaso, que no llega a las dos décadas. Hasta tal punto es así que
como modelo de conocimiento de lo vivo, siguiendo una tradición estas discusiones epistemológicas entre la cibernética y la teoría de
conocida en Occidente por lo menos desde la filosofía de René Des- los sistemas comienzan a quedar en algún punto fuera de una his-
cartes. Pero la segunda cibernética subraya la distancia que hay entre toria de la información, si no fuera porque en todo este camino apa-
este proyecto de la primera cibernética y lo que hacen los seres vivos rece un problema nuevo que retoma las polémicas filosóficas no sal-
considerados dentro de un sistema. Y resulta que los sistemas en dadas hasta los ’60: la información como una propiedad emergente
los que existen los seres vivos son mucho más complejos que los de los sistemas abiertos, vivos o artificiales, y ya no como una
de los seres artificiales. Por lo tanto, más que replicar las funciones cosa manipulable de principio a fin en máquinas “atontadas”, impe-
vivientes en lo artificial, se trata de enriquecer a las máquinas en la didas de autoorganizarse.

108 Historia de la información Pablo Rodríguez 109


6. Presente y futuro de la información

“Todo nuestro conocimiento nos acerca a nuestra ignorancia,


toda nuestra ignorancia nos acerca a la muerte,
pero la cercanía de la muerte no nos acerca a Dios.
¿Dónde está la vida que hemos perdido en vivir?
¿Dónde está la sabiduría que hemos perdido en conocimiento?
¿Dónde el conocimiento que hemos perdido en información?”

El gran poeta inglés Thomas Stearns Eliot escribió “El primer coro
de la roca” en 1934. Su búsqueda religiosa poco tenía que ver con
la Teoría Matemática de la Información que se estaba pergeñando
en esos años, y mucho menos con lo que la jerga posindustrialista
define como saber, conocimiento e información. Pero sus pregun-
tas se vuelven actuales cuando se oye hablar incesantemente de la

Pablo Rodríguez 111


“sociedad del conocimiento”, de la nueva era del saber que se inau- nirá cuál será la realidad económica de la información y cuál será
gura con la expansión de las tecnologías de la información. su importancia como bien común. Y al mismo tiempo, desde el punto
Desde principios de los ’70, a raíz de las investigaciones de Fritz de vista físico, la información, a poco más de medio siglo de haber
Machlup, aquel que medía el valor económico de la información sido formulada como tal, cambia de forma y se dota de un futuro
cuando los satélites aún no habían sido enviados al espacio, se esta- propio de la ciencia ficción.
bleció que la información es un bien económico, que se desgasta
y que constituye la materia prima del conocimiento y el saber. Por
su parte, el conocimiento es un bien social, que no se desgasta y Autopistas desreguladas
que constituye la fuerza de producción que trabaja la materia prima
informacional. Finalmente, el saber es un bien cultural, que tampoco Buenos Aires, marzo de 1994, pleno auge del neoliberalismo en
se desgasta y que regula las relaciones entre la información y el cono- América latina. El vicepresidente norteamericano Albert Gore pre-
cimiento. Estas definiciones fueron acuñadas en los proyectos más senta en la conferencia plenaria de la Unión Internacional de Teleco-
avanzados de la “sociedad de la información” para aplacar la eufo- municaciones el proyecto de las “autopistas de la información”, sos-
ria que destilaban los pronósticos en los tiempos heroicos de las tenido en la construcción de una “Infraestructura Global de la
computadoras artesanales. La advertencia implícita es que la infor- Información”. Gore habla de “una nueva era ateniense de la
mación es apenas un insumo que debe ser trabajado en el nivel social democracia”, tal como el informe Nora-Minc anunciaba el “ágora
y cultural. Ningún avance tecnológico significa demasiado si no supone informacional”. En esa década del ’90 varios países y entidades supra-
transformaciones en otros niveles. Pero la advertencia de Eliot aún nacionales relevantes, como la Unión Europea, se lanzaron a cons-
resuena. ¿No será que se ha limitado el conocimiento al hecho de truir proyectos de “sociedad de la información”, tal como ocurriera
estar informado, ahora que la información está por doquier? ¿No será en los ’70 y, más atrás, como plantearan los Países No Alineados
que ese conocimiento se aleja también del saber, y mucho más de acerca del control del free flow of information. Pero este retorno de
la sabiduría? Si el lamento de Eliot está teñido de la búsqueda del la visión geopolítica de la información tiene características específi-
Dios cristiano, cabe recordar que eso era lo que estaba en juego cas que son a su vez la acumulación de las disputas pasadas.
en la condena a la escritura en el Fedro de Platón. Ante todo –y esto es algo que cualquier lector de más de 35 años
Por lo pronto, hay serias disputas políticas y científicas alrede- recordará–, la era de la información que se anunciaba hace dos déca-
dor de la definición misma de la información. Que sea un bien eco- das relacionaba directamente las innovaciones digitales con ideales
nómico, que sea escaso, es una valoración social y no un hecho en de libertad, tanto en lo político, lo económico y lo social, en línea
sí. El agua es algo escaso, también el petróleo, pero nada indica que directa con las “computadoras para la gente” de los ’70 o las admo-
la información tenga que serlo. Por lo tanto, la clasificación expuesta niciones de Wiener en los ’50. Tras esa capa simbólica, que hacía
contiene ya una posición que desde los años ’90 es muy discutida eje en la imagen todopoderosa de la circulación (de las ideas para la
y combatida. Es justamente en el nivel social y cultural que se defi- opinión pública, de los bienes para la economía) y que pretendía mos-

112 Historia de la información Pablo Rodríguez 113


trar que democracia y mercado constituían una unidad tras la caída free flow of information. Después de todo, hasta el Informe Nora-
del bloque soviético, aparecían ciertos antecedentes de peso. Luego Minc, que imaginaba una batalla geopolítica entre IBM y el gobierno
del llamado “Informe McBride”, un estudio muy negativo de la francés, se apoyaba en un mercado que regularía “los deseos espon-
UNESCO respecto del orden informativo internacional, el gobierno táneos” de todos. Ahora se trataba de una batalla económica
norteamericano de Ronald Reagan y el británico de Margaret That- donde algunos peces gordos se comían a los chicos, y donde algu-
cher lideraron un boicot al organismo que incluía retaceo de fon- nos peces chicos también se convertían en gordos.
dos y abandono de voz y de voto que duró un lustro. En ese ínte- Hay que decir que esta nueva versión de la “sociedad de la infor-
rin, en Estados Unidos se desmembró en siete partes la célebre mación” era mucho más tangible que las anteriores. A los cam-
AT&T, la megaempresa de telecomunicaciones que sostuvo a los bios tecnológicos descriptos en el capítulo pasado hay que sumarle
Laboratorios Bell, tan importantes para la historia de la informa- el hecho de que en 1990 comienza a funcionar la red de alcance mun-
ción, y en Gran Bretaña se privatizó la British Telecom. La “desregu- dial”, la World Wide Web (www), montada sobre Internet. El inglés
lación” de las telecomunicaciones, así como de tantos otros sec- Tim Berners-Lee, en el linaje de las investigaciones que esbozaron
tores de las economías bajo el neoliberalismo, fue la medida ARPANET ya a principios de los ’60, transformó lo que hasta
fundamental para hacer entrar de lleno a los grandes sectores priva- entonces era una red simple de intercambio de datos entre investi-
dos en el mundo de la información, que ya empezaba a ser un nego- gadores en otra red que puede ser usada por cualquier persona, tal
cio de proporciones. como Gates y Jobs llevaron a la práctica la idea de las ventanas. Por
El proyecto de Gore retomaba tanto el acervo simbólico de la “era un lado, la www mejoró los métodos de identificación de las com-
de la libertad por la información” como las condiciones establecidas putadoras y los nodos conectados a través de un “ubicador uniforme
por la matriz neoliberal de Reagan y Thatcher. En aquellos tiempos, de recursos” (URL, por sus siglas en inglés), que vendría a ser una
los de Bill Clinton, Estados Unidos proponía al mundo la doctrina del suerte de documento único de cada máquina conectada. Por el otro,
soft power, un poder sostenido en la fuerza de las redes y del soft- la www desarrolló dos normas por las que surgió la posibilidad de
ware, que en realidad mantenía firmes no sólo las riendas del hard generar hipertexto en la red: el protocolo de transferencia de hiper-
power (guerra de los Balcanes, bombardeos en Afganistán) sino tam- textos (http, por sus siglas en inglés) y el lenguaje de marca de hiper-
bién aquellas premisas de Brzezinski: eran los norteamericanos quie- texto (html), que especifica el formato de hipertexto en el que se
nes debían encabezar la marcha hacia la “sociedad tecnotrónica”. Al escriben las páginas web. Nótese que se terminan de cumplir dos
proyecto de Gore se le opuso el de la Unión Europea y hasta de algu- condiciones ya abiertas por Wiener y Von Neumann en la década del
nos países latinoamericanos, que se inspiraban en los proyectos de ’40. Para el primero, la “segunda Revolución Industrial” sería la era
los ‘70. Pero a diferencia de aquellos tiempos, la disputa geopolítica en la que las máquinas se iban a comunicar con las máquinas, algo
no era un dato central, y hasta se podría decir que no se trataba de que ahora las computadoras logran de manera mucho más integrada
una oposición, pues en todos los casos el imperativo era desregu- que en los ’80. Para el segundo, la codificación binaria de todos los
lar, abrir el campo a la competencia internacional y garantizar aquel datos, incluidos los programas, tendría la función de poder procesar

114 Historia de la información Pablo Rodríguez 115


cualquier entidad de manera digital, lo cual tendrá consecuencias en las ondas. De hecho, lo que hace un transmisor de fibra óptica es
la reflexión filosófica, como se verá más adelante. El hipertexto per- transformar las ondas electromagnéticas en energía luminosa, y el
mite que las computadoras conectadas intercambien imágenes y receptor realiza el proceso inverso.
sonidos además de los datos más evidentemente codificados, como Y como con el transistor y el circuito integrado, el paso clave se
una sucesión de letras en un idioma determinado, siguiendo las expe- dio cuando se introdujo en la fibra de vidrio, el material utilizado hasta
riencias de Shannon y Weaver. Es como si la www fuera a Internet entonces, cristales de silicio hechos por computadora con tal pre-
lo que Windows a las computadoras personales. cisión que se anulaban las impurezas que impedían el viaje de las
La www, conocida como “telaraña”, era el fondo sobre el cual ondas lumínicas a través de grandes distancias. Así, la luz podía via-
Gore proponía las “autopistas de la información”. Pues de hecho jar casi “inmaterialmente” (el término no es inocente, como se verá),
la eficacia de la World Wide Web dependía de la realización de auto- pues las pérdidas de señal eran muy bajas, el tamaño de las fibras
pistas gigantes, porque la cantidad de datos que se transferirían de cada vez más reducidas y la transmisión era inmune a las emisiones
aquí en más era infinitamente superior a la de décadas anteriores. electromagnéticas y a las interferencias de otras frecuencias. Recién
Así fue como con el tiempo se generó la banda ancha, que es la a mediados de los ’80, cuando las fibras ópticas se mostraron sufi-
suma de muchísimos carriles en las rutas ya existentes para poder cientemente fiables, comenzó el tendido de cables intercontinenta-
enviar varios paquetes de información al mismo tiempo. Para eso les, conformando una red mucho más densa que la establecida en
se requirió a su vez mejorar la multiplexación, un proceso en el la primera mitad del siglo XX. La fibra óptica garantiza un gran ancho
cual un paquete de información puede usar distintos canales físicos de banda, varias veces mayor al de los cables de cobre o los
al mismo tiempo. Y ya que se habla de física, nada de esto hubiera cables coaxiles, con lo cual compensa su mayor costo. Éste es el
sido posible sin la generalización en el uso de la fibra óptica, que soporte material de las “autopistas de la información” trazadas den-
merece un lugar en el podio de la “sociedad de la información” junto tro de la World Wide Web.
con el transistor, el circuito integrado y el satélite.
Como el transistor y el circuito integrado, la idea de codificar un
haz de rayos láser, que circula por los cables tal como lo hace la elec- ¿Propiedad privada de la información?
tricidad, surgió en los ’50 y se sostuvo en tres décadas de investiga-
ciones consagradas a miniaturizar los materiales y hacerlos más fia- El inicio del siglo XXI estuvo marcado por una serie de eventos que
bles. Si la cuestión de la codificación de las señales, y con ella la de puso en el tapete la realidad contradictoria de la información en los
la información misma, se había planteado a raíz de las dificultades ámbitos económico y social. A principios de los ’70, abundaban los
materiales que presentaban los cables eléctricos para transportar las pronósticos sobre la economía de la información. Entre 1997 y 2001,
ondas electromagnéticas (ver capítulo 2), ahora el problema era el se produjo el boom de la nueva economía, la de las empresas pun-
inverso: crear cables que fueran únicamente tubos de luz, aprove- tocom, que pretendían tomar como modelo la saga heroica de los
chando todo lo ya conseguido en lo que hace a la conformación de Gates y los Jobs entre los ’70 y los ’80. Así fue como se crearon

116 Historia de la información Pablo Rodríguez 117


miles de empresas con escasísimos bienes, cuya riqueza se basaba jaba, el Laboratorio Europeo de Física de Partículas (CERN). Ahora
en las expectativas de crecimiento, sostenidas a su vez en la solidez Berners-Lee dirige el consorcio mundial de la www, que intenta velar
de la flamante World Wide Web. La burbuja especulativa que inflaba por el cumplimiento del libre acceso y uso de la información.
a firmas ya conocidas, como Yahoo, Amazon, E-Bay y Priceline, y Lo que consiguió Berners-Lee es el eje de una disputa intermina-
también a pequeños emprendimientos, estalló en los mismos meses ble, y sin dudas la más interesante de la historia actual de la informa-
de 2002. Muchos, entonces, aprovecharon para señalar que la “nueva ción. Hoy se habla con gran pompa de la web 2.0, una red mundial
economía” era una mentira. Pero que existe, existe. basada en Internet en la que las plataformas, las aplicaciones y los
La crisis de las puntocom sirvió para regular un mercado mundial programas están pensados para la interactividad entre los usuarios,
demasiado expandido por la especulación financiera, tal como ocu- quienes además son productores y distribuidores de contenidos.
rre hoy en Europa y Estados Unidos respecto del mercado inmobi- Todas las redes sociales, desde YouTube hasta Facebook y desde
liario, pero también para mostrar que lo que quedó no fue un globo los blogs hasta Wikipedia, se basan en esta posibilidad que estaba
vacío. Efectivamente, los cambios tecnológicos acumulados desde sin dudas vedada en las primeras versiones de la www, que eran
los ’70 condujeron a convertir a la información en un gran negocio. estrictamente comerciales. Mientras esa masa gigante de datos no
Pero para que lo fuera, era necesario que la información se convir- esté sujeta a derechos de propiedad, su intercambio no trae proble-
tiera en un bien escaso. Y desde los ’60, aunque más no sea a nivel mas. Pero por las mismas características de las redes de informa-
simbólico, la información está en el centro de fuertes disputas ción permitidas por la www, en la que cualquier elemento puede ser
contra los principales poderes políticos y económicos. Se trata de digitalizado (sea su origen digital o analógico) y a partir de allí distri-
batallas por la apropiación pública o privada de la información. Pri- buido sin costo alguno, gran parte de esos datos (películas, videos,
mero, esto se dio en el nivel geopolítico, cuando los países no aline- discos o simplemente canciones) son literalmente “pirateados” al
ados pretendían equilibrar los poderes de Estados Unidos y la Unión ser transmitidos sin permiso o pago previo por su uso. No es casua-
Soviética. Luego se dio en el nivel social, entre una informática arte- lidad, entonces, que en plena burbuja de las puntocom, en el año
sanal y otra de grandes empresas. Ahora, con la infraestructura glo- 2000, el grupo de rock Metallica realizara su célebre juicio contra
bal de la información ya instalada, esa disputa se traslada hacia el Napster, un sistema de distribución gratuita de música bajo la forma
interior intercambio de la información justo cuando comenzaba a ser conocida como p2p, que significa “red punto a punto”. En esta forma,
visible su valor económico. las computadoras en su interconexión a través de nodos carecen de
Berners-Lee, el creador de la World Wide Web, se aseguró hacia servidores fijos y así se comparte la información entre todas, un poco
1993 que la tecnología de la web y de los programas desarrollados a la manera en que lo imaginaban quienes crearon la ARPANET, aun-
para ella fueran de dominio público, de manera tal que no sólo su que la distancia entre una red militar secreta y la www sea enorme.
uso fuera gratuito, sino también que cualquier usuario estuviera en Desde entonces, el caso Metallica vs. Napster se replica todo el
condiciones de mejorar las tecnologías y los programas. En ese enton- tiempo en todos los rubros alcanzados por los derechos de autor y
ces, Berners-Lee obtuvo dicha concesión del lugar en el que traba- las salidas transitan caminos ya trazados. Los servicios gratuitos sue-

118 Historia de la información Pablo Rodríguez 119


len interrumpirse por juicios –como ocurrió recientemente con Megau- obligó al consorcio internacional sobre el Genoma Humano –cuya
pload– y se transforman en pagos, lo que hace que aparezcan otros investigación estaba presidida simbólicamente por James Wat-
servicios gratuitos o que muchos de los implicados, favorables al son, uno de los “padres” de la estructura del ADN– a acelerar el
libre acceso de la información, renuncien a la protección de esos anuncio sobre la secuenciación completa en el 2000 y a establecer
mismos derechos, ya sea directamente o a través de nuevas licen- que dicho genoma era un bien público y por lo tanto inapropiable;
cias para la libre explotación de la información, como Creative Com- claro que dicho consorcio está formado sólo por aquellos países que
mons. Y aunque cada tanto haya medidas gubernamentales y empre- más habían avanzado en la secuenciación hasta el momento: Nueva
sariales para poner un coto a la proliferación de la información, lo Zelanda, Canadá, Gran Bretaña y Estados Unidos.
cierto es que ésta, por sus mismas características técnicas y por el Pero quizás el aspecto más fácilmente visible de la propiedad pri-
auge de la comunicación a través de la web, es incontenible. A esto vada sobre los fenómenos vitales sea el de los organismos genéti-
hay que sumarle el conjunto de tecnologías que se integran hoy a camente modificados (OGM), también llamados “transgénicos”.
las computadores interconectadas (los celulares, los iPod, etc.), que De ellos depende hoy buena parte del destino de la agricultura en
multiplican exponencialmente la distribución de los datos, y la cre- el orden mundial por la mejora en los rendimientos de las cosechas,
ciente legitimidad de movimientos como los del software libre, que que es consecuencia de la aplicación de semillas transgénicas y del
apunta justamente a aquello que quería garantizar Berners-Lee: la tratamiento correspondiente de los suelos para la plantación de
creación misma de los programas que procesan la información, y no estas semillas.
sólo los datos que circulan en la web, debe estar exenta de dere- Frente a este panorama, emergieron ciertas corrientes de inves-
chos de propiedad. El blanco principal no es otro que Bill Gates. tigación en biología molecular que promueven el libre acceso a la
Es curioso constatar que disputas similares se producen en el información sobre modificaciones genéticas en seres vivientes. Es
terreno de la biología molecular, con el agravante de que intervienen el caso de algunos promotores de la llamada “biología sintética”,
aquí dilemas éticos, pues si la vida es información y ésta puede una nueva rama de la biología molecular surgida luego del anuncio
ser apropiable, entonces la vida misma puede tener el estatuto de de la secuenciación completa del genoma humano, y sobre la que
propiedad privada. Esto es lo que consiguió a principios de los ’80 la se hablará en unas líneas. Por lo pronto, existe una fundación lla-
empresa General Motors, tras años de litigar en los estrados judicia- mada iGEM que promueve la publicación en la web, a través de
les de Estados Unidos, para conseguir patentar una bacteria modi- ciertos estándares de acceso público, de los logros de las investi-
ficada genéticamente para engullir el petróleo derramado en los gaciones impulsadas por ella. Propone reemplazar la lógica del paten-
mares. Entre los ’80 y los ’90 se desató una carrera por encontrar el tamiento por la de una base pública de datos, entendible por bió-
mejor modo de secuenciar el mapa genético completo de las espe- logos o técnicos versados en la experimentación biológica, ya que
cies, y muy en especial del ser humano, por el evidente interés en de lo contrario se plantearían problemas de seguridad, para que
controlar el mercado de la cura de enfermedades genéticas. La éstos puedan replicar los experimentos que dieron lugar a esos
empresa Celera Genomics logró patentar muchos segmentos y datos y plantear modificaciones o mejoras de estas u otras investi-

120 Historia de la información Pablo Rodríguez 121


gaciones, tal como ocurre con los principios del software libre. Des- dos se duplicaría cada año durante las siguientes dos décadas. En
pués de todo, si la vida es información y la información está con- 1975 hizo una corrección: la duplicación sería cada dos años. Hace
tenida en un software, habrá quienes quieran ser Bill Gates y otros menos tiempo, en 2007, anunció que la ley iba a dejar de cum-
que querrían ser Berners-Lee. plirse en diez o quince años. Lo interesante de la Ley de Moore es
que es bastante exacta, incluso en sus modificaciones, y que a la
vez da la impresión de ser una profecía autocumplida, porque desde
Nuevas perspectivas científicas los ’70 la industria de la microelectrónica toma a la ley como medida
de las metas anuales de producción. Si una empresa del rubro no
Todo lo dicho hasta aquí atañe a la noción de información que se logra que su producción obedezca a la ley, sus acciones caen drás-
tiene desde el sentido común, o sea, la información como dato. ticamente. Pero es más interesante aún que la miniaturización de
¿Qué ha ocurrido, mientras tanto, con el sorprendente concepto de los componentes de un circuito integrado conduzca a un límite de la
información que fue acuñado en los ’50 y ’60? Como si se tratara concepción física de la microelectrónica, tal como entrevió Moore
de una actualización a 40 años del Coloquio de Royaumont, “la al ponerle fecha de caducidad a su criatura.
noción de información en la ciencia contemporánea” está sufriendo Un transistor no puede ser más pequeño que un átomo. De hecho,
considerables cambios. El primero tiene que ver con la cuestión está tallado en cristales de silicio, y los cristales tienen muchos
física de la información. Hasta ahora, desde los tiempos de la com- átomos. Este es el puntapié de una rama de la ciencia y la tecnolo-
putadora ABC o la ENIAC, se han verificado sucesivas transfor- gía que está haciendo furor en los últimos años, más aún que el que
maciones en el campo tecnológico, en los componentes, en su fabri- hace la biología molecular: la nanotecnología y la nanofísica. Hoy
cación, más que en los principios generales de funcionamiento. se habla de la posibilidad de elaborar transistores moleculares y de
Salvo en los casos de las computadoras con procesamiento “en construir una teoría de la computación cuántica. Para ello, se está
paralelo”, que responden al marco conexionista de comprensión investigando cuáles son las estructuras moleculares existentes en
de la actividad neuronal y nerviosa, las máquinas informáticas en la naturaleza que puedan funcionar como componentes electróni-
general siguen siendo lo que eran para Von Neumann: una unidad cos, para lo cual hay que estudiar qué propiedades de conducción
de memoria, otra de cálculo, controladores en el medio y disposi- eléctrica presentan. El marco teórico es un viejo conocido: la teoría
tivos de entrada y salida. Es precisamente el cambio tecnológico lo cuántica. Esa misma teoría que fuera formulada antes de la teoría
que empuja a una nueva forma de pensar la información en gene- de la información encontraría así una de sus aplicaciones más tangi-
ral y la computación en particular. bles, incluso antes de que esté a punto, y libre de controversias, la
En informática se ha hecho famosa la Ley de Moore, propuesta síntesis que la vincula con la otra gran teoría física que cambió el siglo
por Gordon Moore, el dueño de Intel junto a Robert Noyce. En 1965, XX: la de la relatividad. Ocurre que el comportamiento de la mate-
cuando el microprocesador aún no existía, Moore predijo que el ria en estos “nanoniveles” sólo puede ser analizado con los instru-
número de transistores por unidad de superficie en circuitos integra- mentos de la mecánica cuántica.

122 Historia de la información Pablo Rodríguez 123


En el caso de la computación cuántica, se trata de solucionar pro- lar. Uno de los momentos culminantes de la genética fue el anuncio
blemas relativos a los límites de calculabilidad impuestos justamente de la secuenciación completa de los entre 20 y 25 mil genes de los
por el ordenamiento material y lógico de las computadoras actuales, seres humanos, desde el punto de vista físico pero también fun-
pues si su velocidad de procesamiento es enorme comparada con la cional, en abril de 2003. El Genoma Humano secuenciado, ese mismo
de las primeras máquinas, comienzan a ser palpables sus limitaciones cuyo borrador fuera anunciado por Estados Unidos y Gran Bretaña
en campos de investigación como la física teórica y en ciertos secto- como reaseguro de que no caería todo en manos de Celera Geno-
res de la biología molecular, particularmente en el procesamiento y mics, sería de aquí en más la biblioteca en la que se pueden consul-
secuenciación de la información genética. En la codificación digital tra- tar un gran número de enfermedades, las consideradas de origen
dicional, los registros de memoria tienen dos estados posibles, genético, y buscar su cura. Pero el ingreso de la biología molecular
excluyentes entre sí, tal como ocurre con la corriente eléctrica trans- y la medicina en la “era posgenómica” se revela más trabajosa y
formada en ceros y unos. En estos estados se miden las unidades menos luminosa que lo prometido. Ante todo, las secuencias gené-
de información, los bits. Pero en el mundo cuántico, el de los áto- ticas, como desde los tiempos de Mendel, siguen siendo inmunes
mos, hay varios estados posibles al mismo tiempo, que traducidos a a su intento de manipulación dentro de los cuerpos de los individuos;
la informática significa que la información puede estar codificada en lo que se hace es, ya sea manipular el ADN de manera artificial (el
superposiciones cuánticas, o sea, ceros y unos al mismo tiempo. La ya mencionado ADN recombinante), o introducir en esos cuerpos
computación cuántica ya no opera con bits, sino con los llamados qubits, “vectores” de modificaciones genéticas (ciertos virus y bacterias)
los bits cuánticos. La hipótesis que guía la investigación en este terreno para alterar algunas mutaciones en curso que se suponen que son
dice que la amplitud de estados hará que la capacidad de procesa- el motivo de ciertas enfermedades, sin poder controlar el proceso
miento se multiplique exponencialmente, porque la computadora podrá por el cual aparecen esas mutaciones. Sin embargo, para analizar de
calcular en muchos registros y muchos estados a la vez, en lugar de qué manera una secuencia genética da lugar a ciertas enfermeda-
pasar por los algoritmos tradicionales o las unidades de memoria que des, es preciso ir más allá del ADN.
siempre necesitan borrar un bit de información para alojar a otro. Así, Así es como en la actualidad se está dando un giro en el marco
ya se han formulado nuevos modelos de algoritmos e imaginado nue- teórico de la biología molecular que de algún modo tiene su lógica,
vos soportes moleculares para este tipo de computación, basados en pues si la computación ya no es lo que era, tampoco la vida funcio-
átomos de fósforo agregados al cristal de silicio. Hasta se anunció la nando como una computadora debería serlo. No se trata, si el lector
aplicación de este algoritmo (llamado “algoritmo de Shor”) con la uti- está haciendo deducciones por el estilo, de llevar la mecánica cuán-
lización de qubits en una computadora que, lejos de cables, pantallas tica al ADN, sino de examinar el papel de los elementos olvidados
o teclados, consiste en un tubo de ensayo lleno de moléculas. De todos en el gran relato de la genética de los ’60; entre ellos, las proteí-
modos, la computación cuántica aún no entregó hallazgos destacables. nas. Puede decirse que los genes no se expresan, ni pueden silen-
Y si de tubos de ensayo se trata, el otro terreno en el que la infor- ciarse, ni se desactivan si no es a través de las proteínas y las enzi-
mación está cambiando considerablemente es en biología molecu- mas que llevan a cabo la realización, exitosa o no, de la información

124 Historia de la información Pablo Rodríguez 125


genética en cada una de las células de un cuerpo. Por lo tanto, la era cer” el mandato del ADN y que esa actividad es medible en las
posgenómica es fundamentalmente la era de la proteómica, en la secuencias genéticas que están en la doble hélice.
que se analiza qué hacen las proteínas, y de la metabonómica, que Otro campo que abre nuevas vías de investigación y aplicaciones
estudia el metabolismo a nivel molecular. Es en el marco de la pro- tecnológicas poderosas es la “biología sintética”, que apunta a reali-
teómica donde se postula que las proteínas “se frustran”. zar síntesis de biomoléculas para hacer ingeniería de sistemas bioló-
El análisis de las proteínas se prolonga, como si fuera poco, en gicos a partir de los conocimientos de la biología molecular. Como
una lección de Teoría Matemática de la Información aplicada a la bio- su nombre lo indica, no se basa en el estudio de la biología de los seres
logía. Un investigador norteamericano llamado Thomas Schneider vivos, sino en el diseño de sistemas biológicos que no existen en la
está desde hace años intentando aplicar la TMI al comportamiento naturaleza para crear nuevos organismos “programables” Hasta Craig
de las proteínas, en conjunto con el estudio de la disipación de ener- Venter, aquel que presidía Celera Genomics, se ha volcado a este tipo
gía en las “máquinas moleculares”. Su hipótesis es audaz y a la vez de investigación que pretende crear “partes biológicas estandariza-
muy plausible. En los tiempos de oro del Dogma Central de la biolo- das” que funcionan como un bloque, una suerte de Lego o Rasti
gía molecular no se hablaba, según él, en términos de teoría de la que puede ser insertado en diversos sistemas biológicos sin alterar
información. Simplemente se usaba una metáfora contraria a esta su funcionamiento. La biología sintética ensambla partes biológicas
teoría. ¿Qué decían Shannon y Weaver? Que la cantidad de informa- no desde la mera lógica del ADN, sino haciendo intervenir todos los
ción es la suma del logaritmo de las probabilidades de aparición de componentes identificados por la biología molecular. Nada de infor-
los diferentes símbolos. Si el ADN transmite sin fisuras (o con mación como propiedad emergente: aquí se trata de hacer de la bio-
errores, pero dentro de una transmisión unidireccional) la informa- logía una ingeniería, mucho más, incluso, que en los tiempos de glo-
ción a las proteínas y ésta es transferida puntualmente, no hay nin- ria del ADN recombinante. Aquí también, como se dijo, la disputa
guna probabilidad en juego. Por lo tanto, no es información lo que por la propiedad de los elementos creados ya está planteada.
transmite, o es una idea de información basada en el sentido común
(información como dato). En cambio, tratar a la información según
los parámetros de la TMI supone pensar que la información en los Nuevas perspectivas filosóficas
procesos biológicos puede transmitirse o no, dependiendo de la
fuente estadística del emisor, de la capacidad de recepción del recep- En el terreno de la filosofía también se produjeron grandes cambios
tor, de la calidad de la codificación, de la influencia del ruido. Pero, desde aquel contrapunto entre filósofos y científicos en el Coloquio
sobre todo, depende de poder medir la información, que era el obje- de Royaumont. El eje de interés se desplazó de la discusión sobre
tivo original de la TMI. Pues bien, Schneider sostiene, en consonan- los postulados de la cibernética hacia la condición ontológica de la
cia con las teorías que afirman que la información es una propie- información, que como se ve en las perspectivas científicas, tiene
dad emergente de las entidades vivientes en su multiplicación su complejidad. La pregunta ya no es hasta dónde las máquinas pue-
genética, que las proteínas hacen muchas más cosas que “obede- den desplazar al hombre, sino hasta dónde puede llegar la definición

126 Historia de la información Pablo Rodríguez 127


de información. Y es curioso constatar que esa corriente llamada miento. Descartes, Spinoza y Leibniz pertenecen al siglo XVII,
“posmodernidad”, que muchas veces es un término en el que se momento fundacional de la filosofía moderna. Lyotard y Deleuze
mezclan inapropiadamente autores y corrientes filosóficas diversas, aspiraban a que la información pudiera formar parte de una refunda-
surgió por un tema estrictamente informacional. La condición pos- ción de la filosofía partiendo de los supuestos de aquella época.
moderna, el famoso libro de Jean-François Lyotard, es un “informe Ya a fines del siglo XX, saliendo de la égida posmoderna y entrando
sobre el saber” encargado por el Consejo de Universidades del en otra corriente que hoy se denomina “poshumanismo”, el alemán
gobierno regional de Québec (Canadá) acerca de la influencia en la Peter Sloterdijk afirma sin dudar que la información es el espíritu
cultura de las tesis del Informe Nora-Minc sobre la informatización objetivo que buscaba Georg Hegel en el siglo XIX. Se apoya para ello
de la sociedad. en la “ontología cibernética” y la “lógica transclásica” enunciada en
La historia de la posmodernidad quiso que este libro se destacara los ’60 por el filósofo alemán Gotthard Günther, quien trabajó con
por la conocida tesis sobre “el fin de los grandes relatos”. Sin McCulloch, Von Foerster y Maturana. Y en aquellos años también
embargo, La condición posmoderna abunda en referencias a la ciber- Jacques Derrida, otra figura clave de esta generación de pensado-
nética y a la teoría de los sistemas y su armazón teórico es el posin- res, les había dado gran importancia a la cibernética y la información.
dustrialismo de Bell y Touraine. Durante la década del ’80, Lyotard Los legados empiezan así a hilvanarse: Derrida fue un continuador
reformuló muchos de los planteos de su obra más conocida a par- de Heidegger y Deleuze de Simondon, dos autores que, como se
tir de una consideración especial del tema de la información. Según recordará, habían contribuido a las primeras críticas filosóficas de
su visión, la información es un tipo de entidad, diferente de la mate- la cibernética. Y si una de las principales fuentes de la polémica entre
ria, que realiza el sueño de ciertas zonas de la filosofía moderna, estos autores y ciertos estamentos científicos fue el uso debido o
en especial la de Descartes, en lo que hace al desprecio por el cuerpo indebido de las teorías científicas o matemáticas con propósitos filo-
y a la definición de una conciencia desencarnada. También ilumina sóficos, allí está Alain Badiou, otro gran representante de esa gene-
ciertas búsquedas como las de la estética de Immanuel Kant, en par- ración, filósofo y también matemático, para decir que la información
ticular la relación entre las formas y los esquemas como preparación es la demostración de que la realidad misma es matemática, tal como
para lo sensible. Por otro lado, la alusión a Kant ya era evidente en decía Platón; no se trata de que la matemática sirva para represen-
el Coloquio de Royaumont en la boca de Jiri Zeman, del mismo modo tarla, sino de que la esencia técnica de las imágenes y los sonidos
en que Wiener, como Lyotard, otorga al sistema filosófico de Gott- consiste en la manipulación de números, siguiendo la estela del for-
fried Leibniz una importancia capital para el marco conceptual de la malismo de Hilbert y Turing.
cibernética. Gilles Deleuze, otro de los autores supuestamente “pos- En la sucesión de “pos” (posindustrialismo, posmodernidad, pos-
modernos”, y gran amigo de Lyotard, decía en sus clases, a princi- humanismo), en la búsqueda de estos filósofos por anclar la infor-
pios de los ’80, que la información podía ser entendida como un mación en grandes problemas del pensamiento provenientes de
nuevo atributo de la sustancia según la filosofía de Baruch Spi- siglos anteriores, hay un esfuerzo por pensar la realidad de la infor-
noza, célebre pensador y centro de gravedad de su propio pensa- mación. La preocupación más acuciante es mostrar de qué modo la

128 Historia de la información Pablo Rodríguez 129


información difumina los límites de las oposiciones más evidentes El mismo Wiener no podía desconocer que, aunque la informa-
de la modernidad filosófica: materia-espíritu, cuerpo-alma o natura- ción señalara un nuevo camino de búsquedas y el planteo de Von Neu-
leza-artificio. La información representa algo del orden de lo espiri- mann tuviera su indiscutible asidero, nada hay más allá de la materia
tual encarnado en la materia, que ahora tiene capacidad de pensa- y de la energía, que desde Einstein son dos formas de lo mismo. Tal
miento, de acción, hasta de sentimiento. También es una afrenta a es así que Wiener pide a los materialistas que admitan a la información.
la división de Descartes entre un mundo material extenso e inerte, Entonces, lo que estaría diciendo es que la materia no es sólo lo que
en el que se incluye al propio cuerpo, y una conciencia que dota a se dice energéticamente de ella, sino lo que se puede analizar como
esa extensión de sentido sin tener ella misma cuerpo. Finalmente, información. Pero ya es otra posición: no se trata de que la información
a raíz de la influencia de la informática en la biología y de la imbrica- sea otra realidad, paralela a la material, completamente desligada de
ción entre las ciencias naturales y las tecnologías en el mundo de la ella, sino que es un nuevo punto de vista sobre la materialidad. Esto se
información, también puede decirse que lo natural como opuesto puede desprender de la opinión de cibernéticos como Bateson o Jiri
a lo artificial pierde su fuerza interpretativa, algo que queda claro Zeman. Pero esta posición es más importante aún si se consideran dos
cuando se habla de “máquinas moleculares” o de “biología sinté- hechos: que ningún procesamiento de información se produce sin un
tica”. En resumidas cuentas, como la naturaleza ya no es mera mate- gasto de energía (formulación clásica de la cibernética) y que la misma
ria ni mero cuerpo, como en la naturaleza y también en lo artificial tecnología de la información, como se ha visto, en la actualidad está
hay información, se produce una crisis de las representaciones tra- echando mano de una teoría tan materialista como la cuántica.
dicionales de la modernidad y del humanismo. A eso alude, enton- El problema parece alojarse en las nociones de sentido común
ces, el prefijo “pos”. sobre qué es la materia y qué es la extensión, la idea de que la mate-
Esta serie de argumentos constituyen variantes de aquella sen- ria debe ser algo extenso y observable directamente como tal. Efec-
tencia de Wiener: “la información es información, no materia ni ener- tivamente, si se compara el volumen de una cinta magnética de
gía. Todo materialista tiene que admitirlo”. Ahora bien, por lo visto los ’60 con un pendrive actual y se piensa en la cantidad de informa-
anteriormente, la cuestión es compleja. La investigación sobre la ción que cabe en ambos dispositivos de almacenamiento, se impone
información siempre operó con entidades materiales, desde los asumir que la información es algo que no depende del volumen.
cables de telecomunicaciones del siglo XIX hasta el tubo de ensayo Depende de la codificación. Eso quería plantear Wiener cuando ima-
de una computadora cuántica, pasando por el ADN y los transisto- ginaba en los ’40 que en el futuro podía haber teletransportación de
res. Es cierto que la distinción entre el ordenamiento material y el la materia, una vez conocida y manipulada su estructura informacio-
lógico de la computadora, en la formulación de Von Neumann, parece nal. Sin embargo, el código no es algo visible. Como el saber, no
contradecir el materialismo de la información, y lo hace en un terreno ocupa lugar. Pero si se abandona el sentido común, que es lo que
sensible porque de allí salió la computadora, máquina de informa- hace falta para, por ejemplo, atisbar qué es lo que plantean la teo-
ción por excelencia, y de allí emergió también la diferencia entre soft- ría cuántica o la teoría de la relatividad, quizá la información no apa-
ware y hardware. rezca como algo tan “místico”, salvo para representantes del lla-

130 Historia de la información Pablo Rodríguez 131


mado “transhumanismo”, como Hans Moravec o Raymond Kurzweil,
que creen que en un futuro cercano la conciencia podrá ser bajada
de Internet como una canción o un film.
Puede decirse entonces que la información sólo es “inmate-
rial” para cierta visión tradicional. Para la física de la primera mitad Epílogo
del siglo XX, la materia no es lo que fue durante toda la historia de la Un relato insólito para terminar
ciencia y el pensamiento occidental, al menos desde Platón, como
admite Heisenberg. Quizás una correcta evaluación filosófica de los
alcances de la información sólo sea posible cuando esa misma eva-
luación recaiga sobre todo el edificio de la física contemporánea.
Pero es innegable que las reflexiones de los “posmodernos” abren
el camino para ello. En la vereda opuesta, un filósofo de la ciencia
como Karl Popper dedicó parte de su obra a aportar una solución
epistemológica al modo en que utilizan las probabilidades la teoría
de la información y la teoría cuántica. Existe allí un campo de inves-
tigación filosófica aún en ciernes.
Además de la inmaterialidad, la información suele ser asociada Decía el filósofo inglés Alfred North Whitehead que la historia de la
a la virtualidad. Hoy se habla de comunidades virtuales, de realidad filosofía occidental es una serie de notas al pie de los diálogos de
virtual, de aulas virtuales o de espacios virtuales. ¿Lo virtual se opon- Platón. Esta historia de la información comenzó con uno de sus diá-
dría a lo real? ¿Es una simulación, un mundo paralelo? ¿Por qué desig- logos y termina con otro, siguiendo la estela de la broma que jugó
nar a los “espacios de información” como si fueran sucedáneos ese distinguido habitante de la polis ateniense cuando escribió lo
de algo que existía antes de ellos, y no como nuevas existencias? que había escuchado de su maestro Sócrates.
En algún sentido lo virtual es una denominación que, en la jerga de Se trata del Timeo. El personaje que le da nombre al diálogo
la vida cotidiana, replica el problema de lo inmaterial en el seno de ensaya una explicación para el origen del universo y advierte que no
las reflexiones filosóficas. Según el Diccionario de la Real Academia sabe si lo que va a contar pertenece al orden del mito o de la argu-
Española, algo virtual “tiene virtud para producir un efecto, aunque mentación lógica, pero si fuera un mito por lo menos resulta vero-
no lo produce de presente”, es algo “implícito, tácito”, y en física símil. En el medio de la explicación, Timeo se pregunta de qué modo
designa algo “que tiene existencia aparente y no real”. Pero la infor- se vincula lo inteligible con lo sensible, un tema clásico de la obra de
mación tiene efectos bien “de presente”, no tiene nada de tácito y Platón: la división entre el mundo de las ideas y el de las cosas, base
mucho menos de aparente. Si fuera así, entonces, esta historia no para las divisiones que más adelante se plantearán entre cuerpo y
tendría demasiado sentido. alma o espíritu y materia. ¿Cómo se puede establecer una relación

132 Historia de la información Pablo Rodríguez 133


“material” entre la idea y la cosa, siendo que la cosa siempre será sado como un origen, pero a la vez tampoco es producto. Ese “algo”
una pálida copia de la idea? ¿Cómo saber si es una copia de la idea parece estar más allá del tiempo, y sin duda es condición de posi-
estando tan alejada de ella? bilidad del espacio.
Hay un modo y se llama chóra. Como no puede definir chóra, Los especialistas en la filosofía de Platón ven en la chóra un pro-
como no puede decir “ésta es el o la chóra”, Timeo multiplica las blema ejemplar. De los protagonistas de esta historia de la infor-
imágenes y las representaciones para hacerse una idea, vaga, de mación, fue Jacques Derrida quien dedicó un pequeño libro a la chóra
lo que es o no es. Entonces chóra aparece sucesivamente como y el físico Werner Heisenberg, creador del célebre principio de incer-
un receptáculo, una nodriza, una madre al lado del padre que es lo tidumbre, afirmó que el Timeo anticipó cuestiones fundamentales
inteligible y su hijo que es la naturaleza, una cosa donde se impri- de la teoría cuántica. Y se puede agregar: también de la teoría de la
men otras cosas, algo de lo que no se puede decir que sea “esto información. Pues en alguna medida la información señala la partici-
o aquello”, que participa de lo eterno pero de un modo extraño, pación de lo inteligible en lo sensible, de la idea en la cosa, de una
porque de hecho no se puede decir que sea algo permanente, algo manera “sorprendente” si la costumbre indica que la materia está
que en realidad no tiene ninguna característica en sí. Hay algo de desprovista de inteligencia. Badiou es explícito al respecto: si el
material en chóra, pero es un material que no admite la destruc- número es el modelo de lo intelectual y no es sensible, y la ima-
ción y que permite el emplazamiento de todo lo que es y que sí gen es el modelo de lo sensible y no es intelectual, una imagen digi-
puede ser destruido. Chóra está en el medio entre el ser y el deve- tal, creada a partir de números, mezcla los tantos y se transforma
nir, y de hecho es la nodriza del devenir. No se sabe si chóra está en la realización concreta de un paradigma inteligible. Eso mismo
antes o después de la organización del universo por parte del parece querer significar la chóra: el lugar en el que lo inteligible se
demiurgo, no se sabe si está antes o después del origen, porque hace tangible.
si el universo es básicamente el paso del desorden (caos) al orden, Es preciso recordar al ingeniero Nyquist denominando inteligen-
chóra es desorden, orden, lo que permite que sean los dos sin ser cia a lo que luego se llamará información. O al propio Heisenberg
ninguno, algo con lo que el demiurgo se encontró o que directa- cuando en su referencia al Timeo plantea que lo que estudia la física
mente creó. en el siglo XX ya no tiene nada que ver con lo que puede observar
Timeo reconoce finalmente que ha desarrollado una exposición en la vida cotidiana. O a Wiener cuando escribía que “la individuali-
insólita. Habló de “algo” que puede recibir todas las determinacio- dad corporal es la de una llama más que la de una piedra, es una
nes pero que no tiene, él o ella misma, una determinación última, forma más que una sustancia”. El mismo Wiener decía que hay más
y ni siquiera puede admitir estas determinaciones como sus propie- información en un poema que en un lugar común. Y hay mucha más
dades. También dijo de ese “algo” que es tan extraño que no se información en dos milímetros de un pendrive que en 60 metros cua-
puede hablar de él. Sólo es posible apenas inducir que puede exis- drados de una computadora de los ’50.
tir a partir de la existencia de otras cosas, a las que da lugar pero Quizá no sea inútil recordar que chóra, en griego, quiere decir
no determina. Y también aclara que ese “algo” no puede ser pen- espacio. La información es el espacio que no cabe en ningún lado

134 Historia de la información Pablo Rodríguez 135


porque parece infinito, pero que se expresa por la magia del
código en un espacio que se puede ver: una pantalla, una molécula
de ADN, una nube de electrones cambiando de configuración. Es la
escritura de la que renegaba Sócrates en el diálogo Fedro, y sobre
la que Platón montó su broma, pero una escritura que se hace Bibliografía
sola, que está llena de memoria y que no se sabe dónde termi-
nará. A partir de ahora, la información escribe su propia historia.

Esta historia de la información abrevó de las siguientes historias:

Becerra, Martín (2003). Sociedad de la Información. Proyecto, con-


vergencia, divergencia. Buenos Aires, Norma.
Breton, Philippe (1990). Une histoire de l’informatique. Paris, Édi-
tions du Seuil.
Castells, Manuel (1999). La sociedad red. Vol. 1 de La era de la infor-
mación. Economía, sociedad y cultura. Madrid, Alianza.
Colli, Giorgio (2005). El nacimiento de la filosofía. Barcelona, Tusquets.
De Charras, Diego (2002). Redes, burbujas y promesas: una mirada
crítica sobre distintas perspectivas de análisis de la sociedad de la
información y la economía de Internet. Buenos Aires, Prometeo.
Díaz, Alberto y Golombek, Diego (comps.) (2007). ADN. Cincuenta
años no es nada. Buenos Aires, Siglo XXI.
Dupuy, Jean-Pierre (1999). Aux origines des sciences cognitives.
Paris, La Découverte.

136 Historia de la información Pablo Rodríguez 137


Gardner, Howard (1987). La nueva ciencia de la mente. Historia de
la revolución cognitiva. Buenos Aires, Paidós.
Hayles, N. Katherine (1992). How we became post-human. Virtual
bodies in Cybernetics, Literature, and Informatics. Chicago & Lon- Índice
don, The University of Chicago Press.
Heims, Steve Joshua (1991). The Cybernetics Group. Cambridge,
MIT Press.
Heims, Steve Joshua (1980). John Von Neumann and Norbert
Wiener. From Mathematics to the Technologies of Life and Death.
Cambridge, MIT Press.
Lafontaine, Céline (2004). L’empire cybernétique. Des machines à Introducción
penser à la pensée machine. París, Éditions du Seuil. Una broma para comenzar 11
Mattelart, Armand (2002). Historia de la sociedad de la información.
Capítulo 1.
Barcelona, Paidós. La teoría matemática y estadística de la información 17
Penrose, Roger (1996). La mente nueva del emperador. En torno a
la cibernética, la mente y las leyes de la física. México, Fondo de Cul- Capítulo 2.
tura Económica. La información procesa al hombre 37
Pichot, André (1999). Histoire de la notion de gène. Paris, Flammarion. Capítulo 3.
Roszak, Theodore (1988). El culto a la información. El folclore de los Cuando todo es información 55
ordenadores y el verdadero arte de pensar. Barcelona, Crítica.
Capítulo 4.
Rozenberg, Marcelo (2006). La física y la edad de la información.
Geopolítica de la información 75
Buenos Aires, Eudeba.
Sfez, Lucien (1995). Crítica de la comunicación. Buenos Aires, Amorrortu. Capítulo 5.
Sibilia, Paula (2005). El hombre postorgánico. Cuerpo, subjetividad La vida cotidiana de la información 89
y tecnologías digitales. Buenos Aires, Fondo de Cultura Económica.
Capítulo 6.
Triclot, Mathieu (2008). Le moment cybernétique. La constitution de Presente y futuro de la información 111
la notion d’information. Seyssel (France), Champ Vallon.
Varela, Francisco (1996). Conocer. Barcelona, Gedisa. Epílogo
VV.AA. (1966), El concepto de información en la ciencia contempo- Un relato insólito para terminar 133
ránea. Coloquios filosóficos de Royaumont. México, Siglo XXI. Bibliografía 137
Winkin, Yves (comp.) (1987). La nueva comunicación, Barcelona, Kairós

138 Historia de la información


Historia de la información
se imprimió en Artesud, Concepción Arenal 4562, en mayo de 2012. Distribuye
en Capital Federal y GBA: Vaccaro, Sánchez y Cía. S.A.
Distribuye en interior: D.I.S.A.