Академический Документы
Профессиональный Документы
Культура Документы
Introducción
Se podría decir que si el combustible que alimentó la primera Revolución Industrial fue el carbón, y
el de la segunda fue el petróleo, el de la tercera es la información, que se ha convertido en uno de
los bienes más valiosos e indispensables de las sociedades modernas. Por otra parte, alrededor de
los problemas y situaciones que se generan en torno a procesar, transmitir, proteger y disponer la
información surge la demanda de urgentes y novedosas innovaciones tecnológicas que impulsan la
investigación hasta las fronteras del conocimiento científico.
20.1 Comunicaciones
Uno de los efectos más notorios de la Revolución Industrial en la segunda mitad del siglo XIX fue la
rápida interconexión del planeta mediante líneas telegráficas, que facilitaban el envío y la recepción
de información, así como el tendido de vías ferroviarias y el establecimiento de rutas marítimas y
fluviales, recorridas por trenes y barcos movidos por motores de vapor, que permitían movilizar con
inusitada rapidez personas y carga a grandes distancias, hechos que favorecieron la consolidación
de grandes imperios, entre los que sobresale el Británico, y la colonización de las grandes planicies
de Norteamérica, África y Asia, que hasta entonces permanecían casi deshabitadas puesto que
apenas contaban con la presencia de algunas tribus nómadas, integradas por un número muy re-
ducido de aborígenes que se vieron al borde de la extinción después de establecida la dominación
europea, particularmente en América.
El sistema de gobierno de las colonias de ultramar, como eran conocidas en Europa las tierras con-
quistadas, demandaba sistemas muy eficientes de transporte y comunicaciones, lo que incentivó la
realización de importantes desarrollos tecnológicos, fundamentados en la investigación científica, lo
cual resultó ser particularmente productivo en Inglaterra, donde el sistema de propiedad intelectual
permitía que quien tuviera una idea innovadora se beneficiara económicamente de su realización
mediante derechos exclusivos de explotación comercial. La máquina de Watt es un ejemplo notable
de la anterior afirmación, al igual que el telégrafo de Morse, y, posteriormente, el telégrafo sin hilos
de Marconi.
20.2 Ruido
Tal como ya se ha mencionado, uno de los problemas inherentes a la transmisión de información
mediante señales electromagnéticas, ya sea que viajen por cable o por el aire, es la necesidad de
Capítulo 20: Información
20.3 Criptología
Si bien la fidelidad es una característica muy deseable en un sistema para transmitir infor-
mación, en muchas ocasiones prima la necesidad de que esta no solo sea confiable sino
confidencial, para lo cual es necesario acudir a estrategias que restrinjan el acceso a ella
mediante métodos de encriptación, o, sencillamente, por medio de claves que transformen
un texto en algo ininteligible para quien no posea el recurso necesario para descifrar el
texto encriptado. En este caso se puede hablar de un “ruido bueno” que puede ser añadido
y eliminado a conveniencia de la información que se quiere proteger.
Uno de los rasgos más característicos de la Segunda Guerra Mundial fue el impresionante
despliegue de ciencia y tecnología que se dio en su transcurso, en el que se destaca la apa-
rición de la ciencia de la informática en cabeza de Claude Shannon y Alan Turing, gracias
a cuyo trabajo y al de lógicos y matemáticos fue posible descifrar el código de información
utilizado por las fuerzas armadas de la Alemania nazi, conocido como el Enigma. De igual
manera se diseñaron nuevos sistemas de encriptación para uso de los Aliados, para lo
cual fue necesario definir y precisar el concepto de información sentando las bases para
Física conceptual
Capítulo 20: Información
0 11 11 1 000 0
0 11 10 0 000 0
0 00 00 0 000 0
Figura 20.2. La máquina de Turing.
Con el fin de que el proceso de cómputo sea lo más sencillo posible, la información se
registra mediante un código binario, es decir, un conjunto de unos y ceros, que se pueden
representar de manera adecuada mediante el estado de abierto y cerrado de un relé, o
de un tubo de vacío. Es importante anotar que el uso de un código binario para el registro
y lectura de información se remonta a 1801 con las tarjetas perforadas de los telares de
Jacquard (figura 20.3), con los que se producían telas de diseños muy elaborados. Este
sistema sirvió de inspiración a Charles Babbage en el diseño de los primeros computadores
mecánicos, antecesores de nuestros modernos computadores digitales, que, al igual que la
máquina de Turing, utilizan códigos binarios, en los que el estado de prendido o apagado,
uno o cero, corresponde al estado de un transistor que, actuando como interruptor, permite
o impide el paso de una corriente eléctrica.
Física conceptual
Capítulo 20: Información
271
Uno de los problemas más relevantes que surgen en el diseño de sistemas de comuni-
caciones tiene que ver con la cantidad de mensajes que sea posible enviar de manera
simultánea a través de un dispositivo y la cantidad de información que puede contener cada
mensaje, para lo cual es necesario definir parámetros cuantificables. Con este fin, Claude
Shannon definió el concepto de entropía, H, como una medida de la información contenida
en un mensaje. Es necesario aclarar que la entropía H definida por Shannon es diferente
a la entropía S definida por Boltzmann en términos del número de estados accesibles de
un sistema, puesto que la importancia de esta última se manifiesta en la variación de su
magnitud, dependiendo de si los procesos que se examinan son reversibles o irreversibles.
Por el contrario, la relevancia de la entropía H de Shannon está directamente relacionada
con su valor absoluto. Sin embargo, la similitud entre las formulaciones matemáticas y el
carácter estadístico de ambas teorías condujo a Shannon a utilizar la palabra entropía para
designar la función que permite cuantificar la información.
Fuente
de información Transmisor Receptor Destino
272
Canal
Señal Señal
recibida
Fuente
de ruido
Figura 20.4. Esquema del proceso de información de Shannon.
ARN polimerasa
G T A C
ADN C A U T
C A T G
ADN
Física conceptual
Capítulo 20: Información
20.6 El bit
A partir de la definición de entropía de Shannon es posible definir la unidad de información
como aquella asociada a un sistema que solo tiene dos posibles estados, que se pueden
representar en código binario como uno o cero, razón por la cual se le dio el nombre de
bit, que es el acrónimo de las palabras inglesas binary digit. La entropía de un sistema que 273
contiene un bit de información es uno.
Por otra parte, cuando dos o más partículas hacen parte del mismo sistema físico, los valo-
res de las magnitudes físicas que describen sus respectivos estados están correlacionados,
independientemente de qué tan alejadas se puedan encontrar las partículas entre sí, de tal
manera que si sobre una de ellas se efectúa la medición de una variable, el valor de la mis-
ma variable queda determinado para la otra partícula. Einstein utilizó el análisis del fenóme-
no de entrelazamiento para demostrar que la mecánica cuántica era una teoría incompleta
de la naturaleza, y que conducía a resultados absurdos, como la posibilidad de transmitir
información de manera instantánea entre dos partículas entrelazadas, a lo cual denominó
una “espantosa acción a distancia”, en flagrante violación de los postulados de la teoría de
la relatividad y de la concepción de la realidad que él defendía. Posteriores análisis y evi-
dencias experimentales revelan que el fenómeno de entrelazamiento no viola los preceptos
relativistas, pero su innegable existencia nos obliga a abandonar la concepción de realidad
del mundo que defendía el padre de la teoría de la relatividad. De manera adicional, el en-
trelazamiento constituye uno de los recursos más valiosos con los que cuenta la criptografía
cuántica para garantizar la privacidad de la información, puesto que en el supuesto caso de
que un tercero pretenda interceptar un mensaje enviado mediante partículas entrelazadas,
la perturbación que causa la observación no autorizada revela de inmediato la presencia del
transgresor debido al fenómeno de reducción del paquete.
Física conceptual
Capítulo 20: Información
Resumen
De acuerdo con el físico John Wheeler, quien acuñó la expresión “it from bit”, el bit,
es decir, la mínima unidad de información, es también la partícula más elemental
que se puede concebir. Si llevamos esta afirmación hasta sus últimas consecuen- 275
cias se podría decir que todo es información. En consecuencia con lo anterior,
yendo más allá del modelo abstracto de la máquina de Turing, y teniendo en cuen-
ta que todo proceso informático demanda un consumo de energía para borrar
la información ya recibida y quedar en capacidad de recibir nueva información
−razón por la cual se dice que “olvidar cuesta trabajo”−, se puede decir que la
información es, ante todo, un fenómeno físico y cuántico, puesto que en todas sus
interacciones, excepto en la gravitación, la naturaleza es un fenómeno cuántico.
Información
Cuestionario
1. ¿Qué diferencia una señal sonora de un simple ruido en cuanto a la información
se refiere?
2. ¿De qué manera se puede utilizar el ruido para proteger la privacidad de la infor-
mación? Dé un ejemplo.
3. Discuta algunos casos en los que sea evidente la ventaja de disponer de infor-
mación suficiente, oportuna y confiable.
4. Investigue el origen de la palabra encriptación y dé un ejemplo del uso de este
tipo de práctica en la tecnología actual.
5. Compare los sistemas de almacenamiento de información que ofrecen un disco
de acetato, un disco magnético y un disco óptico, desde el punto de vista de los
mecanismos asociados a cada tecnología y de la capacidad de almacenamiento
de datos de cada uno de ellos.
6. Escriba la fecha de su nacimiento en código binario.
7. Investigue cómo funciona una proteína y establezca una analogía con la cinta
que alimenta una máquina de Turing.
8. Si la información se puede relacionar con la entropía, ¿con qué concepto asocia-
do a la informática se puede relacionar la energía?
Bibliografía
Aczel, A. (2002). Entrelazamiento. Editorial Crítica.
Baggot, J. (2011). Quantum story. Kindle eBook.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de Bolsillo.
Gleick, J. (2012). Chaos. Kindle Edition.
Gleick, J. (2012). La información: historia y realidad. Crítica.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Musser, J. (2015). Spooky action at a distance. Kindle eBook.
Rovelli, C. (2016). Siete breves lecciones de física. Anagrama Editores.
Sagan, C. (1992). Cosmos. Planeta.
Stewart, I. (2011). The mathematics of life. Kindle eBook.
Física conceptual