Вы находитесь на странице: 1из 10

Capítulo 20 Información

Introducción
Se podría decir que si el combustible que alimentó la primera Revolución Industrial fue el carbón, y
el de la segunda fue el petróleo, el de la tercera es la información, que se ha convertido en uno de
los bienes más valiosos e indispensables de las sociedades modernas. Por otra parte, alrededor de
los problemas y situaciones que se generan en torno a procesar, transmitir, proteger y disponer la
información surge la demanda de urgentes y novedosas innovaciones tecnológicas que impulsan la
investigación hasta las fronteras del conocimiento científico.

20.1 Comunicaciones
Uno de los efectos más notorios de la Revolución Industrial en la segunda mitad del siglo XIX fue la
rápida interconexión del planeta mediante líneas telegráficas, que facilitaban el envío y la recepción
de información, así como el tendido de vías ferroviarias y el establecimiento de rutas marítimas y
fluviales, recorridas por trenes y barcos movidos por motores de vapor, que permitían movilizar con
inusitada rapidez personas y carga a grandes distancias, hechos que favorecieron la consolidación
de grandes imperios, entre los que sobresale el Británico, y la colonización de las grandes planicies
de Norteamérica, África y Asia, que hasta entonces permanecían casi deshabitadas puesto que
apenas contaban con la presencia de algunas tribus nómadas, integradas por un número muy re-
ducido de aborígenes que se vieron al borde de la extinción después de establecida la dominación
europea, particularmente en América.

El sistema de gobierno de las colonias de ultramar, como eran conocidas en Europa las tierras con-
quistadas, demandaba sistemas muy eficientes de transporte y comunicaciones, lo que incentivó la
realización de importantes desarrollos tecnológicos, fundamentados en la investigación científica, lo
cual resultó ser particularmente productivo en Inglaterra, donde el sistema de propiedad intelectual
permitía que quien tuviera una idea innovadora se beneficiara económicamente de su realización
mediante derechos exclusivos de explotación comercial. La máquina de Watt es un ejemplo notable
de la anterior afirmación, al igual que el telégrafo de Morse, y, posteriormente, el telégrafo sin hilos
de Marconi.

20.2 Ruido
Tal como ya se ha mencionado, uno de los problemas inherentes a la transmisión de información
mediante señales electromagnéticas, ya sea que viajen por cable o por el aire, es la necesidad de
Capítulo 20: Información

compensar la pérdida de intensidad de la señal mediante sistemas de amplificación o de


estaciones repetidoras, lo cual, con frecuencia, ocasiona la aparición de señales espurias
generadas por el amplificador o por fuentes externas que interfieren con la señal original,
como en el caso de las ondas electromagnéticas. De manera adicional, todo aparato que
funcione a base de electricidad tiende a cargarse electrostáticamente, lo cual genera des-
268 cargas que pueden generar serias perturbaciones y distorsión de las señales portadoras de
la información. Todo lo anterior es conocido como ruido, y su presencia afecta la fidelidad
de la información transmitida, por lo que se han dedicado grandes esfuerzos para diseñar
sistemas de comunicaciones y de reproducción de la información lo más fieles y libres de
ruido que sea posible. Por esta razón, los equipos que reproducen, transmiten y recepcio-
nan información han terminado teniendo una arquitectura de gran complejidad, aunque los
principios físicos en los que se basa su funcionamiento sean relativamente sencillos.

20.3 Criptología
Si bien la fidelidad es una característica muy deseable en un sistema para transmitir infor-
mación, en muchas ocasiones prima la necesidad de que esta no solo sea confiable sino
confidencial, para lo cual es necesario acudir a estrategias que restrinjan el acceso a ella
mediante métodos de encriptación, o, sencillamente, por medio de claves que transformen
un texto en algo ininteligible para quien no posea el recurso necesario para descifrar el
texto encriptado. En este caso se puede hablar de un “ruido bueno” que puede ser añadido
y eliminado a conveniencia de la información que se quiere proteger.

La importancia estratégica del manejo de la información ha tenido un papel protagónico en


los grandes momentos de la historia, y, por esta razón, la criptología (el arte del secreto y
las técnicas de encriptación) ha estado presente desde tiempos remotos, pero nunca como
en la época actual ha jugado un papel tan destacado como elemento básico para proteger
transacciones financieras y para tomar importantes decisiones políticas y corporativas, así
como para informar y desinformar a la población a través de los medios de comunicación
y de las redes sociales, como ha quedado de manifiesto en diversos escándalos de reper-
cusión mundial.

Uno de los rasgos más característicos de la Segunda Guerra Mundial fue el impresionante
despliegue de ciencia y tecnología que se dio en su transcurso, en el que se destaca la apa-
rición de la ciencia de la informática en cabeza de Claude Shannon y Alan Turing, gracias
a cuyo trabajo y al de lógicos y matemáticos fue posible descifrar el código de información
utilizado por las fuerzas armadas de la Alemania nazi, conocido como el Enigma. De igual
manera se diseñaron nuevos sistemas de encriptación para uso de los Aliados, para lo
cual fue necesario definir y precisar el concepto de información sentando las bases para

Física conceptual
Capítulo 20: Información

las ciencias de la informática y la computación, que constituyen los fundamentos de la


cibernética.

Gracias a la construcción de un gigantesco dispositivo electromecánico, compuesto por mi-


les de engranajes y relés, y bautizado con el nombre de la Bomba, los Aliados pudieron des-
encriptar una gran cantidad de mensajes cifrados de las potencias del Eje (Alemania, Italia 269
y Japón) con información estratégica vital, lo cual influyó de manera decisiva en el curso de
la guerra. Mucho menos ruidosa que la otra bomba que puso punto final a la guerra, pero
no menos costosa, la Bomba de Alan Turing (figura 20.1) fue uno de los megaproyectos
científicos y tecnológicos desarrollados durante la Segunda Guerra Mundial que definieron
las condiciones en las que en adelante se habría de realizar la investigación científica y se
ejecutarían los grandes proyectos de desarrollo tecnológico, con la participación conjunta
de la industria, la academia y el estado, abriendo paso a la denominada Big Science, en la
que el secreto y el espionaje industrial son como dos caras de una misma moneda, no obs-
tante lo cual actualmente se llevan a cabo algunos grandes proyectos colaborativos cuyos
resultados son de dominio público.

Figura 20.1. La Bomba de Turing.


Tomado de: http://bit.ly/2rZMT4w

20.4 La máquina de Turing


La necesidad de conocer a fondo las características de los procesos informáticos con el
fin inmediato de descifrar los mensajes del enemigo durante la Segunda Guerra Mundial
estimuló el desarrollo de proyectos tendientes al diseño y construcción de sistemas auto-
matizados de cómputo y procesamiento de la información, lo cual condujo a la elaboración
de teorías y modelos sobre los principios básicos de la computación, de lo cual resultó el
diseño del computador más elemental posible, conocido como la máquina de Turing (figura
20.2). Este dispositivo abstracto está compuesto por una cinta infinita, dividida en casillas,
en las cuales se puede registrar información que puede ser leída por un elemento que,

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 20: Información

dependiendo del resultado de la lectura, tome la decisión de borrar, cambiar o conservar la


información que acaba de leer, antes de pasar a una nueva casilla, hacia adelante o hacia
atrás, de acuerdo con una programación previa. La importancia y universalidad de la máqui-
na de Turing reside en su capacidad de emular la lógica de cualquier algoritmo de cálculo
que se pueda concebir, de ahí que todo computador sea, en último término, una derivación
270 de este dispositivo.

0 11 11 1 000 0

0 11 10 0 000 0

0 00 00 0 000 0
Figura 20.2. La máquina de Turing.

Con el fin de que el proceso de cómputo sea lo más sencillo posible, la información se
registra mediante un código binario, es decir, un conjunto de unos y ceros, que se pueden
representar de manera adecuada mediante el estado de abierto y cerrado de un relé, o
de un tubo de vacío. Es importante anotar que el uso de un código binario para el registro
y lectura de información se remonta a 1801 con las tarjetas perforadas de los telares de
Jacquard (figura 20.3), con los que se producían telas de diseños muy elaborados. Este
sistema sirvió de inspiración a Charles Babbage en el diseño de los primeros computadores
mecánicos, antecesores de nuestros modernos computadores digitales, que, al igual que la
máquina de Turing, utilizan códigos binarios, en los que el estado de prendido o apagado,
uno o cero, corresponde al estado de un transistor que, actuando como interruptor, permite
o impide el paso de una corriente eléctrica.

Física conceptual
Capítulo 20: Información

271

Figura 20.3. Telar de Jacquard con tarjetas perforadas.


Tomado de: http://bit.ly/2tivlUQ

20.5 Teoría de la información


Con el fin de visualizar el proceso de la comunicación, Claude Shannon definió un esquema
de cinco elementos que corresponden, respectivamente, al remitente del mensaje, el equi-
po de transmisión, el canal o medio de comunicación, el equipo de recepción y, por último,
el destinatario del mensaje (figura 20.4). Parte integral de este proceso es el ruido, o distor-
sión del mensaje, ocasionado por el canal de transmisión utilizado, que afecta la fidelidad
o correspondencia entre el contenido original y lo que finalmente se recibe. Al igual que la
máquina de Turing esquematiza los procesos de computación, el diagrama de Shannon
resume, en términos generales, cualquier proceso de transmisión y almacenamiento de
información. No es una casualidad que en los sistemas informáticos se encuentren tanto
elementos de computación como de la teoría de la información.

Uno de los problemas más relevantes que surgen en el diseño de sistemas de comuni-
caciones tiene que ver con la cantidad de mensajes que sea posible enviar de manera
simultánea a través de un dispositivo y la cantidad de información que puede contener cada
mensaje, para lo cual es necesario definir parámetros cuantificables. Con este fin, Claude
Shannon definió el concepto de entropía, H, como una medida de la información contenida
en un mensaje. Es necesario aclarar que la entropía H definida por Shannon es diferente
a la entropía S definida por Boltzmann en términos del número de estados accesibles de
un sistema, puesto que la importancia de esta última se manifiesta en la variación de su
magnitud, dependiendo de si los procesos que se examinan son reversibles o irreversibles.
Por el contrario, la relevancia de la entropía H de Shannon está directamente relacionada

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 20: Información

con su valor absoluto. Sin embargo, la similitud entre las formulaciones matemáticas y el
carácter estadístico de ambas teorías condujo a Shannon a utilizar la palabra entropía para
designar la función que permite cuantificar la información.

Fuente
de información Transmisor Receptor Destino
272
Canal

Señal Señal
recibida

Fuente
de ruido
Figura 20.4. Esquema del proceso de información de Shannon.

La analogía matemática existente entre la entropía termodinámica y la entropía informática


nos permite esclarecer el significado de la primera en términos de la segunda. Con frecuen-
cia se encuentran expresiones según las cuales la entropía es una medida del desorden de
un sistema termodinámico, y, en consecuencia, la segunda ley de la termodinámica vendría
a ser algo así como el postulado de la tendencia de los sistemas físicos al desorden. Sin
embargo, el concepto de orden no está definido en la física, y, por tanto, las aseveraciones
que lo invocan carecen de sentido. No sucede lo mismo con el concepto de información,
puesto que la precisión con la que se describe el estado de un sistema físico depende de
la información que se tiene sobre dicho sistema. En este sentido se puede interpretar la en-
tropía termodinámica como una medida de la desinformación, y la segunda ley como el re-
conocimiento de que cuando los sistemas físicos evolucionan hacia los estados accesibles
de mayor probabilidad, se pierde información detallada sobre los elementos del sistema.

En la actualidad la teoría de la información se ha convertido en una herramienta indispen-


sable en un sinnúmero de campos de la investigación científica, como se puede apreciar en
el caso de la biología molecular gracias a la analogía existente entre la actividad de la ARN
polimerasa, que cumple la función de leer y transcribir el código genético almacenado en el
ADN, perfectos análogos de la cabeza lectora y la cinta de casillas de la máquina de Turing.

ARN polimerasa
G T A C
ADN C A U T
C A T G
ADN

Figura 20.5. ARN mensajero.

Física conceptual
Capítulo 20: Información

20.6 El bit
A partir de la definición de entropía de Shannon es posible definir la unidad de información
como aquella asociada a un sistema que solo tiene dos posibles estados, que se pueden
representar en código binario como uno o cero, razón por la cual se le dio el nombre de
bit, que es el acrónimo de las palabras inglesas binary digit. La entropía de un sistema que 273
contiene un bit de información es uno.

Dada la capacidad del código binario de representar cualquier tipo de información o de


expresión lógica, y la disponibilidad de sistemas físicos análogos a elementos binarios,
del tipo prendido o apagado, abierto o cerrado, hacia arriba o hacia abajo, los sistemas
informáticos y de cómputo utilizan sistemáticamente este tipo de representación, y la bús-
queda de nuevos, más eficientes y más reducidos sistemas físicos de almacenamiento y
procesamiento de información ha llevado a la electrónica hasta los límites físicos que de-
terminan las leyes de la mecánica cuántica, debido a lo cual y luego de transitar desde los
sistemas de relés y tubos de vacío a los transistores y circuitos integrados, se ha llegado a
la posibilidad de utilizar los estados más básicos de los sistemas cuánticos como medios de
almacenamiento de información, lo cual ha dado lugar a la aparición del bit cuántico, o qubit.
Sin embargo, en el nivel atómico la posibilidad de determinar con precisión los estados de
los sistemas correspondientes a cero y uno está limitada por el principio de incertidumbre,
lo que, en lugar constituir un problema, abre las puertas a la computación cuántica, que
constituye uno de los más novedosos y activos campos de la investigación.

El principio de incertidumbre de Heisenberg surge de los postulados de la mecánica cuán-


tica, y establece la imposibilidad de determinar de manera simultánea y con absoluta preci-
sión el valor de pares de variables conjugadas, como la posición y la cantidad de movimien-
to, de tal modo que si se fija el valor de la una, la otra queda completamente indeterminada.

Una importante consecuencia del principio de incertidumbre es que la medición de una


magnitud física afecta el estado del sistema que está siendo examinado. En esto radica
la gran diferencia entre la descripción clásica y la descripción cuántica de los sistemas
físicos, puesto que en el caso de la primera se da por descontado la posibilidad de conocer
el valor de todas las variables que describen un sistema físico con absoluta precisión como
condición necesaria para predecir la evolución de dicho sistema en el tiempo. Debido a lo
anterior, la mecánica cuántica resulta incapaz de predecir con total certeza la evolución de
los sistemas físicos, respecto a lo cual solo puede hacer estimaciones probabilísticas sobre
el valor esperado de las magnitudes físicas que describen el estado de los sistemas. Esta
situación resultó inaceptable para muchos físicos de formación clásica y determinista, a pe-
sar de lo cual las mediciones físicas más precisas que se han efectuado hasta el presente
han contado con el marco teórico de la mecánica cuántica.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 20: Información

20.7 Superposición y entrelazamiento


Unas de las características que definen y distinguen la descripción mecánico-cuántica de
los sistemas físicos son la superposición y el entrelazamiento de los estados cuánticos de
274 dichos sistemas. Debido a la superposición, el estado de un sistema cuántico corresponde
a una suma o superposición de todos los estados posibles compatibles con las característi-
cas del sistema, a consecuencia de lo cual se presenta la paradójica situación de que antes
de que se realice una medición, el sistema no se encuentra en ningún estado definido, sino
en todos, pero una vez efectuada la medición el estado del sistema queda bien definido. A
este fenómeno se lo denomina la reducción del paquete, puesto que ahora el sistema se
encuentra en uno solo de todos los estados en los que se podría encontrar. En razón de lo
anterior se dice que el proceso de medición altera el estado del sistema medido.

Por otra parte, cuando dos o más partículas hacen parte del mismo sistema físico, los valo-
res de las magnitudes físicas que describen sus respectivos estados están correlacionados,
independientemente de qué tan alejadas se puedan encontrar las partículas entre sí, de tal
manera que si sobre una de ellas se efectúa la medición de una variable, el valor de la mis-
ma variable queda determinado para la otra partícula. Einstein utilizó el análisis del fenóme-
no de entrelazamiento para demostrar que la mecánica cuántica era una teoría incompleta
de la naturaleza, y que conducía a resultados absurdos, como la posibilidad de transmitir
información de manera instantánea entre dos partículas entrelazadas, a lo cual denominó
una “espantosa acción a distancia”, en flagrante violación de los postulados de la teoría de
la relatividad y de la concepción de la realidad que él defendía. Posteriores análisis y evi-
dencias experimentales revelan que el fenómeno de entrelazamiento no viola los preceptos
relativistas, pero su innegable existencia nos obliga a abandonar la concepción de realidad
del mundo que defendía el padre de la teoría de la relatividad. De manera adicional, el en-
trelazamiento constituye uno de los recursos más valiosos con los que cuenta la criptografía
cuántica para garantizar la privacidad de la información, puesto que en el supuesto caso de
que un tercero pretenda interceptar un mensaje enviado mediante partículas entrelazadas,
la perturbación que causa la observación no autorizada revela de inmediato la presencia del
transgresor debido al fenómeno de reducción del paquete.

Física conceptual
Capítulo 20: Información

Resumen
De acuerdo con el físico John Wheeler, quien acuñó la expresión “it from bit”, el bit,
es decir, la mínima unidad de información, es también la partícula más elemental
que se puede concebir. Si llevamos esta afirmación hasta sus últimas consecuen- 275
cias se podría decir que todo es información. En consecuencia con lo anterior,
yendo más allá del modelo abstracto de la máquina de Turing, y teniendo en cuen-
ta que todo proceso informático demanda un consumo de energía para borrar
la información ya recibida y quedar en capacidad de recibir nueva información
−razón por la cual se dice que “olvidar cuesta trabajo”−, se puede decir que la
información es, ante todo, un fenómeno físico y cuántico, puesto que en todas sus
interacciones, excepto en la gravitación, la naturaleza es un fenómeno cuántico.

Información

Cuestionario
1. ¿Qué diferencia una señal sonora de un simple ruido en cuanto a la información
se refiere?
2. ¿De qué manera se puede utilizar el ruido para proteger la privacidad de la infor-
mación? Dé un ejemplo.
3. Discuta algunos casos en los que sea evidente la ventaja de disponer de infor-
mación suficiente, oportuna y confiable.
4. Investigue el origen de la palabra encriptación y dé un ejemplo del uso de este
tipo de práctica en la tecnología actual.
5. Compare los sistemas de almacenamiento de información que ofrecen un disco
de acetato, un disco magnético y un disco óptico, desde el punto de vista de los
mecanismos asociados a cada tecnología y de la capacidad de almacenamiento
de datos de cada uno de ellos.
6. Escriba la fecha de su nacimiento en código binario.
7. Investigue cómo funciona una proteína y establezca una analogía con la cinta
que alimenta una máquina de Turing.
8. Si la información se puede relacionar con la entropía, ¿con qué concepto asocia-
do a la informática se puede relacionar la energía?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 20: Información

9. Demuestre que todo proceso informático genera un aumento de la entropía ter-


modinámica.
10. Explique en qué consiste la ley de Moore, e indique si hay algún tipo de restric-
ción física que limite su validez.
11. ¿Cuál es la diferencia entre un bit y un byte de información?
276 12. Si la entropía asociada a un bit es uno, ¿cuánto vale la entropía asociada a un
byte?
13. Discuta la posibilidad de que cualquier tipo de información se pueda expresar por
medio de un código binario, y señale cuáles son las posibles aplicaciones que se
derivan de esta situación.
14. ¿En qué se diferencian dos fotografías de la misma escena tomadas con cáma-
ras de 1 Mb y 20 Mb?
15. A partir de la respuesta que dio a la pregunta anterior establezca una relación
entre información y energía.
16. ¿Cómo se podría fundamentar la idea de que el bit es la partícula más elemental
que existe?
17. La nave espacial Voyager, lanzada en 1977, lleva un mensaje grabado en un
disco de oro que, según se espera, podría ser leído por una civilización más allá
del sistema solar dentro de unos 40.000 años. ¿Tiene usted idea de cuál es el
contenido del mensaje y en qué código está escrito?

Bibliografía
Aczel, A. (2002). Entrelazamiento. Editorial Crítica.  
Baggot, J. (2011). Quantum story. Kindle eBook. 
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial. 
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de Bolsillo.
Gleick, J. (2012). Chaos. Kindle Edition.
Gleick, J. (2012). La información: historia y realidad. Crítica.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Musser, J. (2015). Spooky action at a distance. Kindle eBook. 
Rovelli, C. (2016). Siete breves lecciones de física. Anagrama Editores.
Sagan, C. (1992). Cosmos. Planeta.
Stewart, I. (2011). The mathematics of life. Kindle eBook.

Física conceptual

Вам также может понравиться