Вы находитесь на странице: 1из 25

A2

Introducción a las TIC


Versión 2.3.8 - Mayo de 2004 - actualizado y ampliado en 2017
UNLP, FBA - TyC

Informática
Informática es "información-automática", pues, de ello se trata: de automatismos para procesar (guardar, cambiar, crear,
transmitir) información de todo tipo. Las computadoras, celulares y similares, son máquinas para facilitarnos este
accionar con la información (textos, fotos, dibujos, temas musicales, planillas de cálculo, video,
comunicación, Internet, juegos, etc.). Las computadoras están a nuestro servicio, no al revés,
pero es necesario conocerlas y comprenderlas para que así sea. No basta
con memorizar procedimientos o solamente hacer lo que la
máquina o los productores de programas nos dicen que
hagamos. Apropiarnos de las máquinas y las redes no
es imposible pero es necesario atención,
conocimiento y esencialmente lectura crítica e
interdisciplinaria.

Hard y soft
Básicamente, una computadora, celular, cámara u
otro equipo digital es una serie de mecanismos
electrónicos o piezas mecánicas (todo lo llamado
hard, lo "duro") y también un "contenido":
millones de datos, de códigos, que representan
información de nuestro interés inmediato o
programas (recetas automáticas para procesarla). Ejemplificando con el cocinar, tendríamos: por un lado, los utensilios,
cacerolas, horno, etc. (esto es: el hardware o hard) y por otro podemos distinguir dos categorías: el soft (o software) (las
recetas o automatismos) y los datos o documentos (los ingredientes y las comidas ya realizadas o en proceso).

Programas versus documentos


Olvidando por un momento el hard (los utensilios, etc.), en un dispositivo hay programas, las "recetas" (por ahora sinónimo
de aplicaciones, archivos ejecutables o soft) y por otro lado documentos o "datos" (las comidas y sus ingredientes). Los
documentos son las cosas que nos interesan directa e inmediatamente a los usuarios (los textos, las fotos, combinación de
ellos, sonido, video, mensajes de correo, etc.). Los programas son necesarios para abrir y ver, para modificar o para crear los
documentos. Programas son, por ejemplo MS Word, LibreOffice, Excel, una calculadora, Firefox, los juegos, los antivirus,
el reloj, Premiere, Photoshop. Incluso, aunque "especiales" lo son Windows, Android o Linux y otros. Documentos serían:
"carta a juan.docx", "foto_de_maría.jpg", "balance mes de julio.xls", etc. En "informática tradicional" tanto los programas
como los documentos se guardan en la máquina, como archivos, en su disco rígido, el soporte de la información. En
"informática en la nube" ("cloud computing") (a la vez casi solamente sinónimo mercantil de Internet, es un modo de uso y
apropiación y un clave paradigma sociopolítico) se guardan en servidores en la red. Tema clave, pero por ahora resaltemos
lo esencial: en ambos casos, todo (documentos y programas) son bits guardados indistintamente mezclados en un mismo
lugar. Son indistinguibles si no fuera por los distintos códigos de escritura y lectura, su disímil significación.

Archivos y disco
Una de las partes clave del hard de una computadora es el disco ("disco rígido" o memoria permanente de otro tipo), es,
simplificando, un lugar donde se puede guardar todo tipo de información, si queremos, permanentemente. La información se
guarda organizada en archivos, que son simplemente conjuntos de información con un nombre para identificarlos. De esta
manera podemos tener los datos ordenados y localizables. Tienen un nombre pero también apellido, se trata de tres o más
letras luego de un punto al final del nombre, se lo denomina extensión. La extensión suele indicar (pero no necesariamente)
el tipo de archivo de que se trata, por ejemplo en "foto de maria.gif" el apellido es ".gif" e indica que es un archivo gráfico
comprimido a 256 colores. No se trata de una norma inapelable, al igual que en la vida real los apellidos pueden ser falsos o
no indicar nada en particular. Asimismo estos "apellidos" pueden estar visibles u ocultos para el usuario común, dejando el
control (el poder) y toma de decisiones técnicas (y otras) sobre los archivos, en manos de automatismos. Por otra parte,
como se dijo, no solamente en el disco puede guardarse información, lo dicho aquí es idénticamente aplicable a "la nube",
como el soporte, de datos y programas. Otra vez: algunos archivos serán documentos y otros programas.

p. 1
Programas, lo "activo"
A los archivos documento les podemos hacer muchas cosas distintas, se crean, abren, modifican, copian, borran, etc.; los
podemos ver en pantalla, imprimir o transmitir a otros sitios. Para hacer estas cosas a un documento rápida y más o menos
automáticamente, nos valemos de programas, esa es su función. Con los programas (los archivos conteniendo algoritmos:
procedimientos ejecutables, las "órdenes" en vez de únicamente datos) sólo hacemos, típicamente, una de tres cosas:
ejecutarlos, configurarlos o instalarlos. Ejecutarlos significa que "arranquen" y permanezcan funcionando para poder
usarlos. Normalmente están "pasivos" en el disco hasta que los ejecutamos; es la tarea que se realiza cotidianamente:
ejecutar un programa, una "aplicación", para procesar documentos con él. En general (resaltemos "en general" o "en
principio") los programas, como los utensilios de cocinar, permanecen inalterados; los que cambian, como los ingredientes,
son los documentos. Pero, de la misma manera que podemos adaptar o ajustar a nuestras necesidades algunos utensilios, los
programas, pueden ser configurados. Esto es: cambiar algunas de sus características. Típicamente el propio soft nos ofrece
esta posibilidad, se la suele llamar opciones, propiedades, personalizar o seteos. etc. En la cocina las recetas las tendremos
seguramente en libros o papeles, bien distinto de la sustancia comestible de los alimentos; pues bien, en informática es más
fácil la confusión ya que ambos (los programas y los datos de nuestros documentos) son ambos guardados como código
binario (ceros y unos). En el caso de los documentos esos dígitos representarán colores, letras y sonidos mientras que el
código ejecutable, la sustancia del soft, representa órdenes, acciones. En otra imagen diríamos que se trata de conceptos bien
distintos, sustantivos (en los documentos) y verbos (el código ejecutable). Obsérvese que siempre son ceros y unos, por tanto
su comportamiento y "qué" son finalmente, si datos u órdenes, depende del código con que los "interpretemos". Se hablará
más adelante de una nueva mixtura de ambas "sustancias", los documentos activos. Asimismo, ambos, los documentos y
también los programas, pueden cambiar por automatismos, por acción de sistemas propios o ajenos (de manera visible y
clara, compleja y sutil o directamente oculta) y estén guardados en nuestro equipo o donde sea (siendo más vulnerables a
este tipo de cambios cuanto más fuera de control estén). Por supuesto, si somos programadores en vez de usuarios
"comunes" mucho de lo dicho aquí debe ser revisado pues también es parte de nuestro actuar cotidiano el crear y modificar
código ejecutable. Esto es posible si tenemos acceso al "código fuente" del soft, tema que trataremos.

Instalar
El soft (los programas, aplicaciones, "app", etc.), como los elementos de hard, se compra o consigue, no todo lo necesario
está ya incorporado al dispositivo cuando lo adquirimos. Instalar un programa es incorporarlo a la máquina para que pueda
ser usado. En principio es una tarea que sólo se hace una vez o cuando el software se daña. Los programas pueden ser un
solo archivo ejecutable o un conjunto de archivos, algunos de los cuales serán de tipo documento y otros ejecutables,
algunos fundamentales y otros complementos. Para que una aplicación quede instalada se deben cumplir dos condiciones:
disponer de los archivos que la componen (esto puede significar copiar el programa en el disco de la máquina si hablamos
de informática clásica o solamente "seleccionar", "habilitar", "requerir" o "alquilarlos" si hablamos de "nube"). En
cualquiera de los casos esta es la acción necesaria elemental: contar con la información. Pero existe una segunda condición o
acción: registrar y adaptar algunas características técnicas del soft y del equipo para que el sistema se adapte a él.
Normalmente estas dos tareas las realiza, casi automáticamente, un programa instalador. Parte de las acciones las podemos
hacer nosotros y es la nombrada "configuración" pero hay gran actividad automática siempre. Resaltemos: los programas
que toman las decisiones de instalación lo hacen en función de intereses, nunca una opción es neutral. Algunas de las
acciones son sutiles, complejas, ocultas y se realizan sin nuestro real "consentimiento informado". Asimismo, en el caso de
tratarse de dispositivos pequeños o en general que trabajen con alta dependencia de "la nube", es prácticamente imposible
tener control o al menos conocimiento de las acciones de instalación (y otras). Esto es: el control de nuestros "actos
virtuales" queda literalmente "fuera de nuestro control". Nada indica que lo que los sistemas nos ofrecen, recomiendan o
incluso "regalan" sea algo en nuestro beneficio. Dado que hablamos de un modelo en que el lucro es esencial, corresponde
cuando menos dudar de las intenciones de los automatismos, los "por defecto", el marketing y recomendaciones de los
sistemas, más aún si estamos hablando, como en TIC, no sólo de mercancías materiales sino centralmente de información.

p. 2
Sanidad digital
Así como en una vivienda familiar deben convivir varias personas, en un equipo conviven varias aplicaciones cada una con
sus requerimientos y preferencias. Tengamos en cuenta que los programas de instalación pueden ser realizados (o
influenciados) por el mismo fabricante del soft a instalar y por lo tanto suele intentar que su producto tenga las mejores
condiciones de funcionamiento (incluso en desmedro de otros o del funcionamiento del sistema en general). Es conveniente
prestar especial atención a las "opciones" de instalación: en general las "opciones por defecto" (aquellas que "vienen de
fábrica" y quedan así si no damos una orden en contrario) pueden jugar en nuestra contra. Es importante minimizar lo que
dejamos en manos de automatismos (incluyendo auto-actualizaciones o similares). También es esencial no instalar
aplicaciones inútilmente aunque luego las retiremos (des-instalar). Nunca un sistema queda exactamente en las mismas
condiciones que estaba previamente cuando desinstalamos algo. Es muy común observar poderosas computadoras
funcionando lentamente o con problemas por sobrecarga de tareas inútiles o de conveniencia de los proveedores mas que del
usuario. Es conveniente mantener "limpio" y ordenado el equipo para un buen funcionamiento. Las opciones por defecto
definen, a criterio del que lo determina, que acción se ejecutará cuando hagamos "doble clic" en un ícono, qué se
actualizará, de qué avisará el equipo a un tercero en red sin consultarlo y qué no, etc. En suma, casi todo lo importante.
Todas las aplicaciones necesitan de nuestra atención para que obren en nuestro beneficio pero hay que prestar especial
atención a las "aplicaciones automáticas" (en muchos casos llamadas "aplicaciones o programas residentes"). Son aquellas
que "arrancan solas" al encender el sistema (como los antivirus, relojes, alarmas, autoactualizadores, etc.). Todo aquello que
se inicia al encender el equipo en vez de esperar nuestra orden de ejecutarse porque vamos a usarlo (como un procesador de
textos, calculadora o cualquier otro) estará permanentemente "activo", ocupando recursos (por ejemplo espacio de
memoria), requiriendo por tanto más potencia al sistema y además, lo sepamos o no, ejecutando acciones con algún
propósito, lícito o ilícito. En el sistema operativo de computadora más difundido (Windows) suelen ser los íconos que se
presentan en la derecha de la "barra de tareas" (cuanto menos tengamos allí, mejor), la mayor parte se puso por su cuenta o
mediante engaño y no cumple funciones de nuestro interés o relevantes.
Recordemos que cada aplicación y cada sistema en general (computadoras, celulares, redes, consolas de juego, equipos
profesionales, "servicios", "app", TV u otros artefactos "inteligentes") responden a intereses de quienes son dueños,
proveedores o controladores de dicho sistema o servicio, no del usuario-propietario.
En general intentamos utilizar artefactos y programas para nuestro beneficio, pretendemos darle órdenes y que respondan
logrando o facilitando nuestras necesidades. Les imponemos que hacer para satisfacer nuestras necesidades, para dar la
forma que deseamos a algo pero los sistemas también tienen su propia "forma", sus "intenciones", su "cultura y lenguaje",
sus automatismos. No solamente nosotros, los usuarios, decidimos en el mundo digital. También los sistemas, dispositivos,
las redes y los que las controlan tomas decisiones y transforman las cosas según parámetros, no necesariamente visibles o
explícitos. Intentan obrar según sus paradigmas, su "arquitectura" y estética, en general: su interés. No pueden simplemente
imponer su forma como y cuando quieren, en general se trata de un accionar sutil y más impulso o predisposición que
determinación. Pero ejercen poder y de eso se trata en general el mundo de la información: forma y poder, forma-poder.

Sistema operativo (introducción)


Generalizando, hay tres tipos de soft:
 Aplicaciones (que son la gran mayoría) (los programas que típicamente usamos)
 Lenguajes de programación (implementaciones de lenguajes) ("programas para
hacer programas", que utilizan los programadores para crear el resto del soft)
 Sistemas operativos (la base de los sistemas) (Windows, Linux, Android, etc.)
Un sistema operativo es un tipo muy especial de programa, es el que "hace funcionar la máquina" y la deja dispuesta para
ejecutar las aplicaciones que necesitemos (que es el verdadero sentido del equipo). El sistema operativo es quien nos
comunica con el dispositivo, lo controla y prepara. No obstante solamente con él es poco lo que podemos hacer (salvo
algunos accesorios y soft para organizar la información) necesitamos, además, de las aplicaciones (procesadores de texto,
imágenes, audio, video, cálculos, etc.). Por ejemplo para escribir una carta necesitamos un procesador de textos como
LibreOffice o MS Word o para imagen de bits por ejemplo Adobe Photoshop o GNU Gimp, pero para poder usar dichas
aplicaciones primero debe estar funcionando (y correctamente) el sistema operativo adecuado en el equipo. Esto en el caso
de optar por aplicaciones "comunes" (presentes de manera local, instaladas en nuestro sistema) o también servicios de nube.
Las aplicaciones se comunican con el usuario mediante ventanas, el sistema operativo también (cualquiera sea el nombre de
interfaz y su forma, que depende del sistema). Típica interfaz: "escritorio", barra de tareas, íconos, desplazamientos, gestos e
incluso órdenes y respuestas por voz en lenguaje humano. Las "ventanas" son una forma de relacionarnos con una parte del
sistema (y con un único visor) poder interactuar con varios programas o procesos a la vez. se usa el término interfaz.
Hay distintos tipos de sistemas operativos, no solo Windows o Android, por ejemplo Linux, absolutamente recomendable
aunque de tecnología bastante distinta y por ello muy poco difundido o apoyado por la gran industria, así como con algunas
carencias de mercado de aplicaciones a la hora de usos específicos como el audiovisual, por ejemplo. También hay S. O.
para equipos en particular, como el MAC-OS, el nombrado Android o incluso para artefactos industriales específicos. Cada
aplicación necesita un S. O. en particular (para el que fue diseñada) pero las hay creadas en distintas versiones. Por ejemplo
existe un LibreOffice para Linux pero también hay otras versiones para Windows y para MAC.
p. 3
Esquema general
Por su parte, el sistema operativo no
se comunica "directamente" con el
hard, lo hace por medio de una
interfaz, se denomina UEFI, EFI (o la
tradicional aunque algo antigua para
uso general: BIOS). Es un conjunto de
código ejecutable en un soporte
especial, es hard con soft ya incluido,
fijo o semi-fijo, o sea son pequeños
adminículos híbridos de hard y soft.
La denominación más genérica es
firmware. (todo aquel programa
integrado al hard que es o primero que
se ejecuta al arrancar el dispositivo)
Este es un detalle no menor pues este
"cuello de botella" que tienen los
dispositivos, lugar por donde pasa
toda la información, tiene código que
podemos cambiar pero gran parte no,
está ya "impreso", "fijo" y define sus
características (de funcionamiento,
mercantiles, de seguridad y hasta
estéticas y culturales).
El sistema funciona así en "capas" donde cada una hace uso de los servicios (recursos, posibilidades, funciones, etc.) de la
inferior y presta servicios a la superior. De esta manera se posibilita compatibilidad, esto es, quien diseñe, por ejemplo una
aplicación, lo hace pensando en como debe comunicarse con el sistema operativo sin importar sobre que hard funcionará.
Las máquinas, el hardware, no son todas iguales pero gracias a este sistema de interfaces estándar, una aplicación será, por
ejemplo, un programa "para Windows" (o para Linux) no solamente para una máquina en particular. Por su parte los que
diseñan sistemas operativos lo hacen teniendo en cuenta "la cara" que les ofrece la UEFI o BIOS, que siempre es la misma,
es un estándar. Las aplicaciones se olvidan del resto y piensan como comunicarse con el S. O. Los sistemas operativos se
pueden desentender sobre que equipo funcionarán, sólo piensan en como deben comunicarse con la BIOS o UEFI. Sus
diseñadores piensan en que servicios se le puede pedir y como hacerlo, sin importar donde se instalará, sólo se prestará
atención al tipo general de hard (tipo de procesador y dispositivo por ejemplo) y en la medida que se quiera optimizar. Es la
interfaz estándar (la implementación del firmware, la BIOS, UEFI, etc.) quien "adapta" las distintos marcas de hard al S. O.
Gracias a esta estructura en capas y estándares, cualquier programador o fabricante puede diseñar y construir aplicaciones y
máquinas, prestando (si se dedicará sólo a una "capa" de este modelo) sólo atención a la interfaz de arriba y de abajo.
Dejemos a un lado, sólo por el momento, la distancia entre lo teórico y técnico con lo que efectivamente luego pasa en el
marco de la economía política. Por ejemplo podemos hacer notebook sin limitarnos a sistema operativo o aplicación alguna,
sólo atendiendo al estándar UEFI. Y si queremos programar un procesador de textos, por ejemplo, atenderemos a las
características (servicios, prestaciones, comunicación con dispositivos externos, librerías de recursos, etc.) del sistema
operativo para el que queremos diseñar el "producto". En síntesis: el S. O. tiene la función esencial de posibilitar ejecutar
aplicaciones que es lo que nos interesa usar. Asimismo controla máquina y periféricos, facilitando a las aplicaciones el uso
de los mismos a modo de "servicios" (como imprimir, abrir, guardar, ver, transmitir, etc.).
Asimismo, los usuarios, pueden escribir, abrir archivos, editar, insertar imágenes en un documento, dar formato viendo como
"será" y luego imprimir, sin si quiera saber que marca es el monitor o la impresora. Mucho menos es necesario saber (en uso
no profesional) como, por ejemplo la impresora, maneja los colores, márgenes o tipografías. La UEFI/BIOS se encarga,
junto con el S. O. de comunicarse adecuadamente con los periféricos (la impresora es uno de ellos), la aplicación usada y
por supuesto el usuario, simplemente escriben y mandan "a imprimir" e incluso, el mismo documento, si responde a
estándares, se puede imprimir o visualizar en cualquier otro sistema.
Ahora bien, en este "juego" de facilidades, modelos y estándares, subyace, como en casi todo, un entramado de poder e
intereses. Los estándares son impuestos por disputas de poder de complejo desarrollo y con decenas de variables, tanto
técnicas como legales y políticas. Aplicaciones, S. O. y equipos, de distintos orígenes y propietarios disputan sus intereses en
nuestros sistemas. Asimismo usan las reglas, las normas, para justamente normalizar y naturalizar u ocultar, importantes
potestades. Los sistemas facilitan y controlan. Sólo un ejemplo anticipando futuro tratamiento: una UEFI puede disponer
trabas a la circulación de determinado tipo de información (por razones comerciales, de derechos o incluso socioculturales)
y ejercer bloqueos o facilidades sin que lo notemos (desde su "forma" interna indeleble) para alguna acción o circunstancia
(por ejemplo complicar el uso de determinado sistema, periférico, conexión, aplicación o fuente de datos y facilitar otros).
Por otra parte, volviendo al ejemplo de imprimir simplemente con una tecla, no siempre es bueno que de algo no
necesitemos saber nada. Siempre que confiemos en automatismos y dispositivos (en sentido general) que desconocemos,
estamos cediendo poder de decisión, en muchos casos sin darnos cuenta o sin saber de que se trata, a quién o por qué.

p. 4
Interfaz
La mayoría de los sistemas operativos contemporáneos para usuario final cuentan con una interfaz "visual" que permite
comunicarnos con el sistema sin necesidad de escribir (como sí era indispensable en los pioneros). Hay distintas interfaces,
el modo ya "tradicional" es el denominado genéricamente WIMP (ventanas, íconos, menús y puntero de ratón o similar).
Modelo tan difundido y en su momento revolucionario que el S. O. más conocido ("Windows") toma el nombre justamente
de las "ventanas", o sea: los "monitores virtuales" que permitieron, desde el momento de su invención como concepto, que
las computadoras no sólo puedan realizar varias tareas al mismo tiempo sino también "mostrarlas a la vez". Posteriormente
se incorpora el "diálogo" con la maquina mediante tacto, primero sobre placas especiales y luego sobre las propias pantallas.
En realidad la factibilidad existe hace más de tres décadas, plena era de los viejos monitores de rayos catódicos ("TRC"),
usando "lápices" detectores sobre la pantalla. Ahora se masifica la implementación de sistemas táctiles y gestuales (por
contacto o incluso cámara) al desarrollarse facilidades comercializables a relativamente bajos costos. O sea: no es un invento
nuevo, es mercadotecnia. Asimismo se convierte en un aspecto indispensable para expandir el mercado de los sistemas de
pequeño tamaño y/o portátiles donde la presencia de teclados, ratones o similares es prohibitiva.

Es interesante observar como este tipo de interfaz expande geométricamente la base numérica de potenciales usuarios (y por
tanto posibles clientes de servicios) al facilitar el uso de complejos ingenios que, sólo son intrincados en las capas inferiores,
las mas técnicas, pero presentan al usuario una fachada de uso y control simplificada (y automática). En general, cuanto más
complejo es un sistema internamente, más simple puede ser su interfaz y viceversa: un sistema simple necesita de una
interfaz compleja y por ello usuarios activos y formados. Si agregamos la interfaz por voz y/o asistentes "inteligentes" de
ayuda, llegamos al extremo en que no es necesaria la lectoescritura para operar sistemas mucho más poderosos que las
computadoras que posibilitaron los primeros viajes espaciales tripulados por ejemplo. Íconos cada vez más grandes,
estandarizados, en menos cantidad y variedad, mayores automatismos, menos posibilidades de decisiones sobre
configuración (muchos automatismos por defecto), etc. posibilita que cualquiera pueda ser usuario/cliente.
Como se vio al hablar de las capas típicas de un sistema, son claves las aplicaciones, "app" y accesorios pues con ellos
interactuamos más frecuentemente. Estas pueden estar a la venta mediante soportes físicos o (lo típico) disponibles de
manera virtual en "repositorios" relacionados con los S. O. pero también pueden estar "pre-instaladas" y en algunos casos
tan integradas que se las puede considerar (con todo lo que eso implica) parte integrante del S. O. Algunos casos típicos son
la app de hora/fecha, agenda, alarma, procesos de texto, imagen y sonido simple, interfaces de configuración de parámetros
de distintas capas, etc. En general, todas estas aplicaciones o similares tienen un factor preponderante, definido como
prioritario por sus desarrolladores: que sean simples de usar. Esto incluye y de manera preponderante, claro, los sistemas
para "bajar", "incorporar", "instalar", "actualizar", "anexar" e infinidad de eufemismos que tienen en mismo significado:
permitir que un nuevo conjuntos de automatismos e información se incorpore a nuestros sistemas de uso cotidiano.
El extremo de "virtual y simple" de los mecanismos de interacción con los sistemas son los basados en sensores remotos o
atípicos (cámaras, micrófono, acelerómetro y giróscopo, GPS, lectores biométricos específicos, etc.). Mediante estos
sensores podemos comunicarnos usando "gestos". Dicho de otra manera: los sistemas observan nuestra actividad buscando
gestos que les "digan" algo. Asimismo existen infinidad de dispositivos más o menos comerciales o experimentales de gran
despliegue como ser los teclados por proyección u holográficos, la "realidad aumentada", los sistemas de realidad virtual en
sus distintos niveles, la "domótica" (informática distribuida por toda la casa) o "informática de los artefactos", etc. Y están
las salidas, claro, los actuadores, que también controla el S. O. (monitor, impresora y lo imaginable: de luces a brazo robot).
No es el momento de desarrollar el tema pero adelantemos que la multiplicidad de distinto softweare es muy amplia (y
mayoritariamente desconocida por la preponderancia del marketing de alta gama al respecto, favoreciendo los dominantes).
Por ejemplo, es de general consenso en el mundo técnico pero desconocido en la información de prensa y publicidad que,
especialmente para equipos grandes, el sistema más conocido es "el peor". Hay varios ejes y capas de análisis en este tema
que es necesario abordar en profundidad.

p. 5
Más ventanas
Como se comentó, el sistema realiza varias tareas al mismo tiempo "dividiéndose" internamente en "máquinas virtuales"
pero tiene en general una sola pantalla, por ello existen las ventanas, cada una es un "monitor virtual" correspondiente a una
tarea en curso. Suele atenderse a una ventana/proceso en particular, no obstante, los recursos del dispositivo que utilicemos
no estarán exclusivamente ocupados en dicha ventana, suceden muchas cosas en los dispositivos además de las que vemos.
De hecho hay procesos que funcionan sin ventana alguna, sin interfaz. hay proceso "en segundo plano" e incluso algunos
que directamente son ocultos. Muchos de los casos de "sistema lento" se deben justamente a que hay muchos "hilos"
funcionando al mismo tiempo, independientemente de cuántos de ellos estemos "viendo" o incluso "sabiendo que existen".
Otra vez nos encontramos con las recurrentes capas, en este caso la visible y las más profundas: que, comentamos ya, suelen
ser inversamente proporcionales en grado de complejidad/simple manejo (cuanto más simple una más compleja la otra).
Cualquiera sea la forma en que interactuemos con el equipo en uso, es necesario recordar siempre que si bien es inapropiada
la terminología "inteligencia artificial" en sentido estricto (las máquinas no son "inteligentes" en el sentido humano y
coloquial del término), dicha interacción se trata de un "diálogo". En dicho diálogo pretendemos dar órdenes para que se
cumplimenten nuestros deseos y que el sistema obedezca neutra e inopinadamente dichas órdenes. Paradojalmente, a la vez,
solemos pretender que "piense" y se anticipe a nuestros deseos, tomando decisiones facilitadoras automáticas. Esto ya se
trata de una importante contradicción para reflexionar y enmarcar en contextos de poder, decisión y voluntad. Asimismo, los
sistemas, no debemos olvidar, no son entes abstractos informes, "virtuales", "neutrales" y "extra-humanos", se trata de
dispositivos diseñados y comercializados en el seno de la sociedad que conocemos, con sus intereses. historia e ideologías.

Sin ir más lejos, el nombrado diálogo, implica como en cualquier caso, puesta en juego, disputa, construcción y dinámica de
códigos, lenguajes, cultura, en fin: capital simbólico y poder. Más cuando se trata de ingenios destinados a procesos de
información, no solamente reproducción de objetos materiales. La semiosis, como proceso generativo de lo humano,
conformador de contexto y sujeto, individual y colectivo, ya no es sólo un hecho de la plaza pública y los "no lugares"
físicos. Hacemos nuestro mundo de sentidos en la "realidad física" pero también en las interfaces de los mundos virtuales,
cada vez más omnipresentes. Dichas interfaces, sistemas y "servicios" tienen dueño, diseñador, lenguaje e intereses, no son
un territorio en blanco donde podamos, informada y libremente, "escribir" significación y ejercer poder. Hay estética y por
tanto ética, hay forma y por tanto información, no sólo la explícita. Además, como se verá, las nuevas plazas, calles e
instituciones virtuales, no responden solamente (pues sí lo hacen) a las categorías de análisis social tradicional ni a las reglas
del mundo físico. Las pantallas son teatro de operaciones de las disputas milenarias más nuevos conflictos.
Cuando "lo que usamos" (documentos y/o programas) está en otra parte, en un sistema "nube", se incrementa la "virulencia"
de la disputa simbólica y cultural, tanto entre los usuarios y los sistemas como entre las distintas corporaciones controlantes
de los mismos. Ambas disputas se suelen dar de manera invisible para los usuarios. Todas las formas de interactuar que se
comentaron y casi todas las aplicaciones o tipos de documentos que solemos utilizar pueden "alojarse" de manera local o
remota. Sin ir más lejos, los simples sistemas de "correo web" (que son utilizados de manera abrumadora) son aplicaciones
"en la nube" (hay alternativas sobre las que se debatirá). Un interesante extremo de presencia de "la nube" en nuestra vida
cotidiana de manera inconsciente es cuando. por cuestiones de formato (léase también: estética, cultura, episteme si se
quiere) es difícil determinar si "algo" es programa o documento y si está en nuestra máquina o es una página web.

p. 6
Componentes
Como se comentó, la computadora es hard y soft. El hard los componentes "duros", las piezas concretas de equipo y el soft
la información, los programas y documentos. Por su parte el hard se puede dividir en los elementos internos de la máquina y
los periféricos que se conectan desde fuera del dispositivo y cumplen funciones auxiliares, en general de ingreso o egreso de
información (pantalla, teclado, impresora, etc.). Por su lado, los componentes internos pueden ser todos una misma entidad,
integrados a una placa principal de circuito o ser independientes e intercambiables. Esta segunda opción suele ser mejor pero
mas cara y en general aplicable actualmente sólo a sistemas profesionales o de tamaño grande. Algunos los hay en versión
interna o externa, como el modem (modulador/demodulador) para conectar con redes globales o similares, y otros.
Una lista parcial de componentes típicos de hard sería:

Microprocesador Ejecuta las acciones y cálculos matemáticos, controla, en general el dispositivo. La pieza fundamental y de
gran incidencia en el rendimiento. Puede ser de uno más núcleos (que son los procesadores en sí, de manera
que podríamos hablar de "simples" o "múltiples"). Todo dispositivos digital (computadora, celular, consola
de juegos, electrodomésticos automatizados, televisor "smart", etc.) tienen al menos un microprocesador.
En sentido estricto en general no "toma decisiones" y menos aún es "inteligente" en el sentido humano.
Simplemente tiene altísima velocidad para realizar cálculos y en base a eso puede responder eficazmente a
las órdenes (y allí sí "decisiones") programadas en el soft. De todas maneras, y como todo, tiene una
determinada forma de hacer las cosas, un lenguaje y lo que ello implique.
Memoria (RAM), Receptáculo rápido pero sólo provisorio de la información. Es "el lugar de trabajo", donde se opera con los
principal o archivos. Su capacidad y velocidad son claves en el rendimiento. Típicamente se puede incorporar más
primaria memoria. Se suele tratar de pequeños "chip" pero los hay de diverso tipo.
Disco rígido (o Depósito mayor y permanente de información, aunque mucho más lento que la RAM. Se suele denominar
disco interno, fijo técnicamente "memoria secundaria" por ejemplo, pero preferimos evitar aquí esa denominación para
o memoria claramente "diferenciar ram de disco". No necesariamente se trata realmente de un "disco", puede ser
secundaria) cualquier conjunto magnético, óptico, estático tipo flash, mixto, fijo o externo.
Placa madre o Placa de circuito principal, donde está, como mínimo, el microprocesador, los bus y la memoria. Sobre ella
placa principal se conectan los demás elementos y se encastran o conectan el resto de partes. Es una modalidad clásica de
"PC" pero en realidad, en mayor o menor grado todo dispositivo tiene una.
Bus Vías de comunicación interna y zócalos o encastres de conexión de placas. Gravitan bastante en el
rendimiento y determinan que tipo de placas podemos agregar. En realidad, en los sistemas típicos, se trata
de tres "vías" distintas por su tipo y función: de datos, de direcciones y de control. El "ancho" en bits (8, 16,
32, 64, etc.) marca su velocidad y sus posibilidades de cantidad de direcciones.
BIOS o UEFI Híbrido hard/soft (contiene memoria fija que implementa el soft de arranque firmware). Hace de enlace
(interfaz) entre el hardware y el sistema operativo. Se describe en el apartado "Esquema General".
Placas y sistemas Para tareas no profesionales la tendencia actual es a los dispositivos integrados, monolíticos, pero para usos
para multimedia, avanzados o específicos (audiovisual profesional, juegos de alta gama, industria, ciencia, etc.) en vez de
entrada y salida adquirir un equipo mayor se pueden adicionar a los sistemas estándar, hard interno o periféricos dedicados
de señales, etc. como placas especiales de video y audio, telecomunicaciones, servocontrol, sensores, etc. Por ejemplo es
típico de instalaciones: placas tipo Arduino de entrada y salida de sensores y actuadores
Puertos Hay una infinidad de modos de conexión de los dispositivos externos y las máquinas, tanto cableados como
sin cable. Desde un simple USB o de red hasta puertos de alta velocidad para video. Como siempre
dependen de las normas y protocolos que los definen, en general en el marco de disputa comercial por la
imposición de estándar. Algunas de las características definitorias (además de la forma física) son:
velocidad de datos, canales, relación señal/ruido, longitud posible, presencia o no de: línea de energía,
control de titularidad de derechos (DRM), compatibilidad y retrocompatibilidad, costo, etc.
dispositivos de Ya abandonada la época de los discos flexibles, lo típico todavía en uso son las grabadoras y/o lectoras de
lectura/escritura CD, DVD, Blu-ray, etc. En algunos casos se integran a los equipos pero en otros (especialmente memorias
flash, discos externos, enlaces a la nube) se conectan por puerto común.
Periféricos o Hace una década era abrumadora la cantidad de dispositivos que se anexaban, interna o externamente, pero
accesorios ahora que actualmente es típico encontrarlos incluidos. Por ejemplo: placa de red, módem telefónico, superficie
integrados de control táctil, cámara, micrófono, sensores biométricos, etc.

Muchos aspectos de la "arquitectura" o configuración (el modelo conceptual y físico de construcción y funcionamiento de
los sistemas) depende de "paradigmas", tendencias de mercado y otras, así como decisiones de impulsar determinado tipo de
uso y consumo. Por ejemplo una computadora puede ser más grande o pequeña (desde un equipo imposible de mover hasta
uno que quepa en la palma de una mano) impulsa fuertemente, claro, el modo de uso. Asimismo, por ejemplo, que disponga
o no de importante capacidad de "disco", definirá una mayor o menor necesidad y tendencia al uso de "la nube" (como se
comentó usamos comillas por ser "nube" o "cloud" casi sinónimo mercantil de Internet). Se profundizará en estos temas.

p. 7
Guardar como... soportes y abstracciones
Al abrir un documento existente en el disco (para verlo o editarlo) en realidad lo que estamos haciendo es copiarlo en
memoria y sobre dicha copia es sobre la que trabajamos. Por ejemplo, con el procesador de textos abrimos el archivo
"carta.doc", el texto que vemos en pantalla es la copia en RAM del archivo que permanece inalterado en el disco. Si
escribimos, lo hacemos sobre dicha copia virtual, quedando así distinta del original en disco. Luego, al guardar estaremos
reemplazando el original del disco por la copia modificada que estamos viendo. Cerrar un documento es eliminar la copia
en memoria que vemos. Si no guardamos y cerramos (o apagamos el equipo) se perderán "los cambios" que escribimos,
quedándonos solo con el original del disco (por eso el soft suele "preguntar" que hacer, si guardar o no, al intentar cerrarlo).
Contamos también con la opción de "guardar como" otro archivo (con distinto nombre, ubicación o formato del original).
Nos quedarán en disco dos archivos: el recientemente creado (con los
cambios de contenido o formato realizados) y el viejo sin modificar.
Reiteremos dada la importancia: "guardar como" puede cumplir
varias funciones, no sólo una: guardar con otro nombre,
con otro formato (recodificando el documento o sea
el programa funciona como conversor en ese
caso) (ver también el tema "Versiones") y
también nos posibilita guardar una copia
en otro lugar ya sea del mismo disco o
en otro soporte.

Utilizar el comando nuevo, es crear un documento en blanco en memoria, que luego de editado podrá ser guardado y así
convertido en un nuevo archivo. Muchas aplicaciones, al ser ejecutadas, nos ofrecen ya creado un documento "limpio" (Ver
"Estilos y Plantillas"), por ejemplo la hoja inicial en blanco de los procesadores de texto.
Cuando decimos, para simplificar: "memoria", nos referimos a la memoria primaria, más conocida como RAM que en
realidad es un tipo técnico específico (de lectura escritura de acceso aleatorio). Existe otra llamada ROM que es de sólo
lectura. Por ejemplo una típica ROM es la de la BIOS/UEFI para contener el firmware que viene grabado de fábrica.
El tamaño de la memoria determina la envergadura de los programas y documentos que podemos usar, cuantos al mismo
tiempo y el rendimiento general. La información en el disco (u otro tipo de memoria permanente) se organiza internamente
en distintos sectores y "partes", tarea que realiza el sistema operativo. Asimismo, típicamente, en vez de con el disco entero
nos relacionamos con las "partes" llamadas "particiones" que, a nuestros ojos se comportan como un disco completo e
independiente aunque físicamente no lo sea. Por ejemplo "C" en Windows o "Home" en Linux suelen ser particiones de un
soporte cualquiera, no necesariamente discos y menos aún enteros. Para que accedamos cómodamente a nuestra clasificación
en archivos usan índices, una especie de "catastro" en el que se registra donde está cada archivo (por ejemplo FAT, NTFS,
EXT4, HFS, etc.). Se suele denominar "abstracción" justamente a este modo de "ver" la información: trabajamos con bits
pero vemos, pensamos y operamos con "documentos" en realidad virtuales pues físicamente están en otra capa, más "física",
pueden estar en cualquier parte (y en varias partes), incluso en el modelo nube u "on line" fuera de nuestro dispositivo.
Podemos usar dispositivos "habitando" sólo las abstracciones, lo virtual pero para poder controlar nuestras acciones
realmente, para ejercer "consentimiento informado" es importante tener consciencia de lo físico (ver "Tareas y formación").

p. 8
Estilos y plantillas
Tengamos en cuenta que cualquier "documento en blanco" en realidad se presenta a la vista como "limpio" pero lleva
implícita una gran cantidad de "forma a priori" o sea información previa, estética y culturas previas. Por ejemplo, en texto,
las dimensiones de los márgenes, las tipografías por defecto, formatos de párrafo y hasta estructuras de títulos, secciones,
etc. Estas verdaderas "categorías" se agrupan en conjuntos que, en procesadores de texto, e imagen, se suelen llamar estilos
(típicamente accesibles a la izquierda de la barra de formatos de las aplicaciones más comunes).
El mecanismo de los estilos es particularmente útil. Es una de las mayores diferencias entre un procesador contemporáneo y
un sistema antiguo o máquina de escribir. Su principio es: si modificamos formato "manualmente" cambiando tipografía,
interlineado, espacios, etc. a una palabra o segmento, debemos hacerlo de la misma manera (manualmente) cada vez que lo
necesitemos. Esto en un documento corto no es un problema pero en uno grande o en una serie que deba mantener cierta
normativa es muy laborioso. Si queremos cambiar una categoría, por ejemplo el formato de los subtítulos de un texto de
muchas páginas, deberemos cambiar todos y cada uno a mano. En cambio, si creamos un estilo, por ejemplo "Mi subtítulo
tipo 3" y lo aplicamos desde un principio, luego bastará un instante de cambiar dicho estilo para que todas las múltiples
páginas se corrijan a la vez solas. Nótese que sugerimos crear un estilo propio, no usar los que el programa nos ofrece "ya
hechos" e iguales para todo usuario, definidos en base a una estética, cultura e intereses que es difícil determinar.
Por su parte, los estilos se agrupan también en conjuntos, en muchos casos llamados plantillas y también dichas
plantillas pueden ser creadas, modificadas o reproducir los estándares propuestos por el creador del sistema.
Por ejemplo, al abrir un "documento nuevo" de presentación de diapositivas es típico que se nos ofrezca
visualmente un área con una leyenda del tipo "haga clic aquí para poner el título de la diapositiva".
Luego, al hacer clic en dicha zona, directamente podemos comenzar a escribir y desde la
tipografía, pasando por el interlineado hasta el tipo de fondo de color ya estarán
automáticamente definidos. Eso, justamente, es un estilo y perteneciente a una plantilla
prevista por defecto. Como se observa es un sistema poderoso, tanto para
nosotros como para los creadores de los programas, depende en manos de
quién (o qué) dejemos como usuarios el poder cultural de los sistemas.
Las plantillas también pueden contener accesorios, segmentos de texto,
diccionarios, logos o gráfica en general, barras de herramientas,
configuración, formularios, segmentos de programación y otros
elementos que sean de uso común (o que nosotros o el sistema
queramos que se use frecuentemente) para un grupo de
documentos (que se basarán en esa plantilla al ser creados "en
blanco"). Cierta estética muy difundida (hoja A4, fuente Times New
Roman 12, títulos en Arial y otras características) que reiteradamente vemos en documentos, están definidas, justamente, en
una plantilla de procesador de textos llamada "Normal", diseñada hace años por la empresa Microsoft.
De unas pocas plantillas derivan muchos documentos. Es típico que creemos y modificamos esos documentos (basados, sin
que lo sepamos, en alguna plantilla) pero nuestro universo de acción como usuarios no se restringe a los textos, también
podemos modificar y crear plantillas, podemos tomar decisiones allí. Modificando o creando estilos en un documento
afectamos ese documento pero si modificamos la plantilla relacionada (por ejemplo algún estilos que contenga) afectaremos
todo otro documento que en el futuro se cree usándola de base.
El modelo de funcionamiento es tanto sociopolíticamente importante como pragmaticamente útil. Una forma de verlo (y
apropiarse de su utilidad) es observar claramente que al aplicar un estilo a un párrafo (o imagen, sonido, hoja, etc.) le
realizamos (o aceptamos) dos acciones: le estamos aplicando un conjunto de formatos, una forma, pero también lo estamos
incluyendo en una categoría, lo incorporamos a un conjunto en particular y luego de eso, mientras no lo cambiemos de grupo
o "club", todo cambio o acción relativa al conjunto afectará al elemento en particular. Lo mismo sucede con las plantillas,
que, recordemos, son básicamente conjuntos de estilos y otros atributos de grupo. Si habláramos del campo social en vez de
tecnología, podríamos ejemplificar diciendo que una plantilla sería "la cultura latina" y Argentina, Chile, Uruguay, etc. son
documentos realizados en base a los estilos de dicha plantilla. Una de las imperfecciones esenciales del ejemplo es que las
plantillas no son procesos culturales colectivos sino objetos (formas) creados, comercializados y modificables por
individuos (categoría que incluye a los usuarios activos, claro).

Versiones y batallas
Hablamos de compatibilidad entre hard y sistema operativo, posibilitada
por la UEFI/BIOS y entre las aplicaciones o los servicios y periféricos del
sistema, aportada por el S. O. Pero no son estas las únicas, la tecnología
de información es un mundo de compatibilidades e incompatibilidades.
Hay distintas versiones de un mismo programa. Como casi todos los
objetos comercializables, los programas (aplicaciones, S. O. y todo otro
tipo de software) con mayor o menor frecuencia son ofertados en una
nueva versión. Pueden ser solamente algo distintos de una versión a otra o
en algunos casos directamente cambiar de "paradigma" (en el sentido

p. 9
restringido del término que se usa en informática) o sea pueden dar importantes saltos de estilo, modelado, estrategia de
venta, uso, estructura de funcionamiento, etc. En general aprender a usar una cualquiera de las versiones es lo más difícil,
luego dominar las diferencias es más simple. Típica, o al menos declamadamente, las aplicaciones van mejorando o
agregándose funciones de versión en versión pero, por varias razones, no necesariamente es mejor el "último modelo". Suele
haber grandes operaciones de marketing en sentido de la actualización por razones de mercado, no por razones de necesidad
o ventajas para el usuario. La selección de la opción óptima no es simple pues es un panorama rápidamente cambiante.
En algunos casos los cambios introducidos agregan funciones útiles para los usuarios, en otros la utilidad o necesidad es
para el oferente. Por ejemplo puede interesar al mercado que dejemos de realizar una tarea con determinado procedimiento
para usar otro que no es más adecuado para nosotros pero es mejor oportunidad de mercadeo para la empresa. Un clásico es
la aparición de nuevas versiones de programas que hacen aproximadamente lo mismo pero sin embargo consumen y
necesitan muchos más recursos pues a la vez de la tarea visible están controlando derechos de autor, recolectando
información para marketing, impidiendo el uso de soft no oficial e incluso saboteando a la competencia. Los sistemas
operativos suelen ser verdaderos "campos de batalla" silenciosos.
Una de las técnicas clásicas para estas disputas, en nuestro equipo pero entre contendientes ajenos, es la compatibilidad o no
entre distintas versiones de archivos. Por ejemplo un programa de la marca "A" podrá operar o no con archivos de la marca
"B" (y viceversa) no por razones técnicas sino de mercado. Asimismo, dentro de una misma línea de marca, se suele
impulsar (hasta ergonómicamente, mediante incomodidad o facilidad de uso de un menú, por ejemplo) la adopción de una
versión en particular, tanto de archivo como de aplicaciones o complementos y su estética.
De igual manera, la compatibilidad entre distintas aplicaciones y sus versiones, es usada como
herramienta de mercadotecnia. Es típico el impulso al uso de la "suit" o conjunto de programas de
una marca, asegurando perfecta compatibilidad entre ellos pero no si usamos aplicaciones de un
competidor. Esto determina, claro, condiciones de cliente cautivo llegando a extremarse si la
dependencia es de aplicaciones remotas "en la nube" que además conservan allí nuestros archivos.
Cabe destacar que dentro de las versiones de archivos (que definen como están codificados y
organizados internamente) y de normas en general (como los protocolos) existen distintos
estándares. Algunos son impuestos como dominante por una empresa o sector y otros son de tipo
público. El ejemplo histórico tal vez más conocido del primer caso es el clásico ".doc" de MS Word (.rtf por ejemplo o .odt
serían la contraparte similar pero sin propietario). Volveremos sobre el tema por sus amplias derivaciones e implicancias.
Se observa por vía de estas consideraciones que no siempre las "opciones por defecto" son las más adecuadas. Es más, casi
nunca lo son. Por ejemplo en cuanto a actualización automática, tipo de archivo por defecto, etc. Recordemos que las
actualizaciones (como las instalaciones) las realiza un soft de la misma marca o interés y en general no sabemos exactamente
que hace (o con que objetivo) en cuanto a cambios y configuración. Recordemos asimismo lo referido a plantillas,
ergonomía e impulso en general de los programas a reglar nuestras prácticas, a que trabajemos de determinada forma. Esto
es: que obremos y nos formemos según nos forme el sistema, según su estética y paradigma. Un ejemplo simple y cotidiano:
usaremos más un grupo de opciones que otro (herramientas, colores, prácticas, información, modalidades y hasta consejos,
consejeros y "amigos") según estén unos más accesibles, simplificados, cómodos y ofertados que otros grupos posibles.

Tareas y formación
Se pueden realizar tareas de distinta índole en un dispositivo. Por un lado, lógicamente, se pueden clasificar según su destino
en tareas profesionales, entretenimiento, artísticas, etc. No obstante tal vez la clasificación más importante sea el tipo de
documento sobre el que se trabaje pues determina el tipo de sistema que nos conviene usar (ver también "Guardar como...").
Este concepto que enunciamos contradice cierta tendencia dominante de la industria que nos propone olvidarnos en gran
medida del concepto de documento como un objeto asociado a un "archivo" localizado en determinado lugar conocido: un
soporte físico. Se nos propone pensar en objetivos independientemente de formatos, archivos, aplicaciones y tecnología en
particular. Es más, se nos impulsa a cosificar y centralizar "los datos", el "contenido" como lo único importante, que
debemos pensar en ello, en "el texto" (en sentido amplio) no importa dónde está, cómo se procesa, de qué tipo es, etc. Los
sistemas se encargan de todos los detalles simplificándonos la tarea y facilitando que cualquiera pueda cumplir sus metas sin
necesidad de demasiada formación e incluso atención. Los automatismos se encargan de todo, los programas, las
aplicaciones, las empresas y redes toman decisiones por nosotros y de tal manera podemos hacer todo simple y rápido.
Pues, ya profundizaremos en el tema pero por lo pronto digamos que: sostenemos como
esencial mantener plena consciencia de algunos de los mecanismos y procesos que se
desarrollan (y sus alternativas) cuando usamos tecnología. Se trata no sólo de cuestión
económica o de eficiencia, también de poder, cultura y posible dependencia acrítica.
Como se comentó, un ejemplo cotidiano es que podemos manipular cualquier sistema
sin enterarnos que existen los archivos y sus extensiones de nombre (los indicados
"apellidos" de los archivos) y eso da poder al sistema. Si observamos con detenimiento,
por ejemplo en los exploradores de disco, veremos que suelen tener "por defecto"
activada la opción de "ocultar las extensiones conocidas" (ocultar al usuario, el sistema,
que efectivamente "las conoce", se encarga de todo por nosotros en tal sentido). Otro

p. 10
ejemplo es los íconos que se nos suele presentar en pantalla, cada vez más grandes, simples y en menor cantidad año a año
(incluso interpretables sin estar alfabetizado). Pues bien, no siempre sabemos o se nos indica claramente que orden damos al
actuar sobre ellos y qué son (si un archivo o programa o dónde está). Esta forma difusa de comprender qué hacemos y
tenemos o no, se intensifica con la fuerte tendencia de integración: todos los componentes de un sistema (interfaz, disco,
explorador, sistema operativo, cuentas de servicios, nube, etc.) todo mixturado y compresión confusa pero podemos usarlo.
Es posible utilizar un mismo tipo de programa para hacer tareas de distinto destino, por ejemplo un procesador de texto
puede ser apto para producción profesional o no. También, además de su tarea específica (escribir), podemos con él, editar
fotos, mandar correo o hacer páginas de Internet, pero para cada una de estas actividades (auxiliares en un procesador de
texto) existe un programa más específico (Photoshop para fotografía, Excel para cálculo en tabla, etc.). Como es de esperar,
todo sistema especializado suele optimizar recursos y maximizar prestaciones para la función que es diseñado mucho mejor
que un dispositivo "multifuncional". El extremo de "multiuso" y de "virtualidad" es el empleo del explorador de web
(Explorer, Firefox, Chrome, etc.) para realizar todo tipo de acciones (correo electrónico, texto con formato, gráfica, video,
etc.) en vez de solamente "explorar" el servicio web (que es sólo una parte de Internet). En estos casos, el "escritorio" es "la
nube". Ya profundizaremos sobre este tema pero por lo pronto digamos que tiene sus ventajas pero no necesariamente
implica mejores prestaciones, puede significar lo contrario y además la dependencia de un servidor/servicio/costo externo.
Hay tareas complejas que necesitan varios tipos de
documentos y programas, por ejemplo, para
publicar una página en Internet, debemos usar una
aplicación de diseño visual (tal vez una de dibujo
vectorial y otra fotográfica), un programa de texto,
un generador de páginas de Internet propiamente
dicho y además agregar código ejecutable
("programación"). En estos casos es pertinente
prestar atención a la compatibilidad sobre la que se
conversó. Asimismo, obviamente cruzan el tema
los conceptos de mayor o especialización, visión o
no de conjunto, modalidades de división del
trabajo, etc. Asimismo debemos contextualizar en
todo un abanico de casos distintos (producción
industrial versus vocacional, artesanal o artística),
creación de pequeños, específicos y unitarios
productos digitales (páginas, programas,
multimedia, etc.) o el caso de empresas de gran
envergadura como ser un largometraje industrial o
un complejo servicio virtual de gran consumo. De
todos estos factores y otros depende el criterio de
análisis, no se puede generalizar.
No obstante sí podemos decir que la tendencia industrial es claramente a la especialización (de sistemas aunque luego se
integren, de grupos y de personas). También a la "división del trabajo" (en algunos casos bajo la fórmula retórica de accionar
colaborativo) al extremo que no existe ningún empleado de grandes grupos de trabajo que tenga visión completa de lo que se
realiza y en algunos casos (por ejemplo de trabajo remoto) ni consciencia real del grupo que integra. Asimismo se suele
dividir el trabajo con una fuerte frontera entre tareas "de contenido" y otras "de forma" (con todo lo que implica la sólo uso
de dichos términos, contenido/forma). Por ejemplo en un sitio de Internet, trabaja gente con formación técnica en la
producción de textos sobre los "contenidos" y otra de formación "sólo visual" en la "forma", finalmente los "informáticos"
se ocupan de lo activo y de llevar a estándares de la red los "productos". De más está decir que esta tendencia, si bien es
claramente hegemónica, no necesariamente no puede contradecirse y crear alternativas en vez de reproducir, con más razón
si se trata de producción artística, "contracultural", comunicacional, personal y/o de baja envergadura.
Los conocimientos necesarios para utilizar satisfactoriamente una computadora abarcan: los elementos básicos de
informática y los dispositivos mismos, el uso y configuración del sistema operativo y la serie de programas necesarios para
las tareas o inquietudes del usuario. Por otro lado existen una serie de contenidos paralelos, como ser los relativos a Internet,
programación o lo multimedial que escapan a un programa en particular. Es esencial conceptualizar esta problemática
focalizando lo perenne, no lo coyuntural. Esto es: no centrarse en la operativa de una aplicación o dispositivo en particular
sino en la categoría más genérica que lo incluya, por ejemplo aprender sobre "creación y proceso de gráfica vectorial" en
vez de entrenarse en el uso de determinado programa que realice dicha tarea (mucho menos en determinada versión). La
información procedimental sobre un sistema caduca rápidamente, en cambio, si comprendemos las lógicas, estrategias
inmanentes y conocemos las prácticas genéricas, si nos aplicamos a "aprender a aprender", luego simplemente debemos
"adaptarnos" a cualquier programa que debamos enfrentar. Es más: si nos formamos adecuadamente, además de poder
operar un sistema nuevo podremos adaptarlo en vez de adaptarnos. Es importante por lo tanto comprender y profundizar
para poder optar en vez de confiar en simplificaciones y automatismos, esto es: ejercer poder creativo sobre la máquinas, no
sólo reproducir sus formas. Se trata del clásico "saber por qué" y no solamente el "saber cómo" pero además de la necesidad
de una aproximación crítica y en lo posible interdisciplinaria a los sistemas, no seguir las recomendaciones de los manuales
del tema y las campañas de venta asociadas. Se podría sintetizar en el concepto: apropiarse, ni negar ni simple uso pasivo.

p. 11
Redes
Redes e Internet son temas clave y extensos, tienen un texto propio de más desarrollo, aquí sólo algunas generalidades.
Los sistemas informáticos se pueden conectar entre si, esta interconexión se puede realizar punto a punto o en red, cableada
o no. Como indica su nombre, la conexión punto a punto es una línea dedicada que une dos extremos, como tal es limitada
en su uso y vulnerable a que un corte en dicha línea interrumpa la comunicación. Una red, por su parte, toma como modelo
la clásica homónima de pescadores con nudos (aquí llamados nodos) y enlaces. La comunicación no es restrictiva de forma
"uno a uno", más bien opera a la manera de "todos con todos" si es necesario. Estrictamente, una conexión punto a punto, en
lo técnico puede ser también una red (entre dos puntos) pero obviaremos aquí ese modo por cuestiones didácticas.
Específicamente se suele definir que los equipos están en red cuando pueden intercambiar información, servicios y recursos.
Generalizando podemos decir que una red tecnológica lo es
cuando se cumplen estas condiciones pero además los
procesos de comunicación son transparentes, "invisibles"
para el usuario o "automáticos". Esto es: cualquier persona,
técnico o no, puede usar la red, concepto de importantes
consecuencias sociales y culturales. Además, nos habilita
para decir que nos sentamos "a usar la red" no a "usar la
computadora". Cuando utilizamos una máquina accedemos a
la información que contiene y, en caso de estar conectada
(pero no "en red") con otras, podemos, prestando atención a
dicha tarea, tomar y procesar datos de otros equipos. En
cambio, cuando se trata de una red, podemos utilizar toda la
información contenida en el conjunto, si así lo deseamos sin
prestar atención ni siquiera sobre donde está, simplemente
"utilizamos la red" y acedemos o incluso ejecutamos (cloud
computing) la información deseada, sea esta local o remota.
Esto deriva en un aspecto de esenciales implicancias (en e-
learning, redes sociales, e-comercio, etc.) y es el siguiente: en el mundo virtual, para un usuario, no existe el espacio y sólo
en temas técnicos o excepciones es relevante el tiempo. No existen allí las dimensiones del mundo físico como las
conocemos. La red es a-histórica y global de facto. Más estrictamente no existe la distancia, es práctica (o aparentemente)
indistinto dónde está la información. En tal sentido no hay fronteras culturales, geográficas, políticas, legales o monetarias.
Uno de los principales conceptos que configuran las redes es el de "paquetes". La información no viaja en grandes conjuntos
como puede ser un archivo, una película o tema musical. Aunque parezca una complicación, el ingenioso sistema es dividir
lo que se quiere transmitir en muchísimos pequeños paquetes de datos, cada uno con su número identificatorio, destinatario
y remitente, en vez de enviarlo en una sola pieza. Realizado el pedido de un documento, primero el emisor toma los
paquetes que lo componen y simplemente los "lanza" casi al azar a la red. Los nodos (" router") también simplemente y
rápido leen el destino y "enrutan" cada paquete en dirección adecuada (la más adecuada en ese momento). Cada paquete
puede tomar cualquier camino, según el estado de las redes y la decisión en los nodos (alguno puede dar la vuelta al mundo
para llegar a unos pocos kilómetros si el camino más corto está congestionado o falla). Finalmente, el receptor va armando
el documento pedido como si fuera un rompecabezas, verifica que estén todos los paquetes y si falta o falla alguno pide su
reenvío. Conclusión: mediante relativamente simples sistemas y pasos (no grandes programas que manejen y controlen
grandes y frágiles bloques de información) el mensaje completo, tarde o temprano, llegará a destino automáticamente,
incluso aunque parte de la red esté literalmente destruida. El proceso se realiza también en capas, cuestión que veremos y de
la misma forma que comentamos también aquí hay abstracción que permite separar el nivel de usuario de lo técnico físico.
Para hacer esto posible se diseñaron distintos modelos, se establecieron estándares y se desarrolla toda una competencia de
alternativas. Una de las piezas conceptuales clave de las redes (y otros ámbitos) son los llamados protocolos. Comencemos
diciendo que un protocolo es un papel con reglas. Ese conjunto de reglas, ya consensuado para ser utilizado como estándar
de algún proceso, puede implementarse mediante soft o hard para comunicarse. Simplemente, el protocolo dice como nos
comunicaremos, con que reglas, con que códigos. Por ejemplo, al usar un teléfono entendemos cuando está listo para discar,
cuando "da ocupado" o está "llamando" porque conocemos el protocolo de tonos que se implementa para ello. Todo aquel
que conozca un protocolo se puede comunicar, todo aquel que no tenga acceso al mismo no podrá hacerlo ni desarrollar
ingenios que lo hagan. Hay protocolos abiertos y cerrados según sus reglas sean públicas (en el primero de los casos) o
reservadas a quienes sus desarrolladores lo decidan. Este criterio de clasificación tiene importantes implicancias a observar.
Un conjunto de protocolos (y capas) conforman un sistema que englobará sus características. Se denominan modelos de
comunicaciones, existiendo también cerrados y abiertos (OSI es histórico al respecto, por ejemplo). El conocido TCP/IP es
el modelo que se implementa en Internet, ejemplo de sistemas impuestos por uso mayoritario en la competencia de
estándares de que hablamos. Se trata de un modelo abierto donde TCP e IP son los dos protocolos capitales (tanto que dan su
nombre a dos capas por ello) y se encuentran publicados, así como otros, en documentos públicos conocidos como RFC que
son fácilmente accesibles. Si deseamos desarrollar un sistema o producto para Internet tenemos que consultar dichos
documentos y respetar sus reglas para lograr satisfactoria comunicación (compatibilidad) con el resto de la red. Cualquiera
puede hacerlo, justamente, por ser protocolos públicos. De esta característica mas cuestiones económicas (y algunas
políticas) deriva la exponencial expansión de la red de redes Internet.

p. 12
Más redes
En una clasificación simplificada por criterio de tamaño podemos listar de manera ilustrativa: las pequeñas redes, que son
conocidas como LAN o redes de área local (abarcando oficinas, una pequeña empresa o un conjunto limitado de
edificaciones) independientemente que se trate de una red cableada o inalámbrica. Si es muy pequeña (un hogar o sólo un
ambiente) se suele también hablar de red personal. Cuando se trata de redes mayores se suele hablar de redes de área amplia
o WAN. Es típico conceptualizarlas no solo segmentadas en distintas LAN interconectadas, también en "troncales" o
backbone (la ruta central o ramas principales del sistema) y la periferia o ramificaciones finales, en algunos contextos
denominadas "ultima milla". La interconexión ya de varias WAN es una "inter-net" y por supuesto, la mayor y más
difundida, ya de manera global y casi excluyente es la red de redes Internet.
Dicho en términos simples: una cosa es "nuestra" pequeña red local (por ejemplo de un par de equipos y celulares más una
impresora) y otra cosa es la, también red, Internet. Además de disímiles contenidos, son conceptualmente muy distintas. La
primera esta relativamente bajo nuestro control, tiene su seguridad y privacidad, la segunda es pública, global e insegura. Es
importante por todo ser conscientes del punto (o puntos) de interconexión entre ambos espacios. Una configuración típica de
redes pequeñas es un acceso inalámbrico ("WPA", wireless access point) (el router inalámbrico, nuestro o provisto por la
empresa que nos preste servicio de Internet, el ISP, "Internet service provider") más un módem que enlaza propiamente la
LAN con el exterior. Esta vía completa: sistema operativo - conexión de red - ruter - módem- Internet, es la ruta de
interconexión, allí debemos prestar atención a la seguridad por ejemplo. Pero no debemos olvidar que pueden coexistir
dispositivos con su propio acceso a redes exteriores (como los celulares o equipos con Internet satelital por ejemplo).
El campo de las redes no se restringe a lo comentado, existen variados criterios de clasificación, estándares, configuraciones
e incontables protocolos. A modo ilustrativo y de futuro análisis en otros contextos citemos algunos casos. Por un lado
existen las redes comentadas, de especificidad informática y multidireccionales, pero también las hay por ejemplo de
televisión por cable ("CATV"). Estas por un lado son básicamente una vía de difusión "broadcast" (en el sentido televisivo)
pero que por su alto rendimiento usando coaxial o fibra óptica (véase ancho de banda), pueden transmitir varios canales,
superponer conectividad de Internet (cablemodem) e incluso, con limitaciones, señal de retorno. De concepción opuesta son
las redes telefónicas que por distintos métodos establecen enlaces independientes (de voz) entre cada usuario y las centrales.
Estas redes (por sistema asimétrico "ADSL" por ejemplo) también pueden brindar Internet. En general, con distintas
tecnologías y rendimientos, casi cualquier tipo de red hoy puede soportar multiplicidad de servicios simultáneos. Esto hace
que el panorama sea una combinación de varias técnicas pero con un alto impacto de lo económico, político y cultural. Otra
relevante clasificación es entre red pública o abierta y privada o cerrada. También se suele usar la siguiente terminología
relacionada: intranet (una LAN en general privada pero no necesariamente); extranet (una red privada o para personas
registradas pero también de "afuera" de la LAN, por ejemplo "dentro" de Internet con su propio sistema de seguridad.
Por su parte el término red celular deviene de la segmentación del área de cobertura, justamente en células independientes,
típico en telefonía inalámbrica, con una antena por cada célula o "zona". En el caso de redes de clásicas antenas "terrestes",
la persona y su celular se mueve entre celdas quietas y estas se van relevando. Ahora bien: la división del espacio, para los
usuarios es conceptualmente idéntica (gracias otra vez a la abstracción) si se mueven las antenas (correspondientes a
satélites de baja altura "LEO") barriendo el área de cobertura con celdas dinámicas ("pisadas" se llaman en este caso).
La topología no es la geometría. Por ejemplo, topológicamente, un círculo con dos orificios es equivalente a un rectángulo
con dos ranuras pero no a un círculo de igual diámetro con más o menos orificios. O también: millones de circuitos pueden
tener formas físicas "visuales" diferentes pero ser topológicamente equivalentes por ser eléctricamente "el mismo circuito",
las mismas conexiones dispuestas de distintas maneras y viceversa: dos placas muy similares no son equivalentes con que
sólo una ínfima conexión sea distinta. Lo topológico refiere más a lo funcional que a lo "formal" o visual.
En redes hablamos de topologías cuando nos referimos a la forma o distribución técnica de una red, la estructura
determinante de su tipo de funcionamiento, independientemente de su aspecto o la disposición "física" de sus componentes.
Dos redes pueden estar dispuestas de similar manera pero interconectadas según topologías distintas, ergo funcionaran de
distinta manera (aunque su comportamiento para el usuario sea idéntico). Hagamos un somero listado ilustrativo: algunas de
las topologías clásicas son el tipo "bus" (un tronco central de circulación de información), en anillo (su denominación ya nos
indica la diferencia: no hay extremos) o en estrella (un elemento central jerarquizado, conectado a cada uno de la periferia) y
la más genérica: mixta y conectados si se quiere todos con todos. Algunos de los componentes típicos en general: Ruteador
o Router (ya nombrado) / Gateway o Pasarela (conecta y adapta una LAN a una red externa de otro tipo, es su "puerta") /
Switch y Bridge o Puente (estructuran las redes, dividiendo en subredes e interconectando) / Repetidor (aumenta el alcance
en distancia de un enlace), repetidora en contexto comunicacional.
Repensando lo esencial: usamos una red, casi de idéntica manera y sin darnos cuenta si se trata de una u otra topología,
estándar, antenas o incluso satélites. Lo que no quita que muchos automatismos son los que lo logran y toman decisiones por
nosotros (los hay incluso para que nos seleccione que red usar en cada instante desde nuestra red personal hacia afuera) y
variados intereses económicos, culturales e incluso políticos participan de este juego de circulación de información.

p. 13
Internet
Internet es una gran red de redes con máquinas conectadas permanentemente, dispersas en todo el mundo. Para acceder
debemos conectar también nuestro sistema durante el tiempo deseado. Se impulsa con insistencia también nuestra "conexión
permanente", tener los dispositivos personales siempre "on line". En la red hay varios tipos de información, utilidades o
"servicios" (plataformas de comunicación de cierto tipo de paquetes, regidas por protocolos en general públicos), que
conforman distintos "cosmos" dentro de la red. Los más comunes son: la Web o WWW, el correo electrónico o e-mail, el
intercambio entre pares ("P2P"), diversos tipos de mensajería y telefonía y otros. Obsérvese que no se listaron por ejemplo
ni los buscadores ni las redes sociales pues más que "servicios" o "recursos" en el sentido técnico, se trata de servicios en el
sentido de mercadotecnia del término.
Hay soft específico para usar cada servicio pero es cada vez más común (por fuerte impulso empresarial) concentrar todo en
la web, el más "visual" de los espacios, y utilizar por ello un explorador para todo. Si no, podemos usar una aplicación
cliente de web para dicho servicio (eso son los exploradores) pero otras para el resto (un cliente de correo, otro de
mensajería, etc.), que en general al ser específicas son más eficientes. Contrariamente hay casos en que se invierte la
tendencia de integración, es cuando el modelo de negocios pasa por impulsar al usuario a la instalación de una aplicación
específica de una marca (pues, además de brindar el servicio esperado, la utilizan para recabar datos, fomentar "cliente
cautivo", generar nuevos negocios, etc.). Esto es típico de servicios de comunicación, de música y audiovisual por ejemplo y
masivamente en los dispositivos móviles (las "app"), pero en ese caso, de todas maneras, se integra en el S. O.
La Web es como una inmensa exposición universal con millones de stands donde podemos ver, leer, escuchar, comprar,
"bajar" (copiar a nuestro disco) archivos de todo tipo. Los stands o sitios se identifican por su dirección que, para nosotros,
son del tipo "URL", series de palabras y puntos. Internamente, como toda red, Internet funciona con direcciones numéricas,
las conocidas como IP (el protocolo del mismo nombre las implementa). Gracias al sistema de
nombres de dominio (DNS) podemos usar las simples URL más cómodas y recordables.
Esto fue clave en la generalización del uso de la red. Asimismo, que el modelo sea
abierto posibilitó un crecimiento rápido y variopinto, definido por algunos como
"caótico" pero en realidad marcado (especialmente en la última década) más por el
mercado y poder global que por la autoorganización social. Como todo sistema, la red
tiene forma a priori, no es plana o neutral. Sí, es innegable su masividad, pero
polemicamente a costa posiblemente de su "simplificación" y global de hecho e
irreductiblemente tal vez por su faz mercantil, no social.
El correo electrónico (o e-mail) es el ir y venir de mensajes (de texto o multimedia), a diferencia de las redes sociales,
independiente de plataformas que no sean el proveedor de la casilla de cada usuario (Yahoo, Hotmail, etc.). Si llega un e-
mail a nuestra dirección quedará en la casilla aunque estemos fuera de línea ya que ella está en un servidor on line
permanente. Luego, podemos ver y/o "bajar" dicho correo, responder y escribir otros, clasificar, agregar adjuntos, etc. como
cualquier sistema de mensajería. Lo específico del e-mail (además de mejor seguridad, costo y posibilidad de privacidad) es
que tenemos dos opciones de uso. 1) "correo web" o sea en "la nube", esto es (el uso mayoritario) entrar al sitio web de la
empresa de correo y allí usar de manera remota su cliente de e-mail con nuestro explorador y 2) usar un cliente de correo
local (Thunderbird, Evolution, Opera Mail, Outlook, etc.). Con la opción de cliente propio tenemos todo el correo en
nuestro equipo, no en la nube, eso impide que podamos entrar a verlo desde cualquier dispositivo o lugar, todas las demás
son sin duda ventajas. Las "listas de correo" son similares a las páginas Web de subscripción o los grupos en las redes
sociales o mensajerías del tipo "Whatsapp", son listas donde el usuario se anota (su dirección) y recibe periódicamente
correo con información sobre el tópico de la lista, enviado por otro usuario o un moderador. Suele ser fuente de información
mas confiable que otras vías.
En la actualidad, Internet, además de ser específicamente generadora de los servicios comentados, también es vehículo de
sistemas que hacen uso de su plataforma abierta de comunicación superponiendo sus servicios: red privada virtual (VPN),
Whatsapp y similares, telefonía sobre IP, sistemas de distribución audiovisual "on demand", circuitos de seguridad, etc.
Las plataformas sociales son hoy estrella en las redes, gran medio
masivo de comunicación pero con alto grado de debate necesario
respecto a su efecto en la sociedad y los individuos, desde lo
psicológico a lo político (pensemos en hechos como la Primavera
Árabe, las acciones electorales y ONGs globales, la presencia
activa de agencias de seguridad o WikiLeaks, etc.). Por lo amplio,
remitimos al texto específico u otras fuentes. También los
buscadores y especialmente el dominante, Google, deben ser
tratados con mayor extensión que la de esta introducción. Baste
decir que el propio algoritmo del buscador, automáticamente (sin
necesidad de personal operando si quiera) prioriza en sus
"resultados" todo aquello que "sea bueno" o elogioso en vez de
despectivo, sea lo que sea el tema, esto es: prioriza lo acrítico.
Asimismo pondera mejor siempre lo actual y masivo, descartando
en general la historia y antecedentes de la información.
Internet es a-histórica, global y a-critica de facto.

p. 14
Profundizando en la información
Un nombre, un número, un apellido, un cuento o una imagen... todo eso es información. Lo que se aprende al estudiar y
queda en la memoria es información. No debemos confundir el envase con lo que guarda, por ejemplo un libro es sólo el
envase de la información, el soporte. También son soportes de información los DVD, una pizarra, una película y en general,
cualquier cosa que pueda conservar una forma luego que se la demos. La información es justamente forma, estructura, por
oposición a lo informe u homogéneo, en alguna medida lo opuesto a entropía (solo en cierta manera pues, como dice
Umberto Eco, agregar "cierto tipo de desorden" respecto a un código u orden previo como una
lengua, aumenta la información). La manera en que están acomodados los granos de plata en
una fotografía, por ejemplo, es información. También, para aproximarnos (parcialmente) a la
idea, podríamos llamar a la información: conocimiento o datos. Una forma fácil de saber que
es y que no es información es esta: si lo podríamos guardar en nuestra memoria es información
y si no, no lo es. Pues, justamente la memoria, básicamente es para guardar información. La
nuestra, la de otra persona o la de una computadora. Ahora bien, una cosa es información y otra
(simplificando) el sentido. La forma, los bits, son información básica, estadística o matemática, la
significación depende de los códigos, contextos, enunciación, etc.
La información básica o "esencial" es asimismo la que, por ejemplo, es clave en los procesos
a nivel subatómico, al punto que es determinante en "que son las cosas". Todo está
"hecho" combinando componentes seleccionables de entre un reducido número de
partículas distintas (o "desconocidos elementos"). Las propiedades de las cosas, lo que
en realidad son, dependen (otra vez simplificando), de la información que contienen.
Tal vez, dice parte de la ciencia, "todo es información". Sí estamos seguros que la
forma es fundamental para que algo siga siéndolo, desde una obra artística a una
mesa o la vida misma. El soportar el embate entrópico de la naturaleza,
tendiente a lo informe, tibio y parejo, es "sobrevivir". Los soportes de
información (un disco, un pizarrón o un animal) resisten la
"deformación" del ambiente de dos formas posibles: lo inanimado
por resistencia mecánica (la efectividad para ello define la
durabilidad del soporte), lo vivo intercambiando energía con el
entorno. Es filosófico debate si la inteligencia, la memoria y
la consciencia son sólo estructuras de bits o hay variables
ocultas, la importancia de lo cuántico y otras incógnitas.
Hay quienes dicen (y lo compartimos) que jamás se
emulará lo humano, tal vez por suerte, pero sí es claro que la
información es esencial en todos y cada uno de nosotros y las
cosas. Pues bien, todo esto, esos bits, es lo que las nuevas máquinas, la tecnología digital, operan hasta el detalle, por
primera vez en la historia de la humanidad.
La información se puede medir, para ello se necesita una unidad, así como se necesita el gramo para medir masa. Si tiramos
una moneda al piso, esta caerá siendo cara o seca (1 de 2 opciones). Supongamos que una persona ve el resultado y otra no
¿cuánta información más tiene la persona que lo vio? Pues bien, es un bit. Justamente, la unidad tradicional de información,
el bit. es la cantidad correspondiente a conocer cual de dos posibilidades (cara/seca). La cantidad de información depende de
las probabilidades, es mayor el saber qué número saldrá en una ruleta (1 de 36) que saber cual color o en la moneda (1 de 2).
La relación matemática no es es lineal, para obtener el resultado en bits se usan logaritmos en base 2. Por ejemplo en este
caso es 1 bit = logaritmo binario de 2 (las 2 opciones). Para el caso de 4 opciones son 2 bits, para 8 son 3, para 16 son 4, etc.
Ya definida la unidad, podemos decir, por ejemplo, que tomando una letra al azar del alfabeto, la cantidad de información
que implica saber de cual se trata, será mayor que un solo bit (pues la cantidad de letras, de casos posibles, es mayor que en
la moneda) aproximadamente se trata de 8 bit. A esta nueva cantidad se la denomina byte (= 8 bits) (o también 1 B = 8 b) y
de ella se derivan los múltiplos normalmente usados en informática. Los clásicos cotidianos son el kB (kilo-Byte = 1000
Bytes), el MB (Mega-Bytes = 1000 kB), el GB ("Giga") = 1000 MB y TB ("Tera") = 1000 GB.
Así como comentamos la relevancia de tener consciencia de los archivos y no sólo las abstracciones, es importante atender a
las cantidades de información, los tamaños o "pesos" de los archivos, soportes y capacidades por unidad de tiempo de vías.
Por ejemplo, lo vemos en detalle, el "peso" de la información define costos, velocidad, posibilidades, medio, mercado y por
lo tanta incluso estética y cultura. Por ejemplo un video típico puede pesar como miles de fotos y estas como miles de textos
chicos, el formato agrega peso y mucho más la interactividad, implicando recursos y costos.
Asimismo, si bien su uso en informática no es típico, hay otra unidad, más "esencial" o "natural" que deviene de usar para su
cálculo en función de las probabilidades de logaritmos naturales (base "e"). Dicha unidad es el nat y equivale
aproximadamente a 1,44 bit y en física a cuatro baldosas de Plank que se presupone son una de las esencias del universo.
Obviamente el tema excede este texto, invitamos a consultar estas claves terminológicas usadas.
Podemos medir fácilmente la información estadística y con el bit se manejan los dispositivos pero el objetivo final de las
TIC es el sentido, el significado humano, comunicativo de la información. Eso implica interpretación, lectura crítica y, como
todo sentido, depende también de la información previa.

p. 15
Procedimientos y lenguajes
Los programas, como se dijo, son como "recetas", un conjunto de procedimientos que definen qué y como realizar una tarea,
se suele usar para ello en este ámbito y haciendo énfasis en que hablamos de procedimientos precisos, el termino algoritmo.
Esencialmente se trata de una lista de simples pasos o "comandos" que se ejecutan en secuencia, procesando información
(obteniendo "resultados") e intercambiándola con el exterior. El microprocesador es el que los interpreta y efectiviza,
siempre y cuando pertenezcan a las simples cosas que puede éste hacer, como sumar, mover y poco más. Resulta que casi
toda tarea por compleja que sea pude representarse por una serie de pasos simples, más o menos estructurados, en base a
una serie de estructuras básicas (pocas, no una gran variedad). Podemos caracterizar una de las esencias de lo informático
diciendo: "automático, mucho y rápido, pero pasos simples". La secuencia suele contener por ejemplo bifurcaciones, puntos
en los cuales, en función de alguna magnitud variable, se toma una decisión. También es una estructura típica el loop o
conjunto de órdenes que mediante un "volver atrás" se reitera varias veces (como simple repetición de un segmento de
código o condicionado a un valor externo). En esencia los programas están "siempre corriendo" dentro de algún loop,
realizando tareas o esperando órdenes externas, por ejemplo que presionemos una tecla. El ordenador nunca se detiene,
cuando menos el sistema operativo está corriendo, esperando que demos la orden de enviar una nueva receta-programa al
microprocesador para que esta tome el control.
Internamente, los dispositivos solo entienden el lenguaje de códigos binarios para el
que fueron diseñados, que resulta hermético para el ser humano y directamente
imposible para un usuario no especializado. Los especialistas programadores
pueden usar lenguajes cercanos llamados de bajo nivel. Esta denominación no es
valorativa, por el contrario, refiere a "profundo", complejo pero muy rápido, es el
más próximo a lo que comprende el microprocesador, el más "técnico". En el
extremo opuesto tenemos lenguajes que son fácilmente entendibles y utilizables
para programar (cosas simples) incluso por quienes no tienen formación específica,
son de muy alto nivel, de arriba, próximos a la superficie de la interfaz con los
humanos. En realidad hay toda una serie de "escalones" en esta clasificación, desde
el más hermético, el código binario que comprende sólo el procesador. Resuenan en
parcial sinonimia para este caso varios términos: código ejecutable, código objeto,
código máquina, etc. Pero de allí "para arriba" existen infinidad de otros lenguajes,
algunos sólo para casos especiales como el lenguaje hexadecimal, ensamblador,
etc. y en otro escalón aquellos "para expertos" (allí la estrella es el lenguaje "C").
Luego hay una miríada de lenguajes de mas "alto nivel" cada vez más próximos al
lenguaje humano y lejos de lo "técnico" en la forma de "redactar" un programa.
Algunos ejemplos: Python, Java, Perl, Gambas, .NET, JavaScript, Delphi, Pascal,
C++, Fortran, Cobol. La variedad y categorías es muy grande, incluso hay algunos
que, independientemente que puedan usarse para todo, están orientados
originariamente, son "nativos" de cierto tipo de plataforma o funcionalidad,
ejemplos: Processing o Flash (audiovisual), SQL (bases de datos), PHP (Internet),
Logo (didáctica en niños), y largo etc.
En realidad todo lenguaje tiene una orientación, un paradigma al que se orienta y
características que lo hacen apropiado para ciertos casos. A modo ilustrativo,
algunas categorías generales son: paradigmas (orientado a objetos, aspecto, datos,
imperativa o declarativa, etc.), también más o menos visual, más o menos
estructurada, más o menos abierto, monolítico versus cliente-servidor, etc. Un
carácter clave: por un lado lenguajes que se interpretan y ejecutan a la vez (JavaScript y en realidad todo "script" por
ejemplo) y por el otro los programas que primero se realizan, se escribe su "código fuente" (que cualquiera puede leer,
modificar y comprender) y luego se compila (con "soft compilador", como es de esperar) y se obtiene así el programa
ejecutable equivalente del fuente que se compiló. En el campo audiovisual un símil es el proceso render, que parte de un
conjunto de material editable a una copia final definitiva. Recordemos, como pasa con la entropía, el camino es de un sólo
sentido (de modo más o menos estricto) sólo del fuente al ejecutable, no a la inversa.
El rendimiento, las prestaciones, versatilidad, robustez, "peso" y velocidad de las aplicaciones realizadas con un lenguaje, es
en última instancia lo que interesa a los usuarios de ellas. Esto depende (además del programador y de los objetivos de la
empresa productora) de las características del lenguaje y plataformas y de las funciones que debe satisfacer. Algunas líneas
generales aproximadas a tener en cuenta: cuanto más bajo el nivel de un lenguaje más potentes, veloces y optimizadas suelen
ser las aplicaciones (en "C" por ejemplo, podemos hacer hasta sistemas operativos, no sólo app). Típicamente, todo cuanto
más simple mejor, pero en programación hay relativos: los script interpretados pueden ser muy simples en algunos casos
pero suelen nunca superaran las prestaciones y rendimiento de una aplicación compilada. Algo similar sobre los lenguajes de
más alto nivel e impronta visual: pueden acercar a no profesionales a programar pero los resultados (el soft hecho con esos
lenguajes) suele ser lento, limitado y/o poco versátil o robusto. En algunos casos, por ejemplo en arte, las limitaciones de
lenguajes muy visuales y alto nivel son irrelevantes ante las posibilidades específicas que dan. Abundan casos interesantes,
por ejemplo Pure Data es una plataforma para programación en audio (y algo de visual) que tiene múltiples escalones de
uso, desde casi un juego infantil visual hasta programación por código para expertos. O Processing, orientado
originariamente a lo audiovisual pero que tiene el potencial (similar a Java) para realizar cualquier tipo de aplicación.

p. 16
Archivos comprimidos
Primero: no confundir comprimido con encriptado (que veremos luego). Segundo: hay dos grandes grupos muy distintos de
compresión: conservativa y no conservativa. La información, como comentamos, es forma, bits, es opuesto a lo uniforme o
entrópico, a la hoja en blanco o pizarra borrada, es una forma que se puede guardar (en bits por ejemplo) pero ocupa espacio
de memoria. Ahora bien esos bits, pueden ser algo parejos, repetitivos, de formas "suaves" o no. Por ejemplo una foto de un
cielo celeste y casi sin nubes o una imagen multicolor, muy heterogénea y llena de detalles. Aunque ambas fotos sean de
igual alto/ancho, en una habrá grupos de miles de bits (puntos, píxeles) celestes iguales y pocos blancos; podríamos guardar
esa información, por ejemplo, anotando de a cientos con un solo número en vez de uno por uno. Lo mismo no podemos
hacerlo fácilmente con la foto multicolor. Esto sucede porque la detallada tiene "más información", más entropía. Si
guardamos ambas punto a punto, todos y cada uno, los dos archivos resultantes pesarán lo mismo. La del cielo, si la
guardamos en este estilo: "103 celestes tipo A, 20 celestes B, 240 celestes C, 148 celestes A, 62 blanco A, 204 celeste C, fin
de línea y así..." o mejor aún, codificando más: "103CA020CB0240CC148CA062BA204CC" lograremos guardar la misma
información en mucho menor espacio, menor bits pero igual información "valida", no redundante; en este ejemplo, los 777
píxel por línea. Vemos ya que el grado de compresión depende de las características del objeto. Ejemplo extremo: un texto
que conste de 100 millones de letras "A", comprimiendo es simplemente: "10 8A" y sin comprimir 250.000 páginas de texto.
En este estilo de principios se basa la compresión conservativa o sin pérdida. Se llama
conservativa porque conserva "perfectamente" sin ninguna pérdida lo guardado.
Comprimimos algo, lo guardamos mas pequeño y luego al descomprimirlo volvemos a tener
exactamente el original, nada se pierde. Esto nos permite usar el sistema para comprimir
cualquier cosa (imagen y sonido pero también texto, números y hasta programas). Los hay
tipo "archivo contenedor" (de otros archivos) por ejemplo los sistemas zip, arj, rar, 7z,
tar.gz, etc. Se pueden realizar varias tareas con ellos: abrirlos (para ver su contenido, extraer
archivos, incorporarle otros o borrar) y crear nuevos (comprimiendo dentro lo deseado).
Pero también hay sistemas que son un archivo ya en su estado normal comprimido, por
ejemplo los gif, png, tiff, ogg-writ, etc.. En general estos archivos, pues, serán más pequeños
que los "comunes" o no comprimidos (o parcial o escasamente comprimidos) como por ejemplo los wav, bmp, doc, etc.
típicamente más "pesados". La operación de compresión (y su inversa) no se realizan manualmente, claro, sino mediante soft
que implementa algoritmos, justamente, de compresión.
Con este tipo de sistema (o sin comprimir) podemos abrir modificar y volver a guardar archivos infinidad de veces sin que
se pierda información (que no borremos ex profeso) al recomprimir cada vez. O sea, podemos operar, por ejemplo, con un
.gif cuanto queramos sin que nada se degrade. Pero, si intentamos lo mismo con un .jpg por ejemplo, veremos que cada vez
que lo trabajamos y volvemos a guardar se va perdiendo información. Sucede que se trata en este caso de compresión no
conservativa o con pérdida que se basa en principios distintos (la percepción) y no pretende ser "exacta".
Este tipo de compresión sólo es aplicable a imagen y sonido y se orienta a
achicar lo más posible "sin que se note" y lo más velozmente posible. O sea:
pueden "achicar mucho" (gran relación de compresión) y más rápido que
los conservativos. Pero, descartan algunos datos en el proceso, excepto
excepcionalmente imposible de usar para texto o soft por ejmplo (donde
cualquier pequeño cambio puede ser vital). Es posible, por ejemplo,
encontrar una imagen comprimida así que pese la cuarta parte que el
original pero comparando ambas no notemos ninguna diferencia visual.
Sucede que estos sistemas tienen en cuenta que nuestros sentidos (en
especial vista y audición) no son perfectos sino que recolectan información
de manera aproximada, con "defectos" y eficiencia variable. La imagen y el
sonido se "construye" en realidad en nuestra mente usando los datos
sensibles pero completándolos y "reparándolos" con la memoria de
experiencia cognitiva. Por ejemplo vemos mejor el rojo que otros colores y
mucho mejor el cambio de brillo, somos más aptos para detectar
movimientos en escenas fijas que para ver detalles si todo se mueve. Tenemos hasta "zonas ciegas" que estadísticamente el
cerebro "completa". Esto es: no vemos la "realidad", simplemente percibimos información, con estos datos construimos una
idea de contexto "en la que vivimos", en general similar a la "realidad" física. La compresión sin pérdidas aprovecha esto.
Lo relevante pasa a ser lo que se nota o no, sin importar que se descarten algunos datos y detalles en pos de velocidad.
Es un procedimiento de gran utilidad que revolucionó las comunicaciones (económica y socialmente) vital en lo satelital,
TV, redes, etc. En video (la baja de costos de soporte, banda y memoria permite ahora no comprimir pero fue esencial y lo
sigue siendo en distribución y exhibición. Ejemplos clásicos son la música en mp3, formatos de video mpeg e imagen fija
como el nombrado .jpg. Otras típicas extensiones para no conservativa: ogg, mp4, mpg, mov, mkv, etc. En general se puede
ajustar la relación de compresión debiendo encontrar un punto óptimo entre calidad, tamaño y velocidad. Un componente
clave de estos sistemas es el conocido como códec (codificador/decodificador) que es donde se define el algoritmo que
realiza el proceso (en hard y/o soft). Los hay de variada calidad, abiertos, públicos, comerciales, estándares y no, etc.
Algunos fueron muy cuidados secretos industriales y batallas por las fortunas en juego. Técnicamente suelen ser de
ingeniosas hasta obvias. De forma ilustrativa: en video dos tipos: itraframe e iterframe (tener en cuenta o no las diferencias
entre cuadros) técnicas fractales por abundancia de autosimilitudes en los datos, uso de series matemáticas, etc.

p. 17
Criptografía
Las redes y los sistemas en general, por su propia esencia funcional son inseguros, pero justamente, pueden utilizarse con
seguridad haciendo uso de sistemas criptográficos o de cifrado. La criptografía se propone cuatro objetivos fundamentales:
Privacidad Que un mensaje sea sólo factible de ser interpretado por su legítimo destinatario. Se trata de la antigua acción
de "escribir en clave", encriptar o cifrar. Su opuesto, el proceso de volver legible el mensaje encriptado, se
denomina descifrar o desencriptar.
Integridad La seguridad sobre que el mensaje no sólo no fue leído por nadie en el camino a su destino, tampoco pudo ser
alterado. Se implementa típicamente con un procedimiento matemático: la función hash. Se usa para asegurar
la integridad pero también para identificar efectivamente archivos remitidos por red (en "P2P" por ejemplo).
Autenticidad La seguridad sobre que el remitente del mensaje es quien dice ser (además de saber que no se leyó ni
modifico en el viaje). Se suele buscar tal objetivo mediante la firma digital y no sólo es aplicable a mensajes
en el sentido humano del término, también a software enviado por red.
No rechazo Que, además de estar seguros que el mensaje no fue leído o modificado por un tercero, y estar seguros quién
es el remitente, éste no puede rechazar su autoría una vez emitido el mensaje. Este es un objetivo de sumo
interés para comercio electrónico y sistemas de administración, aunque también se utiliza para soft, por
ejemplo en plug-ins, códec, etc. La implementación típica son los llamados certificados digitales.
Hay muchos sistemas para lograr o intentar estos objetivos, desde épocas remotas se buscan algunos de ellos. Antiguos
sistemas como la maquina Enigma (Segunda Guerra Mundial), por ejemplo, fueron esenciales en lo bélico e incluso en el
desarrollo de la informática. Hay episodios de "guerras paralelas" entre criptógrafos y descifradores de uno y otro bando.
Las matemáticas y el proceso digital de información son elementos fundamentales de estas técnicas. Lo que se pretende es
lograr los objetivos comentados de manera veloz, segura y económica, cuestión que en algunos casos no es tan sencilla.
Para encriptar, lo inmediato es la necesidad de una clave o llave que "cierre" el mensaje para que nadie lo pueda leer
(excepto el que tenga la llave). En tal sentido se buscó siempre "cerraduras" y llaves lo más fuertes posible, que no se
puedan "romper" (término típico en la jerga) y abrir así a la fuerza. Se suelen usar algoritmos matemáticos más o menos
complejos y claves más o menos extensas según el nivel de seguridad deseado. Un camino clásico se basa en una asimetría
de dificultad matemática: es fácil obtener un número mediante el producto de varios factores primos, pero muy difícil
obtener los factores primos de números importantes, el producto que le dio origen.
El sistema de clave privada, única o sistema simétrico, uno de los más antiguos, usa una sola clave o llave para todo, para
encriptar (escribir en clave) y para desencriptar (abrir el mensaje, poder leerlo). Es simple, rápido y consume pocos recursos
para lograr el primer objetivo: privacidad. Podemos enviar por una red insegura como Internet un mensaje cifrado con este
sistema que, si la clave "es fuerte" no será leído por terceros. La fortaleza es ajustable y debe ser acorde al valor de la
información que resguarda (debe ser suficientemente prolongado y oneroso un eventual proceso para romper la clave).

Pero hay un problema: para que el destinatario pueda acceder al mensaje, debemos darle una copia de la llave. ¿cómo le
enviamos la copia con seguridad si justamente necesitamos criptografía por no contar con un canal seguro? y una vez que la
tenga ¿podemos asegurar que la guardará adecuadamente, de manera que nadie más la posea y acceda a nuestros mensajes?.

p. 18
Para lograr dialogar de manera segura (mensajes cifrados en ambas direcciones) podemos utilizar distinta clave o la misma.
De una u otra manera son dos sitios donde se debe resguardar una llave, uno está bajo nuestra supervisión, el otro no, o sea
que nunca podemos estar seguros de la efectividad del sistema. Más aun cuando es comunicación entre múltiples personas,
pues todas y cada una deben tener la clave. Para solucionar estos inconvenientes, se desarrolló un ingenioso sistema, el de
clave doble o con clave pública, que veremos prontamente.
Mientras tanto veamos el segundo objetivo, la integridad, esto es: que el mensaje encriptado, además de no ser leído por
alguien no previsto, llegue con la seguridad de no haber sido alterado. Mejor dicho: que nos demos cuenta claramente si esto
sucedió, si fue modificado. Para conseguir este objetivo se utiliza un algoritmo matemático llamado hash. Dado un conjunto
de información, pongamos por caso un texto, aplicarle la función hash es obtener de él un nuevo y pequeño conjunto de
información que si bien no contiene el original (como sí sucede en el caso de compresión), lo identifica íntegramente. O sea,
tenemos una carta, le aplicamos la función hash, obtenemos un pequeño conjunto de caracteres, una especie de huella
digital, "DNI" o "ADN" de la carta. El hash no es la carta (ni tampoco la altera). Si luego, para experimentar, cambiamos la
carta, aunque sea un cambio mínimo como una única coma y hacemos otra vez su hash, nos dará un resultado distinto.

Por ejemplo, veamos el hash real de dos textos de 20 páginas, idénticos, excepto una leve diferencia aquí expuesta.

Segmento del único cambio en el texto hash real de los 2 textos de 20 páginas
"la casa de pedro es blanca..." "7737680a155b952ce09f9b7fbf7b0df6"
"la casa de Pedro es blanca..." "9e4d65cdfec14c66f06bfd5d19102acd"

El hash identifica así al documento, diferenciándolo de versiones distintas (incluso levemente). En los sistemas P2P (de
intercambio de archivos, como e-mule, Ares, torrentes, etc.) esto se usa para identificar unívocamente un archivo y así poder
bajar segmentos del mismo de distintas fuentes (pues son idénticas si tienen igual hash). En criptografía se usa para asegurar
integridad. Ejemplo: antes de mandar un mensaje "M", aplicamos la función, obteniendo su hash "h". Enviamos a un
destinatario las dos cosas ("M" y "h"). Al llegar a destino, quien lo recibe, le aplica por su cuenta la función al mensaje "M",
obteniendo un hash "h2". Luego compara "h" con "h2", si son iguales significa que "M" no fue modificado en lo absoluto.
Así, si encriptamos un mensaje y lo enviamos junto con su hash, logramos cumplir los objetivos de privacidad e integridad.
Nos quedan los otros objetivos y las dificultades del sistema de clave única por solucionar.
En el sistema asimétrico o de doble clave se utilizan varias llaves o claves. Cada actor que desea comunicarse mediante este
sistema tiene un juego de dos llaves, una de ellas es pública, le entrega copias de ella a quien quiera comunicarse con él,
suelen publicarse indiscriminadamente incluso, pero la otra llave de su juego es privada, sólo él la tiene.
El truco consiste en que la llave pública sólo sirve para cerrar, para cifrar, mientras que descifrar sólo se puede hacer con la
la llave privada. Si dos personas desean comunicarse bilateralmente necesitan cada uno un juego de dos llaves, esto es, entre
las dos personas, cuatro en total, dos públicas (para escribir) y dos privadas (para leer). Para escribirle a B se usa la llave
pública de B y para escribirle a A la pública de A. No es necesario entregar a nadie la clave privada que cada uno tendrá para
leer, en la seguridad y privacidad de su dispositivo. Es un sistema más lento pero mucho más seguro que el de clave única.

p. 19
El algoritmo precursor con carácter de código abierto es el conocido como "PGP". Algunos sistemas utilizan un primer
contacto seguro mediante este tipo de modalidad para luego usar el canal seguro así creado para enviarse claves simples y
continuar (por un corto tiempo seguro, una "sesión") comunicándose ágil y rápidamente con ella. Cuando nuestro cliente de
web nos informa que se está estableciendo una "comunicación segura" (por ejemplo los sitios HTTP S), se trata de sistemas
de este tipo automáticamente operados.
Si las claves son suficientemente largas y el código no tiene "trampas" el sistema es en la práctica inviolable. Para ello es
indispensable que el código sea abierto, o sea accesible su código fuente, de manera que podamos auditarlo y ver, por
ejemplo, que no tiene "puertas traseras" escondidas. A tal punto es seguro si es transparente (lo único seguro en Internet por
ejemplo) que en su momento se definió en EEUU a este tipo de tecnología como "arma de guerra" para que fuera afectado
por los controles de exportación correspondientes a tales artefactos.
Volviendo a los objetivos: la firma digital intenta asegurar el tercer objetivo (junto con los dos primeros), identificar con
seguridad al remitente de un mensaje. El sistema consiste en realizar y enviar el código hash de los mensajes, pero realizar el
proceso con la llave privada del remitente. O sea, la llave privada del remitente cumple dos funciones: por un lado sirve
esencialmente para leer mensajes (los que le fueron enviados encriptados con su llave pública) pero tiene otra función muy
distinta: en sentido figurado "ser el lápiz" con que se escribe o firma el hash. Como la llave privada únicamente la tiene el
remitente y dueño de la misma, sólo él puede escribir "con ese lápiz", "con esa letra", "su firma". Así realizado el hash, es
remitido junto con el mensaje, como todo hash, y sirve para verificar integridad, pero además, el receptor comprueba si el
hash fue "escrito" con la llave privada de quien dice ser el remitente. Para hacer la comprobación se aprovecha también una
doble funcionalidad, en este caso de la llave pública que, además de permitir escribirle en clave a su originador es la de
verificar su firma. O sea, el destinatario comprueba si la firma hash fue
realizada con la llave privada del remitente, usando la llave pública del
remitente (en realidad la comprobación la puede realizar el destinatario o
cualquiera que disponga de la llave pública correspondiente). Si la
verificación es positiva, como el único que tiene la llave privada de "A"
es "A" queda comprobado el remitente.
Todos estos procesos aparentan ser muy engorrosos y demandantes de
tiempo y atención pero en realidad, una vez habilitados, se realizan casi
totalmente de forma automática. Esto es: también de forma "transparente"
o invisible al usuario. Situación que tiene sus ventajas e inconvenientes.
Un buen sistema de instalación cuidará que el origen del soft instalado
(que puede, como todo, tener su firma digital) sea el esperado, que su
hash verifique que se corresponde con el original, o sea que ni fue
modificado sin autorización o alterado por errores de comunicación, por
ejemplo. Por lo tanto en principio no son necesarios conocimientos
técnicos para "usar" o beneficiarnos de estas tecnologías. Tampoco necesitamos aplicarnos a ello ya que los controles son
permanentes y automáticos (como un sistema antivirus). Ahora bien: si confiamos, pues, en la empresa o entidad y canal
proveedor de dicho software, excelente. Si desconfiamos del garante de estos procesos y sus sistemas no sólo son
automáticos sino que el software es "cerrado" (nadie puede ver que hace en realidad), podríamos definir al sistema como de
"seguridad ajena e inseguridad propia".
Todo esto es la famosa firma digital, como se comentó, si es transparente y confiable es sumamente útil, pero tiene todavía
un problema en relación a los cuatro objetivos iniciales: el remitente puede alegar "yo no fui", que en caso de comercio o
gestión legal electrónica es un factor esencial.
Esto se pretende solucionar con el concepto de certificado digital. Ya se trata de una cuestión más legal y administrativa que
técnica. En los certificados entran en juego entidades certificadoras que figuradamente podríamos calificar como
"escribanos virtuales". Quien desea identificarse inequívoca e íntegramente (ya sea una persona, empresa, servicio o un
software) solicita un "certificado digital" que no es más que un juego de llaves privada-pública, pero dónde la pública es, a
su vez, firmada con la clave privada de una entidad certificadora. Tienen valor un tiempo pautado, durante el cual la entidad
certifica identidad y el usuario se compromete a no negar su firma y debe cuidar su llave. Ya vencido carece de valor legal.
Combinaciones de sistemas de este tipo se utilizan para gestión bancaria, formas de pago on line, etc. No obstante, para
aprovechar la seguridad para fines de comunicación privada (por ejemplo correo electrónico o mensajerías), generalmente
debemos nosotros atender a que se empleen métodos y claves adecuadamente en los sistemas que utilicemos o incorporar su
funcionalidad agregando aplicaciones o accesorios necesarios a las que ya usamos.
Todos lo dicho (por ejemplo la inviolabilidad del sistema de doble llave) es así en informática tradicional, la cuántica traerá
novedades al respecto. Implicará hacer vulnerables estos sistemas "clásicos" y a la vez posibilitar métodos cuánticos sí
inviolables (pero en principio sólo al alcance de individuos o entes de grandes recursos). Uno de los cambios radicales es la
posibilidad de usar los estados entrelazados cuánticos y superposición. Es un complejo y anti-intuitivo grupo de fenómenos
observados en la naturaleza, por ejemplo que algo (un "qbit") pueda ser 0 y 1 a la vez, y que se pueda procesar infinidad de
cálculos en paralelo. Rarezas como comunicar a velocidades aparentemente contradictorias con la ya clásica física relativista
y que, además, pueda ser detectada fácilmente cualquier ruptura de seguridad en el camino. En sentido opuesto,
posiblemente las grandes velocidades de proceso paralelo cuántico y su lógica difusa, hagan resolubles problemas complejos
en los que se asienta la seguridad clásica. O sea, por ambos lados, nueva criptografía, en principio, intrincada y cara.

p. 20
Documentos activos
Como se comentó, los archivos con información se pueden clasificar en documentos y código ejecutable, dicotomía
fundamental pues la naturaleza de la información a cada lado de esta frontera es distinta. Mientras del lado de los
documentos tenemos "datos" o "sustantivos" (texto, imagen, sonido, etc.) del lado del código ejecutable tenemos "verbos",
códigos que representan órdenes, sentencias o comandos que desencadenan acciones: es el lugar para términos como
programa, aplicación, soft. En gran medida podemos decir que del lado de los datos se trata de material "pasivo" estático,
quieto, diríamos, con cierta licencia: "sin vida". El código ejecutable, por su parte, si bien no podemos caratularlo de "vivo"
si es válido conceptualizarlo como dinámico, activo. En los primeros años de la informática podíamos visualizar esta
frontera claramente, los unos y los otros, pero no en la actualidad ya que existe información "híbrida" (hoy casi toda lo es).
Por un lado recordemos que "el significado" de la información siempre es "relativo" pues entre otras cosas depende de su
forma, de su información en sentido físico pero también del código o lenguaje con la que leamos. Esto es: a priori todo bit
puede ser activo o pasivo (y cualquier tipo de pasivo: reina la sinestesia) depende del "código lector". No obstante hablemos
de los archivos, los conjuntos formales de tatos que sí tienen un, al menos declamado, carácter específico (datos o código).

Los híbridos siguen siendo documentos pues se trata de información de nuestro interés, para ver, transmitir o procesar, no
herramientas para realizar esas acciones. Seguimos hablando de materiales a procesar pero que pueden contener código
ejecutable (bits destinados a serlo, escritos con esa intención y lenguaje acorde) además de datos. Por ello la denominación:
documentos activos. No hablamos de archivos extraños sino cotidianos, por ejemplo los archivos de procesadores de texto
como los conocidos DOC son activos. Deberíamos decir documentos "potencialmente" activos ya que pueden contener
código o no. Cuando usamos el documento vemos texto o imágen, no códigos. Estos, presentes o no, siempre son ocultos,
sólo se manifiestan por sus acciones. Pueden contenerlo pues el formato de archivo fue diseñado para que así sea.
El objetivo de permitir la presencia de código ejecutable en documentos es, justamente, para que puedan ser activos, para
que además de mostrar información realicen acciones. Estas pueden ser, por ejemplo: automatismos para que se sitúe en
alguna de sus partes que no sea el principio al abrirlo, que nos pregunte algo y obre en consecuencia modificándose a si
mismo, que automatice acciones repetitivas que haremos con él; controlar corrección de datos ingresados en formulario, etc.
O sea: un documento activo podría hacer casi cualquier cosa, manual o automáticamente, que pueda realizar un programa en
un ordenador. A estos segmentos de código o pequeños programas dentro de documentos se los suele denominar macros.
No obstante quede claro que se trata de documentos no de programas, estos últimos "funcionan", "corren sobre" el sistema
operativo, actúan solos. Los documentos activos, en cambio, necesitan de su aplicación específica para que ejecute el código
que contenga. Por ejemplo, el programa para video VLC, funciona simplemente con el S. O. adecuado funcionando pero un
documento activo de MS Excel, digamos, por más que tenga código ejecutable no actuará a no ser que abramos el
documento con el programa MS Excel. De hecho podemos incluso ver el contenido del archivo con otro programa sin que se
ejecute su código. En el ejemplo MS Excel hace las veces de intérprete o "intermediario" de los comandos del documento.
Actualmente casi todo es "mixto" y tienen elementos activos. "Todo se mezcla" no sólo entre activo y no, también entre local
o "físico" y remoto o de nube, y entre aplicación y datos. En Internet de hecho incluso el formato nativo de Web, el código
HTML puede ser activo. Es importante ser consciente de estas categorías de tipos de información y usarlas como ejes de
análisis: saber qué estamos manejando o recibiendo por ejemplo. No importa "clasificar" un archivo en determinada
categoría, como siempre lo clave es comprender los criterios de clasificación, las categorías, para interpretación y
apropiación critica. Aclaremos que la palabra activo se usa también en un sentido más simple: aquello que está en uso.

p. 21
Virus
El código ejecutable genera acciones y suponemos que serán de beneficio y las conocemos. Pues bien, los virus informáticos
son también código pero acciones no documentadas (no son conocidas o las esperadas) en general tienen propósitos dañinos
pero no necesariamente. El tema es complejo y con múltiples implicancias por lo que sólo haremos una introducción.
La palabra virus deviene de la similitud con los biológicos que son pequeños segmentos de código genético (información
ejecutable...). Pues, los informáticos son pequeños conjuntos de código ejecutable. Ni biológicos ni informáticos pueden
realizar acciones solos, son órdenes, no dispositivo ejecutor (ni células ni hard y S. O.). Las células ejecutan acciones según
sus "procedimientos" de ADN produciendo proteínas por ejemplo. Los virus biológicos se adhieren a una célula, inyectan en
ella su propia información y la célula infectada deja de fabricar lo que hacía para convertirse en una fábrica de virus. No más
que eso sabe hacer el virus biológico, por ello es discutido si es "algo vivo". Los informáticos, se intercalan en un programa
(en su cadena de órdenes) logrando que ejecute las acciones virales en vez (o además) de las previstas en la aplicación.
No hay terminología universal estándar y como siempre, definir es opinar, por eso decimos "acciones no documentadas". Es
sutil la frontera entre código premeditadamente dañino y aplicaciones que causan daño o que realizan acciones no visibles
consumiendo recursos de nuestro equipo, por ejemplo, para fines que no son de nuestro interés o aun contra ellos. El "virus
informático" comentado en el párrafo anterior corresponde que sea llamado así pero es típico usar el término para referir a
muchos de otras características. Podemos hablar de una gran categoría genérica que engloba a virus "bacterias" y otros tipos
de código nocivo pero que se suelen mal denominar virus. La tipología es extensa y mixta, nombremos algunos ejemplos:
Gusano, o worm. Programas (ya no sólo virus) que se reproducen intensamente y se transmiten en red. Viajan por correo u
otros métodos. Suelen afectar los sistemas simplemente agotando sus recursos o servir de vehículo a código de otra especie
como virus o trampas. Pueden ser archivos adjuntos a e-mail con extensiones (en muchos casos con extensiones encubiertas
por otras inofensivas en un archivo con dos o más extensiones en su nombre)
Troyano, o Caballo de Troya. Simplemente un "falso" programa (o engaño) que cumple o no una función conocida pero
además realiza otras acciones ocultas o dañinas (los certificados pueden ser una prevención en este caso).
Bomba lógica. Procedimiento oculto de un programa normal. Se activa ante un evento (o su ausencia, como ser un
desactivador) disparando acciones no documentadas (bloqueo por mora, apertura de puerto, borrado, robo, etc.)
Hoax o bulo. Textos con falsos avisos de peligro, beneficios o similares, redactados impulsando su propagación voluntaria.
Terminan generando saturación de recursos en las redes de manera similar a la que produciría un worm real a pesar de ser
solo texto. Un caso particular son aquellos que informan sobre un supuesto virus que hay que borrar cuando, en realidad, lo
que logran es que el usuario borre un archivo normal y vital de su propio sistema.
Trampas. También llamados puertas traseras (back door) o trap door. Soft que habilita
entradas al sistema (puertos) para que su autor pueda operar el equipo vía remota en red.
Veamos otra clasificación ilustrativa por características llamativas: Los virus Stealth o de
ocultamiento (que utiliza técnicas para ocultar síntomas de infección). Los virus con
autoencriptación o self-encryption (se encriptan, se escriben en clave a si mismos para
dificultar su detección). El metamórfico (tiene un mecanismo de mutación). Los
actualizables (programados para conectarse a cierta dirección y de allí bajar actualizaciones u
órdenes). Los virus controlados remotamente (su autor puede actuar sobre el equipo infectado
de manera remota, por ejemplo con pequeños servidores).
Es de destacar que tratándose de virus, o sea de código activo que no puede ejecutarse por si solo
como un programa, necesariamente necesita un soft anfitrión, un archivo que en algún momento se
ejecute y así ejecute el código viral. O sea: es imposible que un documento (no un programa) contenga
un virus, una imagen, por ejemplo, nunca será ejecutada sino "mostrada" por el ordenador de manera
que aunque le agreguemos código solo serán signos ininteligibles. Se intuirá ya la excepción: los
documentos activos. Justamente un tipo de virus son los conocidos como "virus de macro". La forma de
cuidarse de este tipo de código malicioso es indicarle dentro de sus opciones a la aplicación vulnerable que no
ejecute macros aunque las tengan los documentos que abrimos.
Hay medidas para protegerse, una de las mejores consiste en dos actitudes: no ejecutar código (archivos en general) que no
sepamos si están "limpios" (o de origen "no confiable" o que puedan contener acciones no documentadas no deseadas) y
deshabilitar la mayor cantidad de automatismos (todo lo superfluo). La otra, más conocida y simple pero menos segura,
generadora de dependencia y obligatoriedad de confiar en un proveedor es los sistemas antivirus. Se trata de software,
típicamente residente y/o remoto, que inspecciona los archivos en busca de virus. En general son de "búsqueda de virus
conocidos" o sea que detectan sólo aquellos documentados en su base de datos. La necesaria actualización permanente, la
imposibilidad de privacidad y su uso como "nicho" de negocios son algunos inconvenientes. En todos los casos el tipo de
sistema y dispositivo que usemos (si es libre o cerrado) (Linux versus Windows o Mac, por ejemplo) es clave. Todo sistema
es vulnerable si tiene automatismos y si no tiene no funciona, pero la ética de diseño y calidad es lo determinante.
El origen de los virus es una discusión en proceso. Por un lado se sostiene que es cierta maliciosidad o "conducta" marginal
lindante con el simple sabotaje, por otro se habla de "cultura hacker", un complejo entramado social de características
libertarias. No faltan quienes sostienen que las empresas fabricantes de antivirus tienen que ver con su proliferación.

p. 22
Documentos distribuidos y más abstracción
Para el caso de datos (o sea excluyendo lo ejecutable) hasta aquí hablamos indistintamente de documentos o archivos pero
es conveniente establecer una distinción. El término documento es previo a la informática, su concepto en bibliotecología
refiere a un conjunto de información en cualquier soporte (roca, papel o electrónico). En cambio archivo (en el sentido que
usamos aquí) es información digital agrupada. Documento se orienta esencialmente al "contenido" y archivo a su soporte o
contenedor. En informática inicial eran casi sinónimos pues a cada documento correspondía un archivo y viceversa pero eso
cambió. Un archivo es electrónico, un documento es todo conjunto de información delimitable bajo un título o criterio: uno
o más archivos, un libro, hoja, párrafo o colección, una foto, film, disco, sitio web, etc. en cualquier soporte. Esta relación
entre archivo y documento nos permite establecer un criterio de clasificación que determina tres tipos de documento:
 Documento simple. El caso histórico: un documento corresponde a un archivo y viceversa.
 Documento múltiple. Corresponde a varios archivos relacionados y en un mismo soporte (y por ejemplo una carpeta).
Un caso: ".docx" compuestos de imágenes y textos no incrustados en un sólo archivo sino referenciados dese él pero
guardados separados. Otro caso: grandes textos, zip o bases de datos guardados en partes. Lo que "vemos", lo que es
de nuestro interés es el conjunto, el documento, que corresponderá como mínimo a una carpeta, no a un archivo.
 Documento distribuido. Se trata de un documento múltiple pero cuyos archivos están distribuidos en cualquier lugar
de una red. Caso típico y extremo es el de un sitio web, que observamos en el explorador como una unidad conceptual
pero físicamente puede corresponder a un conjunto de archivos con datos dispersos por todo el mundo.
Es importante diferenciar entre simple y múltiple pero mucho mayor es la distinción entre los distribuidos y el resto. Sólo
tienen sentido y pueden existir en redes. Son una instancia, con entidad sólo virtual, no están en ningún lado en particular (en
el caso de Internet podemos decir, pero sin valor: "están en el planeta"). No pueden ser poseídos realmente. Podemos verlos
y hacer instantáneas (en sentido fotográfico) pero no "tenerlos" ni aun siendo sus creadores. Una vez que se distribuyen o
"publican" dejan de ser nuestra propiedad. Al "guardar" en el disco de nuestro dispositivo una página web, en realidad
estamos haciendo una copia (en formato documento múltiple o simple) del documento distribuido que es dicha página. Esta
copia será un nuevo documento, el distribuido original seguirá en la red e instantes después pueden dejar de ser iguales.
No es posible controlarlos con seguridad, modificarlos o eliminarlos. Suelen ser
indestructibles ya que una vez publicados pueden ser replicados y dispersos en toda la
red por otras personas. Hay casos de documentos publicados, hirientes, políticamente
inconvenientes o legalmente comprometidos, que fueron inmediatamente retirados de
su sitio original por su autor pero siguieron circulando réplicas de imposible control.
Dados sus componentes dispersos, son muy dinámicos, cambiantes por distintas vías e
inestables. Esto determina que nunca podemos estar seguros de su contenido en cuanto
a fidelidad al original. El documento en realidad se recrea en cada oportunidad que
alguien lo convoca para consultarlo, no existe más que de manera potencial hasta ese
momento. Existen métodos de control de la integridad de los archivos pero para
aplicarlos con regularidad a un documento distribuido deberíamos hacerlo en cada uno
de sus dispersos componentes y en cada oportunidad de consulta. Esto requiere de
infraestructura compleja, estandarizada y fundamentalmente generalizada que no existe
actualmente. Es posible la proliferación de réplicas apócrifas.
Por estas razones, con implicancias culturales, económicas y políticas, no es lo mismo "pensar en documentos" que en
archivos y obrar acorde a ello. Es capital la relación del concepto con el de propiedad de la información, en el sentido de
eventuales derechos y en el de posibilidades de acceso, control, restricciones, etc. En la práctica todo documento es "mixto",
estas son categorías analíticas para acceder conscientes a la información, comprender y hacer lectura crítica, no clasificar.
"Cloud computing" (o "nube") es un modelo de negocios que acelera la tendencia empresarial e institucional a pensar en
documentos (en vez de archivos). Este "paradigma" necesita focalizarnos en documentos y que estos sean distribuidos, que
no nos interese dónde o cómo están. La "integración" de las interfaces visuales de los dispositivos con las redes son clave en
este sentido, también los soportes on line de información y los "servicios" remotos. Justamente, el modelo "nube" es
básicamente convertir todo en servicios. La problemática se expande con información sensible o documentos activos. El
tema es complejo, con aspectos positivos (tareas grupales, portabilidad, información dinámica, etc.) aunque con muchas
implicancias preocupantes. Cualquier clase de documento puede ser distribuido, incluso bases de datos y multimedial pero
lo central de la "nube" es cuando se trata de software remoto (usar soft no instalado sino en red). La primera denominación
de "cloud" era ASP (application service provider). Esto es: "alquiler" como servicio en vez de posesión de aplicaciones.
Procesamos nuestros documentos (y por esto siempre distribuidos) en soft remoto (en Internet) dispuesto por nuestro
proveedor, gratuitamente o pago por cuantía de uso (servicio en vez de bien). La disponibilidad, propiedad y control de la
información es un llamativo aspecto fuera de agenda. Suele considerarse irrelevante si un documento o app está on line o en
nuestra posesión no mediada. El extremo del documento distribuido es las aplicaciones distribuidas y "la nube" el modelo.
Convergencia: otro emergente que necesita de nuestra abstracción, que "pensemos en documentos". Es la conjunción en
una misma vía o plataforma de varias categorías formales y pragmáticas de información (extremando: audiovisual, radio,
TV, telefonía, prensa, correo, localización, e-comercio, e-learning, textos, música, juego, etc.) todo de manera unificada en el
destinatario pero distribuida en las redes en su origen y proceso. Una problemática compleja que trataremos en el texto
sobre redes. Pero sí anticipemos que convergencia es, de facto: globalización, concentración empresarial, vértigo
informacional y penetración, no determinante pero sí relevante, en toda actividad humana.
p. 23
Componentes formales de la información
Hay un confuso panorama terminológico en cuanto a tipos de información, plataformas y lenguajes. Abundan neologismos
como hipermedia, hipertexto, transmedia, etc. A falta de estándar definimos y adoptamos un criterio propio arbitrario.
Cada vez es más común el uso de texto enriquecido (los documentos de procesadores de texto típicos) en desmedro del texto
simple ("sólo texto", "risch text", "texto llano" o "texto plano", los archivos .txt por ejemplo). La ventaja esencial es la
posibilidad de incluir formatos en tipografía y párrafos, colores, imágenes, etc. Además la disponibilidad de potentes (pero
simples) recursos de edición en las aplicaciones específicas. El genérico es .rtf pero hay muchos: doc, docx, odt, pdf, etc.
Al hipertexto, contenga o no formatos e imágenes (como texto enriquecido), lo define el uso de vínculos (saltos, links,
enlaces, hipervínculos, todos sinónimos). O sea: es hipertexto si tiene palabras u objetos que hacen "saltar" el texto a otra
parte o documento al hacer clic en ellos, aunque sea texto plano. Es el contenido típico de Internet pero también de
documentos no distribuidos, archivos de ayuda o simples rtf con saltos internos a modo de referencias o índice activo. Las
implicancias sobre formas de lectura y producción son inmensas e importante su difusión gracias a las redes. Escapan al
alcance de este material (ver el específico) pero citemos títulos: lectura no-lineal, texto ilimitado y ramificado, lo distribuido,
la importancia de las marcas de forma y funcionales (lenguaje HTML básico e informática semántica respectivamente).
Lo audiovisual refiere obviamente a cine, TV y toda combinación de audio y video sin texto. Un caso particular es el
subtitulado por razones de idioma. Cuando lo audiovisual usa texto no de esta manera auxiliar sino como lenguaje,
componente, dimensión, comunicacionalmente, es multimedia (sea o no "electrónico"). O sea: no es el soporte o técnica lo
que define la "especie" de información sino el aporte como lenguaje de los componentes . Hay audiovisual con texto que no
es multimedia (subtitulado), hay audiovisual fuera de todo sistema digital y sin interactividad, incluso film que sí lo es (uso
estético de tipografía en cine por ejemplo). Hay hipertexto hecho con texto plano, sin formatos o imagen (lo que define es
que tenga links). Por su lado: el extremo de convergencia, audio, video, texto, links (y más componentes o dimensiones si se
utilizan) es lo llamado aquí hipermedia. Se suele usar hipermedia como sinónimo de multimedia, y por su lado multimedia
antiguamente y en algunos contextos se restringe a soportes interactivos of line (dvd, instalaciones, etc.) pero no adoptamos
tales criterios. Intentando una somera normalización adoptamos las incumbencias expresadas en el esquema de la figura.

Los documentos distribuidos hipermediales pueden ser de varios tipos, al menos tres. Siempre obras distribuidas (ya sea
multiplicadas o, al contrario: segmentadas en partes) pero son dispersas no sólo en red sino entre distintas plataformas (TV,
web, redes sociales, prensa, merchandising, juegos, celular, realidad aumentada, domótica, etc.). No hay estándar fijo,
adoptamos aquí la siguiente nomenclatura. Como siempre todo es mixto, lo clave es los criterios, no clasificar, por ejemplo:
un objeto repetido similar o dividido en partes / cada parte completa o no / abierto a aportes o no / relevancia de relato, etc.
 multiplataforma: un producto comunicacional, artístico o industrial, repetido (dentro de lo posible de manera similar)
en distintos medios y formatos. No un conjunto dividido sino una unidad multiplicada (por ejemplo: libro y film).
 crossmedia: lo inverso: la obra es un conjunto de segmentos y en distinta plataforma cada uno. Sólo el conjunto es un
objeto completo y comprensible, cada parte no. Se suele hablar de mitologías o universos donde se desarrolla un relato.
Cada parte tiene señales, indicios, que concatenan fuera (como una serie, en otra plataforma) ideal para cliente cautivo.
 transmedia: como crossmedia pero cada parte suele ser completa en sí misma (aunque el conjunto potencia y expande
el discurso, claro). Pone énfasis en lo interactivo, en la construcción colectiva con aporte del espectador/consumidor.

p. 24
Escala de pesos
La información en realidad no pesa pero es típico referirse al tamaño del archivo (o soporte en general) que la contiene con
la figurada imagen de su "peso". O sea, hay archivos pesados (los grandes) y livianos (los pequeños). Deviene de la similitud
de la cotidiana manipulación de objetos (pesados/livianos) y la operación con archivos. Es más dificultoso, se necesita más
tiempo, energía y recursos para las "cosas" pesadas (más memoria, ancho de banda, velocidad de proceso, etc.).
Si bien no podemos decir taxativamente que un archivo de imagen por ejemplo es más pesado que uno de texto (ya que una
imagen pequeña será de menor tamaño que un gran texto). Sí podemos establecer una escala comparativa en función de
valores típicos para las distintas "naturalezas" o componentes formales de la información.
Esto es relevante en la práctica cotidiana. Por ejemplo es inconveniente mandar archivos grandes, muy "pesados" (digamos
1 GB) por sistemas diseñados para sólo texto o poco ancho de banda especialmente si se paga por cuantía de uso. A la
inversa, es absurdo preocuparnos por el espacio que ocupe en un disco un archivo liviano de sólo texto (digamos 5 kB). Pero
además, y fundamentalmente, son claves las implicancias estéticas, culturales, económicas y políticas de esta problemática.
El ancho de banda es un índice de la capacidad de los sistemas de transmisión. No es muy correcto pero sí didáctico
asimilar el término banda a "camino" por el que circula la información, de manera que el ancho de banda será el ancho de
ese camino y su consecuente capacidad. Por su parte, el publicitado término " banda ancha" corresponde a un camino
sumamente ancho y veloz en cuanto a su capacidad de transporte. Como con cualquier caudal (en este caso "caudal de bits")
hay una relación inversa entre el tiempo necesario para el transporte y la velocidad en que lo realizamos, o sea: a mayor
ancho de banda menor tiempo y/o mayor información/calidad (y viceversa para menor ancho de banda).
Cuestión similar a esta expuesta
"capacidad de transporte" se da
con la necesaria "capacidad de
procesamiento". Cuanto mayor
es la información o menor el
tiempo que requerimos se tarde
en un proceso, mayor deberá ser
la velocidad de operación.
Los contenidos, sinónimo aquí
de la señal o datos útiles, son
simplemente la información que
deseamos guardar o transportar.
Como observamos los hay de
distintos tipos y vemos en el
gráfico que también de distintos
pesos relativos típicos. Cuanto
más pesados, mayor necesidad
de ancho de banda para lograr
velocidad/calidad aceptable.
Los de mayor peso son los
conocidos como contenidos de
banda ancha y en terminología
de la cátedra: documentos de banda ancha. Se considera aquí que el uso del término "contenido" debe evitarse siempre que
sea posible, por su asociación al concepto "separación forma/contenido", muy útil en contextos pragmáticos de producción
pero de impronta acrítica al momento de mensurar el valor discursivo de "la forma".
Estos contenidos no son sólo más pesados, existe una serie de implicancias y factores directamente proporcionales. Uno es,
simplificando conceptos: la "capacidad comunicacional" en cuanto a lo que podríamos llamar "espectacularidad" de la
información (pensemos en publicidad y propaganda por ejemplo). Compárese una página de texto en blanco y negro con una
gran pantalla con efectos especiales en cuanto a la función publicitaria de "llamar la atención". Asimismo, en cualquier caso,
piénsese en la efectividad de insertarse en la industria cultural. Por otro lado es evidente la gravitación de la de información
"pesada" en la sociedad y la cultura. Desde una perceptiva estética los contenidos de banda ancha generan un mundo propio
(cultural, mercantil, ideológico). Tópico complejo, polémico y hasta históricamente relevante para un tratamiento sintético.
Señalemos al menos la empírica relación entre: más rasgos audiovisuales, efectos y despliegue, automatismos, interactividad
e información vertiginosa y cuantiosa, con: percepción emotiva (por oposición a racional) y la lectura acrítica.
Finalmente: sugerimos ya que cuanto mayor es la hegemonía del modelo "de espectacularidad" o modelo Hollywood, menor
es la posibilidad de difundir material que no responda a ese aforo. Penosamente, desde el punto de vista económico, la banda
ancha no solo determina mayores recursos necesarios y costos del lado del destinatario, también incrementa sumamente los
costos de producción. Esto es fundamental pues condiciona la cantidad de posibles "emisores" de información. Seguramente
no es casual (fuera de lo técnico/económico), la proliferación de sistemas asimétricos como ADSL (con mayor ancho de
banda para recibir que para emitir) y la gran promoción de la banda ancha y sus contenidos o documentos. Cuanto mayores
son los costos, dificultades y necesidad de tecnología de punta, menos personas pueden decir y más sólo escuchar.

p. 25

Вам также может понравиться