Вы находитесь на странице: 1из 24

Tema1 La informática y los sistemas de información

TEMA 1.

La informática y los sistemas de información. La informática: Concepto, origen, evolución


histórica y tendencias. Tecnologías de la información y las comunicaciones: Conceptos
básicos, origen, evolución histórica y tendencias. Estructura y elementos de un sistema de
información. Funciones de la informática en las organizaciones complejas. Funciones de la
informática en el ámbito de la Administración.

1. LA INFORMÁTICA Y LOS SISTEMAS DE INFORMACIÓN.


Los Sistemas de información surgen por la necesidad de contar con un conjunto de medios que permitan de
forma sencilla integrar obtener y relacionar datos e información.

La información se considera como un recurso estratégico y ayuda a las organizaciones en la competencia de


los negocios, por esta razón las empresas deben decidir un buen sistema de información, adecuado para su
negocio para mejorar su productividad y eficiencia.

Los sistemas de información son elementos relacionados entre si que recolectan, almacenan, procesan y
distribuyen la información para apoyar la toma de decisiones, el control, el análisis y la visión en una
institución, además de ayudar a los administradores y personal a analizar problemas, visualizar cuestiones
complejas y crear nuevos productos.

Los sistemas de información transforman los datos puros en información útil mediante tres actividades
básicas: la alimentación, el procesamiento y la salida, todo esto en un ciclo evolutivo, retroalimentandose para
ayudar a las personas a evaluar y corregir la etapa de la alimentación.

Los sistemas de información, si son bien empleados, ayudan a los negocios a competir en los entornos en los
que se desarrollan.

La información es uno de los recursos más importantes para las instituciones. La presencia de un problema
busca una solución, se llega a esta mediante una decisión, que se toma según la información que se tenga.

En lo económico, los sistemas de información reducen los costos y el trabajo de inventario, además de
aumentar la productividad. En lo no económico ayuda en la mejora del mismo sistema con la percepción de
valores.

La estructura de los sistemas de información en especial los sistemas de las administraciones debe estar
enfocada a los usuarios, es decir a los propios gestores. Para estos, la información debe ser útil, comprensible
y actualizada. Los contenidos son muy importantes, por lo cual se deben establecer áreas temáticas que
estructuren dichos contenidos. Igualmente se trataría en los casos de que los Sistemas Documentales
estuvieran enfocados para informar a los ciudadanos y a las empresas en ámbitos locales, regionales,
nacionales o internacionales.

Existe también la necesidad de un marco normativo que estandarice los Sistemas de Información, su
estructura y sus contenidos, para favorecer la comunicación entre los organismos autonómicos, estatales y
europeos. Pero hace falta poner en marcha proyectos concretos, reconociendo que hacen falta prácticas que
vayan abriendo el camino, y que hay que hacerlo desde lo local, para ir hacia un Sistema de Información a
nivel Europeo, que sería un objetivo importante en materia de intercambio de información.

Se deben utilizar las nuevas tecnologías disponibles, como son los Sistemas de Información y los Sistemas de
Bases de Datos, para desarrollar Sistemas de documentación enfocados tanto a la Gestión, como los
destinados a la divulgación de la información a los ciudadanos y a las empresas. La creación de estos

Página 1 de 24
Tema1 La informática y los sistemas de información

Sistemas de Documentación, se podrían integrar en Centros Documentales, con vistas a que a través de la red,
sea posible acceder a documentos de cualquier tipo, y datos en cualquier formato (mapas, informes, bases de
datos). Esto será posible gracias a servidores y navegadores de Web.

Podemos definir un sistema de información como “El conjunto de hardware, software, bases de datos,
comunicaciones, Internet, procesos manuales y automatizados, y el conocimiento experto necesario
para convertir los datos de entrada en las salidas de información deseadas, proporcionando
información suficiente, correcta y oportuna, para que se puedan lograr unos objetivos de forma
eficiente y eficaz.”

La implantación o el cambio de un sistema de información implica cambio en lo organizacional y podría


causar un caos al interior de la organización, por lo que se debe hacer una buena planificación, con una buena
estrategia para su ejecución, para que afecte en lo mínimo el ambiente social y técnico en una organización.

El Plan de Sistemas de Información tiene como objetivo proporcionar un marco estratégico que sirva de
referencia para los Sistemas de Información de un ámbito concreto de una organización, el objetivo del
Estudio de Viabilidad de un Sistema es el análisis de un conjunto concreto de necesidades para proponer una
solución a corto plazo, que tenga en cuenta restricciones económicas, técnicas, legales y operativas. La
solución obtenida como resultado del estudio puede ser la definición de uno o varios proyectos que afecten a
uno o varios sistemas de información ya existentes o nuevos. Para ello, se identifican los requisitos que se ha
de satisfacer y se estudia, si procede, la situación actual.

El proceso de Diseño de Sistemas de Información (DSI) es la definición de la arquitectura del sistema y del
entorno tecnológico que le va a dar soporte, junto con la especificación detallada de los componentes del
sistema de información.

A partir de dicha información, se generan todas las especificaciones de construcción relativas al propio
sistema, así como la descripción técnica del plan de pruebas, la definición de los requisitos de implantación y
el diseño de los procedimientos de migración y carga inicial.

2. LA INFORMATICA: CONCEPTO, ORIGEN, EVOLUCION


HISTORICA Y TENDENCIAS.

2.1. Evolución cronológica de la computadora


La necesidad del hombre de encontrar métodos rápidos y efectivos para resolver sus cálculos y su gran
inventiva lo llevaron a través de los siglos al desarrollo de lo que hoy conocemos como la computadora.
Desde el ábaco hasta las computadoras personales éstas han tenido una gran influencia en diferentes aspectos
de nuestro diario vivir, mejorando nuestra calidad de vida y abriendo puertas que antes eran desconocidas
para la humanidad.
500 AC: Ábaco
El primer calculador de tipo mecánico fue ideado en Babilonia alrededor de 500 A.C. Este dispositivo
mecánico llamado ábaco consistía de un sistema de barras y poleas con lo cual se podían efectuar diferentes
tipos de cálculos aritméticos.
1622: Oughtred presenta la regla de cálculo
Hacia 1622, el matemático inglés William Oughtred utilizó los recién inventados logaritmos para fabricar un
dispositivo que simplificaba la multiplicación y la división. Consistía en dos reglas graduadas unidas que se
deslizaban una sobre otra.
1642: Primera máquina de sumar
El matemático y filósofo francés Blaise Pascal tenía diecinueve años cuando construyó la primera máquina
sumadora del mundo en 1642. Utilizaba un engranaje de ruedas dentadas como contadores. El dispositivo
llevaba 1 automáticamente al llegar a las decenas y también podía emplearse para restar.
1834: Primera computadora digital programable

Página 2 de 24
Tema1 La informática y los sistemas de información

En 1834 el científico e inventor inglés Charles Babbage realizó los esquemas de un dispositivo el cual llamó
máquina analítica lo que en realidad era una computadora de propósitos generales. Esta máquina era
programada por una serie de tarjetas perforadas que contenían datos o instrucciones las cuales pasaban a
través de un dispositivo de lectura, eran almacenados en una memoria y los resultados eran reproducidos por
unos moldes. Esta máquina superaba por mucho la tecnología de su tiempo y nunca se terminó.
1850: Primera sumadora de teclado
El teclado apareció en una máquina inventada en Estados Unidos en 1850. Podían sumarse una secuencia de
dígitos pulsando unas teclas sucesivas. Cada tecla alzaba un eje vertical a cierta altura y la suma quedaba
indicada por la altura total.

2.2. Los primeros ordenadores


Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos
realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las
aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros
métodos

2.3. Ordenadores electrónicos


Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos, al norte de Londres,
crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre
de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. En 1939 y con
independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de
máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se
realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador
numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC,
que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-
Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

2.4. El eniac
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por
minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó
un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del
matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una
llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel
durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos
lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los
transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el
nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda
generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la
fabricación del sistema resultaba más barata.

2.5. Circuitos integrados


A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios
transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito
integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El
microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del
circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de
integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores
interconectados soldados sobre un único sustrato de silicio.

2.6. Ordenadores analógicos


El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos
en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos

Página 3 de 24
Tema1 La informática y los sistemas de información

numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de
escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico
ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse
empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su
visualización o para su conversión en otra forma deseada.

2.7. Ordenadores digitales


Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador,
o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus
circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es
la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la
tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por
segundo. Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un
microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por
segundo. La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la
cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez,
dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación
o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores
enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en
cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro
números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones. En general, los ordenadores
de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar
ocho dígitos binarios, de ahí el término bit de datos en cada ciclo.
Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles de ON y OFF (o 1
y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de
dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración
11010010 puede representar datos binarios, en este caso el número decimal 210 , o bien estar indicando al
ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en
determinada ubicación del chip de memoria. El desarrollo de procesadores capaces de manejar
simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La
colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una
computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el
número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a
medida que avanza el desarrollo de los ordenadores digitales modernos.

2.8. Evolución futura


Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a
comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los
investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad,
un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a
temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de
computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación.
La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras
conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo
que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas
tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación,
capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que
se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar
varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las
complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano.
Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas
computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de
electrones habitual en las computadoras corrientes.

Página 4 de 24
Tema1 La informática y los sistemas de información

3. ESTRUCTURA Y ELEMENTOS DE UN SISTEMA DE INFORMACIÓN.


Un sistema de información lo podemos definir compuesto por tres grandes grupos:

Hardware (Lo tangible)


Software (programas, lo intangible)
Software del sistema
Aplicaciones
Personal (usuarios del sistema)
Usuarios
Programadores

3.1. Hardware
Son todos aquellos componentes físicos de una computadora, todo lo visible y tangible. Los principales
componentes del hardware son:

3.1.1. Microprocesador,
Es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en cuyo interior existen miles
(llegando a millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que
tenga encomendado el chip. Suelen tener forma de cuadrado o rectángulo y van o bien en el socket o soldados
a la placa base.

La velocidad de un micro se mide en megahertzios (MHz) o gigahertzios (1 GHz = 1.000 MHz), aunque esto
es sólo una medida de la fuerza bruta del micro; un micro simple y anticuado a 500 MHz puede ser mucho
más lento que uno más complejo y moderno que vaya a 400 MHz.

Los microprocesadores (utilizaremos el término micro para agilizar) tienen dos velocidades, una interna y otra
externa o del bus.

Velocidad interna: la velocidad a la que funciona el micro internamente (200, 333, 450... MHz).
Velocidad externa o del bus: la velocidad a la que se comunican el micro y
la placa base, para poder abaratar el precio de ésta. Típicamente, 33, 60, 66, 100 ó 133 MHz. También puede
verse como "velocidad del FSB".

Distinguimos 4 partes:

* encapsulado: es lo que rodea a la oblea de silicio en sí, para darle


consistencia, impedir su deterioro y permitir el enlace con los conectores
externos que lo acoplarán al socket o a la placa base.

* memoria caché: memoria ultrarrápida que emplea el micro para tener a


mano ciertos datos que serán utilizados en próximas operaciones. En el
apartado de memoria caché haremos una explicación mas detallada.

* coprocesador matemático: mas conocido como FPU (unidad de coma


flotante). Parte del micro especializada en esa clase de cálculos
matemáticos; antiguamente estaba en el exterior del micro, en otro chip.

* Unidad de enteros, registros, etc,

Historia: El primer ordenador que tuvo éxito fue creado por IBM en el año 1981 y en su interior llevaba un
microprocesador denominado 8088 y creado por una empresa poco conocida en esos años, Intel.

Página 5 de 24
Tema1 La informática y los sistemas de información

El 8088 era una versión de prestaciones reducidas del 8086, que marcó la coletilla "86" para los siguientes
chips Intel: el 80186 (que se usó principalmente para controlar periféricos), el 80286 (16 bits y hasta 20 MHz)
y por fin, en 1.987, el primer micro de 32 bits, el 80386 o simplemente 386.

Al ser de 32 bits permitía idear software más moderno, con funcionalidades como multitarea real, es decir,
disponer de más de un programa trabajando a la vez. A partir de entonces todos los chips compatibles Intel
han sido de 32 bits, incluso el Pentium II.

Pasado un tiempo, apareció el 486, era como un 386 con un coprocesador matemático incorporado y una
memoria caché integrada, lo que le hacía más rápido; desde entonces todos los chips tienen ambos en su
interior.

Luego vino el Pentium, un nombre inventado para evitar que surgieran 586s marca AMD o Cyrix, ya que no
era posible patentar un número pero sí un nombre, lo que aprovecharon para sacar fuertes campañas de
publicidad del "Intel Inside" (Intel dentro), Y asi hasta la actualidad, ya estamos en Pentium IV y aun no
sabemos cual será el tope...

Últimos modelos:

* AMD K6-III: Un micro casi idéntico al K6-2, excepto por el "pequeño detalle" de que incluye 256 KB de
caché secundaria integrada, corriendo a la velocidad del micro (es decir, a 400 MHz o más), al estilo de los
Celeron Mendocino.

Esto le hace mucho más rápido que el K6-2 (en ocasiones, incluso más rápido que el Pentium III) en
aplicaciones que utilicen mucho la caché, como las ofimáticas o casi todas las de índole "profesional"; sin
embargo, en muchos juegos la diferencia no es demasiado grande (y sigue necesitando el uso de las
instrucciones 3DNow! para exprimir todo su potencial).

* Celeron "A" (con caché): Una revisión muy interesante del Celeron que incluye 128 KB de caché
secundaria, la cuarta parte de la que tiene un Pentium II. Pero mientras que en los Pentium II dicha caché
trabaja a la mitad de la velocidad interna del micro, en los nuevos Celeron trabaja a la misma velocidad que el
micro.

* AMD Duron: un micro casi idéntico al Athlon Socket A (no existe para Slot A) pero con menos memoria
secundaria (64 KB), aunque integrada (es decir, más rápida, la caché va a la misma velocidad que el micro).
Tiene una muy buena relación calidad/precio y excelente para el overclocking.

* Pentium IV: Se trata de un micro peculiar: su diseño permite alcanzar mayores velocidades de reloj (más
MHz... y GHz), pero proporcionando mucha menos potencia por cada MHz que los micros anteriores; es
decir, que un Pentium 4 a 1,3 GHz puede ser MUCHO más lento que un Pentium III a "sólo" 1 GHz. Para ser
competitivo, el Pentium 4 debe funcionar a 1,7 GHz o más. Es la última apuesta de Intel y poco tiene que ver
con los anteriores modelos sacados por dicha marca.

3.1.2. Placa base

La placa base es el elemento principal de todo ordenador en el que se encuentran o al que se conectan todos
los demas aparatos y dispositivos.

Se trata de una lámina de material sintético sobre la cual existe un circuito eletrónico que conecta diversos
elementos que se encuentran anclados sobre ella, los principales son:

* el microprocesador, "pinchado" en un elemento llamado socket (en


castellano hablamos del "zócalo").
* la memoria, que suele venir en forma de módulos.
* los slots o ranuras de expansion (ahi se conectan las tarjetas).

Página 6 de 24
Tema1 La informática y los sistemas de información

* diversos chips como por ejemplo la BIOS.

Tipos:

* ATX: Es la "mejora" de su predecesora, la placa AT (actualmente fuera de fabricacion). Se las supone de


más fácil ventilación y menos maraña de cables que las Baby-AT, debido a la colocación de los conectores.
Para ello, el microprocesador suele colocarse cerca del ventilador de la fuente de alimentación y los
conectores para discos cerca de los extremos de la placa.

Si miramos una placa AT y una ATX, la diferencia se encuentra en sus conectores. Las ATX tienen mas
conectores, están mas agrupados y tienen el teclado y el raton en clavijas mini-DIN. Reciben la electricidad
por medio de un conector formado por una sola pieza.

* Baby-AT: Fue el estándar absoluto durante años. Define una placa de unos 220x330 mm, con unas
posiciones determinadas para el conector del teclado, los slots de expansión y los agujeros de anclaje a la caja,
así como un conector eléctrico dividido en dos piezas. Estas placas son las típicas de los ordenadores
"clónicos" desde el 286 hasta los primeros Pentium.

Al producirse un incremento en tema de periféricos, surgieron carencias en las AT como la mala circulación
del aire en las cajas y el problema de tener una inmensa maraña de cables, lo cual impide acceder a puntos
importantes del ordenador.
* LPX: Son de tamaño similar a las Baby-AT, aunque con la peculiaridad de que los slots para las tarjetas de
expansión no se encuentran sobre la placa base, sino en un conector especial en el que están pinchadas, la
riser card.

De esta forma, una vez montadas, las tarjetas quedan paralelas a la placa base, en vez de perpendiculares
como en las Baby-AT; es un diseño típico de ordenadores de sobremesa con caja estrecha (menos de 15 cm de
alto), y su único problema viene de que la riser card no suele tener más de dos o tres slots, contra cinco en una
Baby-AT típica.

3.1.3. Memoria RAM

La memoria RAM (Random Access Memory) es donde el ordenador guarda los datos que está utilizando
ahora mismo. Si abrimos un ordenador, podemos distinguirlo facilmente, porque son rectángulos negros que
suelen ir soldados en grupos a unas placas con pines. La principal característica de la memoria RAM es que se
borra al apagar el ordenador.

Tipos:

* DRAM: Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns),
tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos. Se conoce como
Dinamic-RAM o RAM, ya que es la original.

* Fast Page (FPM): Evoluciona directamente de la DRAM, por eso que mucha gente también la llama
DRAM. Es algo mas rápida que la anterior, tanto por su estructura como por ser de 70 o 60 ns. Fué usada
hasta con los primeros Pentium.

* EDO (EDO-RAM): Es una evolución de la Fast Page, permite empezar a introducir nuevos datos mientras
los anteriores están saliendo (output) lo que la hace un poco mas rápida (escasamente un 5%). Es muy común
en los Pentium MMX y AMD K6, con refrescos de 70, 60 ó 50 ns.

* SDRAM: Sincronic-Ram. Funciona de forma sincronizada con la velocidad de la placa (de 50 a 66 MHz) y
refresca de 25 a 10 ns. Usada en los Pentium II de menos de 350 MHz y en los Celeron.

* PC100: También conocida como SDRAM-100. Memoria SDRAM capaz de funcionar a esos 100 MHz,
que utilizan los AMD K6-2, Pentium II a 350 MHz y micros más modernos.

Página 7 de 24
Tema1 La informática y los sistemas de información

* PC133: También conocida como SDRAM-133.

SIMMs y DIMMs:

Se trata de la forma en que se juntan los chips de memoria, del tipo que sean, para conectarse a la placa base
del ordenador. Son unas placas alargadas con conectores en un extremo; al conjunto se le llama módulo.

* SIMMs: Single In-line Memory Module, con 30 ó 72 contactos. Los de 30 contactos pueden manejar 8 bits
cada vez, por lo que en un 386 ó 486, que tiene un bus de datos de 32 bits, necesitamos usarlos de 4 en 4
módulos iguales. Miden unos 8,5 cm (30 c.) ó 10,5 cm (72 c.) y sus zócalos suelen ser de color blanco.

Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se usan de 1 en 1 en los 486; en los
Pentium se haría de 2 en 2 módulos (iguales), porque el bus de datos de los Pentium es el doble de grande (64
bits).

* DIMMs: más alargados (unos 13 cm), con 168 contactos y en zócalos generalmente negros; llevan dos
muescas para facilitar su correcta colocación. Pueden manejar 64 bits de una vez, por lo que pueden usarse de
1 en 1 en los Pentium, K6 y superiores. Existen para voltaje estándar (5 voltios) o reducido (3.3 V).

3.1.4. Memoria caché


La memoria caché es un tipo de memoria del ordenador, en ella se guardan datos que necesita el ordenador
para trabajar. Tiene un gran parentesco con la memoria RAM, pero existen diferencias en el uso que se le da.

Debido a la gran velocidad alcanzada por los microprocesadores desde el 386, la RAM del ordenador no es lo
suficientemente rápida para almacenar y transmitir los datos que el microprocesador (el "micro" en adelante)
necesita, por lo que tendría que esperar a que la memoria estuviera disponible y el trabajo se ralentizaría. Para
evitarlo, se usa una memoria
muy rápida, estratégicamente situada entre el micro y la RAM: la memoria caché.

La gran baza de la memoria caché es que es unas 5 o 6 veces mas rápida que la memoria RAM.

Caché interna (L1):

La memoria caché a la que nos hemos referido hasta el momento es la llamada caché externa o L2. Existe otra
caché que está incluida dentro del microprocesador, de ahi su nombre, caché interna o L1.
Esta caché funciona como la externa, sólo que está más cerca del micro, es más rápida y más cara, además de
complicar el diseño del micro, por lo que su tamaño se mide en pocas decenas de kilobytes. Se incorporó por
primera vez en los micros 486, y por aquel entonces era de 8 Kb.

3.1.5. Chipset
El chipset es el conjunto de chips que se encargan de controlar determinadas funciones del ordenador, como la
forma en que interacciona el microprocesador con la memoria, control de los puertos y slots ISA, PCI, AGP,
USB...

Pentium y Pentium MMX:

* De Intel: Fueron la primera incursión de Intel en el mundo de los chipset´s. Este tipo de chipset se
denominan Tritones. Existen varios tipos:

a.- 430 FX (triton clásico): Muy exitoso. Chipset muy apropiado para Petium normales, no para los MMX.
Hoy en dia están descatalogados.
b.- 430 HX (triton II): Es la opción profesional del triton clásico. Mucho mas rápido y con soporte para 2
microprocesadores. Anticuado pero sigue siendo bueno.

Página 8 de 24
Tema1 La informática y los sistemas de información

c.- 430 VX: No puede considerarse como el triton III ya que es una pequeña mejora de su predecesor. Posee
soporte para memorias SDRAM.
d.- 430 TX: Último chipset para placas Pentium (socket 7). Tiene soporte para MMX, SDRAM y UltraDMA.

* De VIA: Chipset´s bastante buenos, se caracterizan por tener soporte para casi todo lo imaginable
(memorias SDRAM o BEDO, UltraDMA, USB...); su pelea está en la gama del HX o TX, aunque suelen ser
algo más lentos que éstos al equiparlos con micros Intel, no así con micros de AMD o Cyrix-IBM. Lo bueno
de las placas con chipsets VIA es que siguen en el mercado socket 7, por lo que tienen soporte para todas las
nuevas tecnologías como el AGP o los buses a 100 MHz.

* De ALI: Muy buenos chipsets, tienen soluciones tan avanzadas como el chipset para placas Super 7
"Aladdin V", que como el MPV3 de VIA resulta equiparable a todos los efectos al BX de Intel para placas
Pentium II (bus a 100 MHz, AGP...); le mejor elección para micros como el AMD K6-2.

*De SiS: Como los anteriores, sus capacidades son avanzadas, aunque su velocidad sea a veces algo más
reducida que en los de Intel. Resultan recomendables para su uso junto a chips compatibles Intel como el K6
de AMD o el 6x86MX (M2) de Cyrix-IBM.

Pentium II y Celeron:

* De Intel: Son bastante avanzados, excepto el anticuado 440 FX (que no es propiamente un chipset para
Pentium II, sino más bien para el Pentium Pro) y el barato EX, basado en el LX pero con casi todas las
capacidades reducidas.

* De otras marcas: No son demasiados, pero los que hay tienen todas las capacidades que hacen falta. El
problema con el que se encuentran no es su falta de eficacia, ya que aunque los de Intel están algo más
rodados, el rendimiento es muy similar; pero el hecho de que durante un año la gente sólo haya oído hablar de
FX, LX, BX y EX hace difícil que entren en un mercado donde Intel tiene un monopolio absoluto.

3.1.6. Bios
Es el sistema básico de entrada-salida (Basic Input-Output System). Programa incorporado en un chip de la
placa base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador.

Entramos en la BIOS: Lo mas importante es saber TODO sobre la BIOS que tenemos. La BIOS es la
responsable de la mayoría de esos extraños mensajes que surgen al encender el ordenador, justo antes del
"Iniciando MS-DOS" o bien Windows , NT, Linux, OS/2...

Todo sucede en pocos sugundos; a veces, si el monitor está frío y tarda en encender, resulta casi imposible
verlos, pero siempre podemos reiniciar el pc hasta que consigamos leerlo. El conjunto de esos mensajes es
denominado POST (Power-On Self Test, es decir, autotesteo de encendido) y debe servirnos para verificar que
no existen mensajes de error, la cantidad de memoria corresponde a la que debería y para averiguar como se
entra en la BIOS.

Generalmente se hace pulsando repetidas veces la tecla "supr" o "del" aunque también existen algunas que se
entra pulsando F1.

3.1.7. Tarjeta de video


Una definición rápida y sencilla es: la tarjeta de video es lo que transmite la información gráfica que debe
aparecer en la pantalla. Realiza principalmente dos operaciones: interpretar los datos que le llegan del
procesador, ordenándolos y calculando para poder presentarlos en pantalla en forma de un rectángulo mas
o menos grande compuesto de puntos individuales de diferentes colores; y la otra funcion es la de coger la
salida de datos digitales resultante del proceso anterior y la transforma en una señal analógica que pueda
entender el monitor.

Página 9 de 24
Tema1 La informática y los sistemas de información

Velocidad de refresco: El refresco es el número de veces que se dibuja la pantalla por segundo. Se mide en
hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se dibuja cada 1/70 de segundo, o 70 veces
por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el
mínimo de fatiga visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de esta cifra los ojos
pueden sufrir bastante y tener problemas visuales.

Memoria:

* DRAM: en las tarjetas más antiguas, ya descatalogadas. Malas características; refrescos máximos entorno a
60 Hz.

* EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad media-baja. Muy variables
refrescos dependiendo de la velocidad de la EDO, entre 40 ns las peores y 25 ns las mejores.

* VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de calidad, muy buenas características.

* MDRAM: un tipo de memoria no muy común, pero de alta calidad.

* SDRAM y SGRAM: actualmente utilizadas mayoritariamente, muy buenas prestaciones. La SGRAM es


SDRAM especialmente adaptada para uso gráfico, en teoría incluso un poco mas rápida.

Conectores:
La tarjeta gráfica se conecta al pc mediante un slot o una ranura de expansión. Los diferentes tipos son:

* ISA: Conector original del PC, poco apropiado para uso gráfico; en cuanto llegamos a tarjetas con un cierto
grado de aceleración resulta insuficiente. Usado hasta las primeras VGA "aceleradoras gráficas", aquellas que
no sólo representan la información sino que aceleran la velocidad del sistema al liberar al microprocesador de
parte de la tarea gráfica mediante diversas optimizaciones.

* VESA Local Bus: Más que un slot un bus, un conector íntimamente unido al microprocesador, lo que
aumenta la velocidad de transmisión de datos. Una solución barata usada en muchas placas 486, de buen
rendimiento pero tecnológicamente no muy avanzada.

* PCI: El estándar para conexión de tarjetas gráficas (y otros múltiples periféricos). Suficientemente veloz
para las tarjetas actuales, si bien algo estrecho para las 3D.

* AGP: tampoco un slot, sino un puerto (algo así como un bus local), pensado únicamente para tarjetas
gráficas que transmitan cientos de MB/s de información, típicamente las 3D. Presenta poca ganancia en
prestaciones frente a PCI, pero tiene la ventaja de que las tarjetas AGP pueden utilizar memoria del sistema
como memoria de vídeo.

3.1.8. Monitor
Es la pantalla en la que se ve la información suministrada por el ordenador. En la mayoría de los casos se trata
de un aparato basado en un tubo de rayos catódicos, en el caso de los ordenadores portátiles, es una pantalla
plana de cristal líquido.

Resoluciones: Se trata del número de puntos que puede representar el monitor por la pantalla. Las
resoluciones mas comunes son:
Tamaño monitor Resolucion maxima Res. recomendada
14"1024 x 768640 x 480
15"1024 x 768800 x 600
17"1280 x 10241024 x 768
19"1600 x 12001152 x 864
21"1600 x 12001280 x 1024

Página 10 de 24
Tema1 La informática y los sistemas de información

Refresco: También llamada Frecuencia de Refresco Vertical. Se puede comparar al número de fotogramas por
segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en Hz (hertzios) y debe estar
por encima de 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente
estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.

Dot Pitch: También conocido como Tamaño de Punto. Es un parámetro que mide la nitidez de la imagen,
midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En
ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la
disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para
dirigir los haces de electrones.

Lo mínimo exigible es que sea de 0,28 mm, no debiéndose admitir nada superior como no sea en monitores de
gran formato para presentaciones, donde la resolución no es tan importante como el tamaño de la imagen.

Para CAD o en general usos a alta resolución debe ser menor de 0,28 mm, idealmente de 0,25 mm (o menos).
De todas formas, el mero hecho de ser inferior a 0,28 mm ya indica una gran preocupación del fabricante por
la calidad del monitor. Como ejemplo cabe destacar los monitores Sony, los afamados Triniton, que pasan por
ser lo mejor del mercado y tienen todos un dot pitch máximo de 0,25 mm.

En cuanto a los controles en sí, los imprescindibles son: tamaño de la imagen (vertical y horizontal), posición
de la imagen, tono y brillo. Son de agradecer los de "efecto barril" (para mantener rectos los bordes de la
imagen), control trapezoidal (para mantenerla rectangular) y degauss magnético o desmagnetización.

Por lo que respecta a las conexiones, lo inexcusable es el típico conector mini D-sub de 15 pines; en
monitores de 17" o más es interesante que existan además conectores BNC, que presentan la ventaja de
separar los tres colores básicos. De cualquier modo, esto sólo importa si la tarjeta gráfica también los
incorpora y si la precisión en la representación del color resulta determinante en el uso del monitor.

3.1.9. Tarjeta de sonido


ADC/DAC: Los ordenadores tenían (siguen teniendo) un "problema", sólo saben trabajar con datos digitales
(más concretamente binarios, 0s y 1s), por lo que cuando conectamos unos altavoces a la tarjeta de sonido,
hay alguien que transforma esos datos digitales en analógicos para que el altavoz los entienda. De eso se
encarga el DAC (Conversor Digital-Analógico).

3.1.10. Modem
Es un acrónimo del termino MOdulador-DEModulador; es decir, que es un dispositivo que transforma las
señales digitales del ordenador en señal telefónica analógica y viceversa, con lo que permite al ordenador
transmitir y recibir información por la línea telefónica.

Tipos:

* Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes
que forman el módem. Existen para diversos tipos de conector: ISA, PCI, AMR. La principal ventaja de estos
módems reside en su mayor integración con el ordenador, ya que no ocupan espacio sobre la mesa y toman su
alimentación eléctrica del propio ordenador. Además, suelen ser algo más baratos debido a carecer de carcasa
y transformador, especialmente si son PCI. Por contra, son algo más complejos de instalar y la información
sobre su estado sólo puede obtenerse mediante software.

* Externos: son similares a los anteriores pero metidos en una carcasa que se coloca sobre la mesa o el
ordenador. La conexión con el ordenador se realiza generalmente mediante uno de los puertos serie o "COM",
por lo que se usa la UART del ordenador, que deberá ser capaz de proporcionar la suficiente velocidad de
comunicación; existen modelos para puerto USB, de conexión y configuración más sencillas.
La ventaja de estos módems reside en su fácil transportabilidad entre ordenadores, además de que podemos
saber el estado el módem (marcando, con/sin línea, transmitiendo...) mediante unas luces que suelen tener en

Página 11 de 24
Tema1 La informática y los sistemas de información

el frontal. Por el contrario, son un trasto más, necesitan un enchufe para su transformador y la UART debe ser
una 16550 o superior para que el rendimiento de un módem de 28.800 bps o más sea el adecuado.

* Módems PC-Card: son módems que se utilizan en portátiles; su tamaño es similar al de una tarjeta de
crédito algo más gruesa, pero sus capacidades pueden ser igual o más avanzadas que en los modelos
normales.

* Módems software, HSP o Winmódems: son módems internos en los cuales se han eliminado varias piezas
electrónicas, generalmente chips especializados, de manera que el microprocesador del ordenador debe suplir
su función mediante software. Lo normal es que utilicen como conexión una ranura PCI (o una AMR), aunque
no todos los módems PCI son de este tipo.
La ventaja resulta evidente: menos piezas, más baratos. Las desventajas, que necesitan microprocesadores
muy potentes , que su rendimiento depende del número de aplicaciones abiertas. Son baratos pero poco
recomendables

* Módems completos: los módems clásicos no HSP, bien sean internos o externos. En ellos el rendimiento
depende casi exclusivamente de la velocidad del módem y de la UART, no del microprocesador.

Velocidad: Resulta sin duda el parámetro que mejor define a un módem, hasta el punto de que en muchas
ocasiones se habla simplemente de "un módem 33.600", o "un 14.400", sin especificar más. Estas cifras son
bits por segundo, bps. Se debe tener en cuenta que son bits, no bytes. En este contexto, un byte está
compuesto de 8 bits; por tanto, un módem de 33.600 bps transmitirá (en las mejores condiciones) un máximo
de 4.200 bytes por segundo, o lo que es lo mismo: necesitará como poco 6 minutos para transmitir el
contenido de un disquete de 1,44 MB.

La saturación de las líneas, la baja capacidad que proporcione el proveedor de acceso a Internet, la mala
calidad del módem o de la línea (ruidos, interferencias, cruces...) suelen hacer que la velocidad media efectiva
sea mucho menor, de 3.000 bytes/s o menos. Saber cuál de éstos es el factor limitante resulta vital para
mejorar nuestro acceso a Internet.

RDSI: Red Digital de Servicios Integrados (ISDN en inglés), o lo que es lo mismo: la línea de teléfono digital.
Lo que distingue a estas líneas no es el cable, que en la mayoría de los casos es el mismo, sino el método de
utilizarlo: se utiliza la línea telefónica digitalmente en vez de analógicamente, lo cual implica que la cantidad
de información transmitible por la línea es mayor.

Digitalizar cualquier cosa siempre implica perder una infinitesimal cantidad de información de la señal
analógica original, pero en el caso de la voz resulta imposible de percibir para cualquier ser humano (y para
muchas máquinas). A cambio obtenemos un mayor ancho de banda (cabe más información) y mayor pureza
de señal (una vez digitalizada no se pierde
información).

3.1.11. Impresoras

Como indica su nombre, la impresora es el periférico que el ordenador utiliza para presentar información
impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los
monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos
primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta
entonces.

Velocidad: La velocidad en una impresora se suele medie en ppm (páginas por minuto) o en cps (caracteres
por segundo).

Actualmente se usa casi exclusivamente el valor de ppm, mientras que el de cps se reserva para las pocas
impresoras matriciales que aún se fabrican.

Página 12 de 24
Tema1 La informática y los sistemas de información

Buffer de memoria: Es una pequeña cantidad de memoria que tienen todas las impresoras modernas para
almacenar parte de la información que les va proporcionando el ordenador. De esta forma el ordenador,
sensiblemente más rápido que la impresora, no tiene que estar esperándola continuamente y puede pasar antes
a otras tareas mientras termina la impresora su trabajo.
Evidentemente, cuanto mayor sea el buffer más rápido y cómodo será el proceso de impresión.

Interfaz: Las impresoras se conectan al PC casi exclusivamente mediante el puerto paralelo, que en muchos
sistemas operativos se denomina LPT1 (LPT2 en el caso del segundo puerto paralelo, si existiera más de uno).
Como el puerto paralelo original no era demasiado rápido, en la actualidad se utilizan puertos más avanzados
como el ECP o el EPP, que son más rápidos y añaden bidireccionalidad a la comunicación.

Otras formas menos comunes de conectar una impresora es mediante el puerto serie (el que utilizan los
módems externos y muchos ratones; resulta bastante lento), mediante un conector USB (rápido y sencillo,
aunque con pocas ventajas frente al puerto paralelo), mediante un dispositivo de infrarrojos (muy útil en el
caso de portátiles) o directamente conectados a una red (y no a un ordenador conectado a la misma) en el caso
de grandes impresoras para grupos.

3.1.12. Escaner
Podría definirse como un digitalizador de imágenes.

El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con
un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que
transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un
DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador.

El CCD (Charge Coupled Device, dispositivo acoplado por carga -eléctrica-) es el elemento fundamental de
todo escáner, independientemente de su forma, tamaño o mecánica. Consiste en un elemento electrónico que
reacciona ante la luz, transmitiendo más o menos electricidad según sea la intensidad y el color de la luz que
recibe.

La calidad final del escaneado dependerá fundamentalmente de la calidad del CCD; los demás elementos
podrán hacer un trabajo mejor o peor, pero si la imagen no es captada con fidelidad cualquier operación
posterior no podrá arreglar el problema. Teniendo en cuenta lo anterior, también debemos tener en cuenta la
calidad del DAC, puesto que de nada sirve captar la luz con enorme precisión si perdemos mucha de esa
información al transformar el caudal eléctrico a bits.

Tipos:

* De sobremesa o planos: Son los modelos más apreciados por su buena relación precio/prestaciones, aunque
también son de los periféricos más incómodos de ubicar debido a su gran tamaño.
Las resoluciones suelen ser elevadas, 300x600 ppp o más. El tamaño de escaneado máximo más común es el
DIN-A4, aunque existen modelos para A3 o incluso mayores

* De mano: Son los escáners "portátiles", con todo lo bueno y lo malo que implica esto. Hasta hace unos
pocos años eran los únicos modelos con precios asequibles para el usuario medio. Los escáners de mano están
casi en vías de extinción.

Su extinción se debe a las limitaciones que presentan en cuanto a tamaño del original a escanear
(generalmente puede ser tan largo como se quiera, pero de poco más de 10 cm de ancho máximo) y a su baja
velocidad, así como a la carencia de color en los modelos más económicos. Lo que es más, casi todos ellos
carecen de motor para arrastrar la hoja, sino que es el usuario el que debe pasar el escáner sobre la superficie a
escanear Todo esto es muy engorroso, pero resulta eficaz para escanear rápidamente fotos de libros
encuadernados, artículos periodísticos, facturas y toda clase de pequeñas imágenes sin el estorbo que
supone un escáner plano.

Página 13 de 24
Tema1 La informática y los sistemas de información

* De rodillo: Se basan en un sistema muy similar al de los aparatos de fax: un rodillo de goma motorizado
arrastra a la hoja, haciéndola pasar por una rendija donde está situado el elemento capturador de imagen.

* Modelos especiales: Aparte de los híbridos de rodillo y de mano, existen otros escáners destinados a
aplicaciones concretas; por ejemplo, los destinados a escanear exclusivamente fotos, negativos o diapositivas,
o bien los bolígrafos-escáner, utensilios con forma y tamaño de lápiz o marcador fluorescente que escanean el
texto por encima del cual los pasamos y a veces hasta lo traducen a otro idioma al instante; o impresoras-
escáner.

3.2. Software
El software es el conjunto de instrucciones que las computadoras emplean para manipular datos. Sin el
software, la computadora sería un conjunto de medios sin utilizar.

El Software es un conjunto de programas, documentos, procedimientos, y rutinas asociados con la operación


de un sistema de computo. Distinguiéndose de los componentes físicos llamados hardware.
Comúnmente a los programas de computación se les llama software; el software asegura que el programa o
sistema cumpla con sus objetivos. Es simplemente el conjunto de instrucciones individuales que se le
proporciona al microprocesador para que pueda procesar los datos y generar los resultados esperados.
El hardware por si solo no puede hacer nada, pues es necesario que exista el software, que es el conjunto de
instrucciones que hacen funcionar al hardware.

3.2.1. Clasificaciones del software.


El software se clasifica en 4 diferentes Categorías: Sistemas Operativos, Lenguajes de Programación,
Software de uso general, Software de Aplicación. (algunos autores consideran la tercera y cuarta clasificación
como una sola).

3.2.1.1. Sistemas Operativos


El sistema operativo es el gestor y organizador de todas las actividades que realiza la computadora. Marca las
pautas según las cuales se intercambia información entre la memoria central y la externa, y determina las
operaciones elementales que puede realizar el procesador. El sistema operativo, debe ser cargado en la
memoria central antes que ninguna otra información.

Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy
especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace
que reconozca a la CPU, la memoria, el teclado, el sistema de vídeo y las unidades de disco. Además,
proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a
partir de la cual se ejecutan programas de aplicación.

Cuando enciendes una computadora, lo primero que ésta hace es llevar a cabo un autodiagnóstico llamado
autoprueba de encendido (Power On Self Test, POST).
Durante la POST, la computadora identifica su memoria, sus discos, su teclado, su sistema de vídeo y
cualquier otro dispositivo conectado a ella. Lo siguiente que la computadora hace es buscar un SO para
arrancar (boot).

Una vez que la computadora ha puesto en marcha su SO, mantiene al menos parte de éste en su memoria en
todo momento. Mientras la computadora esté encendida,
el SO tiene 4 tareas principales.:

1.Proporcionar ya sea una interfaz de línea de comando (ejemplo MS-DOS)o una interfaz gráfica de usuario
(GUI), para que este último se pueda comunicar con la computadora.

2.Administrar los dispositivos de hardware en la computadora cuando se están ejecutando los programas,
éstos necesitan utilizar la memoria, el monitor, las unidades de disco, los

Página 14 de 24
Tema1 La informática y los sistemas de información

puertos de Entrada/Salida (impresoras, módems, etc). El SO sirve de intermediario entre los programas y el
hardware.

3.Administrar y mantener los sistemas de archivo. Los SO agrupan la información dentro de compartimentos
lógicos para almacenarlos en el disco.
Estos grupos de información son llamados archivos. Los archivos pueden contener instrucciones de
programas o información creada por el usuario. El SO mantiene una lista de los archivos en un disco, y nos
proporciona las herramientas necesarias para organizar y manipular estos archivos.

4.Apoyar a otros programas.


Otra de las funciones importantes del SO es proporcionar servicios a otros programas. Estos servicios son
similares a aquellos que el SO proporciona
directamente a los usuarios. Por ejemplo, listar los archivos, grabarlos a disco, eliminar archivos, revisar
espacio disponible, etc.
Cuando los programadores escriben programas de computadora, incluyen en sus programas instrucciones que
solicitan los servicios del SO. Estas instrucciones son conocidas como "llamadas del sistema"

3.2.1.2. Software de Uso General


El software para uso general ofrece la estructura para un gran número de aplicaciones empresariales,
científicas y personales. El software de hoja de cálculo, de diseño asistido por computadoras (CAD), de
procesamiento de texto, de manejo de Bases de Datos, pertenece a esta categoría. La mayoría de software para
uso general se vende como paquete; es decir, con software y documentación orientada al usuario ( manuales
de referencia, plantillas de teclado y demás ).

Procesadores de Texto:

Son utilizados para escribir cartas, memorándums y otros documentos, algunas características en los
procesadores de texto son: corrector de ortografía, diccionario de sinónimos, presentación preliminar del texto
antes de imprimir.
Ejemplos de procesadores de texto: Word, AmiPro, Wordperfect.

Hojas de Cálculo

Una Hoja de Cálculo es una herramienta para calcular y evaluar números. También ofrece capacidades para
crear informes y presentaciones para comunicar lo que revelan los análisis; la mayoría de las Hojas de Cálculo
cuentan también con la posibilidad de graficar estos resultados en diferentes estilos de gráficas (Barras,
Líneas, Pastel, etc).
Ejemplos de Hojas de Cálculo: Excel, Lotus 123, Quatro.

Bases de Datos:

La DBMS (Data Base Management System) es la herramienta que las computadoras utilizan para realizar el
procesamiento y almacenamiento ordenado de los datos.
Una base de datos es un recipiente para colecciones relacionadas de datos.
Ejemplos de Bases de Datos: Access, FoxPro, Approach.

Paquetes de Presentación.

Software que permite al usuario diseñar presentaciones para desplegarlas a través de la misma computadora o
imprimir diapositivas y acetatos. Contienen opciones avanzadas para integrar efectos en cada cambio de
diapositiva.

Ejemplos: Presentation, Power Point.

Página 15 de 24
Tema1 La informática y los sistemas de información

3.2.1.3. Software de aplicaciones


El software de aplicación esta diseñado y escrito para realizar tareas específicas personales, empresariales o
científicas como el procesamiento de nóminas, la administración de los recursos humanos o el control de
inventarios. Todas éstas aplicaciónes procesan datos y generan información. para el usuario.

3.2.1.4. Lenguajes de programación


Mediante los programas se indica a la computadora que tarea debe realizar y cómo efectuarla , pero para ello
es preciso introducir estas órdenes en un lenguaje que el sistema pueda entender. En principio, el ordenador
sólo entiende las instrucciones en código máquina, es decir ,el específico de la computadora. Sin embargo, a
partir de éstos se elaboran los llamados lenguajes de alto y bajo nivel.

Los lenguajes de programación cierran el abismo entre las computadoras, que sólo trabajan con números
binarios, y los humanos, que preferimos utilizar palabras y otros sistemas de numeración.

Mediante los programas se indica a la computadora qué tarea debe realizar y como efectuarla, pero para ello
es preciso introducir estas ordenes en un lenguaje que el sistema pueda entender. En principio, el ordenador
sólo entiende las instrucciones en código máquina ,es decir, el especifico de la computadora . Sin embargo , a
partir de éstos se elaboran los llamados lenguajes de alto y bajo nivel.

Lenguajes de ajo nivel.


Utilizan códigos muy cercanos a los de la maquina , lo que hace posible la elaboración de programas muy
potentes y rápidos , pero son de difícil aprendizaje .

Lenguajes de alto nivel.


Por el contrario, son de uso mucho más fácil, ya que en ellos un solo comando o instrucción puede equivaler a
millares es código máquina .El programador escribe su programa en alguno de estos lenguajes mediante
secuencias de instrucciones. Antes de ejecutar el programa la computadora lo traduce a código máquina de
una sola vez (lenguajes compiladores) o interpretándolo instrucción por instrucción (lenguajes intérpretes).
Ejemplos de lenguajes de alto nivel: Pascal, Cobol, Basic, Fortran, C++
Un Programa de computadora, es una colección de instrucciones que, al ser ejecutadas por el CPU de una
máquina, llevan a cabo una tarea ó función específica. Este conjunto de instrucciones que forman los
programas son almacenados en archivos denomina dos archivos ejecutables El contenido de un archivo
ejecutable no puede ser entendido por el usuario, ya que no está hecho para que la gente lo lea, sino para que
la computadora sea
quien lo lea.

Los archivos de programas ejecutables contienen el código máquina, que la CPU identifica como sus
instrucciones.

El proceso de conversión de programas fuente a programas objeto se realiza mediante un programa


denominado compilador. El compilador toma un programa fuente y lo traduce a programa objeto y almacena
este último en otro archivo.

Compilador.
Es un programa que traduce un lenguaje de alto nivel al lenguaje máquina. Un programa compilado indica
que ha sido traducido y está listo para ser ejecutado. La ejecución de los programas compilados es más rápida
que la de los interpretados, ya que el interprete debe traducir mientras está en la fase de ejecución (saca todos
los errores).

Interprete.
Traductor de lenguajes de programación de alto nivel, los interpretes ejecutan un programa línea por línea. El
programa siempre permanece en su forma
original(programa fuente) y el interprete proporciona la traducción al momento de ejecutar cada una de la s

Página 16 de 24
Tema1 La informática y los sistemas de información

instrucciones .

Lenguaje máquina.
Lenguaje original de la computadora, un programa debe estar escrito en el lenguaje de la máquina para poder
ser ejecutado. Este es generado por software y no por el programador. El programador escribe en un lenguaje
de programación, el cual es traducido al lenguaje de máquina mediante interpretes y compiladores.

3.3. Personal
En consonancia con las sistemas, y diferentes, usos de los mismoas, se pueden identificar varios tipos de
usuarios.
En primer lugar, los usuarios finales, que hacen un uso limitado de las capacidades del sistema, normalmente
referentes a introducción, manipulación y consulta de los datos. Los usuarios finales pueden ser sofisticados o
especializados e ingenuos, dependiendo de su nivel de interacción con el sistema.
En segundo lugar hay que citar a los programadores de base de datos, encargados de escribir aplicaciones
limitadas, mediante el lenguaje de programación facilitado por el SGBD, normalmente algún lenguaje de
cuarta generación, que faciliten la ejecución de tareas por parte de los usuarios finales.
Por último, el administrador de base de datos (DBA, Data Base Administrator) cumple las importantes
funciones de crear y almacenar las estructuras de la base de datos, definir las estrategias de respaldo y
recuperación, vincularse con los usuarios y responder a sus cambios de requerimientos, y definir los controles
de autorización y los procedimientos de validación.

4. VISIÓN GENERAL DE LA EVOLUCIÓN DE UN SISTEMA


INFORMATICO.
Los primeros sistemas requerían de un usuario experto para su utilización, pudiendo trabajar unicamente con
un usuario en cada momento, se basaban en tableros enchufables, tarjetas perforadas y cintas de papel. El
modo de trabajo hacía que la máquina estuviese parada mucho tiempo, tiempo de puesta a punto, tiempo de
corrección de errores o tiempo sobrante por finalización de la tarea. Siendo además equipos excesivamente
caros.

Para aumentar el rendimiento de la maquina en un primer paso surge la figura del operador, así el
programador no manipula directamente el equipo, sino q entrega su trabajo (job) al operador y este somete le
tarea al sistema entregando el resultado al programador, éste puede corregir sus errores mientras el operador
somete otra tarea..

Un segundo paso fue la aparición del sistema por lotes cuya idea es sacar el máximo provecho a la máquina
gracias a una mejor organización del trabajo. Se agrupan las tareas en lotes de forma que las tareas se
procesan de forma automática consecutivamente (batch). Para la programación de las tareas se usan los JCL
(Job control language) que define los programas que hay q cargar y los datos y dispositivos a utilizar.

El monitor residente mantendrá en memoria las rutinas imprescindibles para que el sistema funciones como el
intérprete de JCL, cargador de programas, rutinas de E/S….

Se empieza a considerar aspectos de protección: proteger la memoria ocupada por el monitor residente,
impedir accesos directos a la E/S, evitar q una tarea deje bloqueado el sistema.

La E/S era muy lenta en comparación con la CPU esto provocaba que la CPU quedara ociosa mucho tiempo
esperando por la terminación de operaciones de E/S.
Algunas técnicas para tratar el problema: Operación fuera de línea (offline) Uso de búferes Spooling,

Operación offline consiste en que la unidad central dialoga sólo con dispositivos rápidos como unidades de
cinta y un pequeño computador se encarga de las transferencias con los dispositivos lentos (tarjetas,
impresoras…) aumentando así la velocidad pudiéndose utilizar varios satélites.

Página 17 de 24
Tema1 La informática y los sistemas de información

Los búferes son zonas de memoria intermedia utilizados para las operaciones de E/S, amortiguan picos de alta
actividad de E/S.

El Spooling utiliza un disco como bufer, el proceso lee/escribe sobre disco en lugar de hacerlo directamente
sobre el dispositivo. Permite solapar E/S de un proceso ya terminado con operación de CPU de otro proceso.

Multiprogramación, permite que cuando un proceso quede bloqueado por una operación de E/S otro proceso
pueda trabajar con CPU (tiempo compartido).

La aparición del microprocesador permitió fabricar computadores baratos, asequibles para el consumo de
masas, (ordenadores personales) (años 80) destinados al uso individual y no experto dando máxima
importancia a la facilidad de uso, bajos tiempos de respuesta, etc.
Interfaces de usuario: sistemas WIMP (windows, icons, menus, pointers).
Utilizan tecnología de los grandes S.O., pero prescinden de ciertos servicios (protección, multiprogramación,
etc.)

Los sistemas paralelos son sistemas con más de un procesador. Pueden ejecutar varias instrucciones
simultáneamente (en paralelo). Los procesadores comparten una memoria común. La ventajas son: Aumento
de velocidad de procesamiento con bajo coste y cierta tolerancia a fallos. Como principal inconveniente esta
la necesidad de sincronización entre procesos .

Los sistemas distribuidos son múltiples procesadores conectados mediante una red, los procesadores no
comparten memoria ni reloj. Escalable hasta millones de procesadores (ej. Internet). Ventajas: Compartición
de recursos dispersos, ayuda al trabajo cooperativo de equipos humanos, aumento de la velocidad, fiabilidad.
Inconvenientes: No comparten memoria por lo que la comunicación es mas compleja y no se puede tener un
estado global visible de los nodos al instante . La red de comunicaciones no es fiable y los nodos pueden no
ser homogeneos.

Sistemas de tiempo real, surgen Para poder ejecutar satisfactoriamente tareas que han de completarse en un
plazo prefijado (ej. sistemas de control industrial, sistemas multimedia) Dos tipos:
s.t.r. crítico: para tareas que siempre deben cumplir los plazos de terminación. Adecuados para la industria.
Muy simples, incompatibles con tiempo compartido, memoria virtual, etc.
s.t.r. no crítico: intentan cumplir los plazos, pero no los garantizan al 100%. Adecuados para multimedia, etc.

5. TECNOLOGÍAS DE LA INFORMACIÓN Y LAS COMUNICACIONES:


CONCEPTOS BÁSICOS, ORIGEN, EVOLUCIÓN HISTÓRICA Y
TENDENCIAS.
En los principios del siglo XIX, los tiempos de las comunicaciones eran directamente proporcionales a los 
tiempos del movimiento humano. Una noticia de Europa podía tardar meses en llegar a las colonias 
sudamericanas.

En 1844 Morse inventó el telégrafo y en 1876 Edison el teléfono. Con ellos nació el concepto de 
telecomunicaciones, es decir comunicación a distancia en forma prácticamente inmediata.
La evolución de la tecnología de las comunicaciones hasta nuestros días, combinada con el desarrollo 
explosivo de la electrónica y la informática, son el eje fundamental del mundo
de hoy.
Desde el punto de vista de la transmisión de información, la tecnología
permite hoy que la distancia física prácticamente no exista !

Esta evolución de la tecnología de comunicaciones es muy importante para nuestra vida y para nuestras 
posibilidades laborales: cualquier ámbito de trabajo informático hoy tiene comunicaciones, redes, 

Página 18 de 24
Tema1 La informática y los sistemas de información

computadoras remotas que se consultan y utilizan. y todo esto nos obliga a estudiar como un componente 
esencial de la disciplina informática, algunos aspectos de las comunicaciones.
En principio debemos definir el medio de comunicación es decir sobre que soporte se trasmiten los bits 
(comunicaciones digitales) que llevan la información. Este medio puede ser un cable telefónico, un cable 
coaxil, una fibra óptica o el aire. En general las transmisiones sobre cables requieren enviar señales eléctricas 
entre un transmisor y un receptor en los extremos del cable, y normalmente se trata de un medio de bajo costo 
y muy adecuado para distancias relativamente cortas. Por ejemplo un cable telefónico permite manejar 
velocidades típicas de 100.000 bits por segundo y un cable coaxil de red puede tener 100 millones de bits por 
segundo.

Pasar de los cables con señales eléctricas a la fibra óptica ha sido un salto
tecnológico muy importante (aunque a un costo mayor). 
La fibra óptica trasmite señales de luz, a una velocidad mucho mayor y con mucha menos posibilidad de 
interferencia que un cable convencional. Trabajar con comunicaciones en el orden de 1000 millones de bits 
por segundo, con alta inmunidad al ruido es típico de la fibra óptica hoy. 
La señal también se puede trasmitir por el aire. En este caso el transmisor y el receptor tienen otras 
características (más complejas) y de ese modo recibimos, por ejemplo, las señales de radio o de televisión por 
aire.
También podemos tener estaciones repetidoras en tierra o en un satélite, de modo de comunicar puntos muy 
distantes que no serían alcanzables por una señal de radio directa. Las comunicaciones satelitales se imponen 
cuando la distancia crece.

Poder comunicar computadoras significa poder utilizar sus recursos a distancia.
Al mismo tiempo los "usuarios" distantes pueden comunicarse, cooperar y compartir recursos y trabajo, 
empleando sus computadoras conectadas.
Un primer empleo de esta comunicación remota entre computadoras fueron (y son) los sistemas multiusuario 
con esquema servidor­terminales. Cuando accedemos, por ejemplo, a una terminal de cajero automático de un 
Banco, en realidad estamos en una pequeña computadora local que se comunica con un servidor 
(computadora mayor) que tiene los datos globales de clientes, y nos permite hacer operaciones determinadas 
en nuestro terminal local.
De nada nos servirían ambas computadoras si no tenemos un sistema eficiente de comunicaciones.

5.1. Conceptos elementales de redes


Conceptualmente una red responde a un esquema general como el de la figura:

Página 19 de 24
Tema1 La informática y los sistemas de información

Las computadoras locales (clientes) pueden ser muy diferentes y disponer
de recursos propios.
El subsistema de comunicaciones puede estar soportado por los diferentes medios de comunicación 
mencionado y permite vincular punto a punto o globalmente las computadoras locales.
Pueden existir recursos dentro de la red que sean compartidos por todas o alguna de las computadoras, y 
también pueden existir recursos exclusivos de cada máquina local.
Naturalmente para poder comunicar coherentemente las computadoras de una red es necesario establecer 
protocolos aceptados por todos (y esto implica hardware y software). Se deduce que el sistema operativo de la 
red debe proveer servicios que no tenemos en una computadora monousuario. 

Las ventajas de una red de computadoras son:
­ Compartir hardware, reduciendo costos y convirtiendo a la red en sí misma en un poderoso sistema de 
procesamiento de datos.
­ Compartir datos y programas, permitiendo incrementar la productividad en los sistemas de software.
­ Incrementar la eficiencia en los trabajos de grupo al permitir una fluida comunicación entre miembros de la 
organización ubicados en diferentes puntos.

5.2. Redes LAN y WAN


Una red local (LAN: Local Area Network) es una red en la cual las computadoras se encuentran cercanas 
físicamente, generalmente en un mismo edificio. La comunicación inter­computadoras puede ser por cable, 
fibra o inalámbrica 
Típicamente una red local se conecta a través de un conjunto de líneas de comunicación común.
Topologías:
- Estrella. Todos los elementos de la red se encuentran conectados directamente mediante un enlace 
punto a punto al nodo central de la red.

Página 20 de 24
Tema1 La informática y los sistemas de información

- Bus: Los elementos que constituyen la red se disponen linealmente, es decir, en serie y conectados 
por medio de un cable.

Anillo: Los nodos de la red se disponen en un anillo cerrado conectados a él mediante enlaces punto a punto.

Una red extendida (WAN: Wide Area Network) es una red en la cual las computadoras pueden estar a grandes 
distancias. Incluso puede estar formada por subredes locales. La comunicación inter­computadores puede 
combinar las tecnologías mencionadas anteriormente, teniendo cable o fibra para las máquinas relativamente 
más cercanas y por ejemplo enlaces satelitales entre los puntos remotos.
Nuevamente el esquema de comunicaciones puede ser parcialmente a través de

Página 21 de 24
Tema1 La informática y los sistemas de información

buses y en ocasiones en configuraciones estrella o punto a punto.

5.3. Internet: una red de redes


Internet no es más que una red WAN, en la que un conjunto de instituciones han acordado conectar sus 
propias redes, enlazando organizaciones educativas, administrativas y empresas privadas.
Las raíces de Internet fue la comunicación que establecieron en EEUU un conjunto de Universidades e 
Instituciones Académicas, y de ese modo fue creciendo y desarrollándose en todo el mundo.
El impacto de Internet en el ámbito científico pronto se extendió a las empresas y al comercio electrónico, ya 
que esencialmente es una posibilidad de tener una vinculación con cualquier tipo de computadora o dato en 
cualquier punto del planeta.
Entre los servicios que habitualmente utilizamos en Internet (y que han sido el área de mayor desarrollo del 
software en los últimos diez años) podemos mencionar:
Correo electrónico y transferencia de archivos de datos.
Ingreso remoto a otras computadoras.
Establecimiento de "sitios" específicos accesibles por usuarios de todo el mundo (o bien por usuarios que 
tienen determinado atributo o password) con repositorios de información útil. 
Posibilidad de realizar transacciones (compras, ventas) a través de la red, presentando los productos, 
catálogos, precios e incluso programas de demostración de funcionamiento para consulta remota y acordando 
modos de transferencia de los pagos.
Posibilidad de realizar reuniones de intercambio de opiniones, en forma conjunta por usuarios interesados en 
un tema (conferencias o "chats").
Uno de los impactos más fuertes de Internet es en la posibilidad de brindar educación a distancia, 
favoreciendo el aprendizaje o la actualización en forma de autoaprendizaje o mediante comunicaciones 
interactivas alumno­docente.

6. FUNCIONES DE LA INFORMATICA EN LAS ORGANIZACIONES


COMPLEJAS.
La información es poder, y su aplicación, uso, significación y administración conveniente y eficaz conduce a
un nivel superior: el conocimiento. Hoy en día las empresas, funcionan basando sus operaciones en una
economía que tiene como columna vertebral al conocimiento. Al que entienden como información valiosa en
su funcionamiento y que les permite alcanzar un grado de predicción en sus procesos de desarrollo y
operación.
Al mismo tiempo, el conocimiento dentro de las organizaciones surge de la combinación conveniente de dos
variables: las capacidades humanas y la tecnología en que se apoyan.
Se sabe que la información es resultado de las diversas colecciones de datos que componen los sistemas de
información y que gravitan como especies de feudos o parcelas, pero sólo cuando puedan ser integradas dan
paso al conocimiento, propiciando mayor calidad en la toma de decisiones, que es el objetivo a cumplir de
parte de estos sistemas de información.
La integración de las nuevas tecnologías en la empresa demanda simultaneidad en la adopción de
innovaciones tecnológicas y organizativas.
Por el contrario, los sistemas de información, han ido evolucionando en gran cantidad de compañías como
una colección de islas desintegradas, a menudo de difícil compatibilidad, que trabajan con un conjunto amplio
y heterogéneo de datos. Estos datos proliferan a partir de fuentes variadas y están orientados esencialmente a
satisfacer las necesidades de aplicaciones concretas antes que a la toma de decisiones de negocio.
El potencial de la tecnología para el desarrollo y difusión de conocimiento difícilmente puede, pues, aflorar en
este panorama dominado por la desintegración y por la descalificación de la información.
Surgen por ello los denominados sistemas de información integrados, es decir, sistemas que con el objetivo de
facilitar la integración de los datos organizativos que recojan la información según se va generando, la
almacenen conforme a un lenguaje común y la hagan ampliamente disponible.

Página 22 de 24
Tema1 La informática y los sistemas de información

Para hablar de esto se menciona al Data Warehousing, el cual es el proceso de extraer y filtrar datos de las
operaciones comunes de la empresa, procedentes de los distintos subsistemas operacionales, para
transformarlos, integrarlos, sumarizarlos y almacenarlos en un depósito o repositorio, para poder acceder a
ellos cada que vez que se necesite. Se puede concebir un Data Warehouse como un almacén-factoría de datos
o información, que concentra la información de interés para toda la organización y distribuye dicha
información por medio de diversas herramientas de consulta y de creación de informes orientadas a la toma de
decisiones. Con esta tecnología se convierten los datos operacionales de una organización en una herramienta
competitiva, que permite a los usuarios finales examinar los datos de modo más estratégico, realizar análisis y
detección de tendencias, seguimiento de medidas críticas, producir informes con mayor rapidez, un acceso
más fácil, más flexible y más intuitivo a la información que se necesite en cada momento. Frecuentemente,
datos que son difíciles de interpretar, desde varias fuentes, se convierten en información lista para el usuario
final, otorgando así una mayor ventaja competitiva a la organización.
El fin del Data Warehouse o Almacén de datos es reunir y consolidar las bases de datos diferentes, que se
mantienen en los diferentes departamentos o áreas funcionales de la empresa como subsistemas de
información independientes, en una gran base de datos, recogiendo datos muy dispares y, muchas veces
infrautilizados, procedentes de fuentes internas repartidas por toda la organización. También recogerá datos o
informaciones externas, que rutinariamente se recibe sobre las diferentes entidades u objetos de información,
es decir, clientes, proveedores, productos y servicios, canales, estructura organizativa, competencia, mercado,
coyuntura económica, etc., en resumen, los derivados de las relaciones de la empresa con su entorno.
El objetivo de los sistemas de información integrados es la toma de decisiones de negocio. La toma de
decisiones plantea requisitos informativos diferentes de los que surgen en el nivel operativo. Las "aplicaciones
operacionales", encaminadas a resolver necesidades del día a día del negocio, crean y usan datos volátiles
(que cambian frecuentemente) y de "tiempo real" (sólo valores actuales), específicamente orientados a una
aplicación o conjunto de ellas. Las personas precisan, sin embargo, de otra clase de datos para la toma de
decisiones: datos integrados, no volátiles, multidimensionales, variables con el tiempo, fácilmente accesibles
y orientados al negocio en vez de a la aplicación.
La elaboración de esta información a partir de la información operativa es el objetivo de los sistemas
integrados que facilitan la toma de decisiones a lo largo de toda la organización.
Por otro lado, El que los ejecutivos de las instituciones puedan contar con la información necesaria y
conveniente en un tiempo oportuno permitiéndoles tomar decisiones competentes para el curso de la
organización se constituye en una gran ventaja que ahora las tecnologías de la información ofrecen para los
sistemas de soporte a la decisión (DSS o SSD)
Después de todo los SSD permiten desarrollar análisis de variables complejas que la empresa maneja. A la
larga esto propicia ahorro de recursos ( tiempo, dinero, esfuerzo ,etc.)
Los DSS se vuelven competentes en el manejo de volúmenes de información sacando el mejor
aprovechamiento que traducido se convierte en una ventaja competitiva de la empresa.
El Business Intelligence se convierte en la ruta critica del negocio, convirtiendo datos simples y dispersos en
información que cobra un sentido lógico, coherente y mas significativo que conlleve al desarrollo del
conocimiento que dentro de la organización ayuda en la toma de decisiones mas objetivas, precisas,
convenientes y concretas.

7. FUNCIONES DE LA INFORMATICA EN EL AMBITO DE LA


ADMINISTRACIÓN.
Organizar, planificar y reglamentar el funcionamiento de los servicios de informática en todo el ámbito de la
Administración Pública, coordinando pautas y especificaciones técnicas y realizando los análisis y estudios
pertinentes.
Organizar y mantener actualizado un registro general de software y un servicio de informaciones, procesando,
emitiendo y plublicitando los registros sobre planta, equipamiento instalado, ambientes operacionales,
sistemas de base, utilitarios y aplicativos, lenguajes de programación y administradores de base de datos por
especialidades, coordinando pautas y acciones con otros organismos y dependencias y recabando la
información necesaria.
Intervenir en la determinación de las especificaciones técnicas que integran los actos licitatorios que se
substancien con motivo de la contratación de bienes, servicios, aparatos e instrumentos de uso y aplicación en
el campo de la informática.

Página 23 de 24
Tema1 La informática y los sistemas de información

Brindar asesoramiento científico, tecnológico, jurídico y legal en los temas que afectan a la informática,
promoviendo el desarrollo de estudios, análisis e investigaciones para el sustento del proceso programático y
diseñar y proponer sistemas de capacitación dentro del área de su competencia, coordinando pautas y acciones
con los organismos pertinentes de la Función Pública.
Proponer la planificación, la supervisión y coordinación de los medios y actividades de tratamiento de
información de la Administración Pública, así como la ejecución de los planes que para el efecto se elaboren.
Tendrá a su cargo la gestión del Plan de Informática Administrativa de la Comunidad Autónoma y la
realización de todas aquellas funciones relativas a la informatización de los servicios así como proponer
planes de Reforma Administrativa.
La elaboración y propuesta en este ámbito de planes globales para la administración en materia de sistemas
de información, y seguimiento de estos y, en su caso, la ejecución.
El asesoramiento, orientación e información a las Consejerías y organismos de la administración y, en
particular, a sus unidades informáticas, en materia de sistemas de información, para asegurar la coordinación
global, en el mismo ámbito.
Propuestas de normativa específica de materia de sistemas de información administrativa tendentes a la
consecución de un medio informático homogéneo en la administración, en cuanto a equipos, software de base
y aplicación, formación, y a su elevación a la Comisión de Informática, así como la supervisión del
cumplimiento de esta, una vez aprobada por la Comisión de Informática.
El diseño, implantación, explotación y desarrollo de la red corporativa soportando la gestión administrativa,
interconectando las distintas ubicaciones de las unidades administrativas y organismos de ella dependientes.
La asistencia técnica a todas las unidades que demanden comunicaciones así como la definición y publicación
de los estándares de conexión de equipos y redes para su integración en la red privada.
Informar preceptivamente todas las propuestas de la red de organismos ajenos a la administración, previo el
establecimiento de los correspondientes convenios de colaboración.
La coordinación y el control de las redes locales que se instalen, con referencia a la definición de tipos de
cableados, electrónica activa y pasiva, sistemas de gestión y configuración de los equipos de conmutación
(nodos, router's, hubs, centralitas de commutación), a fin de salvaguardar la información almacenada en los
equipos. La definición de los estándares que deberán cumplir las redes de superior o inferior capacidad y
alcance geográfico para su integración con la red privada.
La coordinación, control, y, en su caso, el diseño de aquellas aplicaciones colaterales al sistema de gestión de
procedimientos administrativos, así como las horizontales y departamentales que se le encomienden, en lo que
respecta a:
Tipo de integración con el sistema de gestión de procedimientos administrativos.
Herramientas y plataformas Hardware y Software de desarrollo.
Plataforma Hardware y Software de ejecución y en su caso de explotación y mantenimiento.
Criterios de diseño técnico, explotación y mantenimiento.
Y en general la coordinación con los distintos departamentos de la administración y en particular la
Inspección de Servicios para promocionar la implantación de aplicaciones de carácter público para su
utilización por organismos de la administración o cualquier otro colectivo interesado, y, en su caso, el diseño
y el desarrollo de las mismas.

Página 24 de 24

Вам также может понравиться