Вы находитесь на странице: 1из 24

INTRODUCCIÓN

Durante nuestra carrera como estudiantes hemos sido testigos de los


grandes y sorprendentes avances que la tecnología ha desarrollado en los
últimos años.
Estos avances han sido muy rápidos en la realidad, pero no podemos
hablar de que nacen de la noche a la mañana, cada uno de ellos refleja una
investigación de mucho tiempo. Estas nuevas tecnologías nos demuestran con
hechos y resultados lo importante que son para en la actualidad; a su vez se
van convirtiendo en un estándar para poder competir en el mundo real.

Un factor que ha sido relevante en este desarrollo de tecnologías ha sido el


Software, ya que ha facilitado y agilizado varios procesos que ya se manejaban
con anterioridad. Además que se ha convertido en una característica primordial
que deben tener las Organizaciones para poder convertirse en una de las
mejores a nivel mundial.

Este trabajo nos presenta como empezó, desarrolló y que rumbos toma
el Software actualmente.

PRIMERA ERA

Durante los primeros años de la era de la computadora, el software se


contemplaba como un añadido. Desde entonces el campo se ha desarrollado
tremendamente. La programación de computadoras era un “arte de andar por
casa” para el que existían pocos métodos sistemáticos. El desarrollo del
software se realizaba virtualmente sin ninguna planificación, hasta que los
planes comenzaron a descalabrarse y los costos a correr. Los programadores
trataban de hacer las cosas bien, y con un esfuerzo heroico, a menudo salían
con éxito. Los problemas a ser resueltos eran principalmente de una naturaleza
técnica, el énfasis estaba en expresar algoritmos conocidos eficazmente en
algún lenguaje de programación.

En estos primeros años lo normal era que el hardware fuera de propósito


general. Por otra parte, el software se diseña a medida para cada aplicación y
tenía una distribución relativamente pequeña. El software como producto
estaba en su infancia. La mayoría del software se desarrollaba y era utilizado
por la misma persona un organización. La misma persona lo escribía , lo
ejecutaba y, si fallaba, lo depuraba. Debido a que la movilidad en el trabajo
era baja, los ejecutivos estaban seguros de que esa persona estará allí cuando
se encontrara algún error. Debido a este entorno personalizado del software, el
diseño era un proceso implícito, realizado en la mente de alguien, y la
documentación normalmente no existía.

A lo largo de los primeros años aprendimos mucho sobre la


implementación de sistemas informáticos, pero relativamente poco sobre la
ingeniería de las computadoras. Sin embargo, en honor de la verdad, debemos
reconocer que durante esa era se desarrollaron muchos sistemas informáticos
excepcionales. Algunos de ellos todavía se siguen utilizando hoy y, por sus
características, siguen siendo admirados con toda justicia.
SEGUNDA ERA

La segunda era en la evolución de los sistemas de computadora se


extienden desde la mitad de la década de los sesenta hasta finales de los
setenta. La multiprogramación y los sistemas multiusuario introdujeron nuevos
conceptos de interacción hombre - máquina. Las técnicas interactivas abrieron
un nuevo mundo de aplicaciones y nuevos niveles de sofisticación del hardware
y del software. Los sistemas de tiempo real podían recoger, analizar y
transformar datos de múltiples fuentes, controlando así los procesos y
produciendo salidas en milisegundos en lugar de en minutos. Los avances en
los dispositivos de almacenamiento en línea condujeron a la primera
generación de sistemas de gestión de bases de datos.

La segunda era se caracterizó también por el establecimiento del


software ya se desarrollaba para tener una amplia distribución en un mercado
multidisciplinario. Los programas se distribuían para computadoras grandes y
para minicomputadoras, a cientos e incluso a miles de usuarios. Los patronos
de la industria, del gobierno y de la universidad se aprestaban a “desarrollar el
mejor paquete de software” y ganar así mucho dinero.

Conforme crecía el número de sistemas informáticos, comenzaron a


extenderse as bibliotecas de software de computadora. Las casas desarrollaban
proyectos en los que se producían programas de decenas de miles de
sentencias fuente. Los productos de software comprados al exterior
incorporaban cientos de miles de nuevas sentencias. Una nube negra apareció
en el horizonte. Todos esos programas, todas esas sentencias fuente tenían
que ser corregidos cuando se detectaban fallos, modificados cuando cambiaban
los requisitos de los usuarios o adaptados a nuevos dispositivos hardware que
se hubieran adquirido. Esta actividades se llamaron colectivamente
mantenimiento del software. El esfuerzo gastado en el mantenimiento del
software comenzó a absorber recursos en una medida alarmante.

Aún peor, la naturaleza personalizada de muchos programas los hacía


virtualmente imposibles de mantener. Había comenzado una crisis del
“software”

TERCERA ERA

La tercera era en la evolución de los sistemas de computadora comenzó


a mediados de los años setenta y continuó más allá de una década. El sistema
distribuido, múltiples computadoras, cada una ejecutando funciones
concurrentemente y comunicándose con alguna otra, incrementó notablemente
la complejidad de los sistemas informáticos. Las redes de área local y de área
global, las comunicaciones digitales de alto ancho de banda y creciente
demanda de acceso “instantáneo” a los datos, supusieron una fuente presión
sobre los desarrolladores del software. Aún más, los sistemas y el software que
lo permitían continuaron residiendo dentro de la industria y de la academia. El
uso personal era extraño.

La conclusión de la tercera era se caracterizó por la llegada y amplio uso


de los microprocesadores. El microprocesador ha producido un extenso grupo
de productos inteligentes, desde productos inteligentes, desde automóviles
hasta hornos microondas, desde robots industriales a equipos de diagnóstico
de suero sanguíneo, pero ninguno ha sido más importante que la computadora
personal. En menos de una década, las computadoras llegarán a ser fácilmente
accesibles al público.

CUARTA ERA

La cuarta era de la evolución de sistemas informáticos se aleja de las


computadoras individuales y da los programas de computadoras, dirigiéndose
al impacto colectivo de las computadoras individuales y de los programas de
computadoras, dirigiéndose al impacto colectivo de las computadoras y del
software. Potentes máquinas personales controladas por sistemas operativos
sofisticados, en redes globales y locales, acompañadas por aplicaciones de
software avanzadas se han convertido en la norma. Las arquitecturas
informáticas están cambiando de entornos centralizados de grandes
computadoras a entornos descentralizados cliente/servidor. Las redes de
información en todo el mundo proporcionan una infraestructura que iguala a
expertos y políticos en pensar sobre una “superautopista de información” y una
“conexión del ciberespacio”. De hecho internet se puede observar como un
“software” al que pueden acceder usuarios individuales.

La industria del software ya es la cuna de la economía del mundo. Las


decisiones tomadas por gigantes de la industria tales como Microsoft arriesgan
billones de dólares. A medida que la cuarta generación progresa, han
comenzado a surgir nuevas tecnologías. Las tecnologías orientadas a objetos
están desplazando rápidamente los enfoques de desarrollo de software más
convencionales en muchas áreas de aplicaciones. Aunque las predicciones de
las computadoras de “quinta generación”” continúan eludiéndonos, “las
técnicas de cuarta generación” para el desarrollo del software están cambiando
en forma en que la comunidad del software construye programas informáticos.
Los sistemas expertos y el software de inteligencia artificial han salido del
laboratorio para entrar en aplicaciones prácticas de una gran variedad de
problemas del mundo real. El software de redes neuronales artificiales junto
con la aplicación de lógica difusa ha abierto posibilidades excitantes para el
reconocimiento de patrones y habilidades de procesamiento de información de
carácter humano. La programación de realidad virtual y los sistemas
multimedia ofrecen formas radicalmente diferentes de comunicar información
al usuario final. “Los algoritmos genéricos” ofrecen el potencial para el
software que reside dentro de las computadoras biológicas masivamente en
paralelo.

Sin embargo, un conjunto de problemas relacionados con el software ha


persistido a través de la evolución de los sistemas basados en computadora, y
estos problemas continúan aumentado.

EL SOFTWARE

DEFINICIÓN
Para que el hardware o parte material de un ordenador pueda funcionar,
es necesario tener un conjunto de normas y órdenes para coordinar todos los
procesos que se realicen.Este conjunto recibe la denominación de software o
parte inmaterial del sistema. Sin el software, una computadora no es más que
una masa metálica sin utilidad.Con el software, una computadora puede
almacenar, procesar y recuperar información, encontrar errores de ortografía
en manuscritos, tener aventuras e intervenir en muchas otras valiosas
actividades para ganar el sustento. El software para computadoras puede
clasificarse en general en dos clases: los programas de sistema, que controlan
la operación de la computadora en si y los programas de aplicación, los cuales
resuelven problemas para sus usuarios.

3.CLASIFICACIÓN DEL SOFTWARE.

El software para computadoras puede clasificarse en general en dos


clases: los programas de sistema, que controlan la operación de la
computadora en si y los programas de aplicación, los cuales resuelven
problemas para sus usuarios. El programa fundamental de todos los programas
de sistema es el sistema operativo (SO), que controla todos los recursos de la
computadora y proporciona la base sobre la cual pueden escribirse los
programas de aplicación. En conclusión, el software se divide en:

1.- SOFTWARE BÁSICO O DE SISTEMA.

Conjunto de programas imprescindibles para el funcionamiento del sistema.

2.- SOFTWARE DE APLICACIÓN.

Conjunto de programas que van a ser utilizados por el usuario para realizar
una determinada tarea.

3.1. EL SISTEMA OPERATIVO.

¿ Qué es un Sistema Operativo ?.

Desde su creación, las computadoras digitales han utilizado un sistema


de codificación de instrucciones en sistema de numeración binaria, es decir con
los 0S. Esto se debe a que los circuitos integrados funcionan con este principio,
es decir, hay corriente o no hay corriente.

En el origen de la historia de las computadoras ( hace unos cuarenta


años), los sistemas operativos no existían y la introducción de un programa
para ser ejecutado se convertía en un increíble esfuerzo que solo podía ser
llevado a cabo por muy pocos expertos. Esto hacia que las computadoras
fueran muy complicadas de usar y que se requiriera tener altos conocimientos
técnicos para operarlas. Era tan complejo su manejo, que en algunos casos el
resultado llegaba a ser desastroso.

Además, el tiempo requerido para introducir un programa en aquellas


grandes máquinas de lento proceso superaba por mucho el de ejecución y
resultaba poco provechosa la utilización de computadoras para resolución de
problemas prácticos.

Se buscaron medios más elaborados para manipular la computadora,


pero que a su vez simplificaran la labor del operador o el usuario. Es entonces
cuando surge la idea de crear un medio para que el usuario pueda operar la
computadora con un entorno, lenguaje y operación bien definido para hacer un
verdadero uso y explotación de esta. Surgen los sistemas operativos.

Un sistema operativo es el encargado de brindar al usuario una forma


amigable y sencilla de operar, interpretar, codificar y emitir las ordenes al
procesador central para que este realice las tareas necesarias y especificas
para completar una orden.

El sistema operativo, es el instrumento indispensable para hacer de la


computadora un objeto útil. Bajo este nombre se agrupan todos aquellos
programas que permiten a los usuarios la utilización de este enredo de cables
y circuitos, que de otra manera serian difíciles de controlar. Un sistema
operativo se define como un conjunto de procedimientos manuales y
automáticos, que permiten a un grupo de usuarios compartir una instalación
de computadora eficazmente.

HISTORIA DEL S.O.

La historia del sistema operativo se divide en 4 generaciones


comprendidas desde el año 1945 hasta la actualidad.

Primera generación (1945 - 1955)

En esta época no existían los sistemas operativos. Utilización de la tecnología


de las válvulas o tubos de vacío que hacían que los ordenadores fuesen
enormes. El usuario tenía que hacer todos los programas en código binario.
Las máquinas eran de un enorme coste..

Segunda generación (1955 - 1965)

Aparecen los transistores que hacen que las máquinas se reduzcan de tamaño,
facilitando la creación de los sistemas operativos. Aparecen los lenguajes de
bajo nivel (assembler) y el lenguaje JCL. En esta época se estandariza el
código para una mayor divulgación. Aparece un “embrión” de programa, dando
lugar al IOCS (sistema de control de entrada/salida).

Aparecen los lenguajes de alto nivel que tenían que cargar un compilador que
convertía el lenguaje en assembler (ensamblador) de la máquina en la que se
compilaba.

Se crean dos estados del S.O.:


El estado Superusuario: que permite ejecutar las instrucciones sin pararse a
valorarlas (las instrucciones que sólo se pueden ejecutar de este modo se
llaman privilegiadas.

Estado Usuario: Se restringe el uso de las instrucciones.

necesitamos una orden privilegiada que sólo se puede dar en modo


Superusuario; para esto está el gestor de interrupciones:

Interrupciones Hardware

Interrupciones Software

Comienzan a aparecer más periféricos como las unidades de cinta magnética y


una mejora notable de las impresoras.

Aparecen los buffer que son memorias intermedias donde pasa la información,
el dispositivo leerá del buffer, eliminando así el dispositivo off-line.

Tercera generación (1965 - 1980)

Había ordenadores especializados para multitud de cosas concretas, IBM


resolvió este problema y creó un software compatible para ordenadores de
propósito general. Creó las familias de ordenadores; la primera fue la 360,
luego la 370, la 4330, la 3080 y la 3090. La 360 utiliza los circuitos integrados
LSI (Large Scale Integration).

Aparece la escalabilidad, que es la posibilidad de ampliar en un momento


determinado las funciones de un sistema.

Aparece la multiprogramación

Aparecen también las unidades de disco. Ahora se utiliza el disco para realizar
la función del buffer. Este disco se llama spool y sólo lo utilizaba el sistema
operativo.

Aparecen los sistemas de tiempo compartido que suponían volver a interactuar


con el sistema.

Aparecen los sistemas de tiempo real que funcionan mediante una serie de
sensores que tienen una respuesta inmediata.

Cuarta generación (1980- 1990)

Se utilizan circuitos integrados VLSI (Very Large Scale Integration) con una
enorme potencia. Aparecen los microprocesadores que son el fundamento de
los ordenadores. Son como las antiguas estaciones de trabajo, pero ahora a
nivel personal. Aparecen grandes desarrollos:

Conectividad que permite una gran libertad de comunicación pero hace que
aparezcan problemas en la Seguridad.
Tb. aparecen dos tipos de SSOO:

Los de Red, en los que elijo implícitamente que quiero hacer.

Los Distribuidos, que son transparentes para el usuario.

3.1.2. INTERFACES DEL S.O.

1.Interfaz de Línea de Comandos.

La forma de interfaz entre el sistema operativo y el usuario en la que este


escribe los comandos utilizando un lenguaje de comandos especial. Los
sistemas con interfaces de líneas de comandos se consideran más difíciles de
aprender y utilizar que los de las interfaces gráficas. Sin embargo, los sistemas
basados en comandos son por lo general programables, lo que les otorga una
flexibilidad que no tienen los sistemas basados en gráficos carentes de una
interfaz de programación.

2.Interfaz Gráfica del Usuario.

Es el tipo de visualización que permite al usuario elegir comandos, iniciar


programas y ver listas de archivos y otras opciones utilizando las
representaciones visuales (iconos) y las listas de elementos del menú. Las
selecciones pueden activarse bien a través del teclado o con el mouse.

Para los autores de aplicaciones, las interfaces gráficas de usuario ofrecen un


entorno que se encarga de la comunicación con el ordenador o computadora.
Esto hace que el programador pueda concentrarse en la funcionalidad, ya que
no está sujeto a los detalles de la visualización ni a la entrada a través del
mouse o el teclado. También permite a los programadores crear programas
que realicen de la misma forma las tareas más frecuentes, cómo guardar un
archivo, porque la interfaz proporciona mecanismos estándar de control como
ventanas y cuadros de diálogo. Otra ventaja es que las aplicaciones escritas
para una interfaz gráfica de usuario son independientes de los dispositivos: a
medida que la interfaz cambia para permitir el uso de nuevos dispositivos de
entrada y salida, como un monitor de pantalla grande o un dispositivo óptico
de almacenamiento, las aplicaciones pueden utilizarlos sin necesidad de
cambios.

3.1.3. Funciones de los Sistemas Operativos.

Interpreta los comandos que permiten al usuario comunicarse con el


ordenador.

Coordina y manipula el hardware de la computadora, como la memoria, las


impresoras, las unidades de disco, el teclado o el mouse.

Organiza los archivos en diversos dispositivos de almacenamiento, como discos


flexibles, discos duros, discos compactos o cintas magnéticas.
Gestiona los errores de hardware y la pérdida de datos.

Servir de base para la creación del software logrando que equipos de marcas
distintas funcionen de manera análoga, salvando las diferencias existentes
entre ambos.

Configura el entorno para el uso del software y los periféricos; dependiendo del
tipo de máquina que se emplea, debe establecerse en forma lógica la
disposición y características del equipo. Como por ejemplo, una
microcomputadora tiene físicamente dos unidades de disco, puede simular el
uso de otras unidades de disco, que pueden ser virtuales utilizando parte de la
memoria principal para tal fin. En caso de estar conectado a una red, el
sistema operativo se convierte en la plataforma de trabajo de los usuarios y es
este quien controla los elementos o recursos que comparten. De igual forma,
provee de protección a la información que almacena.

3.1.4.Clasificación de los Sistemas Operativos.

Con el paso del tiempo, los Sistemas Operativos fueron clasificándose de


diferentes maneras, dependiendo del uso o de la aplicación que se les daba. A
continuación se mostrarán diversos tipos de Sistemas Operativos que existen
en la actualidad, con algunas de sus características:

1)Sistemas Operativos de multiprogramación (o Sistemas Operativos de


multitarea).

Es el modo de funcionamiento disponible en algunos sistemas operativos,


mediante el cual una computadora procesa varias tareas al mismo tiempo.
Existen varios tipos de multitareas. La conmutación de contextos (context
Switching) es un tipo muy simple de multitarea en el que dos o más
aplicaciones se cargan al mismo tiempo, pero en el que solo se esta
procesando la aplicación que se encuentra en primer plano (la que ve el
usuario). Para activar otra tarea que se encuentre en segundo plano, el usuario
debe traer al primer plano la ventana o pantalla que contenga esa aplicación.
En la multitarea cooperativa, la que se utiliza en el sistema operativo
Macintosh, las tareas en segundo plano reciben tiempo de procesado durante
los tiempos muertos de la tarea que se encuentra en primer plano (por
ejemplo, cuando esta aplicación esta esperando información del usuario), y
siempre que esta aplicación lo permita. En los sistemas multitarea de tiempo
compartido, como OS/2, cada tarea recibe la atención del microprocesador
durante una fracción de segundo. Para mantener el sistema en orden, cada
tarea recibe un nivel de prioridad o se procesa en orden secuencial. Dado que
el sentido temporal del usuario es mucho más lento que la velocidad de
procesamiento del ordenador, las operaciones de multitarea en tiempo
compartido parecen ser simultáneas.

Se distinguen por sus habilidades para poder soportar la ejecución de dos o


más trabajos activos (que se están ejecutado) al mismo tiempo. Esto trae
como resultado que la Unidad Central de Procesamiento (UCP) siempre tenga
alguna tarea que ejecutar, aprovechando al máximo su utilización.
Su objetivo es tener a varias tareas en la memoria principal, de manera que
cada uno está usando el procesador, o un procesador distinto, es decir,
involucra máquinas con más de una UCP.

Sistemas Operativos como UNIX, Windows 95, Windows 98, Windows NT,
MAC-OS, OS/2, soportan la multitarea.

Las características de un Sistema Operativo de multiprogramación o multitarea


son las siguientes:

Mejora productividad del sistema y utilización de recursos.

Multiplexa recursos entre varios programas.

Generalmente soportan múltiples usuarios (multiusuarios).

Proporcionan facilidades para mantener el entorno de usuarios individuales.

Requieren validación de usuario para seguridad y protección.

Proporcionan contabilidad del uso de los recursos por parte de los usuarios.

Multitarea sin soporte multiusuario se encuentra en algunos computadores


personales o en sistemas de tiempo real.

Sistemas multiprocesadores son sistemas multitareas por definición ya que


soportan la ejecución simultánea de múltiples tareas sobre diferentes
procesadores.

En general, los sistemas de multiprogramación se caracterizan por tener


múltiples programas activos compitiendo por los recursos del sistema:
procesador, memoria, dispositivos periféricos.

2)Sistema Operativo Monotareas.

Los sistemas operativos monotareas son más primitivos y es todo lo contrario


al visto anteriormente, es decir, solo pueden manejar un proceso en cada
momento o que solo puede ejecutar las tareas de una en una. Por ejemplo
cuando la computadora esta imprimiendo un documento, no puede iniciar otro
proceso ni responder a nuevas instrucciones hasta que se termine la
impresión.

3)Sistema Operativo Monousuario.

Los sistemas monousuarios son aquellos que nada más puede atender a un
solo usuario, gracias a las limitaciones creadas por el hardware, los programas
o el tipo de aplicación que se este ejecutando.

Estos tipos de sistemas son muy simples, porque todos los dispositivos de
entrada, salida y control dependen de la tarea que se esta utilizando, esto
quiere decir, que las instrucciones que se dan, son procesadas de inmediato;
ya que existe un solo usuario. Y están orientados principalmente por los
microcomputadores.

4)Sistema Operativo Multiusuario.

Es todo lo contrario a monousuario; y en esta categoría se encuentran todos


los sistemas que cumplen simultáneamente las necesidades de dos o más
usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean
especialmente en redes.

En otras palabras consiste en el fraccionamiento del tiempo (timesharing).

5)Sistemas Operativos por lotes.

Los Sistemas Operativos por lotes, procesan una gran cantidad de trabajos con
poca o ninguna interacción entre los usuarios y los programas en ejecución. Se
reúnen todos los trabajos comunes para realizarlos al mismo tiempo, evitando
la espera de dos o más trabajos como sucede en el procesamiento en serie.
Estos sistemas son de los más tradicionales y antiguos, y fueron introducidos
alrededor de 1956 para aumentar la capacidad de procesamiento de los
programas.

Cuando estos sistemas son bien planeados, pueden tener un tiempo de


ejecución muy alto, porque el procesador es mejor utilizado y los Sistemas
Operativos pueden ser simples, debido a la secuenciabilidad de la ejecución de
los trabajos.

Algunos ejemplos de Sistemas Operativos por lotes exitosos son el SCOPE, del
DC6600, el cual está orientado a procesamiento científico pesado, y el EXEC II
para el UNIVAC 1107, orientado a procesamiento académico.

Algunas otras características con que cuentan los Sistemas Operativos por
lotes son:

Requiere que el programa, datos y órdenes al sistema sean remitidos todos


juntos en forma de lote.

Permiten poca o ninguna interacción usuario/programa en ejecución.

Mayor potencial de utilización de recursos que procesamiento serial simple en


sistemas multiusuarios.

No conveniente para desarrollo de programas por bajo tiempo de retorno y


depuración fuera de línea.

Conveniente para programas de largos tiempos de ejecución (ej, análisis


estadísticos, nóminas de personal, etc.).

Se encuentra en muchos computadores personales combinados con


procesamiento serial.
Planificación del procesador sencilla, típicamente procesados en orden de
llegada.

Planificación de memoria sencilla, generalmente se divide en dos: parte


residente del S.O. y programas transitorios.

No requieren gestión crítica de dispositivos en el tiempo.

Suelen proporcionar gestión sencilla de manejo de archivos: se requiere poca


protección y ningún control de concurrencia para el acceso.

6)Sistemas Operativos de tiempo real.

Los Sistemas Operativos de tiempo real son aquellos en los cuales no tiene
importancia el usuario, sino los procesos. Por lo general, están subutilizados
sus recursos con la finalidad de prestar atención a los procesos en el momento
que lo requieran. se utilizan en entornos donde son procesados un gran
número de sucesos o eventos.

Muchos Sistemas Operativos de tiempo real son construidos para aplicaciones


muy específicas como control de tráfico aéreo, bolsas de valores, control de
refinerías, control de laminadores. También en el ramo automovilístico y de la
electrónica de consumo, las aplicaciones de tiempo real están creciendo muy
rápidamente. Otros campos de aplicación de los Sistemas Operativos de
tiempo real son los siguientes:

Control de trenes.

Telecomunicaciones.

Sistemas de fabricación integrada.

Producción y distribución de energía eléctrica.

Control de edificios.

Sistemas multimedia.

Algunos ejemplos de Sistemas Operativos de tiempo real son: VxWorks,


Solaris, Lyns OS y Spectra. Los Sistemas Operativos de tiempo real, cuentan
con las siguientes características:

Se dan en entornos en donde deben ser aceptados y procesados gran cantidad


de sucesos, la mayoría externos al sistema computacional, en breve tiempo o
dentro de ciertos plazos.

Se utilizan en control industrial, conmutación telefónica, control de vuelo,


simulaciones en tiempo real., aplicaciones militares, etc.

Objetivo es proporcionar rápidos tiempos de respuesta.


Procesa ráfagas de miles de interrupciones por segundo sin perder un solo
suceso.

Proceso se activa tras ocurrencia de suceso, mediante interrupción.

Proceso de mayor prioridad expropia recursos.

Por tanto generalmente se utiliza planificación expropiativa basada en


prioridades.

Gestión de memoria menos exigente que tiempo compartido, usualmente


procesos son residentes permanentes en memoria.

Población de procesos estática en gran medida.

Poco movimiento de programas entre almacenamiento secundario y memoria.

Gestión de archivos se orienta más a velocidad de acceso que a utilización


eficiente del recurso.

7)Sistemas Operativos de tiempo compartido.

Permiten la simulación de que el sistema y sus recursos son todos para cada
usuario. El usuario hace una petición a la computadora, esta la procesa tan
pronto como le es posible, y la respuesta aparecerá en la terminal del usuario.

Los principales recursos del sistema, el procesador, la memoria, dispositivos de


E/S, son continuamente utilizados entre los diversos usuarios, dando a cada
usuario la ilusión de que tiene el sistema dedicado para sí mismo. Esto trae
como consecuencia una gran carga de trabajo al Sistema Operativo,
principalmente en la administración de memoria principal y secundaria.

Ejemplos de Sistemas Operativos de tiempo compartido son Multics, OS/360 y


DEC-10.

Características de los Sistemas Operativos de tiempo compartido:

Populares representantes de sistemas multiprogramados multiusuario, ej:


sistemas de diseño asistido por computador, procesamiento de texto, etc.

Dan la ilusión de que cada usuario tiene una máquina para sí.

Mayoría utilizan algoritmo de reparto circular.

Programas se ejecutan con prioridad rotatoria que se incrementa con la espera


y disminuye después de concedido el servicio.

Evitan monopolización del sistema asignando tiempos de procesador (time


slot).

Gestión de memoria proporciona protección a programas residentes.


Gestión de archivo debe proporcionar protección y control de acceso debido a
que pueden existir múltiples usuarios accesando un mismo archivos.

8)Sistemas Operativos distribuidos.

Permiten distribuir trabajos, tareas o procesos, entre un conjunto de


procesadores. Puede ser que este conjunto de procesadores esté en un equipo
o en diferentes, en este caso es trasparente para el usuario. Existen dos
esquemas básicos de éstos. Un sistema fuertemente acoplado es a es aquel
que comparte la memoria y un reloj global, cuyos tiempos de acceso son
similares para todos los procesadores. En un sistema débilmente acoplado los
procesadores no comparten ni memoria ni reloj, ya que cada uno cuenta con
su memoria local.

Los sistemas distribuidos deben de ser muy confiables, ya que si un


componente del sistema se compone otro componente debe de ser capaz de
reemplazarlo.

Entre los diferentes Sistemas Operativos distribuidos que existen tenemos los
siguientes: Sprite, Solaris-MC, Mach, Chorus, Spring, Amoeba, Taos, etc.

Características de los Sistemas Operativos distribuidos:

Colección de sistemas autónomos capaces de comunicación y cooperación


mediante interconexiones hardware y software .

Gobierna operación de un S.C. y proporciona abstracción de máquina virtual a


los usuarios.

Objetivo clave es la transparencia.

Generalmente proporcionan medios para la compartición global de recursos.

Servicios añadidos: denominación global, sistemas de archivos distribuidos,


facilidades para distribución de cálculos (a través de comunicación de procesos
internodos, llamadas a procedimientos remotos, etc.).

9)Sistemas Operativos de red.

Son aquellos sistemas que mantienen a dos o más computadoras unidas


através de algún medio de comunicación (físico o no), con el objetivo
primordial de poder compartir los diferentes recursos y la información del
sistema.

El primer Sistema Operativo de red estaba enfocado a equipos con un


procesador Motorola 68000, pasando posteriormente a procesadores Intel
como Novell Netware.

Los Sistemas Operativos de red mas ampliamente usados son: Novell Netware,
Personal Netware, LAN Manager, Windows NT Server, UNIX, LANtastic.
10)Sistemas Operativos paralelos.

En estos tipos de Sistemas Operativos se pretende que cuando existan dos o


más procesos que compitan por algún recurso se puedan realizar o ejecutar al
mismo tiempo.

En UNIX existe también la posibilidad de ejecutar programas sin tener que


atenderlos en forma interactiva, simulando paralelismo (es decir, atender de
manera concurrente varios procesos de un mismo usuario). Así, en lugar de
esperar a que el proceso termine de ejecutarse (como lo haría normalmente),
regresa a atender al usuario inmediatamente después de haber creado el
proceso.

Ejemplos de estos tipos de Sistemas Operativos están: Alpha, PVM, la serie


AIX, que es utilizado en los sistemas RS/6000 de IBM.

SOFTWARE LIBRE

Mapa conceptual​ del ​software​ libre.

El término ​software​ libre​ refiere el conjunto de ​software​ que por elección manifiesta de su autor, puede ser
copiado, estudiado, modificado, utilizado libremente con cualquier fin y redistribuido con o sin cambios o
mejoras.Su definición está asociada al nacimiento del movimiento de software libre, encabezado por Richard
Stallman y la consecuente fundación en 1985 de la Free Software Foundation, que coloca la libertad del usuario
informático como propósito ético fundamental. Proviene del término en inglés ​free software​, que presenta
ambigüedad entre los significados «libre» y «gratis» asociados a la palabra ​free​.
Un programa informático es software libre si otorga a los usuarios todas estas libertades de manera adecuada. De
lo contrario no es libre. Existen diversos esquemas de distribución que no son libres, y se bien podemos
distinguirlos sobre la base de cuánto les falta para llegar a ser libres, su uso bien puede ser considerado contrario
a la ética en todos los casos por igual.

El ​software​ libre suele estar disponible gratuitamente, o al precio de coste de la distribución a través de otros
medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar «software libre» a «software
gratuito» (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido
comercialmente. Análogamente, el software gratis o gratuito incluye en ocasiones el código fuente; no obstante,
este tipo de software no es «libre» en el mismo sentido que el software libre, a menos que se garanticen los
derechos de modificación y redistribución de dichas versiones modificadas del programa.

Tampoco debe confundirse ​software​ libre con «software de dominio público». Éste último es aquel que no
requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por
igual. Cualquiera puede hacer uso de él, consignando su autoría original. Este software sería aquel cuyo autor lo
dona a la humanidad o cuyos derechos de autor han expirado. Si un autor condiciona su uso bajo una licencia,
por muy débil que sea, ya no es del dominio público.

Historia
Entre los años 1960 y 1970, el software no era considerado un producto sino un añadido que los vendedores de
las grandes computadoras de la época (las ​mainframes​) aportaban a sus clientes para que éstos pudieran
usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran
libremente sus programas unos con otros. Este comportamiento era particularmente habitual en algunos de los
mayores grupos de usuarios de la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de
la década de 1970, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de
acuerdos de licencia.

En 1971, cuando la informática todavía no había sufrido su gran auge, las personas que hacían uso de ella, en
ámbitos universitarios y empresariales, creaban y compartían el software sin ningún tipo de restricciones.

Con la llegada de los años 1980 la situación empezó a cambiar. Las computadoras más modernas comenzaban a
utilizar sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían
realizar modificaciones a dicho software.

En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que podía hacer
era darlo a conocer a la empresa desarrolladora para que ésta lo solucionara. Aunque el programador estuviese
capacitado para solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le impedía que
modificase el software.

En 1971, el estadounidense Richard Matthew Stallman, estudiante de Física de la Universidad de Harvard, formó
parte como hacker del Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts. En los
años 1980, la cultura ​hacker​ que constituía la vida de Stallman empezó a disolverse bajo la presión de la
comercialización en la industria del software. Los demás compañeros de Stallman, también hackers del
laboratorio, fundaron la compañía Symbolics que intentaba reemplazar el software libre producido en las
instalaciones por software no libre de su propiedad. Stallman contó, años después, que por aquellos años, en el
laboratorio donde trabajaba, habían recibido una impresora donada por una empresa externa. El dispositivo, que
era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección, dado que cada cierto tiempo
el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por red e informase a los
usuarios de la situación.

La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos a
imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes.
Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la impresora se
bloqueara. Para ello necesitaba tener acceso al código fuente de los controladores de la impresora. Pidió a la
empresa propietaria de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era lo que
pretendía realizar. La empresa se negó a entregarle el código fuente. En ese preciso instante, Stallman se vio en
una encrucijada: debía elegir entre aceptar el nuevo software propietario firmando acuerdos de no revelación y
acabar desarrollando más software propietario con licencias restrictivas, que a su vez deberían ser más adelante
aceptadas por sus propios colegas. Stallman renunció a su empleo, viviendo de realizar programas libres y vender
las copias en cintas y el día 27 de septiembre de 1983, anunció en varios grupos de noticias de Usenet el inicio
del Proyecto GNU, que perseguía crear un sistema operativo completamente ​libre​. En 1985, Stallman fundó la
organización Free Software Foundation (FSF) e introdujo la definición formal de software libre y el concepto de
"​copyleft​", que desarrolló para otorgar libertad a los usuarios y para restringir las posibilidades de apropiación del
software.​6

Las cuatro libertades del software libre


De acuerdo con la definición establecida por Richard Stallman, un software es "libre" cuando garantiza las
siguientes libertades:

Libertad Descripción

0 la libertad de ​usar​ el programa, con cualquier propósito (Uso).

1 la libertad de ​estudiar​ cómo funciona el programa y modificarlo, adaptándolo a las


propias necesidades (Estudio).

2 la libertad de ​distribuir​ copias del programa, con lo cual se puede ayudar a otros
usuarios (Distribución).

3 la libertad de ​mejorar​ el programa y hacer públicas esas mejoras a los demás, de


modo que toda la comunidad se beneficie (Mejora).
Las libertades 1 y 3 requieren acceso al código fuente porque estudiar y modificar
software sin su código fuente es muy poco viable.

Ciertos teóricos usan este cuarto punto (libertad 3) para justificar parcialmente las limitaciones impuestas por la
licencia GNU GPL frente a otras licencias de software libre (ver Licencias GPL).Sin embargo el sentido original es
más libre, abierto y menos restrictivo que el que le otorga la propia situación de incompatibilidad, que ha sido
resuelta a cierto grado en versión 3 de la licencia GNU GPL.

Tanto la Open Source Initiative como la Free Software Foundation, mantienen en sus webs oficiales, listados de
las licencias de software libre que aprueban.

El término software no libre se emplea para referirse al software distribuido bajo una licencia de software más
restrictiva que no garantiza estas cuatro libertades. Las leyes de la propiedad intelectual reservan la mayoría de
los derechos de modificación, duplicación, y redistribución, para el dueño del ​copyright​; el software dispuesto bajo
una licencia de software libre rescinde específicamente la mayoría de estos derechos reservados.

La definición de software libre no contempla la cuestión del precio; un eslogan frecuentemente usado es ​"libre
como en libertad, no como en cerveza gratis"​ o en inglés ​"Free as in freedom, not as in free beer"​ (aludiendo a la
ambigüedad del término inglés "​free​"), y es habitual ver a la venta ​CD​ de software libre como distribuciones Linux.
Sin embargo, en esta situación, el comprador del CD tiene el derecho de copiarlo y redistribuirlo. El software gratis
puede incluir restricciones que no se adaptan a la definición de software libre —por ejemplo, puede no incluir el
código fuente, puede prohibir explícitamente a los distribuidores recibir una compensación a cambio, etc—.

Para evitar la confusión, algunas personas utilizan los términos "libre" (​software libre​) y "gratis" (​software gratis​)
para evitar la ambigüedad de la palabra inglesa "free". Sin embargo, estos términos alternativos son usados
únicamente dentro del movimiento del software libre, aunque están extendiéndose lentamente hacia el resto del
mundo. Otros defienden el uso del término ​open source software​ (software de código abierto). La principal
diferencia entre los términos "open source" y "free software" es que éste último tiene en cuenta los aspectos
éticos y filosóficos de la libertad, mientras que el "open source" se basa únicamente en los aspectos técnicos.

En un intento por unir los mencionados términos que se refieren a conceptos semejantes, se está extendiendo el
uso de la palabra "FLOSS" con el significado de ​free/libre and open source software​ e, indirectamente, también a
la comunidad que lo produce y apoya.

Formatos
Los formatos abiertos permiten al software libre mantener sus cuatro libertades y la libre difusión de todo el código
y formatos utilizados, su distribución y estudio, debido a esto, los creadores de software libre desarrollan a la vez
de programas libres, formatos libres para estos programas o utilizan formatos libres ya creados anteriormente.

Los formatos libres permiten a los usuarios poder trabajar con programas libres aunque al ser libres pueden ser
implementados y utilizados en cualquier programa sea cerrado o no. Algunas compañías, como Microsoft, no
suelen utilizar formatos libres en sus programas, no por impedimento si no por falta de voluntad de implementar
formatos abiertos en sus programas, aún así los usuarios pueden instalar software libre en sus sistemas para
trabajar con estos formatos.
Tipos de licencias
El software no se vende, se licencia. Una licencia es aquella autorización formal con carácter contractual que un
autor de un software da a un interesado para ejercer "actos de explotación legales". Es decir, el software no se
compra, sino que se adquieren una serie de derechos sobre el uso que se le puede dar. En las licencias de
software libre esos derechos son muy abiertos y permisivos, apenas hay restricciones al uso de los programas.
De ahí que ayude al desarrollo de la cultura . Pueden existir tantas licencias como acuerdos concretos se den
entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto
o grupos de licencias:​3

Licencias GPL
Una de las más utilizadas es la ​Licencia Pública General de GNU​ (GNU GPL). El autor conserva los derechos de
autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas
las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL.
Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL.

Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa
misma licencia. Y añade que si se reutiliza en un mismo programa código "A" licenciado bajo licencia GNU GPL y
código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y
calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL.

En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que
pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso,
al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos
que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código
gobernado por la licencia GNU GPL.

En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL
y otras que no.

Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL o de manejo.

Licencias AGPL
La ​Licencia Pública General de Affero​ (en inglés ​Affero General Public License​, también ​Affero GPL​ o
AGPL​) es una licencia copyleft derivada de la Licencia Pública General de GNU diseñada específicamente para
asegurar la cooperación con la comunidad en el caso de software que corra en servidores de red.

La ​Affero GPL​ es íntegramente una GNU GPL con una cláusula nueva que añade la obligación de distribuir el
software si éste se ejecuta para ofrecer servicios a través de una red de ordenadores.

La Free Software Foundation recomienda que el uso de la GNU AGPLv3 sea considerado para cualquier software
que usualmente corra sobre una red.

Licencias estilo BSD


Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD. El
autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para
requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y
modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente
absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que
esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto
al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar
que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente
analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la
esclavitud es más libre que otro que no la permite").

Licencias estilo MPL y derivadas


Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape
Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el
mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de productos de software libre de uso cotidiano en
todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el
efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde
un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha
gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva
como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la
primera licencia nueva después de muchos años, que se encargaba de algunos puntos que no fueron tomados en
cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar
adyacente a la licencia estilo BSD, pero perfeccionada.

Copyleft
Hay que hacer constar que el titular de los derechos de autor (copyright) de un software bajo licencia copyleft
puede también realizar una versión modificada bajo su copyright original, y venderla bajo cualquier licencia que
desee, además de distribuir la versión original como software libre. Esta técnica ha sido usada como un modelo
de negocio por una serie de empresas que realizan software libre (por ejemplo MySQL); esta práctica ​no​ restringe
ninguno de los derechos otorgados a los usuarios de la versión copyleft.

En España, toda obra derivada está tan protegida como una original, siempre que la obra derivada parta de una
autorización contractual con el autor. En el caso genérico de que el autor retire las licencias "copyleft", no
afectaría de ningún modo a los productos derivados anteriores a esa retirada, ya que no tiene efecto retroactivo.
En términos legales, el autor no tiene derecho a retirar el permiso de una licencia en vigencia. Si así sucediera, el
conflicto entre las partes se resolvería en un pleito convencional.

Comparación con el software de código abierto


Mapa conceptual del software libre y de código abierto.

Aunque en la práctica el software de código abierto y el software libre comparten muchas de sus licencias, la Free
Software Foundation opina que el movimiento del software de código abierto es filosóficamente diferente del
movimiento del software libre. Apareció en 1998 con un grupo de personas, entre los que cabe destacar a Eric S.
Raymond y Bruce Perens, que formaron la Open Source Initiative (OSI). Ellos buscaban darle mayor relevancia a
los beneficios prácticos del compartir el código fuente, e interesar a las principales casas de software y otras
empresas de la industria de la alta tecnología en el concepto. Por otro lado, la Free Software Foundation y
Richard Stallman prefieren plantear el asunto en términos éticos empleando el término "software libre".

Los defensores del término "código abierto" afirman que éste evita la ambigüedad del término en ese idioma que
es ​free​en ​free software​. El término "código abierto" fue acuñado por ​Christine Peterson​ del instituto de
investigación Foresight Institute, y se registró para actuar como marca registrada el término en inglés, para los
productos de software libre.

Mucha gente reconoce el beneficio cualitativo del proceso de desarrollo de software cuando los desarrolladores
pueden usar, modificar y redistribuir el código fuente de un programa. El movimiento del software libre hace
especial énfasis en los aspectos morales o éticos del software, viendo la excelencia técnica como un producto
secundario de su estándar ético. El movimiento de código abierto ve la excelencia técnica como el objetivo
prioritario, siendo la compartición del código fuente un medio para dicho fin. Por dicho motivo, la Fundación del
Software Libre se distancia tanto del movimiento de código abierto como del término "Código Abierto".

Puesto que la OSI sólo aprueba las licencias que se ajustan a la Open Source Definition (definición de código
abierto), la mayoría de la gente lo interpreta como un esquema de distribución, e intercambia libremente los
términos "código abierto" y "software libre". Aún cuando existen importantes diferencias filosóficas entre ambos
términos, especialmente en términos de las motivaciones para el desarrollo y el uso de tal software, raramente
suelen tener impacto en el proceso de colaboración.

Aunque el término "código abierto" elimina la ambigüedad de libertad frente a precio (en el caso del inglés),
introduce una nueva: entre los programas que se ajustan a la ​definición de código abierto​, que dan a los usuarios
la libertad de mejorarlos, y los programas que simplemente tiene el código fuente disponible, posiblemente con
fuertes restricciones sobre el uso de dicho código fuente. Mucha gente cree que cualquier software que tenga el
código fuente disponible es de ​código abierto​, puesto que lo pueden manipular (un ejemplo de este tipo de
software sería el popular paquete de software gratuito Graphviz, inicialmente no libre pero que incluía el código
fuente, aunque luego AT&T le cambió la licencia). Sin embargo, mucho de este software no da a sus usuarios la
libertad de distribuir sus modificaciones, restringe el uso comercial, o en general restringe los derechos de los
usuarios.

Implicaciones económico-políticas
Una vez que un producto de software libre ha empezado a circular, rápidamente está disponible a un costo muy
bajo. Al mismo tiempo, su utilidad no decrece. El software, en general, podría ser considerado un ​bien de uso
inagotable, tomando en cuenta que su costo marginal es pequeñísimo y que no es un bien sujeto a rivalidad (la
posesión del bien por un agente económico no impide que otro lo posea).

Puesto que el software libre permite el libre uso, modificación y redistribución, a menudo encuentra un hogar entre
usuarios para los cuales el coste del software no libre es a veces prohibitivo, o como alternativa a la ​piratería​.
También es sencillo modificarlo localmente, lo que permite que sean posibles los esfuerzos de traducción a
idiomas que no son necesariamente rentables comercialmente.

La mayoría del software libre se produce por equipos internacionales que cooperan a través de la libre asociación.
Los equipos están típicamente compuestos por individuos con una amplia variedad de motivaciones, y pueden
provenir tanto del ​sector privado​, del ​sector voluntario​ o del ​sector público​. Existen muchas posturas acerca de la
relación entre el software libre y el actual sistema político-económico:

● Algunos consideran el software libre como un competidor contra el ​centralismo​ en empresas y


gobiernos, una forma de​orden espontáneo​ o de ​anarquismo​ práctico.​16
● Algunos consideran el software libre como una forma de ​trabajo colaborativo​ en un modelo de
mercado, tal como se había planteado el ​cooperativismo​.
● Algunos comparan el software libre a una ​economía del regalo​, donde el valor de una persona está
basado en lo que ésta da a los demás, sin que incurra valor monetario formal de por medio.
● Grupos como ​Oekonux​ e ​Hipatia​ consideran que todo debería producirse de esta forma y que este
modelo de producción no se limita a reemplazar el modelo no libre de desarrollo del software. La
cooperación​ basada en la ​libre asociación​ puede usarse y se usa para otros propósitos (tales como
escribir enciclopedias, por ejemplo).
● Hay ​proyectos de desarrollo​ con impulso gubernamental que utilizan software libre, así como en
proyectos de​voluntariado​ en países en vías de desarrollo.
Las implicaciones políticas y económicas del software libre, o su afinidad con el ​antiautoritarismo​, es discutida.
Mientras para unos estas implicaciones son notorias y representan un factor importante a tomarse en cuenta, para
otros si bien podría existir una leve relación, no tiene suficiente relevancia.

Modelo de negocio
El ​negocio​ detrás del software libre se caracteriza por la oferta de servicios adicionales al software como: la
personalización y/o instalación del mismo, ​soporte técnico​, ​donaciones​, ​patrocinios​ o como un elemento
de​responsabilidad social corporativa​;​17​ en contraposición al modelo de negocio basado en licencias predominante
en el​software de código cerrado​.18

Seguridad relativa
Existe una cierta controversia sobre la ​seguridad​ del software libre frente al software no libre (siendo uno de los
mayores asuntos la ​seguridad por oscuridad​). Un método usado de forma habitual para determinar la seguridad
relativa de los productos es determinar cuántos fallos de seguridad no resueltos existen en cada uno de los
productos involucrados. Por lo general, los usuarios de este método recomiendan que no sean usados productos
que no suministren un método de solucionar los fallos de seguridad, al menos hasta que no esté disponible un
arreglo.

Software libre en la Administración Pública


Existen países en los cuales, sus ​administraciones públicas​, han mostrado apoyo al software libre, sea migrando
total o parcialmente sus servidores y sistemas de escritorio, sea subvencionándolo. Este es el caso de
Alemania​,19​
​ 20​
​ ​Brasil​,21​
​ 22​
​ Cuba​,23​
​ ​Chile​,24​
​ ​China​,25​
​ ​Ecuador​, ​España​,26​
​ 27​
​ ​Francia​,28​
​ ​México​,29​
​ ​República
Dominicana​,30​
​ y ​Venezuela​.31

Además de lo anterior, la Administración Pública tiene cierta función de guía de la industria que la hace tener un
gran impacto, que se considera que debe dirigirse a la creación de un ámbito tecnológico generador de riqueza
nacional. Ésta puede crearse fomentando empresas, cuyo negocio sea en parte el desarrollo de nuevo software
libre para la Administración, el mantenimiento y la adaptación del software existente.​32

En ​España​ en el año 2009, el Centro Nacional de Referencia de Aplicación de las TIC basadas en Fuentes
Abiertas (CENATIC), elaboró un informe junto a la Universidad Rey Juan Carlos (Grupo GsyC/LibreSoft) y
Telefónica I+D, con el fin de analizar el estado en que se encuentra el proceso de implantación del software de
fuentes abiertas en la Administración Pública española.

En México, el Software Libre fue impulsado en las universidades y los centros de investigación. Es por eso que,
desde hace tres décadas, los estudiantes y los profesores usan software libre para fines didácticos y de
investigación. Ejemplo de ello es la ​Delta Metropolitana​, red de supercomputadoras que están en varios puntos de
la Ciudad de México, en el CINESTAV, el IPN, la UAM, y la UNAM la cual utiliza software libre para consolidar sus
recursos, hacer investigación, y generar conocimiento.

Ventajas del Software libre en la educación


Distribución de algunas aplicaciones de software libre en el proceso de educación a distancia.

Según sus impulsores, el software libre ayuda a conocer y participar de forma equitativa el proceso educativo, por
lo cual parece tener beneficios en el campo educativo como los siguientes:

1. Libertad para elegir el programa que cubra de mejor manera las necesidades educativas.
2. Beneficio económico: Las licencias del software libre son completamente gratuitas, por lo que
puede ser eliminado el pago en licencia de programas no libres e invertir el dinero en otra área.
3. Uso por parte de los estudiantes de los mismos programas en casa y escuela, de forma legal.
4. Existencia de comunidades de intercambio educativo.
5. Desarrollo independiente de aplicaciones: Se favorece el crecimiento de desarrolladores
“pequeños” de software creando así una amplia oferta de programas educativos libres.
6. Conocimiento ampliado sobre la informática: El software libre permite que los estudiantes
conozcan cómo trabajan los programas y fomenta el interés, la investigación y el aprendizaje de
nuevos conceptos en el campo de la informática.
7. Diversidad de herramientas educativas en diversas áreas del conocimiento. 33 ​

Motivaciones del software libre​[​editar​]


● La motivación ética, esgrimida la Free Software Foundation ente que argumenta que el software es
conocimiento y debe poderse difundir sin trabas. Su ocultación es una actitud antisocial y la
posibilidad de modificar programas es una forma de ​libertad de expresión​, aunque sin olvidar una
estructura jerarquizada por la ​meritocracia​34
● La motivación pragmática, defendida por la Open Source Initiative, que argumenta ventajas técnicas y
económicas, con respecto a evitar una ​tragedia de los anticomunes​ mejorando los incentivos.
Aparte de estas motivaciones, quienes trabajan con software libre suelen hacerlo por muchas otras razones, que
van desde la diversión a la mera retribución económica, que es posible debido a modelos de negocio
sustentables.​35

Regulación​[​editar​]
Argentina​[​editar​]
En la ​Argentina​, en la Provincia de Río Negro, el 08/03/2012 el Parlamento aprobó la Ley Ley 4747/12 que
establece el empleo obligatorio del sistema de Software Libre en los tres Poderes del Estado, entes
descentralizados y empresas con participación estatal.​36

En la Provincia de Santa Fe, fue publicada la Ley No. 13139 en el 2010 como una actualización de la Ley No.
12360 del año 2004, la primera de este tipo en el país. El espítiru de la Ley 13139 radica en la implementación de
políticas de incorporación de software que garanticen soberanía, seguridad de los datos. ​37
Bolivia​[​editar​]
El presidente Evo Morales Ayma, el día lunes 8 de agosto del 2011, reglamentó la Ley Nº 164 de
Telecomunicaciones y TIC's para el Desarrollo de Tecnologías de Información y Comunicación.​38​ 39

Ecuador​[​editar​]
El Presidente Rafael Correa Delgado, el día jueves 10 de abril del 2008, firmó el Decreto N° 1014; en el cual
ordena, que el software usado por las administraciones públicas del país sea software libre e implícitamente
basado en estándares abiertos.​40​ ​41

España​[​editar​]
La Orden EDU/2341/2009, de 27 de agosto, por la que se crea el Centro Nacional de Desarrollo Curricular en
Sistemas no Propietarios, tiene como finalidad el diseño, el desarrollo y la promoción de contenidos educativos
digitales para colectivos educativos específicos, en el ámbito de las Tecnologías de la Información y la
Comunicación, que se centra en promocionar y aplicar estrategias dirigidas a poner a disposición de los centros
escolares recursos y contenidos digitales de calidad, desarrollados en software libre.

Uruguay​[​editar​]
En ​Uruguay​, a partir de 2003 (Comisión de Constitución, Códigos, Legislación General y Administración Carpeta
Nº 3565 de 2003 Repartido Nº 1510 de noviembre de 2003) se estudió una ​"Ley de Software Libre y Formatos
Abiertos en el Estado"​. La primera versión planteaba el uso de formatos abiertos en todo el Estado y Software
Libre en la educación, con una segunda versión presentada en el 2006, que ya planteaba dar preferencia al uso
de Software Libre en todos los organismos del Estado.​42​ Luego dicha versión con modificaciones, fue la que
recibió media sanción en la ​Cámara de Diputados​ el 19 de diciembre de 2012,​43​ ​44​ la cual fue apoyada por la
comunidad de software libre uruguaya.​45​Finalmente, la ley fue aprobada en diciembre de 2013 estableciéndose en
ella que:​46

1. El Estado deberá preferir la inversión y desarrollo en software libre sobre el que no lo es, salvo
cuando éste no cumpla las necesidades técnicas requeridas.
2. En caso de que el Estado decida invertir en software privativo, deberá justificar las razones del
gasto y argumentar su elección.
3. El Estado deberá distribuir y aceptar toda información en al menos un formato abierto, estándar y
libre.
4. El intercambio de información a través de Internet deberá ser posible en al menos un programa
con licencia libre.

Вам также может понравиться