Академический Документы
Профессиональный Документы
Культура Документы
(más adelante se explica este concepto ). Los canales del segundo DMAC está asignado a las
direcciones 0C0–0DFh y son de 16 bits. Pueden mover 2 Bytes (de posiciones contiguas) cada
vez.
Cada canal tiene asignada una prioridad para el caso de recibirse simultáneamente varias
peticiones (los números más bajos tienen prioridad más alta). Pueden ser utilizados por cualquier
dispositivo que los necesite (suponiendo naturalmente que esté diseñado para soportar este modo
de operación). Cada sistema los asigna de forma arbitraria, pero hay algunos cuya asignación es
estándar.
el píxel de datos, para celebrar ROM carácter fuentes, o quizás algunos discretos lógica, como los
registros de cambio eran necesarias para construir un sistema completo. En cualquier caso, es el
VDC de la responsabilidad de generar el calendario de las necesarias señales de vídeo, tales
como la horizontal y vertical de sincronización de señales, y el intervalo de corte de señal.
La mayoría de las veces el chip VDC está completamente integrado en la lógica de la computadora
principal del sistema, (su memoria RAM de vídeo aparece en el mapa de memoria principal de la
CPU), pero a veces funciona como un co procesador que puede manipular el contenido de RAM de
vídeo independientemente de la el procesador principal.
Tipos de controladores de vídeo
Los pocos tipos de controladores se examinan a continuación:
Cambiadores de vídeo, o “cambio de registro de vídeo basado en los sistemas” son el tipo más
simple de los controladores de video, que se encargan de la sincronización de señales de vídeo,
pero normalmente no tienen acceso a la RAM de vídeo directamente. Consiguen el vídeo los datos
de la CPU principal, un byte a la vez, y convertirlo en una serie poco corriente (de ahí el nombre
técnico “cambiador de vídeo”). Esta serie de flujo de datos se utiliza, junto con la sincronización de
las señales, a la salida de un (color) de señal de vídeo. Las principales necesidades de la CPU
para hacer la mayor parte de la obra. Normalmente, estos chips sólo un apoyo muy baja resolución
modo de gráficos de trama.
3.2 Aplicaciones
3.2.1 Entrada-Salida
Las computadoras electrónicas modernas son una herramienta esencial en muchas áreas:
industria, gobierno, ciencia, educación,…, en realidad en casi todos los campos de nuestras vidas.
El papel que juegan los dispositivos periféricos de la computadora es esencial; sin tales
dispositivos ésta no sería totalmente útil. A través de los dispositivos periféricos podemos introducir
a la computadora datos que nos sea útiles para la resolución de algún problema y por consiguiente
obtener el resultado de dichas operaciones, es decir; poder comunicarnos con la computadora.
La computadora necesita de entradas para poder generar salidas
y éstas se dan a través de dos tipos de dispositivos periféricos existentes:
• Dispositivos periféricos de entrada.
• Dispositivos periféricos de salida.
Dispositivos periféricos de entrada y salida de un computador Enviado por Aguinagalde A.
Introducción Dispositivos periféricos de entrada Dispositivos periféricos de salida Conclusión
Recomendaciones Anexos Bibliografía
Introducción
Las Computadoras son una herramienta esencial, prácticamente en casi todos los campos de
nuestras vidas; es útil, ayuda a la mejora y excelencia del trabajo; lo que lo hace mucho mas fácil y
práctico
En poco tiempo, las computadoras se han integrado de tal manera a nuestra vida cotidiana, puesto
que han transformado los procesos laborales complejos y de gran dificultad hacia una manera más
eficiente de resolver los problemas difíciles, buscándole una solución práctica.
El papel que juegan los dispositivos periféricos de la computadora es esencial, ya que sin tales
dispositivos la computadora no sería útil a los usuarios.
Los dispositivos periféricos nos ayudan a introducir a la computadora los datos para que esta nos
ayude a la resolución de problemas y por consiguiente obtener el resultado de dichas operaciones,
es decir; estos dispositivos nos ayudan a comunicarnos con la computadora, para que esta a su
vez nos ayude a resolver los problemas que tengamos y realice las operaciones que nosotros no
podamos realizar manualmente.
3.2.2 Almacenamiento
Unidades de disquete.
Por malo y anticuado que sea un ordenador, siempre dispone de al menos uno de estos aparatos.
Su capacidad es totalmente insuficiente para las necesidades actuales, pero cuentan con la
ventaja que les dan los muchos años que llevan como estándar absoluto para almacenamiento
portátil.
Tamaño Tipo de disco Capacidad Explicación
5,25” SS/DD 180 Kb Una cara, doble densidad. Desfasado
5,25” DS/DD 360 Kb Dos caras, doble densidad. Desfasado
5,25” DS/HP 1,2 MB Dos caras, alta densidad. Desfasado pero útil
3,5” DS/DD 720 Kb Dos caras, doble densidad. Desfasado pero muy común
3,5” DS/HD 1,44 MB Dos caras, alta densidad. El estándar actual.
3.3.1 Negocios
Este documento presenta una pequeña descripción del desarrollo, a partir de los años 40 y hasta la
fecha actual, de la evolución histórica de la herramienta computacional, en su impacto sobre los
diferentes bloques del proceso administrativo, ubicados en el tiempo desde los modelos lineales y
aislados hasta las aplicaciones de teoría de sistemas que caracterizan la informática administrativa
de nuestros días y del futuro inmediato.
Presenta asimismo una discusión sobre los alcances de los esquemas de planeación estratégica,
en el marco de los problemas de gestión del presente.
Definitivamente, la tecnología en general ha sido la causa principal
y la acción más directa para la transformación del trabajo de las organizaciones en la posguerra del
siglo XX. Tanto los bienes de capital «duros» (computadores, teléfonos, videos, facsímiles,
grabadoras, etc.), como los programas y sistemas de información y comunicación en general, han
incrementado enormemente la productividad y eficiencia de las organizaciones. Tenemos como
ejemplos los siguientes: bases de datos en redes de todo orden y topología, sistemas de
reservaciones en aerolíneas, sistemas de contabilidad y nóminas, archivos clínicos en centros de
salud, sistemas de conmutación electrónica y un sinnúmero de otras aplicaciones a procesos
administrativos.
Esta inversión en recursos humanos y materiales que han efectuado las organizaciones en la
segunda mitad del siglo XX, ofrece muchas soluciones y a la vez problemas de toda índole. Por
ejemplo, en el área de investigación espacial, existen programas de simulación para misiones
espaciales, en los cuales se valoran miles de variables antes de realizar físicamente el viaje.
Asimismo, en áreas más convencionales como mercadotecnia, es posible analizar una
multiplicidad de variables por programación lineal u otras herramientas analíticas en la etapa de
diseño, con anterioridad al lanzamiento de un producto o servicio.
Toda esta tecnificación de la toma de decisiones ha revolucionado muchos aspectos de estrategias
de mercado y competitividad. A principios del siglo XX, la estructura de las organizaciones privadas
era fácil de percibir. Existía una clara división tanto estructural como funcional en las empresas, e
incluso muchas veces de tipo legal, o bien, dictada por la costumbre. Los bancos se encargaban
de la custodia y uso del dinero, las casas de bolsa se entendían con acciones y bonos, las de
bienes raíces manipulaban terrenos y transacciones en escrituras, y las compañías de seguros,
pólizas sobre propiedades o vidas. Pero en determinado momento, las barreras que naturalmente
se habían erigido, asimismo fueron cayendo, debido a que la información fue tomando un carácter
más concreto y dinámico: los bancos procesan información o, lo que es equivalente, dinero,
involucrado en moneda, acciones, seguros y propiedades. Hoy, las funciones de la Ford Motors no
solo abarcan venta de autos, sino que están sumamente diversificadas en otras áreas de la
economía nacional e internacional: otras empresas de la Corporación Ford, denominadas
«unidades estratégicas de negocios» (UEN), abarcan bienes raíces, recursos naturales, turismo,
ecología, etc. Los teóricos llaman a esta estrategia «diversificación multicéntrica», que se
diferencia de la concéntrico por cuanto en esta última las unidades de negocios tienen misiones
muy similares. Esto demuestra que nuestras sociedades han sufrido, recientemente, una
verdadera evolución hacia la complejidad, con ruptura de barreras tradicionales de comportamiento
organizacional, a lo que se ha llamado «globalización» del sector económico o socioeconómico1.
Esto es, de hecho, el producto más importante que ha brindado la tecnología en general, y la
tecnología informática en particular.
UNIDAD 4
MICROCONTROLADORES
4.1 Arquitectura
Un controlador es un dispositivo electrónico encargado de, valga la redundancia, controlar uno o
más procesos. Por ejemplo, el controlador del aire acondicionado, recogerá la información de los
sensores de temperatura, la procesará y actuará en consecuencia.
Al principio, los controladores estaban formados exclusivamente por componentes discretos. Más
tarde, se emplearon procesadores rodeados de memorias, circuitos de E/S,… sobre una placa de
circuito impreso (PCB).
Actualmente, los controladores integran todos los dispositivos antes mencionados en un pequeño
chip. Esto es lo que hoy conocemos con el nombre de microcontrolador.
4.1.1 Terminales
Dispositivo del hardware electrónico o electromecánico que se usa para introducir o mostrar datos
de una computadora. Su funcion es mostrar y recibir datos con capacidad significativa del
procesador de datos, puede ser llamado “Terminal inteligente o cliente lijero”.
Una computadora puede ejecutar software que envie la funcion de un terminal en cocaciones
permitiendo el uso simultaneo de programas locales y acceso a un servidor.
Estoy invitando a todos los maestros y profesionales de esta area y/o carrera a colaborar
construyendo este sitio dedicado a esta hermosa y util profesion aportando el material apropiado a
cada uno de los mas de 1,000 temas que lo componen.
4.1.2 CPU
¿Qué es una CPU? -
CPU, abreviatura de Central Processing Unit (unidad de proceso central), se pronuncia como letras
separadas. La CPU es el cerebro del ordenador. A veces es referido simplemente como el
procesador o procesador central, la
CPU es donde se producen la mayoría de los cálculos. En términos de potencia del ordenador, la
CPU es el elemento más importante de un sistema informático. En ordenadores grandes, las CPUs
requieren uno o más tableros de circuito impresos. En los ordenadores personales y estaciones de
trabajo pequeñas, la CPU está contenida en un solo chip llamadado microprocesador. Dos
componentes típicos de una CPU son
1. La unidad de lógica/aritimética (ALU), que realiza operaciones aritméticas y lógicas.
2. La unidad de control (CU), que extrae instrucciones de la memoria, las descifra y ejecuta,
llamando a la ALU cuando es necesario.
La unidad central de proceso (CPU) o simplemente procesador. Es el componente en una
computadora digital que interpreta las instrucciones y procesa los datos contenidos en los
programas de computadora. Los CPU proporcionan la característica fundamental de la
computadora digital, la programabilidad, y son uno de los componentes necesarios encontrados en
los ordenadores o computadores de cualquier tiempo, junto con el almacenamiento primario y las
facilidades de entrada/salida. Es conocido como microprocesador el CPU que es manufacturado
con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip
han reemplazado casi totalmente todos los otros tipos de CPU, y hoy en día, el término “CPU” es
aplicado usualmente a algún tipo de microprocesador.
RAM, volátil, y se destina a guardar las variables y los datos. Hay dos peculiaridades que
diferencian a los microcontroladores de los computadores personales: No existen sistemas de
almacenamiento masivo como disco duro o disquetes. Como el microcontrolador sólo se destina a
una tarea en la memoria ROM, sólo hay que almacenar un único programa de trabajo. La RAM en
estos dispositivos es de poca capacidad pues sólo debe contener las variables y los cambios de
información que se produzcan en el transcurso del programa. Por otra parte, como sólo existe un
programa activo, no se requiere guardar una copia del mismo en la RAM pues se ejecuta
directamente desde la ROM. Los usuarios de computadores personales están habituados a
manejar Megabytes de memoria, pero, los diseñadores con microcontroladores trabajan con
capacidades de ROM comprendidas entre 512 bytes y 8 k bytes y de RAM comprendidas entre 20
y 512 bytes. Según el tipo de memoria ROM que dispongan los microcontroladores, la aplicación y
utilización de los mismos es diferente. Se describen las cinco versiones de memoria no volátil que
se pueden encontrar en los microcontroladores del mercado.
Señal de Corriente de Entrada: Considerada como estímulo aplicado a un sistema desde una
fuente de energía externa con el propósito de que el sistema produzca una respuesta específica.
Señal de Corriente de Salida: Respuesta obtenida por el sistema que puede o no relacionarse
con la respuesta que implicaba la entrada.
Las Primeras computadoras de von Neumann (Es decir, Todos los I / O tuvo que pasar por la
CPU). IBM se convirtió en el pionero en la introducción de hardware Ing. ` canales’‘ para la gestión
de E / S para alternar entre la CPU, dispositivos y la memoria.Puede ser considerado como primer
ejemplo de procesamiento en paralelo.
Durante mucho tiempo, la forma más razonable para distinguir entre un `mini-ordenador ‘y
un central’ es la disponibilidad de he dedicado de E / S y buses de memoria en comparación con
un solo bus en el que todo estaba conectado.La velocidad es la E MPRESA de minicomputadora
como bus de memoria no t n o tienen que preocuparse por el arbitraje, por lo que accede a la
memoria puede ser más rápido; w «considerando que, el mainframe tiene un ENTAJAS de costo y
la uniformidad. Hoy en día, la arquitectura minicomputadora de edad es casi completamente
obsoleta. Si echamos un vistazo en la actualidad de ordenador día de escritorio, podemos observar
que su estructura de autobús muy similares a los mainframes de antaño.
En computación, entrada / salida o I / O, se refiere a la comunicación entre un sistema de
procesamiento de la información (como equipo), y el mundo exterior, posiblemente a un humano, o
de otro sistema de procesamiento de la información. Las entradas pueden ser las señales o datos
que se recibe por el sistema, y los resultados son en formato de señales o datos enviados de él. El
término también puede ser empleado como parte de una acción, para “realizar I / O” es para
realizar una operación de entrada o de salida.E / S de dispositivos son utilizados por una persona
(u otro sistema) para comunicarse con un sistema de archivo.Por ejemplo, los teclados y los
ratones se consideran dispositivos de entrada de un PC, ereas WH, monitores e impresoras son
considerados como dispositivos de salida de una computadora. Dispositivos para la comunicación
entre computadoras, tales como módems y tarjetas de red ethernet, suelen servir tanto para
entrada y salida.
Es pertinente destacar que la designación de un dispositivo, ya sea como dispositivo de entrada o
de un dispositivo de salida depende de la logíca. Ratones y teclados toman el movimiento físico de
entrada que las salidas de usuario humano y lo convierte en señales que una computadora puede
entender. Posteriormente, la salida de estos dispositivos es de entrada para el ordenador. Del
mismo modo, las impresoras y los monitores de tomar las señales de entrada que son los
productos informáticos. Estas señales se convierten en representaciones de humanos que los
usuarios pueden ver o leer.
En arquitectura de ordenadores, la combinación del microprocesador y la memoria principal (la
memoria es decir, que el microprocesador puede leer y escribir directamente, con instrucciones
individuales) se conoce como el cerebro de un ordenador, y desde ese punto de vista de cualquier
transferencia de información o de esa combinación, por ejemplo, a una unidad de disco o desde un
disco, se considera I / O. El microprocesador y su circuito apoya y facilita en memoria de E / S que
se utilizen en la programación de computadoras de bajo nivel en la aplicación de controladores de
dispositivos.
Interfaz
I / O Interface es necesaria cada vez que el I / O es impulsado por el microprocesador. La interfaz
debe tener la lógica necesaria para interpretar la dirección de dispositivo generado por el
microprocesador. El apretón de manos, debe aplicarse a la interfaz de comandos de empleo
adecuadas, tales como (ocupado, LISTOS, WAIT), el microprocesador puede comunicarse con I /
O a través de la interfaz. Si en caso diferente con formato de datos que se intercambian, interfaz
debe ser capaz de convertir los datos de serie a paralelo forma y viceversa. Tiene que haber una
disposición para que las interrupciones de generación y el tipo correspondiente de los números
para su transformación por el microprocesador, si es necesario.
Un ordenador que utiliza asignado en memoria de E / S hardware de acceso a la lectura y la
escritura en las localidades de memoria específica, y el uso de complementos mismo lenguaje
ensamblador.
I / O Modo de direccionamiento
Hay un número de formas en que los datos pueden ser leídos o almacenados en la memoria. Cada
método es un modo de abordar, y tiene sus propias ventajas y desventajas. Hay también una serie
de modos de direccionamiento, como direccionamiento directo, indirecto abordar, abordar de
inmediato, el índice de direccionamiento, direccionamiento basado en la base, el índice de
direccionamiento, implica abordar, etc
Direcciion Directa. En este tipo de dirección, los datos es una parte de las instrucciones de sí
mismo.Cuando el procesador decodifica la instrucción, se adquiere la dirección de memoria desde
donde se puede leer / almacenar la información requerida.
Dirección indirecta. La dirección puede ser almacenada en un registro en el direccionamiento
indirecto. Las instrucciones tienen el registro que tiene la dirección en particular. Así pues, para
recuperar los datos, la instrucción debe ser decodificado y adecuado registro seleccionado. El
contenido del registro será considerado como la dirección. Mediante el uso de esta dirección,
ubicación de la memoria adecuada selección Ted y los datos se leen o por escrito según el
requisito.
Figura 1: Interacción entre los buses y los dispositivos I / O
Buses y dispositivos de I / O
Northbridge y Southbridge. Presente día arquitectura de computadores utiliza dos ICs para
gestionar la comunicación del microprocesador con el resto del sistema. Estos ICs históricamente
han sido llamados, como el Northbridge, que proporciona la comunicación real entre el procesador,
la memoria, el video, y el bus PCI y el Southbridge, que conecta el bus PCI para todo lo demás. En
la figura 1, el controlador del sistema es el Northbridge, y el controlador de bus periférico es el
Southbridge.
Procesadores. Figura 1 Muestra los dos procesadores conectados al Northbridge. En los diseños
de Intel se trata de un autobús llamado “Front Side Bus ‘, mientras que AMD utiliza un punto-a-
punto de conexión con cada procesador directamente conectado con el Northbridge (esta
interconexión es llamado con frecuencia un FSB, también).
AGP. AGP es la abreviatura de la “Accelerated Gráficos Puerto ». Es la comunicación entre el
Northbridge y la tarjeta de vídeo. Tarjetas de vídeo requieren grandes anchos de banda de
comunicación, por lo que se les da un acceso mucho más directo que otros periféricos.AGP está
siendo sustituido por el PCI Express.
De memoria DDR. Más exactamente, se llama “Doble Data Rate Synchronous Dynamic RAM”.
Bus PCI. PCI significa ‘ Interconexión de componentes periféricos “, el primer intento exitoso de
definir un estándar de bus que podrían ser utilizados por diferentes vendedores y arquitecturas de
computadora radicalmente diferentes. PCI se ha demostrado que tener más éxito que sus
predecesores, como Multibus, VME, Nubus, y Futurebus. La idea detrás de esto es que los
dispositivos de alta velocidad se comunican a través de PCI, dispositivos de menor velocidad se
utilizan USB. Hay dos tipos de PCI: a 66 MHz, 64-bit PCI-entre el Norte y el Southbridge, y un 33
MHz , 32-bit PCI colgando del Southbridge. PCI está siendo sustituido por PCI Express. La
especificación PCI original fue hecha por un 33Mhz, bus de 32 bits. Este ha sido extende D, tanto
la duplicación de la velocidad, así como la anchura. Este chipset soporta los más mayores, PCI
más lento y la última, más rápida. En la actualidad, PCI está siendo sustituido por el PCI-Express,
una serie escalable de interconexión.
USB. USB es la abreviatura de “Universal Serial Bus”, un estándar para la comunicación de baja
velocidad del dispositivo.Como PCI, USB es muy agradable en términos de permitir que los
dispositivos se identifican por lo que el sistema operativo puede configurar correctamente un
controlador. A diferencia de PCI, USB en el lado positivo está destinado a ser de conexión en
caliente (Un dispositivo puede ser conectado / desconectado a cabo con el apagado del sistema,
incluso interrumpiendo los servicios). Un hot-pluggable estándar PCI también ha sido definido, pero
es principalmente para los servidores basados en máquinas.
Enhanced Integrated Drive Electronics. Que es la norma para la interconexión de unidades de
disco, siendo sustituido por ATA serie.
SM Bus OW L-velocidad de bus de sistema de gestión permite que el sistema haga cosas como la
memoria de consulta en relación con su tamaño y etc.
Periféricos Legacy. Periféricos de una serie de “legado” son visibles en el Super I / O chip en la
parte inferior izquierda de la figura: 1. Estos van desde las normas que se están volviendo
obsoletos (como el puerto serie).
I / O de programación
Dispositivos de E / S y E / S pueden ser clasificados según el grado en que la E / S de
procesamiento para el dispositivo como:
(a) Muestreo. Esto significa un conjunto de datos siempre válido, que microprocesador puede leer
cada vez que quiere.
(b) De votación. Microprocesador debe consultar de vicio para ver si está listo.
© Interrupciones.Dispositivo informa microprocesador que está listo.
(d) DMA. Misiones de dispositivo es capaz de controlar la transferencia de datos hacia y desde la
memoria, y volver a interrumpir cuando s hecho yo.
(e) Controladores I / O. Aparato que realiza esta serie de operaciones de I / O sin intervención, y
las misiones también vuelve interrumpir cuando s hecho yo.
(f) I / O coprocesadores. Este aparato es distinto, un equipo totalmente programable.
Con la excepción de muestreo, estas formas de E / S son típicamente superseries de modo que
una de E / S de control también utilizar DMA. Un dispositivo que se DMA puede también pide
interrupciones. Un dispositivo que es capaz de hacer que las interrupciones pueden ser
consultados.
La tolerancia a fallos en la aplicación de I / O Devices
Aplicaciones altamente paralelas a menudo hacen uso de cualquiera de las altamente de
procesamiento en paralelo o un número significativo de I / O independiente de dispositivos.
Cualquiera de estos enfoques pueden ofrecer tasas de datos de alta necesarias para aplicaciones
paralelas y de transferencia de datos. Sin embargo, el fracaso de un solo dispositivo o procesador
de no debe causar la la pérdida de datos o un deterioro significativo. Las técnicas convencionales,
tales como los basados en la aplicación de mecanismo de corrección de errores con cada
dispositivo son prohibitivamente caros para aplicaciones científicas en paralelo masivo debido a la
granularidad de la el acceso en la que la tolerancia a fallos los sistemas se aplican. Por lo tanto, es
necesario para desarrollar una solución escalable método de recuperación de fallos del dispositivo
único que está optimizado para típicos conjuntos de datos científicos. Este enfoque explota de
grano grueso (pero preciso) la semántica para reducir la sobrecarga de la construcción de
recuperación de datos y hace uso de la computación paralela (proporcional al tamaño de los datos
y la independiente del número de procesadores) para la construcción de datos. Experimentos
mostrando una eficiencia y el de este enfoque con los medios de almacenamiento independiente, y
una técnica para ocultar la creación de redundancia los datos se describe.
La aplicación de E / S de mecanismos redundantes. La escala de los sistemas actuales y
aplicaciones requiere de muy alto rendimiento de E / S sistemas. Debido a que el rendimiento del
disco solo no ha mejorado a un ritmo adecuado, corriente I / O emplean sistemas de 100s de
discos a fin de obtener la suma necesaria rendimiento. Este enfoque efectivamente resuelve el
problema de rendimiento, pero trae consigo un nuevo problema: aumento en la probabilidad de
fallo de un componente. General enfoques para el mantenimiento de los datos redundantes se han
aplicado a nivel local adjunto sistemas de almacenamiento en disco (por ejemplo, RAID). Estos
enfoques, sin embargo, son el trabajo de una granularidad fina. La aplicación de este tipo de
enfoque en un sistema de ficheros paralelo o en los discos locales en un clúster, en donde se
distribuyen los discos y las latencias son más altos, impone sobrecarga inaceptable en el sistema.
Afortunadamente, hay características de la aplicación de las ciencias computacionales y sistemas
de almacenamiento que ofrecen oportunidades para enfoques más eficientes. En primer lugar, las
aplicaciones que generan grandes cantidades de datos suelen tener fases de de I / O en el que
mayor cantidad de datos que está escrito a la vez, como en el caso de los puntos de verificación.
Un parcialmente escrito puesto de control no esparticularmente útil, por lo general, uno o más de
los puestos de control anteriores se conservan en caso de que se produce un error durante el
puntos de control proceso. Así, la creación de datos redundantes para un puesto de control una
vez que la solicitud de se terminó de escribir que cubra adecuadamente los casos de insuficiencia
en el que la aplicación de está interesado. En segundo lugar, el operador generalmente puede
detectar un disco que ha fallado. Los fracasos en la ubicación de la pérdida de datos que se
conoce se clasifican en la codificación de la teoría como raspaduras. Esto categoría de la pérdida
de datos es más fácil de corregir que el caso general de los potencialmente datos dañados en
cualquier parte del sistema, lo que significa que más algoritmos son aplicables al problema de la
recuperación de los errores en este entorno. La idea es describir Lazy redundancia, una técnica
para hacer coincidir la generación de la recuperación de datos a las necesidades de alto
rendimiento en paralelo aplicaciones científicas y los sistemas en los que estas aplicaciones se
ejecutan. La redundancia Lazy encarna dos principios fundamentales: la agregación de la creación
de de corrección de errores de datos en puntos determinados, y el aprovechamiento de los
recursos de clientes de y dispositivos de almacenamiento en la creación de corrección de errores
de datos o la recuperación de los fracasos. Describiendo específicamente, es de un método para la
creación eficiente de los datos necesarios para recuperarse de un error eliminación simple (es
decir, sólo se aplica cuando los procesos de llegar a de E / S punto de sincronización). Porque
todos los procesos han llegado a este punto, el usuario puede utilizar los procesos para realizar la
la recuperación de datos de cálculo. Message Passing Interface (MPI), los colectivos se puede
utilizar para hacer la comunicación lo más eficiente posible. Este enfoque puede ser aplicado tanto
en el caso de las solicitudes de escribir archivos al disco local y en el caso de que un paralelo
sistema de archivos es utilizado como almacén de respaldo. Además, el enfoque se puede
generalizar para proporcionar redundancia en la presencia de más de un fallo a través de la la
aplicación de algoritmos bien conocidos como la supresión de dos (aún usando sólo Operaciones
de XOR) o los enfoques más generales sobre la base de códigos de Red-Solomon.
Hay una gran cantidad de trabajo en la recuperación de los sistemas de archivos. Mucho de este
trabajo se centra en un número relativamente pequeño de los discos por separado y en
preservación de los datos después de cada operación de escritura, como exige el portable sistema
operativo interfaz de Uni x (POSIX) semántica. El trabajo en grandes conjuntos de discos se han
centrado en el caso de supresión múltiple. Otro trabajo ha explotado la semántica de las
operaciones para proporcionar un rendimiento mejorado. Operadores demostrando la recuperación
de datos perdidos en un sistema paralelo de archivos virtual (PVFS) utilizando de serie algoritmos
de recuperación para crear datos de recuperación de errores después de la finalización de
aplicación y para reconstruir los datos después de un fallo del servidor único. También estudiaron
la aplicación de sistemas de redundancia en el mantenimiento de la PVFS PVFS existentes la
semántica y el cambio entre la creación de reflejo y paridad basados en el tamaño de escritura.
http://seleccionensambledeequipos.blogspot.mx/2010/12/unidad-3-seleccion-de-componentes-
para.html