Вы находитесь на странице: 1из 57

Instituto Tecnológico Superior de Calkiní en el

Estado de Campeche

Maestría: Ciencias de la Ingeniería

Materia: Sistema de Información Para la Toma de


Decisiones
Docente: Dra. María Eugenia López Ponce

Tema: “Tecnologías de Análisis de Datos y


Tecnologías Computacionales Interempresariales.”
Alumno
Martin Efrén Vera Espadas
Fabio Pool Canche
Rommel Vladimir Uicab Noh

Segundo Semestre

Ciclo escolar
2018-2019

Calkiní Campeche 15 de octubre del 2018

Página 1
Tecnologías de Análisis de Datos

Data Minning
Minería de Datos como soporte a la toma de decisiones empresariales

Resumen

La tarea por mejorar el acceso a la información está cobrando cada vez


más fuerza, especialmente en los negocios actuales, donde se requiere
principalmente de procesos basados en el recurso información, de manera
automatizada y reutilizable. En ese orden de ideas, este artículo constituye una
primera aproximación al área de la Minería de Datos y tiene como objetivo
examinar y describir las técnicas y herramientas que emergen en esa área de
investigación, apoyándose para ello en una reflexión teórica-cualitativa que
contribuya a un mayor entendimiento del alcance y limitaciones de la Minería de
Datos como soporte a la toma de decisiones empresariales. Entre los beneficios
que ofrece la técnica están la posibilidad de elevar los niveles de competencia de
los negocios, basándose en la rapidez para identificar, procesar y extraer la
información que realmente es importante, descubriendo conocimiento y patrones
en bases de datos. Su facilidad de uso hace que se pueda aplicar a cualquier área
del conocimiento. Como limitaciones destacan la necesidad de dedicar mucho
esfuerzo al establecimiento de medidas de evaluación del resultado derivado de la
aplicación de la minería, así como el desafío que representa analizar datos que
cambian en tiempo real.

Palabras clave: Minería de datos, toma de decisiones empresariales,


descubrimiento de conocimiento, bases de datos.

Página 2
INTRODUCCIÓN

En la actualidad las organizaciones suelen moverse dentro de estructuras


identificadas con un cambio continuo; por ello, las empresas privadas tanto como
las públicas deben tener la capacidad de ser adaptativas, aprender cómo resolver
problemas y generar conocimiento, para establecer nuevos métodos en pro de la
resolución de los mismos.

Las organizaciones, en la búsqueda por la obtención de los mejores


resultados de su gestión organizacional, adoptan la flexibilización como estrategia,
con el objetivo de adecuarse a un mercado globalizado, dando origen a un
proceso que incide en su sistema estructural. Así pues, una empresa flexible es la
que se orienta hacia los clientes, posee tecnología nueva y presenta acuerdos
laterales de organización e innovación (Hansen y Mouritsen, 1999).

Las aplicaciones necesarias para gestionar el flujo de información en las


actividades de negocio se pueden clasificar en dos importantes categorías: las
aplicaciones que manejan las transacciones y las estadísticas que ayudan a
convertir los datos en información útil para la toma de decisiones. Además está el
sistema de indicadores, formado por las bases de datos donde se almacenan los
datos importantes para evaluar y mejorar el funcionamiento de las actividades que
componen la cadena de suministro y por aplicaciones de análisis que facilitan la
comprensión de las tendencias y patrones presentes en los datos. El sistema de
indicadores se considera como un instrumento de integración básico a través de la
comunicación y diálogo que se establece, en base a los datos, entre los diferentes
actores del proceso.

En la visión de Castañeda y Rodríguez (2003), el uso de la Minería de


Datos o Data Mining, como soporte a las decisiones en las actividades de negocio,
requiere mucho más que la aplicación de sofisticadas técnicas como redes
neuronales o árboles de decisión sobre las tablas de datos. Por esta razón, en el
presente documento se muestra a la Minería de Datos por un lado, como uno de
los pasos del proceso de descubrimiento de conocimiento en base de datos (KDD)
y por otro lado como un proceso que consta de diferentes fases, en las cuales se
utilizan como apoyo, técnicas relacionadas con la estadística, el reconocimiento de
patrones y algoritmos de aprendizaje, entre otras.

Todos estos estudios han incrementado el deseo desenfrenado por


demandar un mayor control de los procesos u operaciones y servicios, visto como
núcleo de una gestión global, fundamental para proporcionar servicios de calidad y

Página 3
lograr un rendimiento óptimo de las inversiones, en infraestructuras comerciales,
en un entorno competitivo dirigido hacia una gestión de clientes.

Este trabajo constituye un primer acercamiento a un área de investigación


de reciente data, el cual tiene como propósito presentar algunas bases teóricas
sobre la incidencia de la Minería de Datos como soporte en la toma de decisiones,
aplicadas a las actividades de negocio. La elaboración de la reflexión teórica hace
énfasis en los postulados metodológicos del paradigma cualitativo, el cual permite
la construcción del conocimiento partiendo de una visión integral, interpretativa y
contextual del fenómeno a estudiar. Las teorías consultadas se interpretaron para
establecer por inferencia deductiva algunas consideraciones relacionadas a la
Minería de Datos y a algunos indicadores que permitan medir el interés y el
impacto del conocimiento que se puede obtener, al emplearla, como soporte para
la toma de decisiones en las organizaciones.

1. EL TRATAMIENTO DE LOS DATOS PARA LA TOMA DE DECISIONES EN


LAS ACTIVIDADES DE NEGOCIO

Desde un punto de vista más pragmático y asociándolo directamente a las


Actividades de Negocios, la Minería de Datos es el conjunto de metodologías,
aplicaciones y tecnologías que permiten reunir, depurar y transformar datos de los
sistemas transaccionales e información no estructurada (interna y externa a la
compañía) en información estructurada, para su explotación directa o para su
análisis y conversión en conocimiento y así dar soporte a la toma de decisiones
sobre el negocio. Ahora bien, Piatesky-Shapiro (1991) destacan que desde un
punto de vista más teórico, la Minería de Datos se define como el proceso
completo de extracción de información, que se encarga además de la preparación
de los datos y de la interpretación de los resultados obtenidos, a través de grandes
cantidades de datos, posibilitando de esta manera el encuentro de relaciones o
patrones entre los datos procesados.

Por su parte, Molina y García (2004) explican que los datos tal cual se
almacenan en las bases de datos no suelen proporcionar beneficios directos; su
valor real reside en la información que podamos extraer de ellos, es decir,
información que nos ayude a tomar decisiones o a mejorar la comprensión de los
fenómenos que nos rodean. Ejemplos de ello pueden ser: contrastar que todo va
bien, analizar diferentes aspectos de la evolución de la empresa, presentar
información de forma más intuitiva, comparar información en diferentes períodos
de tiempo, comparar resultados con previsiones, identificar comportamientos y
evoluciones excepcionales, confirmar o descubrir tendencias e interrelaciones,
entre otras acciones.

Página 4
Para tal efecto, se deben definir medidas cuantitativas para los patrones
obtenidos (precisión, utilidad y beneficio obtenido), para establecer medidas de
interés que consideren la validez y simplicidad de los patrones obtenidos mediante
alguna de las técnicas de Minería de Datos. El objetivo final de todo esto es
incorporar el conocimiento obtenido en algún sistema real, tomar decisiones a
partir de los resultados alcanzados, o simplemente registrar la información
conseguida y suministrársela a quien esté interesado.

Cabe resaltar que los efectos sobre la eficiencia de los resultados en la


Minería de Datos como apoyo a la toma de decisiones está generando miles de
opiniones desde diferentes perspectivas, entre ellas se puede destacar: la
imposibilidad de encontrar conclusiones únicas referentes a la evaluación de un
resultado obtenido con esta técnica. Sin embargo, la consecuencia de los datos
arrojados es interesante, por algo más que su precisión.

En el siguiente artículo se realizó un análisis de la aplicación del Data


Mining en los negocios, haciendo énfasis en cuatro indicadores propuestos por los
autores, Castañeda y Rodríguez (2003), los cuales esbozan el atractivo que ofrece
la Minería de Datos en la implementación de las actividades de negocio: tales
como la bondad, aplicabilidad, la relevancia y la novedad; indicadores que aportan
una idea de las implicaciones y utilidades que proporciona esta práctica.

a) Indicadores de la bondad del resultado

Los índices de bondad de resultado tratan de aportar una idea acerca del
error que se comete al emplear un modelo para realizar una tarea. Tal como
manifiestan Padmanabhan y Tuzhilin (1999), ésta es una medida de la fortaleza
estadística del resultado. Para este indicador se utilizan las siguientes medidas:
Precisión, Ratio de error, Varianza y Matriz de confusión, siendo las dos últimas
derivaciones de las anteriores. La precisión se utiliza cuando el resultado se
presenta en forma de clasificación o estimación, la cual se mide a través del
porcentaje de predicciones que son correctas. Para efectos de la clasificación, se
emplea el porcentaje de casos bien clasificados y para la estimación del
porcentaje de registros, se emplea una estimación que el decisor considere
correcta. Para medir la precisión se puede emplear el coeficiente de confianza, el
cual no es más que la probabilidad condicionada de un hecho con respecto a otro.

La distancia es otra técnica de Minería de Datos empleada cuando se


disponen de variables continuas y numéricas, mediante la raíz cuadrada de la

Página 5
suma al cuadrado de las distancias en cada eje. Una medida que complementa a
la precisión es el Ratio de error, que mide el porcentaje de casos en los que el
resultado no coincide con la realidad.

b) Indicadores de relevancia del resultado

Los indicadores más representativos en este grupo son el Coeficiente de


cobertura, el Coeficiente de apoyo y el Coeficiente de significación. Estos
indicadores tienen que ver directamente con la importancia que tiene el resultado
arrojado por las técnicas de minería y miden la aportación a la situación actual y la
frecuencia de utilidad del resultado, cuando la presentación de éstos se hace en
forma de reglas.

El Coeficiente de cobertura mide el porcentaje de registros en los cuales se


puede aplicar la regla. Por otro lado, el Coeficiente de apoyo permite mostrar el
porcentaje de ocasiones en que globalmente aparece la relación descrita por la
regla, se recomienda representar el resultado en porcentaje. Por último, el
Coeficiente de significación sirve para medir el grado de importancia de la regla a
través de la aportación que supone respecto a la pura probabilidad.

c) Indicadores de novedad del resultado

Cuando la información es excesivamente abundante y obvia, puede


presentarse el problema al generar reglas. Para ello, existe el Coeficiente de
novedad, creado para indicar si una regla es interesante o no en función del
número de reglas ya generadas, para un área de conocimiento concreta. Su
objetivo es ayudar a evitar las redundancias en su obtención. Autores como
Buchner et al. (1999), entre otros, abogan por la inclusión del conocimiento previo
del negocio, e intuición que detentan las decisiones para de esta manera: restringir
el espacio de búsqueda, obtener conocimiento más preciso y eliminar aquél que
resulte no interesante.

d) Indicadores de aplicabilidad del resultado

La dinámica de las organizaciones actuales demanda cada vez más,


tiempos de respuesta más rápidos, por lo cual es necesario que tanto la creación o
generación de modelos como los resultados del mismo, deben estar disponibles
en el menor tiempo posible. Para lograr esto, hay que buscar la simplicidad de los
modelos y de la forma de representar la salida o resultados del análisis, para
transformar el conocimiento obtenido y poder aplicarlo al negocio; para lograr esto,

Página 6
se cuenta con el Coeficiente de Simplicidad, la Tasa Interna de Retorno y el Valor
Actual Neto.

2. LA RENTABILIDAD ECONÓMICA DE LAS EMPRESAS A TRAVÉS DE LOS


PROCESOS MINERÍA DE DATOS, COMO HERRAMIENTA INTELIGENTE
COMPETITIVA

Es innegable que organizaciones comerciales, analistas de inversiones,


entidades de crédito y demás usuarios especializados, cada vez solicitan más
información sobre la rentabilidad de todas las actividades de negocio de la
organización. ¿Están capacitados los solicitantes para procesar correctamente
todo ese recurso de datos, cada vez más voluminoso y complejo? Nos inclinamos
a pensar que no, por la siguiente razón: El volumen creciente de datos a que se
enfrentan los usuarios, especialmente aquellos especializados en economía,
finanzas y marketing, está haciendo que la sobrecarga informativa convierta los
datos en una masa en la cual no es posible ver con claridad los ámbitos y
complejos procesos de la situación y perspectivas de la empresa. Ante este
panorama nos preguntamos ¿Qué medidas pueden adoptarse? Cabe indicar que
los avances tecnológicos han conducido a un mundo complejo y cambiante, pero
contradictoriamente es una fuente de soluciones.

Siguiendo en el mismo orden de ideas, se resalta que la Minería de Datos o


explotación de datos ha revolucionado y potenciado las bases de datos
tradicionales, pues permite identificar mediante la aplicación automática de
algoritmos recursivos, las variables más relevantes para una decisión concreta o
los subconjuntos de entidades (empresas, clientes, entre otros) más homogéneos
con arreglo a unas características determinadas.

Otro importante hecho que describen Molina y García (2004) es que con la
implementación de procesos de Minería de Datos, a través de la aplicación de
algunas técnicas estadísticas avanzadas y nuevos métodos de extracción de
conocimiento en grandes base de datos, se pueden determinar las características
contables de las empresas más rentables, al igual que el perfil de sus clientes. Se
hace imprescindible, por un lado, un análisis exploratorio profundo de la base de
datos y el empleo de métodos robustos, que hagan que dichos componentes sean
menos sensibles a los amplios casos estadísticos. Por otro lado, es aconsejable
diseñar con base a opiniones de expertos, si no hay información adecuada, o
utilizar algún sistema de aprendizaje, por ejemplo, la utilización de redes
neuronales, para el descubrimiento de patrones y extraer la información de la base
de datos disponible.

Página 7
En fin, estos métodos y procedimientos se han convertido en retos
tecnológicos para procesar los datos y convertirlos en conocimiento útil para la
toma de decisiones. Este camino se presenta como una opción para las
organizaciones que quieran ser competitivas, valiéndose de la experiencia
acumulada, la cual sin duda alguna constituye el principal activo del que se
dispone para la creación de valor. De esta manera, una organización que
reflexiona, documenta y aprende, está en condiciones de innovar y obtener
ventajas competitivas.

3. INFLUENCIA DE LA TECNOLOGÍA PARA LA CONSOLIDACIÓN DE LAS


ACTIVIDADES DE NEGOCIOS ESTABLECIDAS EN MINERÍA DE DATOS

Autores como Han y Kamber (2001) consideran que el auge que ha


alcanzado actualmente el Data Mining es debido a que en el presente nos
encontramos ante enormes cantidades de datos y con la urgente necesidad de
transformarlos en información útil y conocimiento. Se dice que sin Data Mining
somos “ricos en datos” pero “pobres en información”. El Data Mining es la
evolución natural de la tecnología de información. Por lo antes expuesto, se puede
inferir que las necesidades de información de las organizaciones ha cambiando a
lo largo del tiempo. Hoy día, la creciente dinámica de mercado y competitividad
llevan a la necesidad de contar con la información adecuada en el momento
indicado y para ello los gerentes necesitan estar bien informados para poder tomar
las decisiones de negocio apropiadas. Por otra parte, los datos con los que
cuentan dichas organizaciones generalmente se encuentran dispersos a través de
diversos sistemas, propiciando de esta manera que datos valiosos se pierdan. De
esto último, se puede decir que lo que poseen las empresas son datos, no
información.

En términos de lo expuesto, los autores Cativa et al. (2001) manifiestan que


los sistemas tradicionales, basados en el procesamiento de transacciones, no
brindan una solución adecuada para la satisfacción de los nuevos requerimientos
de información de las organizaciones. Esto dio lugar a la aparición de nuevas
tecnologías de base de datos conocidas como Data Warehousing y OLAP
(Procesamiento Analítico On-Line), referido este último a las aplicaciones de
bases de datos orientadas a arrays que permiten a los usuarios ver, navegar,
manipular y analizar bases de datos multidimensionales, y en general, a lo que se
denomina Sistemas de Soporte de Decisiones, el cual asiste a los encargados de
la dirección de las empresas en la toma de decisiones y proporciona un conjunto
de herramientas estructuradas, orientadas a mejorar la efectividad de los
resultados de la decisión. Éste se emplea en contextos de decisión no
estructurados o semiestructurados.

Página 8
Siguiendo a Molina y García (2004) se puede decir que dentro de la Minería
de Datos se ha tomado la perspectiva orientada a datos, por dos razones.
Primero, porque la mayoría de los trabajos en Minería de Datos están enfocados
hacia el Data Warehouse, referido esto a la arquitectura, algoritmos, herramientas
y técnicas utilizadas para agrupar los datos provenientes de múltiples bases de
datos, u otras fuentes de información en un repositorio común, sobre el cual se
realizarán consultas y análisis. Éste proporciona el apoyo a la Minería de Datos
organizando y estructurando los datos; en efecto, tal como lo muestra Morand et
al. (2004) se define un nuevo concepto para el almacenamiento de datos,
integrando la información generada en todos los ámbitos de una actividad, con
una visión orientada al “negocio”, que permite el acceso y explotación de la
información contenida en el almacén, facilitando un amplio abanico de posibilidad
de análisis multivariados para la toma de decisiones estratégicas.

En este orden de ideas, cabe resaltar la importancia de otras tecnologías de


apoyo en los procesos de Minería de Datos, que han sido utilizadas desde hace
tiempo, logrando la integración de éstas con la administración de datos,
contribuyendo a mejorar la técnica. Thuraisingham (1999) agrega que los métodos
estadísticos han propiciado la aparición de varios paquetes de software para
computar sumas, promedios y distribuciones, que han ido integrándose con las
bases de datos a explorar.

Considerando el criterio de Molina y García (2004), se puede decir que el


aprendizaje automático consiste en la obtención de reglas de aprendizaje y
modelos de los datos, para lo cual a menudo se necesita la ayuda de la
estadística. Por esta razón, los métodos estadísticos y el aprendizaje automático
son los dos componentes más importantes de la Minería de Datos. Existen otras
tecnologías, entre las que se incluyen la visualización y el procesamiento paralelo,
para dar apoyo a la toma de decisiones. Las técnicas de visualización ayudan a
presentar los datos, para facilitar la minería de éstos. Por su parte, las técnicas de
procesamiento paralelo, a su vez, colaboran para mejorar el rendimiento de la
Minería de Datos. Los sistemas de apoyo a la toma de decisiones permiten
discriminar los resultados, de manera que puedan ser utilizados en las funciones
de dirección en las organizaciones.

Autores como Molina y García (2004) explican cada una de las técnicas que
ayudan a la resolución de problemas particulares de la organización, basándose
en los datos que éstos poseen. Estas técnicas son: Razonamiento estadístico,
Visualización, Procesamiento paralelo, Aprendizaje automático y Apoyo en la toma
de decisiones.

Página 9
Razonamiento estadístico

Las técnicas y métodos estadísticos del razonamiento han sido utilizados


durante varias décadas, siendo éstos los únicos medios para analizar los datos en
el pasado. Numerosos paquetes estadísticos están ahora disponibles para
computar promedios, sumas, y diferentes distribuciones para distintas
aplicaciones. Más recientemente, las técnicas estadísticas del razonamiento están
jugando un papel importante en la Minería de Datos. Cabe destacar que la Minería
de Datos no sustituye la estadística “clásica”, sino que la complementa (Groth,
2000). Así pues, la estadística juega un importante papel en el análisis de los
datos, e incluso también en el aprendizaje automático. Debido a esto, no se puede
estudiar la Minería de Datos sin un buen conocimiento de la estadística.

Visualización

Las tecnologías de la visualización son buenas para ubicar patrones en un


conjunto de datos y pueden ser usadas al comienzo de un proceso de Data
Mining, para tomar un feeling de la calidad del conjunto de datos. Los modelos de
visualización pueden ser bidimensionales, tridimensionales o incluso
multidimensionales. Se han desarrollado varias herramientas de visualización para
integrarse con las bases de datos ofreciendo una visualización de forma
interactiva a la Minería de Datos.

Procesamiento paralelo

El procesamiento paralelo es una técnica que ha sido utilizada durante


mucho tiempo. El área se ha desarrollado significativamente, desde sistemas con
un único procesador hasta sistemas multiprocesadores. Los sistemas de
multiprocesamiento pueden estar formados por sistemas distribuidos o por
sistemas centralizados de multiprocesadores con memoria compartida, o con
multiprocesadores sin memoria compartida. Estos sistemas no fueron
comercializados hasta el desarrollo del Data Warehouse, ya que ellos emplean el
procesamiento paralelo para acelerar el proceso de las consultas.

Recientemente estos sistemas se han empezado a utilizar para las


aplicaciones comerciales, debido en parte a la explosión del Data Warehouse y de
las técnicas de Minería de Datos, dónde el rendimiento de los algoritmos de
consulta es crítico. Para escalar las técnicas de Minería de Datos se necesita
hardware y software apropiado, por lo que los fabricantes de bases de datos están
empleando computadores con procesamiento paralelo para llevar a cabo las
actividades de minería.

Página 10
Apoyo a la toma de decisiones

Los sistemas de apoyo a la toma de decisiones son las herramientas que


usan los directivos para tomar decisiones eficaces, basándose en la teoría de la
decisión. Por su parte, se puede considerar a las herramientas de Minería de
Datos como tipos especiales de herramientas de apoyo a la toma de decisiones.

En general, las herramientas de apoyo a la toma de decisiones podrían


utilizarse también como herramientas para eliminar los resultados innecesarios e
irrelevantes obtenidos de la Minería de Datos. Igualmente pueden ser
consideradas de este tipo, herramientas tales como las hojas de cálculo, sistemas
expertos, sistemas de hipertexto, sistemas de gestión de información de Web y
cualquier otro sistema que ayude a analistas y gestores a manejar eficazmente
grandes cantidades de datos e información. Recientemente ha aparecido un área
nueva llamada gestión del conocimiento, la cual trata de manejar eficazmente los
datos, la información y el conocimiento de una organización.

Aprendizaje automático

El aprendizaje automático, en muchos casos, consiste fundamentalmente


en el aprendizaje de reglas a partir de los datos y por eso muchas de las técnicas
de aprendizaje automático son utilizadas en la actualidad en las actividades de
minería. Esta técnica consiste en aprender de las experiencias del pasado con
respecto a alguna medida de rendimiento.

Así pues, se han desarrollado distintas técnicas para el aprendizaje


automático, incluyendo el aprendizaje conceptual donde se aprende los conceptos
desde diferentes ejemplos de entrenamiento, haciendo uso de las redes
neuronales, los algoritmos genéticos, los árboles de decisión y la programación de
la lógica inductiva. Hay todavía mucha investigación que realizar en esta área,
sobre todo en la integración del aprendizaje automático con las diferentes técnicas
de gestión de datos. Tal investigación mejorará significativamente el área de Data
Mining.

Igualmente Moreno et al. (2002) afirman que la aplicación automatizada de


algoritmos de Minería de Datos permite detectar fácilmente patrones en los datos,
razón por la cual esta técnica es mucho más eficiente que el análisis dirigido a la
verificación, cuando se intenta explorar datos procedentes de repositorios de gran
tamaño y complejidad elevada.

Página 11
En definitiva, Molina y García (2004) dicen que la utilidad de aplicaciones
futuras en KDD es de largo alcance. KDD puede usarse como un medio de
recuperación de información, de la misma manera que los agentes inteligentes
realizan la recuperación de información en la Web. Nuevos modelos o tendencias
en los datos podrán descubrirse usando estas técnicas. El KDD también puede
usarse como una base para las interfaces inteligentes del mañana, agregando un
componente del descubrimiento del conocimiento a un sistema de bases de datos
o integrando KDD con las hojas de cálculo y visualizaciones.

Resumiendo a Díaz y Pérez (2004), ellos mencionan la importante labor


que tienen los algoritmos de Minería de Datos en la exactitud de determinados
conjuntos de datos numéricos. Éstos son: los algoritmos de Redes Neuronales e
Híbridos de Aprendizaje (inducción de reglas y árboles de decisión), entre otros.

Página 12
Tecnologías OLAP, MOLAP Y ROLAP

Introducción

Hoy en día las empresas u organizaciones tienen grandes volúmenes de


datos las cuales tienes que captar y procesar para después sean analizados el
cual influye en la toma de decisiones. El objetivo de crear una base de datos es el
de que una gran cantidad de datos sean transformados en información, para que
en conjunto con herramientas Olap, paquetes estadísticos profesionales y
herramientas de minería de datos sirva para la toma de decisiones (ELMASRI,
2006).

Una base de datos siempre debe de ir en forma de modelos de datos, los


dos más utilizados son el relacional y el multidimensional. El modelo relacional es
ampliamente soportado en diferentes sistemas de base de datos. Básicamente
una base de datos se almacena en: Rolap y Molap. El Rolap guarda los datos en
una base de datos relacional. El Molap guarda los datos en matrices
multidimensionales.

Los sistemas de base de datos se representan por medio de un cubo o


hipercubo, representa hechos y otro de dimensiones. El cubo consta de una serie
de celdas, cada una representa un hecho que surge a raíz de la combinación de
las diferentes dimensiones.

En estos tiempos el usos de Información es de vital importancia, esto no


omite a las empresas transnacionales por eso es muy importante tener una base
de datos en forma de sistema de gestión enfocado a la necesidad de la empresa
en forma veraz, eficiente y eficaz.

En esta investigación se da a conocer la importancia de las bases de datos


en la toma de decisiones teniendo en cuenta los modelos Olap, Rolap, Molap y en
su caso la combinación de los 2 o sea tratándose de un sistema de gestión de
base de datos hibrido, y por consecuente hacer un análisis de ventajas y
desventajas.

Página 13
RESUMEN

En los recientes años los sistemas de gestión de base de datos son de


mucha importancia para la toma de decisiones. Actualmente en muchas
empresas, el análisis para la toma de decisiones se realiza sobre estas bd de
trabajo o bd transaccionales

Los conjuntos Olap ofrece un conjunto de operadores que facilitan la


concepción de consultas, algunos de ellos son slice & dice, swap, drill down, drill
up, roll-up, drill-across, drill-through (chaudhuri, 1997)

Con los tipos de almacenamiento de datos Rolap y Molap se pueden crear


las bases de datos. El primero almacena los datos sobre una base de datos
relacional. El tipo de almacenamiento Molap en matrices multidimensionales.

En esta investigación se presenta un ejemplo comparativo que permite


analizar el rendimiento, las ventajas y desventajas entre estos dos tipos de
almacenamiento.

Página 14
OBJETIVOS.

Entender la importancia de un sistema de gestión de base de datos,


comprender como se agrupan y los diferentes programas que sirven para definir,
construir y manipular un SGBD.

SISTEMA OLAP:

OLAP es el acrónimo en inglés de procesamiento analítico en línea (On-Line


Analytical Processing). Es una solución utilizada en el campo de la llamada
Inteligencia de negocios (o Business Intelligence) cuyo objetivo es agilizar la
consulta de grandes cantidades de datos. La tecnología OLAP facilita el análisis
de datos en línea en un DW, proporcionando respuestas rápidas a consultas
analíticas complejas. OLAP es utilizado generalmente para ayuda en la toma de
decisiones y presenta los datos a los usuarios a través de un modelo de datos
intuitivo y natural. Con este estilo de presentación los usuarios finales pueden ver
y entender con mayor facilidad la información de sus BD, lo que permite a las
organizaciones reconocer el valor de sus datos.

Generalmente los esquemas de las BD tienen cierta complejidad para el usuario


final, debido a ello la concepción de las consultas puede ser una tarea ardua.

OLAP ofrece un conjunto de operadores que facilitan la concepción de consultas,


algunos de ellos son Slice & Dice, Swap, Drill Down, Drill Up, Roll-Up, Drill-Across,
Drill-Through (Chaudhuri, 1997).

Página 15
¿Para qué se usa OLAP?

Para consultar los datos que las aplicaciones OLTP (On-Line Transaction
Processing o en castellano: Procesamiento de Transacciones en Línea) guardaron
en las bases de datos, las cuales se han vuelto inmensas porque algunas de sus
tablas tienen muchos millones de filas.

Cuando la consulta de un usuario envuelve a tablas pequeñas (de pocos miles de


filas) se utiliza la Base de Datos OLTP, en cambio cuando envuelve a tablas que
en la Base de Datos OLTP tienen millones de filas se usa la Base de Datos OLAP

¿Qué tienen de especial las tablas OLAP?

Que no guardan datos individuales sino datos agrupados. En nuestro ejemplo, la


tabla de ventas en una Base de Datos OLTP tenía 500.000.000 de filas.
Supongamos que un Gerente necesite consultar las ventas del año pasado,
clasificadas por mes (o sea: cuanto se vendió en enero, cuanto se vendió en
febrero, etc.)

¿Cuál es la principal razón de usar aplicaciones OLAP?

La gran velocidad de respuesta que se consigue.

¿Qué debe tener una aplicación OLAP?

Las aplicaciones OLAP se usan para ayudarles a los usuarios en la toma de


decisiones. Por lo tanto es imprescindible que le provean de muchísimos gráficos.
También la posibilidad de exportar sus datos a Excel, a PDF, a HTML y a
cualquier otro formato que el usuario use en sus demás aplicaciones. Por
supuesto muchas grillas y lo más importante: la facilidad de buscar y visualizar
cualquier dato que precise, en cuestión de segundos.

Página 16
ROLAP

En un sistema ROLAP, la información se almacena en tablas de una base


de datos relacional. En este diseño tiene una especial importancia la
denominada tabla de hechos, que es donde se almacena la historia de alguna
magnitud relevante para la empresa que necesita ser estudiada de forma
exhaustiva

Finalmente, el diseño de estas tablas dará lugar a una estructura en cuyo centro
estará la tabla de hechos y, alrededor de ésta y relacionadas con ella, estarán las
tablas para las dimensiones, dando lugar a un esquema en estrella.

Ejemplo:

VENTAJAS DE ROLAP.

La construcción de herramientas OLAP sobre sistemas relacionales presenta


algunas ventajas frente a los sistemas multidimensionales:

ROLAP se considera más escalable para manejar grandes volúmenes de datos,


especialmente modelos con dimensiones de gran cardinalidad (por ejemplo, con
millones de miembros).

Página 17
Hay disponible una gran variedad de herramientas de carga de datos para
sistemas relacionales; además, existe la posibilidad de ajustar el
código ETL (Extract, Transform, Load) a un modelo de datos particular. Con todo
esto se consigue que los tiempos de carga sean generalmente mucho menores
que con las cargas MOLAP automatizadas.

Los datos se almacenan en una base de datos relacional estándar que puede ser
accedida por cualquier herramienta de generación de informes SQL (reporting).
Estas herramientas no tienen que ser necesariamente de tipo OLAP.

Las herramientas MOLAP tienden a sufrir un bajo rendimiento cuando consultan


elementos como descripciones textuales.

Obviando el almacenamiento de datos del modelo multidimensional, es posible


modelar datos con éxito que de otro modo no se ajustarían en un modelo
dimensional estricto.

DESVENTAJAS DE ROLAP.

Hay un consenso general en la industria de que las herramientas ROLAP


tienen menor rendimiento que las herramientas MOLAP.

El proceso de carga de tablas agregadas debe ser gestionado por


código ETL personalizado. Las herramientas ROLAP no disponen de mecanismos
automáticos para realizar esta tarea, lo que significa que se necesita más tiempo
de desarrollo de código.

Muchos desarrolladores de modelos dimensionales ROLAP ignoran el paso


de crear tablas agregadas. En este caso el rendimiento de una consulta se ve
afectado porque entonces se necesita consultar las tablas con datos más
detallados. Esto puede evitarse parcialmente añadiendo tablas agregadas
adicionales, sin embargo no es práctico crear tablas agregadas para todas las
combinaciones posibles de dimensiones/atributos.

Página 18
Los sistemas ROLAP se construyen sobre bases de datos de propósito
general, por lo que hay algunas funcionalidades especiales propias de las
herramientas MOLAP que no están disponibles en los sistemas ROLAP (tales
como el indexado jerárquico especial). Sin embargo, las herramientas ROLAP
modernas van supliendo estas carencias con las últimas mejoras en el
lenguaje SQL tales como los operadores CUBE y ROLLUP, las vistas de cubo
DB2, así como otras extensiones SQL OLAP. Estas mejoras SQL pueden mitigar
las diferencias frente a las herramientas MOLAP.

Dado que las herramientas ROLAP se basan en SQL para todos los
cálculos, no son apropiadas cuando el modelo realiza muchos cómputos que no
se traducen bien en SQL (por ejemplos: presupuestos, asignaciones, informes
financieros y otros escenarios).

MOLAP:
MOLAP es el acrónimo inglés de Multidimensional Online Analytical Processing, es
decir, 'procesamiento analítico multidimensional en línea'

Almacenamiento MOLAP (multidimensional OLAP)

Molap se diferencia significativamente en que requiere un pre-


procesamiento y almacenamiento de la información contenida en el Cubo Olap.
Molap almacena estos datos en una matriz de almacenamiento multidimensional
optimizado, más que en una base de datos relacional (o en un Rolap).

Un sistema MOLAP usa una BD multidimensional (BDMD), en la que la


información se almacena multidimensionalmente.

El sistema MOLAP utiliza una arquitectura de dos niveles: la BDMD y el motor


analítico.

Página 19
La BDMD es la encargada del manejo, acceso y obtención de los datos.

El nivel de aplicación es el responsable de la ejecución de las consultas


OLAP.

El nivel de presentación se integra con el de aplicación y proporciona una


interfaz a través de la cual los usuarios finales visualizan los análisis OLAP.

La información procedente de los sistemas transaccionales se carga en el


sistema MOLAP. Una vez cargados los datos en la BDMD, se realiza una serie de
cálculos para obtener datos agregados a través de las dimensiones del negocio,
poblando la estructura de la BDMD.

Luego de llenar esta estructura, se generan índices y se emplean


algoritmos de tablas hash para mejorar los tiempos de accesos de las consultas.
Una vez que el proceso de poblado ha finalizado, la BDMD está lista para su uso.
Los usuarios solicitan informes a través de la interfaz y la lógica de aplicación de la
BDMD obtiene los datos.

Almacenamiento HOLAP (Hybrid OLAP)

Se han desarrollado soluciones de OLAP híbridas que combinan el uso de


las arquitecturas ROLAP y MOLAP. En una solución con HOLAP, los registros
detallados (los volúmenes más grandes) se mantienen en la BD relacional,
mientras que los agregados lo hacen en un almacén MOLAP independiente
(Ibarzábal, 2003).

Estrategias de agregación y almacenamiento

Los servidores OLAP se clasifican de acuerdo a como se almacenan los


datos:

Un servidor MOLAP almacena los datos en disco en estructuras


optimizadas para acceso multidimensional. Típicamente, los datos son

Página 20
almacenados en arreglos densos, los cuales requieren cuatro u ocho bytes por
celda.

Un servidor ROLAP almacena sus datos en una BD relacional. Cada fila de


una tabla de hechos tiene una columna para cada dimensión y otra para cada
medida.

Es necesario almacenar tres tipos de datos: hechos, agregados y


dimensiones.

Una de las características distintivas de MOLAP es la preconsolidación de


los datos. En una BD relacional para responder a una consulta del tipo ¿cuánta
cantidad del producto X se vendió en el último trimestre? normalmente se tiene
que hacer una búsqueda de todos los registros relevantes y totalizar los datos. En
una BDMD, en cambio, estos totales se calculan rápidamente usando operaciones
sobre arreglos. Una vez calculados, los totales se pueden almacenar en
estructuras de la misma BDMD. Las BDMD pueden preconsolidar agregados en
los diferentes niveles de las dimensiones, por ejemplo: totales por semana, totales
por mes, gran total. El preconsolidado de estos agregados puede requerir mucho
espacio y tiempo de carga. Una alternativa consiste en preconsolidar sólo los
totales más usados y calcular el resto en el momento en el que se consultan.

Otra característica importante en MOLAP son los datos dispersos. La


dispersión de datos surge en casos donde no todas las combinaciones de
miembros de las dimensiones van a tener su valor correspondiente (Lehner,
1998), como en el caso de una organización con varias sucursales, que puede
vender cientos de productos por día en cada una, pero no todos ellos
necesariamente se van a vender todos los días en todas las sucursales. Si se
analizan estas ventas en períodos diarios y por sucursal creando un cubo, con las
ventas como medida y sucursales, productos y días como dimensiones, el cubo
contendrá algunas celdas vacías.

Página 21
Cada herramienta MOLAP tiene su propio mecanismo para evitar guardar
explícitamente este tipo de celdas. En general se comprime la BD, con el
consiguiente costo de descomprimirla cuando se accede a los datos.

Un sistema HOLAP resuelve el problema de dispersión, dejando los datos


más granulares (menos agregados) en la BD relacional,3 pero almacena los
agregados en un formato multidimensional, minimizando así la presencia de
celdas vacías.

Es necesario el precálculo de agregados cuando el conjunto de datos es


muy grande, de otra forma ciertas consultas podrían no ser resueltas sin leer toda
la tabla de hechos.

Los agregados en ROLAP son almacenados en tablas. En algunos


sistemas ROLAP los agregados son manejados explícitamente por el servidor
OLAP en otros sistemas como en Oracle, las tablas son declaradas como vistas
materializadas (Gupta, 1999) y son usadas implícitamente cuando el servidor
OLAP lanza una consulta que se corresponde con la definición de la vista (Oracle
Corporation, 2005).

El componente final de la estrategia de agregación es la memoria caché.


Esta guarda agregados precalculados en memoria de tal forma que las consultas
futuras puedan acceder a los valores de las celdas sin ir al disco. Si la memoria
caché almacena los datos en un nivel bajo de agregación entonces podrá calcular
agregados a un nivel más alto si son requeridos.

La memoria caché es una de las partes más importantes de la estrategia de


agregación porque es adaptativa. En general es difícil elegir el conjunto de
agregados a precalcular, los cuales le den velocidad al sistema sin usar grandes
cantidades de espacio, particularmente cuando hay muchas dimensiones o
cuando los usuarios están emitiendo consultas impredecibles constantemente. En
un sistema donde los datos están cambiando en tiempo real, es impráctico
mantener los agregados precalculados. Una memoria caché de tamaño razonable

Página 22
puede permitir que un sistema se desempeñe adecuadamente al enfrentar
consultas impredecibles, con pocos o sin agregados precalculados.

La Figura 3 muestra los tres tipos de almacenamiento: MOLAP, ROLAP y HOLAP.

Diferencias entre ROLAP y MOLAP

En los últimos años se han producido debates alrededor de los tipos de


almacenamiento MOLAP y ROLAP. Por lo general, las implementaciones de MOLAP
presentan mejor rendimiento que la tecnología relacional; sin embargo, tienen problemas
de escalabilidad, por ejemplo, la adición de dimensiones a un esquema ya existente. Por
otra parte, las implementaciones de ROLAP son más escalables y a menudo son más
atractivas debido a que aprovechan las inversiones efectuadas en tecnología de BD
relacionales.

Página 23
La Tabla 1 resume las diferencias entre ambas tecnologías.

Las Tablas 2 y 3 detallan las ventajas y desventajas de cada tipo de almacenamiento.

Página 24
SGBD con soporte para ROLAP y MOLAP

Entre los SGBD que permiten utilizar almacenamiento de datos de tipo


ROLAP y que han incorporado características adicionales (Gray, 1997) para su
manejo están Oracle, DB2 y SQL Server.

Por otro lado, entre los SGBD que permiten utilizar almacenamiento de
datos de tipo MOLAP están:

- SQL Server - Microsoft Analysis Services: soporta la construcción y


gestión de cubos multidimensionales, permite flexibilidad en los modos de
almacenamiento, ya que también soporta ROLAP (NewTec Ediciones, 2002)

- Hyperion: fabricante de herramientas analíticas que se apoyan en OLAP.


Hyperion Essbase OLAP Server es la plataforma empresarial para la elaboración
de informes, análisis, modelos y presupuestos. Permite el acceso de
lectura/escritura de múltiples usuarios, capacidad de almacenamiento de grandes

Página 25
volúmenes de datos, realización de cálculos analíticos complejos y consultas
OLAP sofisticadas (Hyperion, 2002).

- Oracle Express: contiene herramientas y aplicaciones que se apoyan en Oracle


Express Server, un motor de cálculo y gestor de memoria caché de datos. Las
herramientas Oracle OLAP toman en consideración todo lo referente a las
necesidades de los usuarios, desde consultas y análisis simples de los datos
contenidos en un DW, hasta análisis, presupuestación y modelaje sofisticados y
desarrollo de aplicaciones OLAP orientados a objetos (Audifilm Grupo Brime,
2003).

Cubo desempeño vendedores

La tabla de hechos es la de ventas y las dimensiones son vendedor, producto y


tiempo, como se muestra en la Figura 5. Este cubo permite estudiar y evaluar
cómo ha sido el desempeño de cada vendedor a través del tiempo en cuanto a la
venta de productos.

Página 26
Cubo ventas por almacén

Página 27
Ventajas de MOLAP

1. Consulta rápida debida a la optimización del rendimiento de


almacenamiento, la indexación multidimensional y la memoria caché.
2. Ocupa menor tamaño en disco en comparación con los datos
almacenados en base de datos relacional debido a técnicas de
compresión.
3. Automatización del procesamiento de los datos agregados de mayor
nivel.
4. Muy compacto para conjuntos de datos de pocas dimensiones.
5. El modelo de almacenamiento en vectores/matrices proporciona una
indexación natural.
6. Eficaz extracción de datos lograda gracias a la pre-estructuración de los
datos agregados.

DESVENTAJAS DE MOLAP

1. La etapa de procesamiento (carga de datos) puede ser bastante larga,


sobre todo para grandes volúmenes de datos. Normalmente, esto se
puede evitar con un procesamiento incremental, es decir, sólo el
procesamiento de los datos que han cambiado (por lo general, los
nuevos datos) en lugar de volver a procesar de todo el conjunto de
datos.

Página 28
2. Las herramientas MOLAP tradicionalmente tienen dificultades para
consultar con modelos con dimensiones muy altas (del orden de
millones de miembros).
3. Algunas herramientas MOLAP (por ejemplo, Essbase) tienen
dificultades para actualizar y consultar los modelos con más de diez
dimensiones. Este límite varía en función de la complejidad y la
cardinalidad de las dimensiones de que se trate. También depende de
la cantidad de hechos o medidas almacenados. Otras herramientas
MOLAP (por ejemplo, Microsoft Análisis Services o Applix TM1) puede
manejar cientos de dimensiones.

Conclusión:

Las aplicaciones de Sistemas de Gestion de Bases de Datos fueron


implementadas desde los principios de las TIC´S e iran incrementando ya que por
su naturaleza de ser hábiles en el procesamiento de información serán siempre
muy útiles en las empresas grandes; ya que las empresas necesitan manejos de
datos y obtenerlos con la rapidez que solamente la pueden conseguir con
aplicaciones OLAP, ROLAP, MOLAP, E HIBRIDO.

Página 29
Redes Neuronales
Las redes neuronales (también conocidas como sistemas conexionistas)
son un modelo computacional basado en un gran conjunto de unidades
neuronales simples (neuronas artificiales) de forma aproximadamente análoga al
comportamiento observado en los axones de las neuronas en los cerebros
biológicos1. La información de entrada atraviesa la red neuronal (donde se somete
a diversas operaciones) produciendo unos valores de salida.

Cada neurona está conectada con otras a través de unos enlaces. En estos
enlaces el valor de salida de la neurona anterior es multiplicado por un valor de
peso. Estos pesos en los enlaces pueden incrementar o inhibir el estado de
activación de las neuronas adyacentes. Del mismo modo, a la salida de la
neurona, puede existir una función limitadora o umbral, que modifica el valor
resultado o impone un límite que se debe sobrepasar antes de propagarse a otra
neurona. Esta función se conoce como función de activación.

Estos sistemas aprenden y se forman a sí mismos, en lugar de ser


programados de forma explícita, y sobresalen en áreas donde la detección de
soluciones o características es difícil de expresar con la programación
convencional. Para realizar este aprendizaje automático, normalmente, se intenta
minimizar una función de pérdida que evalúa la red en su total. Los valores de los
pesos de las neuronas se van actualizando buscando reducir el valor de la función
de pérdida. Este proceso se realiza mediante la propagación hacia atrás.
El objetivo de la red neuronal es resolver los problemas de la misma manera que
el cerebro humano, aunque las redes neuronales son más abstractas. Los
proyectos de redes neuronales modernos suelen trabajar desde unos miles a unos
pocos millones de unidades neuronales y millones de conexiones que, si bien son
muchas órdenes, siguen siendo de una magnitud menos compleja que la del
cerebro humano, más bien cercana a la potencia de cálculo de un gusano.
Nuevas investigaciones sobre el cerebro a menudo estimulan la creación de
nuevos patrones en las redes neuronales. Un nuevo enfoque está utilizando
conexiones que se extienden mucho más allá y capas de procesamiento de enlace
en lugar de estar siempre localizado en las neuronas adyacentes. Otra
investigación está estudiando los diferentes tipos de señal en el tiempo que los
axones se propagan, como el aprendizaje profundo, interpola una mayor
complejidad que un conjunto de variables booleanas que son simplemente
encendidos o apagados.

Página 30
Las redes neuronales se han utilizado para resolver una amplia variedad de
tareas, como la visión por computador y el reconocimiento de voz, que son difíciles
de resolver usando la ordinaria programación basado en reglas. Históricamente, el
uso de modelos de redes neuronales marcó un cambio de dirección a finales de
los años ochenta de alto nivel, que se caracteriza por sistemas expertos con
conocimiento incorporado en si-entonces las reglas, a bajo nivel de aprendizaje
automático, caracterizado por el conocimiento incorporado en los parámetros de
un modelo cognitivo con algún sistema dinámico .

Una red neuronal artificial es un grupo interconectado de nodos similar a la vasta red de neuronas en un
cerebro biológico. Cada nodo circular representa una neurona artificial y cada flecha representa una
conexión desde la salida de una neurona a la entrada de otra.

Historia

Warren McCulloch y Walter Pitts (1943) crearon un modelo informático para redes
neuronales, que se llama lógica umbral, que se base en las matemáticas y
los algoritmos. Este modelo señaló el camino para que la investigación de redes
neuronales se divida en dos enfoques distintos. Un enfoque se centró en los
procesos biológicos en el cerebro y el otro se centró en la aplicación de redes
neuronales para la inteligencia artificial.

Página 31
Aprendizaje de Hebb
A finales de la década de 1940 el psicólogo Donald Hebb3 creó una
hipótesis de aprendizaje basado en el mecanismo de plasticidad neuronal que
ahora se conoce como aprendizaje de Hebb. Aprendizaje de Hebb se considera
que es un "típico" de aprendizaje no supervisado regla y sus variantes posteriores
fueron los primeros modelos de la potenciación a largo plazo. Los investigadores
empezaron a aplicar estas ideas a los modelos computacionales en 1948 con la
sugerencia de Turing, que el córtex humano infantil es lo que llamaba "máquina
desorganizada" (también conocido como "máquina Turing Tipo B").
Farley y Wesley A. Clark (1954) al principio utilizaron máquinas
computacionales, las cuales entonces se llamaban "calculadoras", para simular
una red de Hebb en el MIT. Otras simulaciones de redes neuronales por
computadora han sido creadas por Rochester, Holanda, Hábito y Duda (1956).
Frank Rosenblatt8 (1958) creó el perceptrón, un algoritmo de
reconocimiento de patrones basado en una red de aprendizaje de computadora de
dos capas, que utilizaba adición y sustracción simples. Con la notación
matemática, Rosenblatt también describe circuitería que no está en el perceptrón
básico, tal como el circuito de o-exclusiva, un circuito que no se pudo procesar por
redes neuronales antes de la creación del algoritmo de propagación hacia
atrás por Paul Werbos (1975).
En 1959, un modelo biológico propuesto por dos laureados de los Premios
Nobel, David H. Hubel y Torsten Wiesel, estaba basado en su descubrimiento de
dos tipos de células en la corteza visual primaria: células simples y células
complejas.
El primer reporte sobre redes funcionales multicapas fue publicado en 1965
por Ivakhnenko y Lapa en 1965, cual método ahora se llama el método de
agrupamiento para el manejo de datos.111213
La investigación de redes neuronales se estancó después de la publicación de la
investigación de aprendizaje automático por Marvin Minsky y Seymour
Papert (1969)14, que descubrió dos cuestiones fundamentales con las máquinas
computacionales que procesan las redes neuronales. La primera fue que los
perceptrones básicos eran incapaces de procesar la circuito de o-exclusivo. La
segunda cuestión importante era que los ordenadores no tenían suficiente poder
de procesamiento para manejar eficazmente el gran tiempo de ejecución requerido
por las grandes redes neuronales.

Propagación hacia atrás y el resurgimiento


Un avance clave que vino después fue el algoritmo de propagación hacia
atrás que resuelve eficazmente el problema de o-exclusivo, y en general el
problema del entrenamiento rápido de redes neuronales de múltiples capas
(Werbos 1975). El proceso de propagación hacia atrás utilice la diferencia entre el
resultado producido y el resultado deseado para cambiar los "pesos" de las
conexiones entre las neuronas artificiales.

Página 32
A mediados de la década de 1980, el procesamiento distribuido en paralelo
se hizo popular con el nombre conexionismo. El libro de David E.
Rumelhart y James McClelland (1986) proporcionan una exposición completa de
la utilización de conexionismo en los ordenadores para simular procesos
neuronales.
Las redes neuronales, tal como se utiliza en la inteligencia artificial, que
tradicionalmente han sido considerados como modelos simplificados de
procesamiento neural en el cerebro, a pesar de que la relación entre este modelo
y la arquitectura biológica del cerebro se debate; no está claro en qué medida las
redes neuronales artificiales reflejan la función cerebral.
Máquinas de soporte vectorial y otros métodos mucho más simples, tales
como los clasificadores lineales, alcanzaron gradualmente las redes neuronales en
popularidad en aprendizaje automático. No obstante, el uso de redes neuronales
ha cambiado algunos campos, tales como la predicción de las estructuras de las
proteinas.1617
En 1992, max-pooling (una forma de submuestreo, en la que se divide los
datos en grupos de tamaños iguales, que no tienen elementos en común, y se
transmite solamente el valor máximo de cada grupo) fue introducido para ayudar
con el reconocimiento de objetos tri-dimensionales.
En 2010, el uso de max-pooling en el entrenamiento por propagación hacia
atrás fue acelerado por los GPUs, y fue demostrado que este ofrece mejor
rendimiento que otros tipos de agrupamiento.
El problema del desvanecimiento del gradiente afecta las redes neuronales
prealimentadas de múltiples capas, que usan la propagación hacia atrás, y
también los redes neuronales recurrentes (RNNs). Mientras que los errores se
propagan de una capa a otra, disminuyen exponencialmente con el número de
capas, y eso impide el arreglamiento de los pesos de las neuronas, la cual se base
en esos errores. Redes profundas están particularmente afectadas.
Para vencer este problema, Schmidhuber adoptaba una jerarquía multicapa
de redes (1992) pre entrenados, una capa a la vez, por aprendizaje no
supervisado, y refinado por propagación hacia atrás. Behnke (2003) contaba
solamente con el signo del gradiente (Rprop) tratándose de problemas tales como
la reconstrucción de imágenes y la localización de caras.
Como retos anteriores en redes neuronales profundas de capacitación se
abordaron con éxito con métodos como pre entrenamiento no supervisado y la
potencia de cálculo incrementado a través del uso de las GPU y la computación
distribuida, las redes neuronales se desplegaron de nuevo a gran escala, sobre
todo en problemas del procesamiento de imágenes y del reconocimiento visual.
Esto se conoció como "aprendizaje profundo", aunque el aprendizaje profundo no
es estrictamente sinónimo de redes neuronales profundas.

Página 33
Diseños basados en Hardware
Dispositivos de cómputo fueron creados en CMOS, para la simulación
biofísica al igual que para la cómputo neuromórfico. Nanodispositivos para análisis
de componentes principales de escala muy grande, y convolución puedan crear
una clase nueva de cómputo neuronal, porque son
fundamentalmente analógicas en vez de digitales (aunque las implementaciones
primeras puedan utilizar dispositivos digitales). Ciresan y sus colegas (2010) en el
grupo de Schmidhuber mostraron que, a pesar del problema del desvanecimiento
del gradiente, los GPUs hacen factible la propagación hacia atrás para las redes
neuronales prealimentadas con múltiples capas.

Mejoras desde 2006


Dispositivos computacionales se han creado en el CMOS, tanto para la
simulación biofísica y computación neuromórfico. Los esfuerzos más recientes se
muestran prometedores para la creación de nanodispositivos29 para análisis de
componentes principales de gran escala. Si tiene éxito, se crearía una nueva clase
de computación neuronal, ya que depende de aprendizaje automático en lugar
de la programación y porque es fundamentalmente analógico en lugar de digital a
pesar de que las primeras instancias pueden ser de hecho con los dispositivos
digitales CMOS.
Entre 2009 y 2012, las redes neuronales recurrentes y redes neuronales
feedforward profundos desarrollados en el grupo de investigación de Jürgen
Schmidhuber en el suizo laboratorio de IA IDSIA han ganado ocho concursos
internacionales de reconocimiento de patrones y aprendizaje automático. Por
ejemplo, la memoria bi-direccional y multidimensional de largo a corto
plazo (LSTM) de Alex Graves ha ganado tres competiciones en el reconocimiento
de escritura conectado en el 2009 Conferencia Internacional sobre Análisis de
documentos y Reconocimiento (ICDAR), sin ningún conocimiento previo acerca de
los tres idiomas diferentes que se pueden aprender.
Implementaciones de este método basadas en unidades de procesamiento
gráfico rápidas, hechos por Dan Ciresan y sus colegas de IDSIA han ganado
varios concursos de reconocimiento de patrones, incluyendo el IJCNN 2011
Competición de Reconocimiento de Señales de Tráfico, el desafío de ISBI 2012
de segmentación de estructuras neuronales en series de imágenes de
Microscopía Electrónica, y otros. Sus redes neurales también fueron los primeros
reconocedores de patrones artificiales para lograr un rendimiento aún
sobrehumana competitivo o en los puntos de referencia importantes, tales como el
reconocimiento de señales de tráfico (IJCNN 2012), o el problema de clasificación
dígitos escritos a mano.
Arquitecturas profundos, altamente no lineales neuronales similares a los
del 1980 Neocognitrón por Kunihiko Fukushima y la "arquitectura estándar de la
visión", inspirados en las células simples y complejas identificadas por David H.
Hubel y Torsten Wiesel en las primarias de la corteza visual , puede también ser

Página 34
pre-formados por métodos no supervisados de Geoff Hinton laboratorio en
la Universidad de Toronto .Un equipo de este laboratorio ganaron un concurso de
2012 patrocinado por Merck para el diseño de software para ayudar a encontrar
moléculas que podrían conducir a nuevos medicamentos.

Modelos
Modelos de redes neuronales en la inteligencia artificial se refieren
generalmente a las redes neuronales artificiales (RNA); estos son modelos
matemáticos esencialmente simples que definen una función f:X→Y o una
distribución más X o ambos X e Y. Pero a veces los modelos también están
íntimamente asociadas con un algoritmo de aprendizaje en particular o regla de
aprendizaje. Un uso común de la frase "modelo ANN" es en realidad la definición
de una clase de tales funciones (donde los miembros de la clase se obtiene
variando parámetros, los pesos de conexión, o específicos de la arquitectura, tales
como el número de neuronas o su conectividad).

Función de red
La palabra red en el término "red neuronal artificial" se refiere a las
interconexiones entre las neuronas en las diferentes capas de cada sistema. Un
sistema ejemplar tiene tres capas. La primera capa tiene neuronas de entrada que
envían datos a través de las sinapsis a la segunda capa de neuronas, y luego a
través de más sinapsis a la tercera capa de neuronas de salida. Los sistemas más
complejos tendrán más capas de neuronas, algunos habiendo aumentado capas
de neuronas de entrada y de salida de las neuronas. Las sinapsis almacenan
parámetros llamados "pesos" que manipulan los datos en los cálculos.
Un RNA se define típicamente por tres tipos de parámetros:
1. El patrón de interconexión entre las diferentes capas de neuronas
2. El proceso de aprendizaje para la actualización de los pesos de las
interconexiones
3. La función de activación que convierte las entradas ponderadas de una neurona
a su activación a la salida.
Matemáticamente, la función de red de una neurona se define como una
composición de otras funciones . Este se representa como una estructura de red,
con flechas que representan las dependencias entre variables.Un tipo
ampliamente utilizado de la composición es la suma ponderada no lineal , donde k
(denominado comúnmente como la función de activación) es una función
predefinida, como la tangente hiperbólica o función sigmoide . La característica
importante de la función de activación es que proporciona una transición suave
como valores de entrada de cambio, es decir, un pequeño cambio en la entrada
produce un pequeño cambio en la producción. Será conveniente para la siguiente
para referirse a una colección de funciones simplemente como un vector.

Página 35
Esta cifra representa una descomposición de tales , Con las dependencias
entre las variables indicadas por las flechas. Estos pueden ser interpretados de
dos maneras.
La primera vista es la vista funcional: la entrada se transforma en un vector
de 3 dimensiones , Que se transforma a continuación en un vector de 2
dimensiones , Que es finalmente transformado en . Este punto de vista se
encuentra más comúnmente en el contexto de la optimización.
El segundo punto de vista es la vista probabilístico: la variable
aleatoria depende de la variable aleatoria , Que depende de , Que depende de la
variable aleatoria . Este punto de vista se encuentra más comúnmente en el
contexto de modelos gráficos .

Grafo de dependencias ANN

Los dos puntos de vista son en gran medida equivalentes. En cualquier


caso, para esta arquitectura de red en particular, los componentes de las capas
individuales son independientes entre sí (por ejemplo, los componentes de son
independientes entre sí, dada su aportación ). Esto permite, naturalmente, un
grado de paralelismo en la ejecución.
Las redes como la anterior se llaman comúnmente alimentación hacia
delante , porque su gráfica es un grafo dirigido acíclico . Las redes con ciclos se
denominan comúnmente recurrentes . Tales redes se representan comúnmente de
la manera mostrada en la parte superior de la figura, donde se muestra como
dependiente sobre sí misma. Sin embargo, no se muestra una dependencia
temporal implícita.

Página 36
El aprendizaje
Lo que ha atraído el mayor interés en las redes neuronales es la posibilidad
de aprendizaje. Dada una determinada tarea a resolver, y una clase de funciones ,
el aprendizaje consiste en utilizar un conjunto de observaciones para encontrar la
cual resuelve la tarea de alguna forma óptima.
Esto implica la definición de una función de coste tal que, para la solución
óptima . Es decir, ninguna solución tiene un costo menor que el costo de la
solución óptima.
La función de coste es un concepto importante en el aprendizaje, ya que
representa lo lejos que una solución particular se encuentra de la solución óptima
al problema a resolver. Los algoritmos de aprendizaje buscan a través del espacio
de soluciones para encontrar una función que tiene el menor costo posible.

Dos representaciones separadas del recurrente gráfico de dependencias ANN


Para aplicaciones en las que la solución es dependiente de algunos datos,
el costo debe ser necesariamente una función de las observaciones, de lo
contrario no estaríamos modelando todo lo relacionado con los datos. Con
frecuencia se define como una estadística a la que se pueden realizar sólo
aproximaciones. Como un simple ejemplo, considere el problema de encontrar el
modelo , Lo que reduce al mínimo , Para pares de datos extraída de alguna
distribución . En situaciones prácticas sólo tendríamos muestras de y, por tanto,
para el ejemplo anterior, tendríamos solamente minimizar . Por lo tanto, el coste se
reduce al mínimo a través de una muestra de los datos en lugar de toda la
distribución de la generación de los datos.
Cuando alguna forma de aprendizaje automático en línea debe ser utilizada,
donde el costo se reduce al mínimo parcialmente como se ve cada nuevo ejemplo.
Mientras que la máquina de aprendizaje en línea se utiliza a menudo cuando se

Página 37
fija, es más útil en el caso en el que la distribución cambia lentamente con el
tiempo. En los métodos de redes neuronales, alguna forma de aprendizaje en
línea de la máquina se utiliza con frecuencia para conjuntos de datos finitos.

La elección de una función de coste


Si bien es posible definir alguna función de coste, con frecuencia un coste
particular, se utilizará, ya sea porque tiene propiedades deseables (tales
como convexidad) o porque surge de forma natural a partir de una formulación
particular del problema (por ejemplo, en una formulación probabilística
la probabilidad posterior del modelo puede ser utilizada como un costo inverso).
En última instancia, la función de coste dependerá de la tarea deseada.

Paradigmas de aprendizaje
Hay tres grandes paradigmas de aprendizaje, cada uno correspondiente a
una tarea de aprendizaje abstracto en particular. Estos son el aprendizaje
supervisado ,el aprendizaje no supervisado y el aprendizaje por refuerzo.

El aprendizaje supervisado
En el aprendizaje supervisado, se nos da una serie de ejemplos de pares y
el objetivo es encontrar una función en la clase permitido de funciones que
corresponden con los ejemplos. En otras palabras, deseamos inferir el mapeo
derivado de los datos; la función de coste está relacionado con la falta de
coincidencia entre nuestro mapeo y los datos, y contiene implícitamente el
conocimiento previo sobre el dominio del problema.
Un coste de uso común es el error cuadrático medio, que trata de minimizar
el error cuadrático medio entre las salidas de la red, y el valor objetivo sobre
todos los pares ejemplares. Cuando uno trata de minimizar este coste
utilizando descenso de gradiente para la clase de las redes neuronales
llamadas perceptrones multicapas (MLP), se obtiene el común y bien
conocido algoritmo de propagación hacia atrás para la formación de redes
neuronales.
Tareas que caen dentro del paradigma de aprendizaje supervisado son el
reconocimiento de patrones (también conocido como clasificación)
y regresión (también conocido como aproximación de función). El paradigma de
aprendizaje supervisado es aplicable también a los datos secuenciales (por
ejemplo, reconocimiento del habla, del manuscrito, y de gestos). Esto se puede
considerar como una forma de aprendizaje con un "maestro", en la forma de una
función que proporciona información continua sobre la calidad de las soluciones
obtenidas hasta el momento.

Página 38
Aprendizaje no supervisado
En el aprendizaje no supervisado , algunos datos se da y la función de
coste que se reduce al mínimo, que puede ser cualquier función de los datos y la
salida de la red.
La función de coste depende de la tarea (lo que estamos tratando de
modelar) y nuestros a priori suposiciones implícitas (las propiedades de nuestro
modelo, sus parámetros y las variables observadas).
Como un ejemplo trivial, considere el modelo donde es una constante y el
costo . Minimizar este coste nos dará un valor de{\ Displaystyle \ estilo de texto a}
a que es igual a la media de los datos. La función de coste puede ser mucho más
complicado. Su forma depende de la aplicación: por ejemplo, en la compresión de
que podría estar relacionado con la información mutua entre y , Mientras que en
la modelización estadística, que podría estar relacionado con la probabilidad
posterior del modelo dados los datos (tenga en cuenta que en estos dos ejemplos
esas cantidades se maximizaría en lugar de reducirse al mínimo).
Tareas que caen dentro del paradigma de aprendizaje no supervisado están
en generales de estimación de problemas; las aplicaciones incluyen el
agrupamiento , la estimación de distribuciones estadísticas , la compresión de
datos y el filtrado bayesiano de spam.

Aprendizaje por refuerzo


En el aprendizaje por refuerzo , los datos por lo general no se dan, pero
generada por la interacción de un agente con el medio ambiente. En cada punto
en el tiempo , El agente realiza una acción y el medio ambiente genera una
observación y un costo instantáneo , De acuerdo con algunas dinámicas (por lo
general desconocidos). El objetivo es descubrir una política para la selección de
las acciones que minimiza una cierta medida de un costo a largo plazo, por
ejemplo, el coste acumulativo esperado. La dinámica del medio ambiente y el
coste a largo plazo para cada política general son desconocidos, pero pueden ser
estimados.
Más formalmente el medio ambiente se modela como un proceso de
decisión de Markov (MDP) con los estados y acciones con las siguientes
distribuciones de probabilidad: la distribución de costos instantánea ,La
distribución de observación y la transición Mientras que una política se define
como la distribución condicional sobre las acciones dadas las observaciones.
Tomados en conjunto, los dos entonces definen una cadena de Márkov (MC). El
objetivo es descubrir la política (es decir, el MC) que minimice el costo.
RNAs se utilizan con frecuencia en el aprendizaje de refuerzo como parte
del algoritmo general. La programación dinámica se ha unido a las RNA (dando la
programación neurodinámica) por Bertsekas y Tsitsiklis y se aplicó problemas no
lineales a la multi-dimensionales, tales como los implicados en enrutamiento de
vehículos , gestión de los recursos naturales o la medicina debido a la capacidad
de RNAs para mitigar las pérdidas de precisión incluso cuando la reducción de la

Página 39
densidad de la red de discretización para aproximar numéricamente la solución de
los problemas de control originales.
Tareas que caen dentro del paradigma de aprendizaje por refuerzo son problemas
de control, juegos y otras secuenciales tareas.

Tipo de entrada
Finalmente también se pueden clasificar las RNAs según sean capaces de
procesar información de distinto tipo en:

 Redes analógicas: procesan datos de entrada con valores continuos y,


habitualmente, acotados. Ejemplos de este tipo de redes
son: Hopfield, Kohonen y las redes de aprendizaje competitivo.
 Redes discretas: procesan datos de entrada de naturaleza discreta;
habitualmente valores lógicos booleanos. Ejemplos de este segundo tipo de
redes son: las máquinas de Boltzmann y Cauchy, y la red discreta de Hopfield.

Algoritmos de aprendizaje
El entrenamiento de un modelo de red neuronal en esencia significa
seleccionar un modelo de la serie de modelos permitidos (o, en
un bayesiano marco, la determinación de una distribución en el conjunto de
modelos permitidos) que minimiza el criterio de costo. Hay numerosos algoritmos
disponibles para la formación de los modelos de redes neuronales; la mayoría de
ellos puede ser vista como una aplicación directa de la teoría de optimización y
la estimación estadística .
La mayoría de los algoritmos utilizados en las redes neuronales artificiales
de formación emplean alguna forma de descenso de gradiente, utilizando
propagación hacia atrás para calcular los gradientes reales. Esto se hace
simplemente tomando la derivada de la función de coste con respecto a los
parámetros de la red y a continuación, cambiando los parámetros en una dirección
relacionada al gradiente. Los algoritmos de entrenamiento de propagación hacia
atrás generalmente se clasifican en tres categorías:
1. Descenso del gradiente (con tasa variable de aprendizaje y
momentum, retropropagación elástica (Rprop));
2. cuasi-Newton ( Broyden-Fletcher-Goldfarb-Shannon, Método de la secante );
3. Levenberg-Marquardt y gradiente conjugado (actualización Fletcher-Reeves,
actualizaación Polak-Ribiere, Powell-Beale reinicio, gradiente conjugado
escalado).
Métodos evolutivos, de programación de la expresión génica,43 de recocido
simulado, de esperanza-maximización, los métodos no paramétricos y la
optimización por enjambre de partículas45 son algunos otros métodos para la
formación de redes neuronales.

Página 40
Algoritmo recursivo convergente de aprendizaje
Este es un método de aprendizaje específicamente designado para redes
neuronales controladores de articulación (CMAC por sus siglas en inglés) de
modelo cerebelosa. En 2004, un algoritmo recursivo de mínimos cuadrados estaba
introducido para formar en línea redes neuronales CMAC. Este algoritmo puede
convergir en un solo paso, y actualizar todos los pesos en un solo paso con
cualquier dato nuevo de entrada. Al principio, este algoritmo tenía complejidad
computacional de O(N3). Basado en factorización QR, este algoritmo recursivo de
aprendizaje había sido simplificado para hacerlo O(N).

El empleo de redes neuronales artificiales


Tal vez la mayor ventaja de las RNA es su capacidad de ser utilizado como un
mecanismo de función de aproximación arbitraria que "aprende" a partir de datos
observados. Sin embargo, su uso no es tan sencillo, y una relativamente buena
comprensión de la teoría subyacente es esencial.

 Elección de modelo: Esto dependerá de la representación de datos y la


aplicación. Excesivamente complejos modelos tienden a conducir a problemas
en el aprendizaje.
 Algoritmo de aprendizaje: Existen numerosas soluciones de compromiso entre
los algoritmos de aprendizaje. Casi cualquier algoritmo va a funcionar bien con
los hiperparámetros correctos para la formación de un conjunto específico de
datos fijos. Sin embargo, la selección y el ajuste de un algoritmo para la
formación en datos no previstos requieren una cantidad significativa de
experimentación.
 Robustez: Si se seleccionan apropiadamente el modelo, la función de coste y
el algoritmo de aprendizaje, la RNA resultante puede ser extremadamente
robusto.
Con la aplicación correcta, las RNA pueden ser utilizadas de forma natural
en el aprendizaje online y aplicaciones de grandes conjuntos de datos. Su
aplicación sencilla y la existencia de dependencias en su mayoría locales
expuestos en la estructura permiten implementaciones rápidas y paralelas en el
hardware.

Aplicaciones
RNA las hacen bastante apropiadas para aplicaciones en las que no se
dispone a priori de un modelo identificable que pueda ser programado, pero se
dispone de un conjunto básico de ejemplos de entrada (previamente clasificados o
no). Asimismo, son altamente robustas tanto al ruido como a la disfunción de
elementos concretos y son fácilmente paralelizables.
Esto incluye problemas de clasificación y reconocimiento de patrones de
voz, imágenes, señales, etc. Asimismo se han utilizado para encontrar patrones de

Página 41
fraude económico, hacer predicciones en el mercado financiero, hacer
predicciones de tiempo atmosférico, etc.
También se pueden utilizar cuando no existen modelos matemáticos
precisos o algoritmos con complejidad razonable, por ejemplo la red de Kohonen
ha sido aplicada con un éxito más que razonable al clásico problema del
viajante (un problema para el que no se conoce solución algorítmica de
complejidad polinómica).
Otro tipo especial de redes neuronales artificiales se ha aplicado en
conjunción con los algoritmos genéticos (AG) para crear controladores
para robots. La disciplina que trata la evolución de redes neuronales
mediante algoritmos genéticos se denomina Robótica Evolutiva. En este tipo de
aplicación el genoma del AG lo constituyen los parámetros de la red (topología,
algoritmo de aprendizaje, funciones de activación, etc.) y la adecuación de la red
viene dada por la adecuación del comportamiento exhibido por el robot controlado
(normalmente una simulación de dicho comportamiento).

Aplicaciones de la vida real


Las tareas se aplican a las redes neuronales artificiales tienden a caer dentro de
las siguientes categorías generales:

 Aproximación de funciones , o el análisis de regresión , incluyendo la


predicción de series temporales, funciónes de aptitud y el modelado.
 Clasificación , incluyendo el reconocimiento de patrones y la secuencia de
reconocimiento, detección y de la toma de decisiones secuenciales.
 Procesamiento de datos, incluyendo el filtrado, el agrupamiento, la separación
ciega de las señales y compresión.
 Robótica, incluyendo la dirección de manipuladores y prótesis.
 Ingeniería de control, incluyendo control numérico por computadora.
Las áreas de aplicación incluyen la identificación de sistemas y el control
(control del vehículo, predicción de trayectorias, el control de procesos , manejo de
recursos naturales), la química cuántica, juegos y la toma de
decisiones (backgammon, ajedrez, póquer ), el reconocimiento de
patrones (sistemas radar, reconocimiento facial, clasificación de señales,
reconocimiento de objetos y más), de reconocimiento de secuencia (gesto, voz,
reconocimiento de texto escrito a mano), diagnóstico médico , aplicaciones
financieras (por ejemplo, sistemas automatizados de comercio
(trading algorítmico) ), minería de datos (o descubrimiento de conocimiento en
bases de datos, "KDD"), la visualización, traducción automática, diferenciando
entre informes deseados y no deseados en redes sociales, prevención de spam
(correo basura) de correo electrónico.
Las redes neuronales artificiales se han utilizado también para el
diagnóstico de varios tipos de cáncer. Un sistema de detección de cáncer de
pulmón híbrido basado ANN llamado HLND mejora la precisión del diagnóstico y la

Página 42
velocidad de la radiología cáncer de pulmón. Estas redes también se han utilizado
para diagnosticar el cáncer de próstata. Los diagnósticos se pueden utilizar para
hacer modelos específicos tomados de un gran grupo de pacientes en
comparación con la información de un paciente dado. Los modelos no dependen
de suposiciones acerca de las correlaciones de diferentes variables. El cáncer
color rectal también se ha previsto el uso de las redes neuronales. Las redes
neuronales podrían predecir el resultado de un paciente con cáncer color rectal
con más precisión que los métodos clínicos actuales. Después del entrenamiento,
las redes podrían predecir múltiples resultados de los pacientes de instituciones
relacionadas.

Las redes neuronales y la neurociencia


La Neurociencia Teórica y computacional son el ámbito en que se trata del
análisis teórico y el modelado computacional de sistemas neuronales biológicos.
Dado que los sistemas neurales están íntimamente relacionados con los procesos
cognitivos y de comportamiento, el campo está muy relacionada con el modelado
cognitivo y conductual.
El objetivo del campo es la creación de modelos de sistemas neuronales
biológicas con el fin de comprender cómo funcionan los sistemas biológicos. Para
ganar este entendimiento, los neurólogos se esfuerzan por hacer un vínculo entre
los procesos biológicos observados (datos), biológicamente plausibles
mecanismos para el procesamiento neuronal y aprendizaje ( redes neuronales
biológicas modelos) y la teoría (la teoría del aprendizaje estadístico y la teoría de
la información ).

Tipos de modelos
Muchos modelos se utilizan en el campo, que se define en diferentes
niveles de abstracción y el modelado de diferentes aspectos de los sistemas
neurales. Se extienden desde modelos del comportamiento a corto plazo de las
neuronas individuales, tras los modelos del surgimiento de la dinámica de los
circuitos neuronales de la interacción entre las neuronas individuales hasta,
finalmente, los modelos del surgimiento del comportamiento de los módulos
neuronales abstractos que representan subsistemas completas. Estos incluyen
modelos de plasticidad de largo y corto plazo, y de los sistemas neuronales y sus
relaciones con el aprendizaje y la memoria de la neurona individual a nivel del
sistema.

Las redes con memoria


La integración de los componentes de memoria externa con redes
neuronales artificiales tiene una larga historia que se remonta a las primeras
investigaciones en las representaciones distribuidas y mapas de auto-
organización . Por ejemplo, en memoria distribuida dispersa los patrones

Página 43
codificados por las redes neuronales se utilizan como direcciones de memoria
para la memoria de contenido direccionable, con "neuronas" que sirven
esencialmente como dirección codificadores y decodificadores .
Más recientemente aprendizaje profundo ha demostrado ser útil enhashing
semántica, donde un profundo modelo gráfico de los vectores de palabra de
recuento de se obtiene a partir de un gran conjunto de documentos. Los
documentos se asignan a las direcciones de memoria de tal manera que los
documentos semánticamente similares se encuentran en direcciones cercanas.
Documentos similares a un documento de consulta a continuación, se pueden
encontrar simplemente accediendo a todas las direcciones que difieren por sólo
unos pocos bits de la dirección del documento de consulta.
Redes de memoria es otra extensión de las redes neuronales que
incorporan la memoria a largo plazo que fue desarrollado
por Facebook investigación. La memoria a largo plazo puede ser leído y escrito
para, con el objetivo de utilizarlo para la predicción. Estos modelos se han
aplicado en el contexto de la búsqueda de respuestas (QA), donde la memoria a
largo plazo que de hecho actúa como un (dinámico) base de conocimientos, y la
salida es una respuesta textual.
Máquinas de Turing neuronales desarrollados por Google DeepMindampliar
las capacidades de las redes neuronales profundas mediante el acoplamiento a
los recursos de memoria externos, que pueden interactuar con los procesos
atencionales. El sistema combinado es análogo a una máquina de Turing pero es
diferenciable de extremo a extremo, lo que le permite ser entrenado de manera
eficiente con descenso del gradiente. Los resultados preliminares demuestran que
las máquinas de Turing neuronales puede deducir algoritmos simples, tales como
copiar, clasificar, y recuerdo asociativo a partir de ejemplos de entrada y salida.
Computadoras neuronales diferenciables (DNC) son una extensión de las
máquinas de Turing neuronal, también de DeepMind. Se han realizado fuera de
las máquinas de Turing neuronales, la memoria de largo a corto plazo los sistemas
y redes de la memoria en las tareas de procesamiento de secuencia.

Software de red neuronal


Software de la red neuronal se utiliza para simular, investigación , desarrollo
y aplicación de redes neuronales artificiales, redes neuronales biológicas y, en
algunos casos, una gama más amplia de sistemas adaptativos.

Tipos de redes neuronales artificiales


Tipos de redes neuronales artificiales varían de aquellos con sólo una o dos
capas de lógica única dirección, para muchos bucles complejos multi-direccionales
de entrada de realimentación y capas. En general, estos sistemas utilizan
algoritmos en su programación para determinar el control y la organización de sus
funciones. La mayoría de los sistemas utilizan "pesos" para cambiar los

Página 44
parámetros del rendimiento y las diferentes conexiones con las neuronas. Las
redes neuronales artificiales pueden ser autónomas y aprender mediante el aporte
de "maestros" externos o incluso auto-enseñanza de las reglas escritas de
entrada. Redes neuronales estilo Cubo Neural primera por primera vez por Gianna
Giavelli proporcionan un espacio dinámico en el que las redes se recombinan
dinámicamente información y enlaces a través de miles de millones de nodos
independientes que utilizan la adaptación neuronal darwinismo , una técnica
desarrollada por Gerald Edelman , que permite sistemas más modeladas
biológicamente.

Potencia del cálculo


El perceptrón multicapa es un aproximado de la función universal, como lo
demuestra el teorema de aproximación universal . Sin embargo, la prueba no es
constructivo sobre el número de neuronas es necesario, la topología de red, la
configuración de los pesos y los parámetros de aprendizaje.
El trabajo de Hava Siegelmann y Eduardo D. Sontag ha proporcionado una
prueba de que una arquitectura específica recurrente con los pesos valorados
racionales (en oposición a la precisión total número real -valued pesos) tiene toda
la potencia de una máquina universal de Turing [59]utilizando un número finito de
las neuronas y las conexiones lineales estándar. Además, se ha demostrado que
el uso de valores irracionales para resultados pesos en una máquina con super-
Turing poder.

Capacidad
Los modelos de redes neuronales artificiales tienen una propiedad
denominada "capacidad", que corresponde aproximadamente a su capacidad para
modelar cualquier función dada. Se relaciona con la cantidad de información que
puede ser almacenada en la red y a la noción de complejidad.

Convergencia
Nada se puede decir en general sobre la convergencia ya que depende de
una serie de factores. En primer lugar, pueden existir muchos mínimos locales.
Esto depende de la función de coste y el modelo. En segundo lugar, el método de
optimización utilizado no puede ser garantizado a converger cuando lejos de un
mínimo local. En tercer lugar, para una cantidad muy grande de datos o
parámetros, algunos métodos se vuelven poco práctico. En general, se ha
encontrado que las garantías teóricas sobre la convergencia son una guía fiable
para la aplicación práctica.

Página 45
Generalización y estadísticas
En aplicaciones donde el objetivo es crear un sistema que generaliza bien
en los ejemplos que no se ven, ha surgido el problema de la formación excesiva.
Esto surge en los sistemas complicados o sobre especificadas cuando la
capacidad de la red supera significativamente los parámetros libres necesarios.
Hay dos escuelas de pensamiento para evitar este problema: La primera es
utilizar la validación cruzada técnicas similares y para comprobar la presencia de
un exceso de entrenamiento y de manera óptima seleccione hiper- tales que se
minimice el error de generalización. La segunda es utilizar algún tipo
de regularización . Este es un concepto que surge de manera natural en un marco
probabilístico (Bayesiano), donde la regularización puede realizarse mediante la
selección de una probabilidad a priori más grande sobre los modelos más simples;
sino también en la teoría estadística de aprendizaje, donde el objetivo es reducir al
mínimo más de dos cantidades: el "riesgo empírico" y el "riesgo estructural ', que
corresponde aproximadamente al error sobre el conjunto de entrenamiento y el
error de predicción en los datos que no se ven debido a sobreajuste. Redes
neuronales supervisadas que utilicen un error cuadrático medio (MSE) función de
coste se pueden utilizar métodos estadísticos formales para determinar la
confianza del modelo entrenado. El MSE en un conjunto de validación se puede
utilizar como una estimación de la varianza. Este valor puede ser utilizado para
calcular el intervalo de confianza de la salida de la red, suponiendo
una distribución normal . Un análisis de confianza realizado de esta manera es
estadísticamente válida siempre que la salida de distribución de probabilidad sigue
siendo el mismo y la red no es modificada.

Análisis de confianza de una red neuronal


Mediante la asignación de una función de activación softmax , una
generalización de la función logística , en la capa de salida de la red neuronal (o
un componente softmax en una red neuronal basada en componentes) para las
variables categóricas de destino, las salidas se pueden interpretar como las

Página 46
probabilidades. Esto es muy útil en la clasificación, ya que da una medida de la
seguridad en las clasificaciones.

La función de activación softmax es:

La crítica

Cuestiones de capacitación
Una crítica común de las redes neuronales, en particular en la robótica, es que
requieren una gran diversidad de entrenamiento para el funcionamiento del mundo
real. Esto no es sorprendente, ya que cualquier máquina de aprendizaje necesita
suficientes ejemplos representativos con el fin de capturar la estructura
subyacente que le permite generalizar a nuevos casos. Dean A. Powerless, en su
investigación presentada en el documento "Formación basada en el conocimiento
de redes neuronales artificiales para la conducción autónoma del robot", utiliza una
red neuronal para entrenar a un vehículo robótico para conducir en múltiples tipos
de carreteras (de un solo carril, varios carriles, suciedad, etc.). Una gran cantidad
de su investigación está dedicada a (1) la extrapolación de múltiples escenarios de
entrenamiento a partir de una sola experiencia de formación, y (2) la preservación
de la diversidad de entrenamiento pasado para que el sistema no se convierta en
sobre entrenamiento (si, por ejemplo, se presenta con una serie de giros a la
derecha - no debe aprender a girar siempre a la derecha). Estos problemas son
comunes en las redes neuronales que debe decidir de entre una amplia variedad
de respuestas, pero se pueden tratar de varias maneras, por ejemplo por revolver
al azar los ejemplos de entrenamiento, mediante el uso de un algoritmo de
optimización numérica que no toma demasiado grandes pasos cuando el cambio
de las conexiones de red siguiendo un ejemplo, o mediante la agrupación de
ejemplos en los llamados mini-lotes.

Cuestiones teóricas
AK Dewdney , un científico matemático e informática de la Universidad de
Ontario Occidental y ex Scientific American columnista, escribió en 1997, "A pesar
de que las redes neurales hacen resolver algunos problemas de juguete, su poder
de computación son tan limitados que me sorprende que nadie los toma en serio
como una herramienta general de resolución de problemas ". No existe una red
neuronal nunca se ha demostrado que resuelve los problemas
computacionalmente difíciles, tales como la N-Queens problema, el problema del
viajante de comercio , o el problema de factorizar enteros grandes.
Aparte de su utilidad, una objeción fundamental a las redes neuronales
artificiales es que no logran reflejar cómo funcionan las neuronas reales.
Propagación hacia atrás está en el corazón de las redes neuronales artificiales y la
mayoría no sólo no hay evidencia de ningún mecanismo de este tipo de redes
neuronales naturales,51 parece contradecir el principio fundamental de las
neuronas reales que la información sólo puede fluir hacia adelante a lo largo del

Página 47
axón. Como la información está codificada por las neuronas reales aún no se
conoce. Lo que se sabe es que las neuronas sensoriales disparan potenciales de
acción con mayor frecuencia con la activación del sensor y las células musculares
tiran más fuertemente cuando sus neuronas motoras asociadas reciben los
potenciales de acción con más frecuencia. Aparte del caso más simple de solo
transmisión de información de una neurona a un sensor de la neurona motora casi
nada se conoce de los principios generales subyacentes de cómo se maneja la
información por las redes neuronales reales.
La motivación detrás de las redes neuronales artificiales no es
necesariamente para replicar la función neural real, pero para utilizar redes
neuronales naturales como inspiración para un acercamiento a la computación
que es inherentemente paralelo y que proporciona soluciones a los problemas que
tienen hasta ahora ha considerado intratable. Por tanto, una afirmación central de
las redes neuronales artificiales es que encarna algún principio general nuevo y
potente para el procesamiento de la información. Por desgracia, estos principios
generales están mal definidos y que a menudo se afirma que son emergentes de
la red neuronal en sí. Esto permite la asociación estadística sencilla (la función
básica de las redes neuronales artificiales), que se describe como el
aprendizaje o el reconocimiento. Como resultado, las redes neuronales artificiales
tienen, según Dewdney, un "algo para nada la calidad, que imparte un aura
peculiar de la pereza y una clara falta de curiosidad acerca de lo bien que estos
sistemas de computación son Ninguna mano humana (o la mente) interviene;
soluciones. Se encuentran como por arte de magia, y nadie, al parecer, ha
aprendido nada”.

Los problemas de hardware


Para implementar el software de redes neuronales grandes y eficaces,
considerables recursos de procesamiento y almacenamiento deben estar
comprometidos. Mientras que el cerebro ha hardware adaptado a la tarea de
procesamiento de señales a través de un gráfico de las neuronas, simulando
incluso una forma más simplificada en la arquitectura von Neumann puede obligar
a un diseñador de la red neural para llenar muchos millones de bases de
datos filas por sus conexiones - que puede consumir grandes cantidades de
equipo de memoria y disco duro espacio. Además, el diseñador de sistemas de
redes neurales a menudo necesitará para simular la transmisión de señales a
través de muchas de estas conexiones y sus neuronas asociadas - que a menudo
deben coincidir con una increíble cantidad de CPU potencia de procesamiento y
tiempo.
Jürgen Schmidhuber toma nota de que el resurgimiento de las redes
neuronales en el siglo XXI, y su éxito renovado en tareas de reconocimiento de
imagen es atribuible en gran medida a los avances en el hardware: de 1991 a
2015, el poder de computación, especialmente en lo entregado
por GPGPUs (en las GPU ), ha aumentado alrededor de un millón de veces, por lo
que el algoritmo de retropropagación estándar viable para las redes de formación

Página 48
que son varias capas más profundas que antes (pero añade que esto no resuelve
los problemas algorítmicos tales como fuga gradientes "de una manera
fundamental"). El uso de la GPU en lugar de CPUs ordinarios puede traer los
tiempos de entrenamiento para algunas redes por debajo de los meses a meros
días.
Potencia de cálculo sigue creciendo más o menos de acuerdo con la Ley de
Moore , que puede proporcionar recursos suficientes para llevar a cabo nuevas
tareas. Ingeniería neuromorphic aborda la dificultad de hardware directamente,
mediante la construcción de chips de no-von Neumann con circuitos diseñados
para implementar redes neuronales desde el principio. Google también ha
diseñado un chip optimizado para el procesamiento de red neural llamado Unidad
de Procesamiento Tensor o TPU.

Contraejemplos prácticas a las críticas


Argumentos en contra de la posición de Dewdney son que las redes
neuronales se han utilizado con éxito para resolver muchas tareas complejas y
diversas, que van desde aviones que vuelan de forma autónoma para la detección
de fraude de tarjetas de crédito.
Escritor de tecnología Roger Bridgman ha comentado las declaraciones de
DEWDNEY sobre redes neuronales:
Las redes neuronales, por ejemplo, están en el muelle no sólo porque han
sido promocionado al alto cielo, (lo que tiene, no?), sino también porque se puede
crear una red de éxito sin la comprensión de cómo funcionaba: el montón de
números que captura su comportamiento sería con toda probabilidad "una, mesa
ilegible opaca... sin valor como recurso científico".
A pesar de su enfática declaración de que la ciencia no es la tecnología,
parece Dewdney aquí para ridiculizar a las redes neuronales como mala ciencia
cuando la mayoría de los ideando ellos están tratando de ser buenos ingenieros.
Una tabla puede leer que una máquina útil podía leer todavía sería bien vale la
pena tener.
Si bien es cierto que el análisis de lo que se ha aprendido por una red
neuronal artificial es difícil, es mucho más fácil de hacerlo que analizar lo que se
ha aprendido por una red neuronal biológica. Por otra parte, los investigadores
involucrados en la exploración de algoritmos de aprendizaje para redes
neuronales están descubriendo gradualmente principios genéricos que permiten
que una máquina de aprendizaje tenga éxito. Por ejemplo, Bengio y LeCun (2007)
escribió un artículo sobre el aprendizaje locales vs. No locales, así como poco
profundas frente a la arquitectura de profundidad.

Página 49
Enfoques híbridos
Algunas otras críticas que provienen de los defensores de los modelos
híbridos (combinación de redes neuronales y enfoques simbólicos), que creen que
el intermix de estos dos enfoques puede capturar mejor los mecanismos de la
mente humana.

Ejemplos

Quake II Neuralbot
Un bot es un programa que simula a un jugador humano. El Neuralbot es un
bot para el juego Quake II que utiliza una red neuronal artificial para decidir su
comportamiento y un algoritmo genético para el aprendizaje. Es muy fácil probarlo
para ver su evolución.

Clasificador No Sesgado de Proteínas


Es un programa que combina diversas técnicas computacionales con el
objetivo de clasificar familias de proteínas. Un posible método consiste en
utilizar métricas adaptativas como por ejemplo: mapas autorganizados
y algoritmos genéticos.

El problema de clasificación no sesgada basada en la expresión de las


proteínas en Aminoácidos puede reducirse, conceptualmente, a lo siguiente:

 La identificación de grupos de proteínas que compartan características


comunes.
 La determinación de las razones estructurales por las cuales las proteínas en
cuestión se agrupan de la manera indicada.
 Evitar la idea de establecer criterios de clasificación (“sesgados”)
fundamentados en ideas preconcebidas para lograr su clasificación. En este
sentido, hay dos asuntos que considerar:
 Cómo lograr la caracterización de las proteínas de manera no sesgada
 Cómo lograr lo anterior sin apelar a medidas de agrupamiento que, a su
vez, impliquen algún tipo de sesgo sobre dicho agrupamiento.
Las RNA han sido aplicadas a un número en aumento de problemas en la vida
real y de considerable complejidad, donde su mayor ventaja es en la solución de
problemas que son bastante complejos para la tecnología actual, tratándose de
problemas que no tienen una solución algorítmica o cuya solución algorítmica es
demasiado compleja para ser encontrada.
En general, debido a que son parecidas a las del cerebro humano, las RNA
son bien nombradas ya que son buenas para resolver problemas que el humano
puede resolver pero las computadoras no. Estos problemas incluyen el

Página 50
reconocimiento de patrones y la predicción del tiempo. De cualquier forma, el
humano tiene capacidad para el reconocimiento de patrones, pero la capacidad de
las redes neuronales no se ve afectada por la fatiga, condiciones de trabajo,
estado emocional, y compensaciones.
Se conocen cinco aplicaciones tecnológicas extendidas:

1. Reconocimiento de textos manuscritos


2. Reconocimiento del habla
3. Simulación de centrales de producción de energía
4. Detección de explosivos
5. Identificación de blancos de radares

Página 51
Tecnologías Computacionales Interempresariales
Arquitectura de Intranet
ARQUITECTURA Y PROCESAMIENTO EN UNA INTRANET

Resumen

El contenido de este artículo tiene como objetivo ser una guía y cubrir tanto
el concepto básico de una arquitectura TCP/IP, su funcionalidad, sus niveles y
además la manera en que los paquetes son procesados por el mismo.

De manera breve, podemos decir que una arquitectura TCP/IP, es un


conjunto de protocolos que cubren los distintos niveles del modelo OSI. Los dos
protocolos más importantes son el TCP (Transmission Control Protocol) y el IP
(Internet Protocol), que son los que dan nombre al conjunto.

La arquitectura del TCP/IP consta de cinco niveles o capas en las que se


agrupan los protocolos, y que se relacionan con los niveles OSI.

TCP/IP está diseñado para ser un componente de una red, principalmente la parte
del software. Todas las partes del protocolo de la familia TCP/IP tienen unas
tareas asignadas como enviar correo electrónico, proporcionar un servicio de
acceso remoto, transferir ficheros, asignar rutas a los mensajes o gestionar caídas
de la red.

Al concluir la lectura el interesado tendrá la posibilidad de conocer a grandes


rasgos los distintos puntos o factores que implican la estructura de una
arquitectura TCP/IP y su procesamiento de paquetes.

Arquitectura TCP/IP

La arquitectura TCP/IP está hoy en día ampliamente difundida, a pesar de ser una
arquitectura de facto, en lugar de ser uno de los estándares por la ISO
(International Organization for Standardization), IIC (International Industrial
Certification), entre otras instituciones.

Esta arquitectura se empezó a desarrollar como base de la ARPANET (red de


comunicaciones militar del gobierno de los EE.UU), y con la expansión de la
internet se ha convertido en una de las arquitecturas de redes más difundida.

TCP/IP es el protocolo utilizado por todos los ordenadores conectados a internet,


de manera que estos puedan comunicarse entre sí. Hay que tener en cuenta que

Página 52
en internet se encuentran conectados ordenadores de clases muy diferentes y con
hardware y software incompatibles en muchos casos, además de todos los medios
y formas posibles de conexión.

Aquí se encuentra una de las grandes ventajas de esta arquitectura TCP/IP, pues
esta se encargará de que la comunicación entre todos sea posible. TCP/IP es
compatible con cualquier sistema operativo y con cualquier tipo de hardware.

TCP/IP no es un único protocolo, sino más bien es lo que se conoce con este
nombre es un conjunto de protocolos que se cubren los distintos niveles del
modelo OSI. Los dos protocolos más importantes son el TCP (Transmission
Control Protocol) y el IP (Internet Protocol), que son los que dan nombre al
conjunto. La arquitectura del TCP/IP consta de 4 niveles o capas en las que se
agrupan los protocolos, y que se relacionan con los niveles OSI de la siguiente
manera:

Aplicación

Se corresponde con los niveles OSI de la aplicación, presentación y sesión. Aquí


se incluyen protocolos

destinados a proporcionar servicios, tales como correo electrónico (SMTP),


transferencia de ficheros (FTP), conexión remota (TELNET) y otros más recientes
como el protocolo HTTP (HYPERTEXT TRANSFER PROTOCOL).

Transporte

Coincide con el nivel de transporte del modelo OSI. Los protocolos de este nivel,
tales como TCP y UDP, se encargan de manejar los datos y proporcionar la
fiabilidad necesaria en el transporte de los mismos.

Este nivel proporciona una comunicación extremo a extremo entre programas de


aplicación. La máquina remota recibe exactamente lo mismo que le envió la
maquina origen. En este nivel el emisor divide la información que recibe del nivel
de aplicación en paquetes, le añade los datos necesarios para el control de flujo y
control de errores, y se los pasa al nivel de red junto con la dirección de destino.

En el receptor este nivel se encarga de ordenar y unir las tramas para generar de
nuevo la información original.

Internet

Es el nivel de red del modelo OSI. Incluye al protocolo IP, que se encarga de
enviar los paquetes de información a sus destinos correspondientes. Es utilizado
con esta finalidad por los protocolos del nivel de transporte.
Página 53
Coloca la información que le pasa el nivel de transporte en datagramas IP, le
añade cabeceras necesaria para su nivel y lo envía al nivel inferior. Es en este
nivel donde se emplea el algoritmo de encaminamiento, al recibir un datagrama
del nivel inferior decide, en función de su dirección, si debe procesarlo y pasarlo al
nivel superior, o bien encaminarlo hacia otra máquina.

Enlace

Este nivel se limita a recibir datagramas del nivel superior (nivel de red) y
transmitirlo al hardware de la red. Pueden usarse diversos protocolos: DLC (IEEE
802.2), Frame Relay, X.25, entre otros.

La interconexión de diferentes redes genera una red virtual en la que las maquinas
se identifican mediante una dirección de red lógica. Sin embargo a la hora de
transmitir información por un medio físico se envía y se recibe información de
direcciones físicas.

Un diseño eficiente implica que una dirección lógica sea independiente de una
dirección física, por lo tanto es necesario un mecanismo que relacione las
direcciones lógicas con las direcciones físicas. De esta forma podremos cambiar
nuestra dirección lógica IP conservando el mismo hardware, del mismo modo
podremos cambiar una tarjeta de red, la cual contiene una dirección física, sin
tener que cambiar nuestra dirección lógica IP.

Como se procesan los paquetes IP en una INTRANET

Como hemos hablado antes Intranet es una red de ordenadores conectados por
medio del protocolo de comunicación TCP/IP, es decir aplica la tecnología de
Internet a la tecnología de redes Lan, lo cual permite dentro de una empresa u
organización, que se enlacen a todos los miembros de una organización
proporcionándoles un acceso fácil a la información y convirtiendo el uso de los
recursos y aplicaciones en un proceso más amigable, funcional y productivo.

Para usar una Intranet, las computadoras cliente normalmente necesitan de los
siguientes requisitos mínimos:

 TCP/IP instalado, el cual se puede encontrar por defecto tanto en sistemas


operativos Windows como en cualquier distribución de Linux.
 Un navegador de Web instalado como el Internet Explorer o Netscape
Navigator en sistemas operativos Windows o como Konqueror y Mozilla en
las distribuciones Linux.
 Un servidor de Web como el Internet Information Server (IIS) en los
sistemas operativos Windows o como Apache en distribuciones Linux.

Página 54
 Herramientas de desarrollo de páginas Web para la Intranet, donde existen
multitud de herramientas para esta función tanto como para Windows como
Linux, aunque la más usada es la de Microsoft Frontpage.

Cuando envías información a través de una Intranet, los datos se fragmentan en


pequeños paquetes. Los paquetes llegan a su destino, se vuelven a fusionar en su
forma original. El Protocolo de Control de

Transmisión divide los datos en paquetes y los reagrupa cuando se reciben. El


Protocolo Internet maneja el encaminamiento de los datos y asegura que se
envían al destino exacto.

Los datos enviados dentro de una Intranet deben separase en paquetes menores
de 1.500 caracteres. TCP divide los datos en paquetes. A medida que crea cada
paquete, calcula y añade un número de control a éstos. El número de control se
basa en los valores de los bytes, es decir, la cantidad exacta de datos en el
paquete.

Cada paquete, junto al número de control, se coloca en envases IP o "sobre"


separados. Estos envases contienen información que detalla exactamente donde
se van a enviar los datos dentro de la Intranet o de

Internet. Todos los envases de una clase de datos determinada tienen la misma
información de direccionamiento así que se pueden enviar a la misma localización
para reagruparse.

Los paquetes viajan entre redes Intranets gracias a enrutadores de Intranets. Los
enrutadores examinan todos los envases IP y estudian sus direcciones. Estos
direccionadores determinan la ruta más eficiente para enviar cada paquete a su
destino final. Debido a que el tráfico en una Intranet cambia frecuentemente, los
paquetes se pueden enviar por caminos diferentes y puedan llegar desordenados.
Si el enrutador observa que la dirección está localizada dentro de la Intranet, el
paquete se puede enviar directamente a su destino, o puede enviarse a otro
enrutador. Si la dirección se localiza fuera de Internet, se enviará a otro enrutador
para que se pueda enviar a través de ésta.

A medida que los paquetes llegan a su destino, TCP calcula un número de control
para cada uno. Después compara este número de control con el número que se
ha enviado en el paquete. Si no coinciden, CP sabe que los datos en el paquete
se han degradado durante él envió. Después descarta el paquete y solicita la
retransmisión del paquete original.

Página 55
Observaciones y Comentarios

Algo que es de gran relevancia a remarcar, es que esta arquitectura que se


presenta es tanto utilizada para la aplicación de una INTRANET como en el
INTERNET. Es por ello, que las herramientas usadas para crear una Intranet son
idénticas a las mismas de Internet y las aplicaciones Web. La diferencia principal
de la Intranet es que al acceso a la información publicada está restringido y solo
será visible a clientes dentro del grupo de la Intranet.

El comprender como funciona el procesamiento de paquetes mediante una


arquitectura TCP/IP es de mucha ayuda en términos de uso y seguridad, esto por
el simple hecho de que al momento de aplicarlo se entienda que riesgos hay,
cuales son las vulnerabilidades posibles y de igual manera buscar medidas para
reducirlas y maximizar la optimización.

Conclusiones

El uso de una arquitectura TCP/IP hoy en día es muy común, se puede decir que
un 95% de los equipos de cómputo alrededor del mundo utilizan esta arquitectura,
sin embargo no es la única a poder usar.

Explotar hasta su máximo dicha arquitectura puede ser de un gran beneficio a la


hora de implementar una intranet, ya que de ello dependerá la eficacia y eficiencia
de la transmisión y traslado de la información en todo el sentido de la palabra.

Se demostraron conceptos generales pero muy importantes sobre la arquitectura


TCP/IP y además unasíntesis del procesamiento de paquetes que se lleva a cabo,
con el fin de enriquecer y engrandecer el conocimiento sobre el mismo. Aun así,
se espera, emprender al lector a investigar aún más sobre el tema.

Página 56
Bibliografía

Bermúdez Gina, Nieto Luz Dary, Ríos Javier, González Adelmo, Malpica Myriam –
28 Mayo 2,014 – http://protocolotcpip.galeon.com/

Junta de Andalucia, Curso de Administrador de Servidores Internet / Extranet /


Intranet – 30 Mayo 2,014

http://www.juntadeandalucia.es/empleo/recursos/material_didactico/especialidades
/materialdidactico_administrador_servidores/Content/1-so/4-Intranet.pdf

Noli Aldo, Peralta Gabriel, Sandmann Fernando, Smunic Mariano – 28 Mayo 2,014
– http://www1.frm.utn.edu.ar/comunicaciones/tcp_ip.html#5

Página 57

Вам также может понравиться