Вы находитесь на странице: 1из 76

Redes Neurais Artificial

ESQUEMA DE ANTEPROYECTO
I. ASPECTOS GENERALES 1.1 Ttulo: VALORACIN INMOBILIARIA APLICANDO LA METODOLOGA DE PRECIOS HEDNICOS VS REDES NEURONALES: ESTUDIO DE CASO PARA LA CIUDAD DE PIURA.

1.2 rea de Investigacin Inteligencia Artificial, Mtodos economtricos.


1.3 Tipo de Investigacin La Investigacin es un proceso que, mediante la aplicacin del mtodo cientfico, procura obtener informacin relevante y fidedigna (digna de fe y crdito) para entender, verificar, corregir o aplicar el conocimiento. De acuerdo a la investigacin a realizar sta ser INVESTIGACION APLICADA, ya que su inters est en la aplicacin, utilizacin y las consecuencias prcticas de las redes neuronales en el campo del mercado inmobiliario.

1.4

Responsable del Proyecto Luis Vicente Meja Alemn

1.5

Entidades y/o personas con las que coordinas Si se desea obtener informacin relativa a precios de la vivienda se dispone tanto de fuentes de informacin primarias como secundarias. Entre las fuentes de informacin secundaria de vivienda, con respecto al precio, cabe destacar a Direccin Regional de Vivienda, Construccin y Saneamiento de Piura y las principales sociedades de tasacin. Entre las fuentes de informacin primaria tenemos a las sociedades de tasacin: A&Q Contratistas Generales.

1.6

Fecha de presentacin del trabajo 24 de marzo del 2012

II.

MARCO REFERENCIAL DE LA INVESTIGACIN 2.1 Antecedentes Histricos 2.1.1 Antecedentes Locales Indicadores Lderes, Redes Neuronales y Prediccin de corto plazo. Javier Kapsoli Salinas y Brigitt Bencich Aguilar. Noviembre del 2012 . Tesis Doctoral. Los resultados de esta investigacin estn orientados a construir un predictor de cambios en la fase de ciclo haciendo pronsticos de la tasa de crecimiento del PBI. Las 12 variables con la que trabaja el modelo de investigacin se combinan a travs de un modelo no lineal neuronal de perceptrn multicapa y se obtiene una muy buena prediccin del componente cclico. Dentro de las lneas de investigacin que se abren de la presente investigacin est relacionado con mejorar las predicciones de las partes tendencial y estacional del PBI , especialmente de la estacionalidad.

2.1.2 Antecedentes Internacionales

Mercados Inmobiliarios: Modelizacin de los precios. Julia M. Nez Tabales. Crdova 2007. Tesis Doctoral.
La investigacin tiene como finalidad la de modelizar el valor de transaccin de la vivienda libre y multifamiliar (tipo piso) situada en la ciudad de Crdoba en zonas urbanas no perifricas, es decir, a partir de una serie de atributos referentes al inmueble se trata de proporcionar de una forma objetiva cul es su precio de mercado.

De acuerdo a este estudio se estiman los factores determinantes de la subida de los precios inmobiliarios as como sus consecuencias. Se dan a conocer los perfiles de la vivienda segn nivel de renta, segn la antigedad y segn el precio de venta de la misma segn la metodologa de precios hednicos y de una red neuronal tipo perceptron multicapa .

Un Anlisis del Mercado de la vivienda a travs de redes neuronales artificiales. N. Ceular Villamandos-J.M. Caridad y Ocern. Madrid. Espaa. 2001.

A travs de la presente investigacin se plantea el desarrollo de una estructura del tipo perceptrn multicapa como herramienta de prediccin de precio de la vivienda para ello se valen de la inteligencia artificial que permite la utilizacin de tales sistemas de redes neuronales como alternativa de los mtodos economtricos de modelizacin tradicional. Se determina que para las viviendas con precios elevados, los valores de precios proporcionados resultan sumamente inferiores a los reales. Se concluye en la flexibilidad de los sistemas neuronales en cuanto a la adaptacin de cambios del entorno pero que difcilmente se puede validar los resultados de las capas intermedias siendo muy difciles las interpretaciones econmicas a que da lugar.

2.2 Marco Terico Mercado Inmobiliario El Mercado Inmobiliario, en el segmento de vivienda, por su importancia en la economa nacional, ha sido foco de estudio por diversas entidades de carcter pblico y privado. El mercado inmobiliario puede ser dividido por segmentos, como un mercado de apartamentos, casas, oficinas, terrenos y solares, plazas de esparcimiento. Otro divisin es el mercado referido a la compra y venta o arrendamiento. El mercado inmobiliario tiene un comportamiento distinto de otros mercados, tales como el mercado de automviles, electrodomsticos y otros de esta naturaleza. Los principales factores que distinguen los inmobiliarios de otros bienes son la vida til, la singularidad, su localizacin espacial y las interferencias de las leyes municipales y estatales. La vida til elevada de los bienes del mercado inmobiliario puede propiciar dificultades en la medida de su valor, pues este est influenciado por las caractersticas fsicas relativas a las normas de acabados y al estado de conservacin.

A diferencias de otros bienes en las cuales las caractersticas intrnsecas y extrnsecas no son diferenciadas, los bienes races del mercado inmobiliario son nicas. Por ms coincidencias que hayan en las caractersticas de determinados edificios, por lo menos su posicin o localizacin ser diferente y no existe en el mercado inmobiliario un inmueble igual entre s.

El mercado inmobiliario se constituye en un mecanismo dinmico, con transformaciones a lo largo del tiempo, siendo afectado por diversos factores que conllevan a valorizar o desvalorizar el bien. La actuacin simultnea y desordenada de diversos incorporadores, empresarios, constructoras y la propia administracin pblica tiene como consecuencia el cambio constante de este mercado, que se refleja directamente en el valor por el cual las propiedades se ofrecen o negocian.

Redes Neuronales Artificiales La mayora de los estudios sobre RNA suelen fijar el origen de las en los trabajos de McCulloch y Pitts (1943), que conciben los fundamentos de la computacin neuronal, y tratan de mimetizar la estructura computacional del sistema nervioso humano para resolver problemas de carcter cognitivo que no son fciles de programar en modo algortmico. En su trabajo se fijan las caractersticas de lo que ms adelante se conocer como neurona de McCulloch y Pitts, con la que se pueden implementar funciones lgicas. Sin embargo, existen trabajos anteriores que abrieron el camino a estos investigadores, entre los que podemos destacar el realizado por Kart Lashley en los aos 2072. En su contribucin de 1950 resume su investigacin de 30 aos, destacando que el proceso de aprendizaje es un proceso distribuido y no local a una determinada rea del cerebro. D. Hebb, discpulo de Lashley, determina una de las reglas de aprendizaje ms usadas en la regla del conexionismo, conocida con el nombre de aprendizaje hebbiano. Las aportaciones de este autor son publicadas en su libro titulado The Organization of the Behavior.

Posteriormente, Rochester, Holland, Haibt y Duda, en 1956, verifican por primera vez mediante simulaciones una teora neuronal basada en el postulado de Hebb, realizando varias suposiciones que inicialmente Hebb no haba contemplado por ejemplo, acotaron el valor de la sinapsis que, en principio, poda crecer sin lmite. En 1957, Rosenblatt presenta una nueva aproximacin al problema de reconocimiento de patrones, comenzando el desarrollo del Perceptron, primera red neuronal con capacidad de generalizacin, pero incapaz de resolver el problema de la funcin OR-exclusiva, y clasificacin de clases que no son linealmente separables.

Por su parte, Selfridge, en 1958, desarrolla el sistema denominado Pandemonium, que consta de una serie de capas compuestas conocidas como demonios, entre las que quedan repartidas las distintas tareas a llevar a cabo. Dos aos despus Widrow y Hoff (1960) desarrollarn un nuevo modelo de red llamada Adaline pionera en aplicaciones a problemas reales.

El sistema desarrollado estaba regido por un algoritmo de aprendizaje muy sencillo denominado LMS (Least Mean Square), tratndose de un sistema adaptativo que puede aprender de forma ms precisa y rpida que los perceptrones desarrollados hasta la fecha. Este trabajo fue implementado en el desarrollo de un rea del procesado digital de seales (control de sistemas) que se conoce con el nombre de procesado (control) adaptativo. Minsky y Papert (1969) publicaron el trabajo denominado Perceptrons, que paraliz durante una dcada el avance en este campo de la Inteligencia Artificial. En el mismo, se demuestra que las limitaciones de este tipo de red incapaz de resolver una clase de problemas usuales los que no son linealmente separables-, eran demasiado importantes, dado que los problemas linealmente separables son los menos habituales. Asimismo, estos autores conjeturaron acerca de la posible inutilidad prctica de la extensin de los perceptrones a sistemas multicapa. Aos despus les lloveran las crticas y se demostrara que se equivocaron en este planteamiento.

A finales de los setenta, Kohonen (ingeniero elctrico) y Anderson (neurofisilogo) llegaron simultneamente a un mismo modelo de memoria asociativa, en el que la neurona es un sistema lineal que usa como regla de aprendizaje la regla de Hebb modificada (asociador lineal), de manera que el cambio en la sinapsis es proporcional al producto entre la entrada y la salida de la neurona. Stephen Grossberg, en 1980, desarrolla una nueva modalidad de redes llamadas ART (Adaptative Resonance Theory) basadas en un nuevo principio de autoorganizacin. Sus aportaciones han tenido una gran utilidad prctica, sobre todo en el campo del reconocimiento de patrones. En 1982, Hopfield public su trabajo acerca de las funciones de activacin, en el que desarrolla la idea del uso de una funcin de energa para comprender la dinmica de una red neuronal recurrente con uniones sinpticas simtricas. La principal aplicacin de este tipo de redes fue como memorias, as como instrumento para resolver problemas de optimizacin como el del viajante.

Actualmente, dentro del campo econmico, las RNA se estn utilizando fundamentalmente en una doble direccin: la prediccin y la clasificacin, siendo respectivamente el Perceptrn Multicapa y los mapas autoorganizativos, los tipos de redes ms utilizadas para estos propsitos. As pues, en cuanto a prediccin se ha recurrido a las RNA, ante el fracaso del anlisis clsico de las series temporales para este tipo de predicciones. Con respecto a los problemas de clasificacin, las RNA representan una alternativa frente al anlisis Cluster, por ejemplo.

Metodologa de Precios Hednicos La idea subyacente a la tcnica de los precios hednicos es que, si un bien est en realidad constituido por un conjunto de atributos, entonces su precio de mercado deber ser un agregado de los precios individuales de todos ellos. Mediante tcnicas estadsticas de regresin se puede llegar a una cuantificacin monetaria de aquellos aspectos que conforman el activo analizado y estimar su contribucin al valor global de mercado. Con el objeto de explicar la heterogeneidad inherente al bien vivienda diferente tamao, calidad, caractersticas ambientales, localizacin numerosos anlisis referentes a este mercado han considerado a la vivienda en trminos hednicos. De tal manera, que la unidad de vivienda es conceptualizada no como bien homogneo e indivisible, sino como una cesta de atributos individuales cada uno de los cuales contribuye a la provisin de uno o ms servicios de vivienda.

La mayora de los autores sitan el origen de la metodologa de precios hednicos (MPH) en los trabajos realizados por Court (1939) para la determinacin de precios en el mercado automovilstico. No obstante, otros autores como Colwell y Dillmore sealan que el verdadero origen de los modelos hednicos es preciso situarlo diecisiete aos antes, en 1922, cuando Haas aplica esta metodologa al clculo de precios de la tierra de cultivo. Wallace (1926) contina esta misma lnea de investigacin en Iowa. Tambin encontramos en 1929 una aplicacin de la MPH en el estudio de la calidad de las legumbres realizada por Waught. Los estudios posteriores sobre MPH son atribuibles a Lancaster, que a mediados de los sesenta desarrolla la denominada Nueva Teora del Consumidor, segn la cual la utilidad se deriva de las caractersticas de los bienes y no de los bienes en s mismos. La primera aplicacin de esta metodologa al mercado de la vivienda la hallamos en los trabajos de Ridker y Henning (1967) que aportaron evidencia emprica de que la polucin afectaba al precio de la vivienda. Por tanto, las caractersticas de una vivienda pueden agruparse al menos en dos categoras bien diferenciadas: por un lado, las caractersticas estructurales de la vivienda y, por otro, las caractersticas relacionadas con la localizacin y el entorno fsico.

III. PLANTEAMIENTO DEL PROBLEMA

Tpicos:
Introduo ao estudo de RNA sua origem e inspirao biolgica Caractersticas gerais das RN e descrio do neurnio artificial Aprendizado de RN e tipos de Aprendizado Algoritmo de Aprendizado e Topologias bsicas Algumas Aplicaes das RNA

Introduo
Redes Neurais Artificiais so tcnicas computacionais que apresentam um modelo matemtico inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento atravs da experincia. Uma grande rede neural artificial pode ter centenas ou milhares de unidades de processamento; j o crebro de um mamfero pode ter muitos bilhes de neurnios. O sistema nervoso formado por um conjunto extremamente complexo de clulas, os neurnios. Eles tm um papel essencial na determinao do funcionamento e comportamento do corpo humano e do raciocnio. Os neurnios so formados pelos dendritos, que so um conjunto de terminais de entrada, pelo corpo central, e pelos axnios que so longos terminais de sada.

Constituntes da clula neuronal

Inspirao biolgica
Os neurnios se comunicam atravs de sinapses. Sinapse a regio onde dois neurnios entram em contato e atravs da qual os impulsos nervosos so transmitidos entre eles. Os impulsos recebidos por um neurnio A, em um determinado momento, so processados, e atingindo um dado limiar de ao, o neurnio A dispara, produzindo uma substncia neurotransmissora que flui do corpo celular para o axnio, que pode estar conectado a um dendrito de um outro neurnio B. O neurotransmissor pode diminuir ou aumentar a polaridade da membrana pssinptica, inibindo ou excitando a gerao dos pulsos no neurnio B. Este processo depende de vrios fatores, como a geometria da sinapse e o tipo de neurotransmissor.

Em mdia, cada neurnio forma entre mil e dez mil sinapses. O crebro humano possui cerca de 10 E11 neurnios, e o nmero de sinapses de mais de 10 E14, possibilitando a formao de redes muito complexa.

Um Breve Histrico
McCulloch e Pitts (1943), Hebb (1949), e Rosemblatt (1958). Estas publicaes introduziram o primeiro modelo de redes neurais simulando mquinas, o modelo bsico de rede de auto-organizao, e o modelo Perceptron de aprendizado supervisionado, respectivamente. nos anos 60 e 70, importantes trabalhos sobre modelos de redes neurais em viso, memria, controle e auto-organizao como: Amari, Anderson, Cooper, Cowan, Fukushima, Grossberg, Kohonen, von der Malsburg, Werbos e Widrow.

Alguns histricos sobre a rea costumam pular os anos 60 e 70 e apontar um renicio da rea com a publicao dos trabalhos de Hopfield (1982) relatando a utilizao de redes simtricas para otimizao e de Rumelhart, Hinton e Williams que introduziram o poderoso mtodo Backpropagation.

Caractersticas Gerais das RNs


Uma rede neural artificial composta por vrias unidades de processamento, cujo funcionamento bastante simples. Essas unidades, geralmente so conectadas por canais de comunicao que esto associados a determinado peso. As unidades fazem operaes apenas sobre seus dados locais, que so entradas recebidas pelas suas conexes. O comportamento inteligente de uma Rede Neural Artificial vem das interaes entre as unidades de processamento da rede.

Caractersticas
So modelos adaptativos treinveis Podem representar domnios complexos (no lineares) So capazes de generalizao diante de informao incompleta Robustos So capazes de fazer armazenamento associativo de informaes Processam informaes Espao/temporais Possuem grande paralelismo, o que lhe conferem rapidez de processamento

O que uma Rede Neural?


A grande premissa do conexionismo para aplicaes em processamento de informaes e/ou inteligncia artificial o fato de que se pode analisar um problema de acordo como funcionamento do crebro humano O crebro processa informaes atravs da ativao de uma srie de neurnios biolgicos. Os neurnios por sua vez, interagem numa rede biolgica atravs da intercomunicao.

O Neurnio Artificial
McCullock e Pitts 1943, sinais so apresentados entrada; cada sinal multiplicado por um nmero, ou peso, que indica a sua influncia na sada da unidade; feita a soma ponderada dos sinais que produz um nvel de atividade; se este nvel de atividade exceder um certo limite (threshold) a unidade produz uma determinada resposta de sada.

Exemplo
sinais de entrada X1, X2, ..., Xp (0 ou 1) pesos w1, w2, ..., wp, valores reais. limitador t; Neste modelo, o nvel de atividade a dado por: a = w1X1 + w2X2 + ... + wpXp A sada y dada por:
y = 1, se a >= t ou y = 0, se a < t.

Organizao em camadas

Organizao em camadas
Usualmente as camadas so classificadas em trs grupos:
Camada de Entrada: onde os padres so apresentados rede; Camadas Intermedirias ou Escondidas: onde feita a maior parte do processamento, atravs das conexes ponderadas; podem ser consideradas como extratoras de caractersticas; Camada de Sada: onde o resultado final concludo e apresentado.

Processos de Aprendizado
A propriedade mais importante das redes neurais a habilidade de aprender de seu ambiente e com isso melhorar seu desempenho. Isso feito atravs de um processo iterativo de ajustes aplicado a seus pesos, o treinamento. O aprendizado ocorre quando a rede neural atinge uma soluo generalizada para uma classe de problemas.

Algoritmo de Aprendizado
algoritmo de aprendizado um conjunto de regras bem definidas para a soluo de um problema de aprendizado. Existem muitos tipos de algoritmos de aprendizado especficos para determinados modelos de redes neurais, estes algoritmos diferem entre si principalmente pelo modo como os pesos so modificados.

Aprendizado Supervisionado, quando utilizado um agente externo que indica rede a resposta desejada para o padro de entrada; Aprendizado No Supervisionado (autoorganizao), quando no existe uma agente externo indicando a resposta desejada para os padres de entrada; Reforo, quando um crtico externo avalia a resposta fornecida pela rede.

A regra de aprendizado de Hebb prope que o peso de uma conexo sinptica deve ser ajustado se houver sincronismo entre os nveis de atividade das entradas e sadas [Hebb, 1949].

Wij(t) = ai(t)aj(t)

Treinamento Supervisionado
O treinamento de rede Perceptron, consiste em ajustar os pesos e os thresholds (bias) de suas unidades para que a classificao desejada seja obtida. Quando um padro inicialmente apresentado rede, ela produz uma sada. Aps medir a distncia entre a resposta atual e a desejada, so realizados os ajustes apropriados nos pesos de modo a reduzir esta distncia. Este procedimento conhecido como Regra Delta

Esquema de treinamento
Iniciar todas as conexes com pesos aleatrios; Repita enquanto o erro E > e
Para cada par de treinamento (X,d), faa:
Calcular a resposta obtida O; Se o erro no for satisfatoriamente pequeno E > e, ento: Atualizar pesos: Wnovo := W anterior + neta E X

Onde:
O par de treinamento (X, d) corresponde ao padro de entrada e a sua respectiva resposta desejada; O erro E definido como: Resposta Desejada - Resposta Obtida (d - O); A taxa de aprendizado neta uma constante positiva, que corresponde velocidade do aprendizado.

Potencial de Representao
Perceptrons representam uma superficie de um hiperplano no espao n-dimensional Alguns problemas no podem ser separados por hiperplanos A regra de aprendizado encontra um vetor de pesos se os exemplos so linearmente separaveis em cc a regra converge para a melhor aproximao

Perceptron Multi-Camadas (MLP)

o desenvolvimento do algoritmo de treinamento backpropagation, por Rumelhart, Hinton e Williams em 1986, precedido por propostas semelhantes ocorridas nos anos 70 e 80, possvel treinar eficientemente redes com camadas intermedirias, resultando no modelo de Perceptron Multi-Camadas (MLP)

Se existirem as conexes certas entre as unidades de entrada e um conjunto suficientemente grande de unidades intermedirias, pode-se sempre encontrar a representao que ir produzir o mapeamento correto da entrada para a sada atravs das unidades intermediria. Como provou Cybenko, a partir de extenses do Teorema de Kolmogoroff, so necessrias no mximo duas camadas intermedirias, com um nmero suficiente de unidades por camada, para se produzir quaisquer mapeamentos. Tambm foi provado que apenas uma camada intermediria suficiente para aproximar qualquer funo contnua.

Backpropagation
Durante o treinamento com o algoritmo backpropagation, a rede opera em uma sequncia de dois passos.
Primeiro, um padro apresentado camada de entrada da rede. A atividade resultante flui atravs da rede, camada por camada, at que a resposta seja produzida pela camada de sada. segundo passo, a sada obtida comparada sada desejada para esse padro particular. Se esta no estiver correta, o erro calculado. O erro propagado a partir da camada de sada at a camada de entrada, e os pesos das conexes das unidades das camadas internas vo sendo modificados conforme o erro retropropagado.

As redes que utilizam backpropagation trabalham com uma variao da regra delta, apropriada para redes multi-camadas: a regra delta generalizada. A regra delta padro essencialmente implementa um gradiente descendente no quadrado da soma do erro para funes de ativao lineares. Entretanto, a superfcie do erro pode no ser to simples, as redes ficam sujeitas aos problemas de de mnimos locais.

A regra delta generalizada funciona quando so utilizadas na rede unidades com uma funo de ativao semi-linear, que uma funo diferencivel e no decrescente. Note que a funo threshold no se enquadra nesse requisito. Uma funo de ativao amplamente utilizada, nestes casos, a funo sigmoid. A taxa de aprendizado uma constante de proporcionalidade no intervalo [0,1], pois este procedimento de aprendizado requer apenas que a mudana no peso seja proporcional neta.

Entretanto, o verdadeiro gradiente descendente requer que sejam tomados passos infinitesimais. Assim quanto maior for essa constante, maior ser a mudana nos pesos, aumentando a velocidade do aprendizado, o que pode levar uma oscilao do modelo na superfcie de erro. O ideal seria utilizar a maior taxa de aprendizado possvel que no levasse uma oscilao, resultando em um aprendizado mais rpido. O treinamento das redes MLP com backpropagation pode demandar muitos passos no conjunto de treinamento, resultando um tempo de treinamento considervelmente longo. Se for encontrado um mnimo local, o erro para o conjunto de treinamento pra de diminuir e estaciona em um valor maior que o aceitvel.

Uma maneira de aumentar a taxa de aprendizado sem levar oscilao modificar a regra delta generalizada para incluir o termo momentum, uma constante que determina o efeito das mudanas passadas dos pesos na direo atual do movimento no espao de pesos. Desta forma, o termo momentum leva em considerao o efeito de mudanas anteriores de pesos na direo do movimento atual no espao de pesos. O termo momentum torna-se til em espaos de erro que contenham longas gargantas, com curvas acentuadas ou vales com descidas suaves.

Memrias Matricias
Modelo no-linear de Willshaw Modelo linear de Kohonen e Anderson Memria linear tima Hopfield

Memria Matricial
Envolve a gerao de um padro de ativao no conjunto de nodos de sada em funo do aparecimento de um determinado padro de ativao de entrada. O mapeamento entre o padro de ativao de entrada e o de sada feito atravs de uma transformao matricial Pode ter ou no uma operao no-linear

Modelo de Willshaw
A matriz de pesos obtida atravs da regra de Hebb + uma transformao no linear para obter uma matriz de pesos binria
Wij = g( Yi Xj ) g(x) = {1 x>= 1, 0 x<1} (Y) = (W X) (x) uma funo de limear, o limear deve ser igual ao nmero de elementos ativos em X

Exemplo

Suponha que se deseja recuperar X2 e Y2: WX2 = (3 2 3 0 2 2 3 0)t ento Y2 = (1 0 1 0 0 0 1 0)t

Capacidade de recuperao
Se adiciona-se o par [x3y3] x3 =(1 1 1 1 1 1 1 1)t e y3 =(1 1 1 1 1 1 1 1 )t W passa a ter todos seus elementos em 1, a rede perde a sua capacidade de recuperar as associaes.

Вам также может понравиться