Вы находитесь на странице: 1из 15

2

INSTITUCION

CAMPUS

JINOTEPE, CARAZO.

UNIVERSIDAD HISPANOAMERICANA.

ASIGNATURA

ESTADISTICAS I

TEMAS

TEORIAS DE PROBABILIDAD DE BAYES.

ALUMNOS :

DAVID HERNAN GUARDADO GARCIA, MERCADEO.

LICENCIADO

CARLOS ALBERTO AGUIRRE RODAS.

FECHA

08 DE NOVIEMBRE DEL 2014.

OBJETIVOS
EXPLICAR DE MANERA CONCEPTUAL Y DETALLADA LAS SIGUIENTES
IDEAS QUE NOS EVIDENCEA EL TEOREMA DE PROBABILIDADES DE
THOMAS BAYES:

La incertidumbre y la imprecisin son connaturales en el proceso de razonamiento.


La lgica establece unas reglas de inferencia a partir de las cuales se construye el
sistema de razonamiento deductivo, en el que una proposicin determinada es
considerada como cierta o falsa, sin que se admitan grados entre estos dos
extremos.
Los mtodos de razonamiento aproximado, entre los que se encuentran los
mtodos bayesianos, aportan modelos tericos que simulan la capacidad de
razonamiento en condiciones de incertidumbre, cuando no se conoce con absoluta
certeza la verdad o falsedad de un enunciado o hiptesis, e imprecisin,
enunciados en los que se admite un rango de variacin.
Entre los mtodos de razonamiento aproximado se encuentran los mtodos
bayesianos, basados en el conocido teorema de Bayes. Todos ellos tienen en
comn la asignacin de una probabilidad como medida de credibilidad de las
hiptesis.
Anlisis de manera detallada sobre, la inferencia se entiende como un proceso de
actualizacin de las medidas de credibilidad al conocerse nuevas evidencias.
Mediante la aplicacin del Teorema de Bayes se busca obtener las probabilidades
de las hiptesis condicionadas a las evidencias que se conocen.
La diferencia entre los distintos mtodos bayesianos, modelos causales y redes
bayesianas, estriba en las hiptesis de independencia condicional entre hiptesis y
evidencias.
Dichas relaciones se expresan comnmente mediante un grafo a cclico dirigido.

INTRODUCCION
El objeto del tema es la cuantificacin de la incertidumbre, lo cual tiene mucho que ver
con la previsibilidad del comportamiento. Hemos visto que el Anlisis de Regresin es
una tcnica para obtener predicciones, y que, excepto en el caso de co-variacin
perfecta, las predicciones son ms o menos errneas. En consecuencia, hay
incertidumbre en las predicciones, y esta es la situacin habitual. La imprevisibilidad
genera incertidumbre.
Los matemticos vienen estudiando esta cuestin ya hace muchos aos, y han facilitado
herramientas precisas que dan resultados exactos en situaciones relativamente sencillas
y fcilmente formalizables. Cuando se estudia el comportamiento, sin embargo, las
cosas son diferentes porque el comportamiento se caracteriza por la complejidad, y su
estudio requiere frecuentemente tcnicas complejas. Los conceptos bsicos de la
probabilidad son de inters porque son el fundamento de procedimientos ms
sofisticados que sirven para cuantificar la incertidumbre. Los matemticos no son los
nicos que miden la incertidumbre: Todo el mundo lo hace cada da. Por ejemplo: Un
conocido nos pide un prstamo por una cantidad importante, y de una manera intuitiva
evaluamos la probabilidad de que nos devuelva el prstamo y decidimos en
consecuencia. Otro ejemplo: Tenemos un trabajo seguro en una empresa, y nos ofrecen
un trabajo mejor pagado en otra; generalmente evaluamos la incertidumbre de la nueva
situacin antes de tomar una decisin. Estas evaluaciones son ms o menos intuitivas, y
no suponen una cuantificacin precisa de la incertidumbre, pero el fundamento de como
suelen hacerse se asemeja a algunas aproximaciones formales a la probabilidad, que la
definen como la frecuencia en que ocurre el acontecimiento.
Los matemticos definen la probabilidad de ocurrencia de un acontecimiento A (hay
tambin otras definiciones) como la razn entre la frecuencia de A (nmero de veces que
es observado) y el nmero de veces en que podra ocurrir:

Pero difcilmente podemos medir la incertidumbre del comportamiento aunque la


frmula sea sencilla. Volviendo al ejemplo, es difcil recoger datos exactos de todas las
ocasiones en que un individuo ha tenido la oportunidad de engaar, y la de todas las
veces que la ha hecho; en consecuencia difcilmente podremos obtener una medida
precisa de la probabilidad de que devuelva el prstamo. En otras situaciones s podemos
obtener una aproximacin ms precisa a la probabilidad. Por ejemplo, la de que un
estudiante seleccionado al azar obtenga "Notable". Esta probabilidad es el nmero de
estudiantes que obtienen "Notable" dividido por el nmero total de estudiantes del
curso:

En el ejemplo, diremos que la probabilidad de que un estudiante seleccionado al azar


obtenga "Notable" es igual a 0.2 (dado que 100 estudiantes han obtenido Notable en un
curso en 500 estudiantes).

THOMAS BAYES
Thomas Bayes (Londres, Inglaterra, ~1702 - Tunbridge Wells, 1761) fue un matemtico britnico
y ministro presbiteriano. Su obra ms conocida es el Teorema de Bayes.

BIOGRAFIA
Su padre tambin fue clrigo. Posiblemente De Moivre, autor del afamado libro La
doctrina de las probabilidades, fue su maestro particular, pues se sabe que por ese
entonces ejerca como profesor en Londres. Bayes fue ordenado, al igual que su padre,
como ministro disidente, y en 1731 se convirti en reverendo de la iglesia presbiteriana
en Tunbridge Wells; aparentemente trat de retirarse en 1749, pero continu ejerciendo
hasta 1752, y permaneci en ese lugar hasta su muerte.
Estudi el problema de la determinacin de la probabilidad de las causas a travs de los
efectos observados.1 El teorema que lleva su nombre se refiere a la probabilidad de un
suceso condicionado por la ocurrencia de otro suceso. Ms especficamente, con su
teorema se resuelve el problema conocido como "de la probabilidad inversa". Esto es,
valorar probabilsticamente las posibles condiciones que rigen supuesto que se ha
observado cierto suceso. Se trata de probabilidad "inversa" en el sentido de que la

"directa" sera la probabilidad de observar algo supuesto que rigen ciertas condiciones.
Los cultores de la inferencia bayesiana (basada en dicho teorema) afirman que la
trascendencia de la probabilidad inversa reside en que es ella la que realmente interesa
a la ciencia, dado que procura sacar conclusiones generales (enunciar leyes) a partir de
lo objetivamente observado, y no viceversa.
Miembro de la Royal Society desde 1742, Bayes fue uno de los primeros en utilizar la
probabilidad inductivamente y establecer una base matemtica para la inferencia
probabilstica.
Los restos de Bayes descansan en el cementerio londinense de Bunhill Fields. La
traduccin de la inscripcin en su tumba es Reverendo Thomas Bayes. Hijo de los
conocidos Joshua y Ann Bayes. 7 de abril de 1761. En reconocimiento al importante
trabajo que realiz Thomas Bayes en materia de probabilidades, su tumba fue
restaurada en 1969 con donativos realizados por estadsticos de todo el mundo.
Actualmente, con base en su obra, se ha desarrollado una poderosa teora que ha
conseguido notables aplicaciones en las ms diversas reas del conocimiento. Especial
connotacin han tenido los sistemas para deteccin de spam en el ambiente de Internet.
En el campo sanitario, el enfoque de la inferencia bayesiana experimenta un desarrollo
sostenido, especialmente en lo que concierne al anlisis de ensayos clnicos, donde
dicho enfoque ha venido interesando de manera creciente a las agencias reguladoras de
los medicamentos, tales como la norteamericana FDA (Food and Drug Agency).

TRABAJOS PUBLICADOS
Divine Providence and Government Is the Happiness of His Creatures (1731)
An Introduction to the Doctrine of Fluxions, and a Defense of The Analyst (1736)
En 1763, dos aos despus de su muerte, se publica Essay Towards Solving a Problem in the
Doctrine of Chances, en el que trataba el problema de las causas a travs de los efectos
observados, y donde se enuncia el teorema que lleva su nombre. El trabajo fue entregado a la
Royal Society por Richard Price y es la base de la inferencia bayesiana.

TEOREMA DE BAYES
En la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas
Bayes en 17631 que expresa la probabilidad condicional de un evento aleatorio A dado B en
trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de
probabilidad marginal de slo A.

En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme


relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado

A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene
gripe, se podra saber (si se tiene algn dato ms), la probabilidad de tener gripe si se
tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en
cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la
comprensin de la probabilidad de aspectos causales dados los efectos observados.
Sea
un conjunto de sucesos mutuamente excluyentes y
exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea
B un suceso cualquiera del que se conocen las probabilidades condicionales
Entonces, la probabilidad

viene dada por la expresin:

donde:

son las probabilidades a priori.

es la probabilidad de

son las probabilidades a posteriori.

en la hiptesis

Tho
mas Bayes (1763)

FORMULA DE BAYES
Con base en la definicin de Probabilidad condicionada, obtenemos la Frmula de Bayes, tambin
conocida como la Regla de Bayes:

APLICACIONES
El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad.
Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En
esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas
en experimentos repetibles y que tengan una confirmacin emprica mientras que los
llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede
servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas
cuando recibimos informacin adicional de un experimento. La estadstica bayesiana
est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento
subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la
evidencia emprica es lo que est abriendo nuevas formas de hacer conocimiento. Una
aplicacin de esto son los clasificadores bayesianos que son frecuentemente usados en
implementaciones de filtros de correo basura o spam, que se adaptan con el uso.

Como observacin, se tiene

y su demostracin resulta trivial.

EJEMPLO DEL TEOREMA DE BAYES


El teorema de Bayes parte de una situacin en la que es posible conocer las
probabilidades de que ocurran una serie de sucesos Ai. A, esta se aade un suceso B
cuya ocurrencia proporciona cierta informacin, porque las probabilidades de ocurrencia
de B son distintas segn el suceso Ai que haya ocurrido. Conociendo que ha ocurrido el
suceso B, la frmula del teorema de Bayes nos indica como modifica esta informacin las
probabilidades de los sucesos Ai. Ejemplo: Si seleccionamos una persona al azar, la
probabilidad de que sea diabtica es 0,03. Obviamente en la probabilidad de que no lo
sea
es
0,97.
Si no disponemos de informacin adicional nada ms podemos decir, pero supongamos
que al realizar un anlisis de sangre los niveles de glucosa son superiores a 1.000 mg/l,
lo que ocurre en el 95% de los diabticos y slo en un 2% de las personas sanas.
Cul ser ahora la probabilidad de que esa persona sea diabtica?
La respuesta que nos da el teorema de bayes es que esa informacin adicional hace que
la probabilidad sea ahora 0,595.
Vemos as que la informacin proporcionada por el anlisis de sangre hace pasar, la
probabilidad inicial de padecer diabetes de 0,03, a 0,595.
Evidentemente si la prueba del anlisis de sangre hubiese sido negativa, esta
informacin modificara las probabilidades en sentido contrario. En este caso la
probabilidad de padecer diabetes se reducira a 0,0016.

Calculadora de Bayes
Pr(A1):
0.

Pr(A2):
0.

Pr(A3):
0.

Pr(A4):
0.

Pr(B/A1):
0.

Pr(B/A2):
0.

Pr(B/A3):
0.

Pr(B/A4):
0.

0.03

0.97

0.595

0.0016

Copy Right Jose M. Salinas. Para Adoracin

INFERENCIA BAYESIANA
La inferencia bayesiana es un tipo de inferencia estadstica en la que las evidencias u
observaciones se emplean para actualizar o inferir la probabilidad de que una hiptesis

pueda ser cierta. El nombre bayesiana proviene del uso frecuente que se hace del
teorema de Bayes durante el proceso de inferencia. El teorema de Bayes se ha derivado
del trabajo realizado por el reverendo Thomas Bayes. Hoy en da, uno de los campos de
aplicacin es en la teora de la decisin,1 visin artificial2 (simulacin de la percepcin
en general)3 y reconocimiento de patrones por ordenador.

EVIDENCIA Y CREENCIAS CAMBIANTES


La inferencia bayesiana utiliza aspectos del mtodo cientfico, que implica recolectar
evidencia que se considera consistente o inconsistente con una hiptesis dada. A medida
que la evidencia se acumula, el grado de creencia en una hiptesis se va modificando.
Con evidencia suficiente, a menudo podr hacerse muy alto o muy bajo. As, los que
sostienen la inferencia bayesiana dicen que puede ser utilizada para discriminar
entre hiptesis en conflicto: las hiptesis con un grado de creencia muy alto deben ser
aceptadas como verdaderas y las que tienen un grado de creencia muy bajo deben ser
rechazadas como falsas. Sin embargo, los detractores dicen que este mtodo de
inferencia puede estar afectado por un prejuicio debido a las creencias iniciales que se
deben sostener antes de comenzar a recolectar cualquier evidencia.

Qu es lo atractivo de la Estadstica Bayesiana?


I)

Construccin axiomtica
II) Una sola regla de decisin
III) La nica que ofrece solucin para ciertos problemas

Axiomas de coherencia
I) Comparacin
II) Transitividad
III) Dominancia-Sustitucin
IV) Referencia

Ejemplos de inferencia
Un ejemplo de inferencia bayesiana es el siguiente:

Durante miles de millones de aos, el sol ha salido despus de haberse puesto. El


sol se ha puesto esta noche. Hay una probabilidad muy alta de (o 'Yo creo
firmemente' o 'es verdad') que el sol va a volver a salir maana. Existe una
probabilidad muy baja de (o 'yo no creo de ningn modo' o 'es falso') que el sol no
salga maana.

10

La inferencia bayesiana usa un estimador numrico del grado de creencia en una


hiptesis an antes de observar la evidencia y calcula un estimador numrico del grado
de creencia en la hiptesis despus de haber observado la evidencia. La inferencia
bayesiana generalmente se basa en grados de creencia, o probabilidades subjetivas, en
el proceso de induccin y no necesariamente declara proveer un mtodo objetivo de
induccin.

DEFINICIONES FORMALES
A pesar de todo, algunos estadsticos bayesianos creen que las probabilidades pueden
tener un valor objetivo y por lo tanto la inferencia bayesiana puede proveer un mtodo
objetivo de induccin. (Ver mtodo cientfico.) Dada una nueva evidencia, el teorema de
Bayes ajusta las probabilidades de la misma de la siguiente manera:
P(H0|E)=P(E|H0)P(H0)P(E)
donde
H0 representa una hiptesis, llamada hiptesis nula, que ha sido inferida antes de
que la nueva evidencia, E, resultara disponible.
P(H0) se llama la probabilidad a priori de H0.
P(E|H0) se llama la probabilidad condicional de que se cumpla la evidencia E si la
hiptesis H0 es verdadera. Se llama tambin la funcin de verosimilitud cuando se
expresa como una funcin de E dado H0.
P(E) se llama la probabilidad marginal de E: la probabilidad de observar la nueva
evidencia E bajo todas las hiptesis mutuamente excluyentes. Se la puede calcular
como la suma del producto de todas las hiptesis mutuamente excluyentes por las
correspondientes probabilidades condicionales: P(E|Hi)P(Hi).

P(H0|E) se llama la probabilidad a posteriori de H0 dado E.


El factor P(E|H0)/P(E) representa el impacto que la evidencia tiene en la creencia en la
hiptesis. Si es posible que se observe la evidencia cuando la hiptesis considerada
es verdadera, entonces este factor va a ser grande. Multiplicando la probabilidad a
priori de la hiptesis por este factor va a resultar en una gran probabilidad a
posteriori dada la evidencia. En la inferencia bayesiana, por lo tanto, el teorema de
Bayes mide cunto la nueva evidencia es capaz de alterar la creencia en la hiptesis.

11

ESTABLECIMIENTO DE LA INFERENCIA
Los estadsticos bayesianos sostienen que aun cuando distintas personas puedan
proponer probabilidades a priori muy diferentes, la nueva evidencia que surge de
nuevas observaciones va a lograr que las probabilidades subjetivas se aproximen
cada vez ms. Otros, sin embargo, sostienen que cuando distintas personas proponen
probabilidades a priori muy diferentes, las probabilidades subjetivas a posteriori
pueden no converger nunca, por ms evidencias nuevas que se recolecten. Estos
crticos consideran que visiones del mundo que son completamente diferentes al
principio pueden seguir siendo completamente diferentes a travs del tiempo por
ms evidencias que se acumulen.
Multiplicando la probabilidad anterior P(H0) por el factor P(E|H0)/P(E) nunca se podr
obtener una probabilidad superior a 1. Ya que P(E) es al menos mayor que P(EH0), lo
que
permite
la
igualdad P(E|H0)P(H0) (vase probabilidad
conjunta),
reemplazando P(E) con P(EH0) en el factor P(E|H0)/P(E)esto dejar una probabilidad
posterior de 1. Por lo tanto, la probabilidad posterior no llegar a ser mayor que uno
slo si P(E) fuese menor que P(EH0), lo que nunca es cierto.
La probabilidad de E dado H0, P(E|H0), puede ser representada como una funcin de
su segundo argumento, lo que puede hacerse proporcionando un valor. Tal funcin se
denomina funcin de verosimilitud; es funcin de H0 dado E. Una proporcin de dos
funciones de verosimilitudes que se denomina proporcin de verosimilitud, . Por
ejemplo:
=L(H0|E)L(notH0|E)=P(E|H0)P(E|notH0)
La probabilidad marginal P(E), puede ser representada adems como la suma de
los productos de todas las probabilidades de las hiptesis exclusivas mutuamente
y
que
corresponden
a
probabilidades
condicionales: P(E|H0)P(H0)+P(E|
notH0)P(notH0).
Como resultado, se puede reescribir el teorema de Bayes como:
P(H0|E)=P(E|H0)P(H0)P(E|H0)P(H0)+P(E|notH0)P(notH0)=P(H0)P(H0)+P(notH0)
Con dos evidencias independientes E1 y E2, la inferencia bayesiana se puede
aplicar iterativamente. Se puede emplear la primera evidencia para calcular la
primera probabilidad posterior y emplear sta en el clculo de la siguiente
probabilidad y continuar de esta forma con las dems.
La independencia de evidencias implica que:
P(E1,E2|H0)=P(E1|H0)P(E2|H0)
P(E1,E2)=P(E1)P(E2)
P(E1,E2|notH0)=P(E1|notH0)P(E2|notH0)

Aplicando el teorema de Bayes de forma iterativa, implica


P(H0|E1,E2)=P(E1|H0)P(E2|H0)P(H0)P(E1)P(E2)

12

Empleando los ratios de verosimilitud, se puede encontrar que


P(H0|E1,E2)=12P(H0)[1P(H0)+P(notH0)][2P(H0)+P(notH0)],
Esta iteracin de la inferencia bayesiana puede ser expandida con la inclusin de ms
evidencias. La inferencia bayesiana se emplea en el clculo de probabilidades en la toma
de decisin. Se emplean en las probabilidades calculadas en la teora de clculo de
riesgos, en la denominada funcin de prdida que refleja las consecuencias de cometer
un error.

BIBLIOGRAFIA
Berger, J.O. (1999) Statistical Decision Theory and Bayesian Analysis. Second Edition.
Springer Verlag, New York. ISBN 0-387-96098-8 and also ISBN 3-540-96098-8.

13

Bolstad, William M. (2004) Introduction to Bayesian Statistics, John Wiley ISBN 0-47127020-2
Bretthorst, G. Larry, 1988, Bayesian Spectrum Analysis and Parameter Estimation in
Lecture Notes in Statistics, 48, Springer-Verlag, New York, New York
Dawid, A.P. and Mortera, J. (1996) Coherent analysis of forensic identification evidence.
Journal of the Royal Statistical Society, Series B, 58,425-443.
Foreman, L.A; Smith, A.F.M. and Evett, I.W. (1997). Bayesian analysis of
deoxyribonucleic acid profiling data in forensic identification applications (with
discussion). Journal of the Royal Statistical Society, Series A, 160, 429-469.
Gardner-Medwin, A. What probability should the jury address?. Significance. Volume 2,
Issue 1, March 2005
Gelman, A., Carlin, B., Stern, H., and Rubin, D.B. (2003). Bayesian Data Analysis.
Second Edition. Chapman & Hall/CRD, Boca Raton, Florida. ISBN 1-58488-388-X.
Gelman, A. and Meng, X.L. (2004). Applied Bayesian Modeling and Causal Inference
from Incomplete-Data Perspectives: an essential journey with Donald Rubin's statistical
family. John Wiley & Sons, Chichester, UK. ISBN 0-470-09043-X
Giffin, A. and Caticha, A. (2007) Updating Probabilities with Data and Moments
Jaynes, E.T. (1998) Probability Theory: The Logic of Science.
Lee, Peter M. Bayesian Statistics: An Introduction. Second Edition. (1997). ISBN 0-34067785-6.
O'Hagan, A. and Forster, J. (2003) Kendall's Advanced Theory of Statistics, Volume 2B:
Bayesian Inference. Arnold, New York. ISBN 0-340-52922-9.
Pearl, J. (1988) Probabilistic Reasoning in Intelligent Systems, San Mateo, CA: Morgan
Kaufmann.
Robert, C.P. (2001) The Bayesian Choice. Springer Verlag, New York.
Robertson, B. and Vignaux, G.A. (1995) Interpreting Evidence: Evaluating Forensic
Science in the Courtroom. John Wiley and Sons. Chichester.
Winkler, Robert L, Introduction to Bayesian Inference and Decision, 2nd Edition (2003)
Probabilistic. ISBN 0-9647938-4-9
www.wikipedia.com

14

CONCLUSIONES
Los procedimientos basados en la distribucin en el muestreo son ad hoc para
prcticamente cada aplicacin o grupo de aplicaciones con los que se est trabajando.
En contraposicin, los procedimientos bayesianos siempre funcionan de la misma
manera; hay que determinar una distribucin inicial que recoja la informacin que se
tenga del problema, construir la distribucin final y esta es la que recoge, en forma de
una distribucin de probabilidad, la informacin suministrada por la muestra.
Una crtica que suele hacerse a la aproximacin bayesiana es que est influenciada por
la distribucin inicial, pero es hoy perfectamente factible examinar el problema con una
variedad de distribuciones iniciales, o bien emplear distribuciones iniciales objetivas, y
en todo caso se debe tener en cuenta que para tamaos mustrales grandes la
verosimilitud domina a la distribucin inicial por lo que las inferencias se ven poco
afectadas por la distribucin inicial. A cambio, los mtodos bayesianos siempre tratan la
incertidumbre mediante la probabilidad y la precisin de los mismos se mide siempre en
trminos de probabilidad.

15

INDICE
Contenido
OBJETIVOS....................................................................................................................................... 3
INTRODUCCION............................................................................................................................... 4
THOMAS BAYES............................................................................................................................... 5
BIOGRAFIA....................................................................................................................................... 5
TRABAJOS PUBLICADOS................................................................................................................... 6
TEOREMA DE BAYES........................................................................................................................ 6
FORMULA DE BAYES..................................................................................................................... 7
APLICACIONES.............................................................................................................................. 7
EJEMPLO DEL TEOREMA DE BAYES............................................................................................... 7
INFERENCIA BAYESIANA............................................................................................................... 8
EVIDENCIA Y CREENCIAS CAMBIANTES........................................................................................ 8
Qu es lo atractivo de la Estadstica Bayesiana?.......................................................................8
Axiomas de coherencia................................................................................................................ 9
Ejemplos de inferencia................................................................................................................. 9
DEFINICIONES FORMALES............................................................................................................... 9
ESTABLECIMIENTO DE LA INFERENCIA....................................................................................... 10
BIBLIOGRAFIA................................................................................................................................ 12
CONCLUSIONES............................................................................................................................. 13
INDICE........................................................................................................................................... 14

Вам также может понравиться