Вы находитесь на странице: 1из 334

411 - Integral de Lebesgue

ndice general

1 Clases de conjuntos 1
1.1 -lgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Medida y medida exterior 3


2.1 Teora de la medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.1 Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.3 Medidas sigma-nitas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.4 Completitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.5 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.6 Contraejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.7 Generalizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.8 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Medida exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3 Medida de Lebesgue-Stieltjes en R 8
3.1 Medida de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.3 Conjuntos de medida nula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.1.4 Construccin de la medida de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.1.5 Relacin con otras medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.1.6 Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

4 Funciones medibles 11
4.1 Funcin medible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.1.1 Funciones medibles especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.1.2 Propiedades de las funciones medibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.1.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

i
ii NDICE GENERAL

5 Integracin 12
5.1 Integral de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.1.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.1.2 Construccin de la integral de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.1.3 Propiedades bsicas de la integral de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . 16
5.1.4 Notas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.1.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

6 Text and image sources, contributors, and licenses 17


6.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Captulo 1

Clases de conjuntos

1.1 -lgebra
En matemtica, una -lgebra (lase sigma-lgebra) sobre un conjunto X es una familia no vaca de subconjuntos
de X, cerrada bajo complementos, uniones e intersecciones contables. Las -lgebras se usan principalmente para
denir medidas en X. El concepto es muy importante en anlisis matemtico y en teora de la probabilidad.

1.1.1 Denicin

Una -lgebra debe contener tambin al conjunto total X, ya que la segunda propiedad aplicada a E = tiene como
consecuencia que X \ E = X \ = X pertenece a la -lgebra.
La aplicacin de las leyes de De Morgan


iI Ai = iI Ai , iI Ai = iI Ai

establecen que las intersecciones contables de sucesiones de conjuntos en la -lgebra tambin pertenecen a la -
lgebra.
Los elementos de una -lgebra se denominan conjuntos -medibles (o simplemente conjuntos medibles, cuando no
hay ambigedad sobre ). Un par ordenado (X, ), donde X es un conjunto y una -lgebra sobre ste, se denomina
espacio medible. Una funcin entre dos espacios medibles se denomina medible si la preimagen de todo conjunto
medible es tambin medible; esto es, si (X, ) y (Y, ) son dos espacios medibles, una funcin f:XY es medible si
para todo E , f 1 (E) .
Una medida es una cierta clase de funcin medible de una -lgebra en el intervalo [0,].
Ejemplos:

Si P(X) es el conjunto potencia del conjunto X entonces P(X) es una -lgebra sobre X (la mayor -lgebra
posible sobre X).

Para cualquier conjunto X, el conjunto {, X} es una -lgebra sobre X (la menor -lgebra posible sobre X).

Si A es una coleccin de subconjuntos de X, la interseccin de todas las -lgebras que contienen a A es tambin
una -lgebra, denotada por A o por (A) y denominada -lgebra generada por A. Esta es por construccin
la menor -lgebra posible que contiene a la coleccin A.

La familia de subconjuntos de X que son contables o de conjunto complementario contable (esta familia es
distinta del conjunto potencia de X si y slo si X es incontable). Esta es la -lgebra generada por los conjuntos
unitarios de X.

Cuando X = R , la -lgebra generada por la coleccin de todos los intervalos abiertos nitos se denomina
lgebra de Borel (sobre R ).

1
2 CAPTULO 1. CLASES DE CONJUNTOS

El ejemplo anterior se puede generalizar a espacios topolgicos arbitrarios: la -lgebra generada por todos los
conjuntos abiertos de un espacio topolgico X es el lgebra de Borel asociada al espacio X.
En el espacio euclidiano Rn , cabe destacar otra -lgebra: la formada por los conjuntos Lebesgue-medibles.
sta contiene ms conjuntos que el lgebra de Borel en Rn , y es la que se preere en teora de integracin.

1.1.2 Vase tambin


1. lgebra de conjuntos

2. Anillo de conjuntos

1.1.3 Bibliografa
Robert G. Bartle (1995) [1966]. The Elements of Integration and Measure Theory. Wiley. ISBN 0471042226.

Medida e integracin , Mauro Chumpitaz (1989) UNI- Lima.


Teora de la medida, Mauro Chumpitaz (1991) UNI- Lima.
Captulo 2

Medida y medida exterior

2.1 Teora de la medida


La teora de la medida es una rama del anlisis real que investiga las -lgebras, las medidas, funciones medibles e
integrales. Es de importancia central en probabilidad y en estadstica.
En matemtica, una medida es una funcin que asigna un nmero real positivo o cero, interpretable como un
"intervalo", un "rea, un volumen, o una probabilidad, a los subconjuntos de un conjunto dado. El concepto
es importante para el anlisis matemtico, la geometra y para la teora de la probabilidad.
A menudo, el ambicioso objetivo de asignar una medida a todo subconjunto del conjunto base se revela inalcanza-
ble. Solo ser posible, o interesante en algunos casos, asignar medida a ciertas familias de subconjuntos, a los que
llamaremos medibles. Las condiciones de consistencia que deben cumplir los miembros de estas familias quedan
encapsuladas en el concepto auxiliar de -lgebra.

2.1.1 Deniciones
Formalmente, una medida es una funcin denida en una -lgebra sobre un conjunto X con valores en el intervalo
real extendido [0, ], que verica:

La medida del conjunto vaco es cero: ( ) = 0.


Si E 1 , E 2 , E 3 , ... una sucesin contable de conjuntos disjuntos dos a dos de la -lgebra y E es su unin,
entonces (E) es igual a la suma de las medidas de los E ; esto es,

( i=1 Ei ) = i=1 (Ei ).

La terna (X, , ) se denomina espacio de medida, y los elementos de se denominan conjuntos medibles.

2.1.2 Propiedades
Varias propiedades pueden deducirse directamente de la denicin.

Monotona

es montona: si E1 y E2 son dos conjunto medibles, con E1 E2 , entonces (E1 ) (E2 ) .

Uniones contables

Si E 1 , E 2 , E 3 , ... es una sucesin contable de conjuntos medibles, su unin ser tambin medible (por la denicin
de -lgebra), y

3
4 CAPTULO 2. MEDIDA Y MEDIDA EXTERIOR

( )

Ei (Ei ).
i=1 i=1

Si se tiene adems que En En para todo n, entonces

( )

Ei = lim (Ei ).
i
i=1

Intersecciones contables

Si E 1 , E 2 , E 3 , ...es una sucesin contable de conjuntos medibles, y En En para todo n, entonces la interseccin
de los conjuntos En es medible (de nuevo, por la denicin de -lgebra); ms an, si al menos uno de los En tiene
medida nita, entonces

( )

Ei = lim (Ei ).
i
i=1

Esta igualdad no es necesariamente cierta si ninguno de los En no tiene medida nita; por ejemplo, para cada n N,
tmese

En = [n, ) R.

Todos estos conjuntos tienen medida innita, de modo que el lmite al lado derecho de la igualdad es ; sin embargo,
su interseccin es vaca y por lo tanto tiene medida 0.

2.1.3 Medidas sigma-nitas


Un espacio de medida (X, , ) se dice nito si (X) es un nmero real nito (en lugar de ). Y se dice -nito
(ledo sigma nito) si X es la unin contable de conjuntos medibles de medida nita. Un conjunto en un espacio de
medida tiene medida -nita si es una unin contable de conjuntos de medida nita.
Por ejemplo, los nmeros reales con la medida de Lebesgue estndar forman un espacio -nito pero no nito.
Considrese el intervalo cerrado [k, k+1] para cada entero k; hay una cantidad contable de tales intervalos, cada uno
tiene medida 1, y su unin es la recta real completa. Alternativamente, tmense los nmeros reales con la medida
de conteo, que asigna a cada conjunto nito de nmeros reales el nmero de puntos en el conjunto. Este espacio de
medida no es -nito, ya que cada conjunto de medida nita contiene nitos puntos, y se necesitara una cantidad no
contable de ellos para cubrir la recta entera. Los espacios de medida -nita tienen algunas propiedades convenientes;
as, la -nitud puede ser comparada a la separabilidad de los espacios topolgicos.

2.1.4 Completitud
Un conjunto medible S es llamado un conjunto nulo si (S) = 0, y conjunto despreciable si est propiamente
contenido en uno nulo. La medida se dice completa si todo conjunto despreciable es medible (y por lo tanto, nulo
tambin).
Una medida puede extenderse a una completa considerando la -lgebra de conjuntos T X que dieren de un
conjunto medible S en un conjunto despreciable; esto es, tal que la diferencia simtrica T S est contenida en un
conjunto nulo. En tal caso se dene (T) = (S).

2.1.5 Ejemplos
A continuacin se listan algunos ejemplos importantes de medidas.
2.1. TEORA DE LA MEDIDA 5

La medida de conteo se dene por (S) = nmero de elementos en S, si S es nito; o en caso contrario.

La medida de Lebesgue es la nica medida completa, invariante por translaciones, sobre una -lgebra sobre
R que contenga a los intervalos, y tal que ([0,1]) = 1.

La medida de ngulo circular, que es invariante por rotaciones.

La medida de Haar para un grupo topolgico localmente compacto es una generalizacin de la medida de
Lebesgue y tiene una propiedad de unicidad similar.

La medida cero es la denida mediante (S) = 0 para todo S.

La medida exterior de Hausdor-Besicovitch se usa en geometra fractal para medir el df-contenido de un


conjunto fractal de dimensin df.

Todo espacio de probabilidad da lugar a una medida que toma el valor 1 sobre todo el espacio (y por tanto
toma todos sus valores en el intervalo unitario [0,1]). Tal medida es denominada medida de probabilidad.

Otras medidas notables son las de Borel, Jordan, y Radon.

2.1.6 Contraejemplos

Contrariamente a lo que podra esperarse, no todos los conjuntos del espacio eucldeo son medibles; algunos ejemplos
de estos conjuntos contraintuitivos son el conjunto de Vitali, y los que aparecen en las paradojas de Hausdor y
Banach-Tarski.

2.1.7 Generalizaciones

Para ciertos propsitos, es til tener una medida cuyos valores no se restrinjan a los reales no negativos y el innito.
Por ejemplo, una funcin de conjunto numerable aditiva con valores en los nmeros reales (con signo) se llama
medida con signo, mientras que tal tipo de funcin con valores en los nmeros complejos se llama medida compleja.
Una medida que tome valores en un espacio de Banach se llama medida espectral; son usadas a menudo en anlisis
funcional en el teorema espectral. Para distinguir las medidas usuales, con valores positivos, de las generalizaciones,
se habla de medidas positivas.
Otra generalizacin es la medida nitamente aditiva. Es igual que una medida, salvo que en lugar de requerir aditividad
contable, slo se necesita aditividad nita. Histricamente, esta denicin se us inicialmente, pero no result ser tan
til. En general, las medidas nitamente aditivas estn conectadas con nociones como los lmites de Banach, el dual
de L , y la compacticacin de Stone-ech. Todas stas estn conectadas de alguna forma con el axioma de eleccin.
El interesante resultado en geometra integral conocido como teorema de Hadwiger establece que el espacio de fun-
ciones de conjunto invariantes por translaciones, nitamente aditivas, no necesariamente no negativas denidas sobre
las uniones nitas de conjuntos compactos y convexos en Rn consiste (salvo mltiplos escalares) en una medida que
es homognea de grado k para cada k = 0, 1, 2, ..., n, y combinaciones lineales de esas medidas. Homognea de
grado k signica que re-escalar cualquier conjunto por un factor c > 0 multiplica la medida del conjunto por un
factor ck . La que es homognea de grado n es el volumen ordinario n-dimensional. La homognea de grado n1 es
el volumen de supercie. La homognea de grado 1 es una funcin misteriosa llamada anchura media (en ingls,
mean width), un mal nombre. La homognea de grado 0 es la caracterstica de Euler.

2.1.8 Vase tambin

Estadstica

Integracin de Lebesgue

Medida de Lebesgue

Espacio funcional
6 CAPTULO 2. MEDIDA Y MEDIDA EXTERIOR

2.2 Medida exterior


Una medida exterior sobre un cierto conjunto X es una aplicacin que asocia a cada subconjunto E de X un valor
comprendido entre 0 e innito y que satisface tres propiedades:

1. El dominio de consiste de todos los subconjuntos de X .

2. 0 no-negativa es

3. E1 E2 (E1 ) (E2 ) (monotonicidad)



4. ( k=1 Ek ) k=1 (Ek ) contable) (subaditividad

5. () = 0

Si hacemos Ej = para j n en la propiedad 4, podemos notar que una medida exterior es nitamente subadditiva.
El inters de las medidas exteriores estriba en que son fciles de construir y en que se puede aplicar el teorema de
Carathodory para construir, a partir de ellas, una medida en X.

2.2.1 Referencias
Folland, Gerald B. (1984): Real analysis. Jhon Wiley & Sons. ISBN 0-471-80958-6 p. 28
2.2. MEDIDA EXTERIOR 7

Una medida aplica ciertos subconjuntos (pertenecientes a una -lgebra) en valores del intervalo [0, ].
Captulo 3

Medida de Lebesgue-Stieltjes en R

3.1 Medida de Lebesgue


En matemticas, la medida de Lebesgue es la forma estndar de asignar una longitud, rea o volumen a los sub-
conjuntos del espacio eucldeo. Se usa en el anlisis real, especialmente para denir la integracin de Lebesgue. Los
conjuntos a los que se les puede asignar un tamao se denominan Lebesgue-medibles, o medibles a secas si no hay
ambigedad sobre la medida; el volumen o medida de un conjunto Lebesgue-medible A se denota por (A). Un valor
de para la medida de Lebesgue es perfectamente posible, pero an en ese caso, si se asume el axioma de eleccin,
no todos los conjuntos de Rn son Lebesgue-medibles. El comportamiento extrao de los conjuntos no medibles
da lugar a tales resultados como la paradoja de Banach-Tarski, una consecuencia del axioma de eleccin.

3.1.1 Ejemplos
Si A es un intervalo cerrado [a, b], su medida de Lebesgue es la longitud ba. El intervalo abierto ]a, b[ tiene
la misma medida, pues la diferencia entre los dos conjuntos tiene medida cero.

Si A es el producto cartesiano de dos intervalos [a, b] y [c, d], es un rectngulo cuya medida de Lebesgue es el
rea (ba)(dc).

El conjunto de Cantor es un ejemplo de conjunto no numerable con medida de Lebesgue cero.

3.1.2 Propiedades
La medida de Lebesgue en Rn tiene las siguientes propiedades:

Si A es un producto cartesiano de intervalos I 1 I 2 ... In, es Lebesgue-medible y (A) = |I 1 ||I 2 |...|In|,


donde |I| denota la longitud del intervalo I.

Si A es una unin disjunta de nitos o contables conjuntos Lebesgue-medibles, A mismo es Lebesgue-medible


y (A) es igual a la suma (o serie innita) de las medidas de los conjuntos correspondientes.

Si A es Lebesgue-medible, tambin lo es su complemento.

(A) 0 para todo conjunto Lebesgue-medible A.

Si A y B son Lebesgue-medibles, y A B, (A) (B) (consecuencia de los puntos anteriores).

Las uniones e intersecciones contables de conjuntos Lebesgue-medibles son asimismo Lebesgue-medibles


(consecuencia de los puntos anteriores).

Si A es un subconjunto abierto o cerrado de Rn , es Lebesgue-medible.

La medida de Lebesgue es localmente nita e interna regular, y por lo tanto una medida de Radon.

8
3.1. MEDIDA DE LEBESGUE 9

Si A es un conjunto Lebesgue-medible con (A) = 0 (o conjunto nulo), todo subconjunto de A es tambin un


conjunto nulo.
Si A es Lebesgue-medible y x es un elemento de Rn , la traslacin denida por A + x = {a + x : a A} es
tambin Lebesgue-medible y, ms an, tiene la misma medida que A.

Lo anterior se puede resumir como sigue:

Los conjuntos Lebesgue-medibles forman una -lgebra que incluye todos los productos de intervalos,
y es la nica medida completa invariante por translacin en esa -lgebra que cumple ([0,1] [0,1]
... [0,1]) = 1.

La medida de Lebesgue tiene tambin la propiedad de ser -nita.

3.1.3 Conjuntos de medida nula


Un subconjunto de Rn se dice de medida nula, si para todo > 0 se puede recubrir con contables productos de n
intervalos, cuyo volumen total es menor que . Todos los conjuntos numerables son de medida nula, as como los
subconjuntos de Rn de dimensin inferior a n (hiperplanos, por ejemplo lneas o curvas en R2 ).
Para demostrar que un conjunto arbitrario A es Lebesgue-medible, usualmente se intenta hallar un conjunto ms
presentable B cuya diferencia simtrica con A sea un conjunto nulo, y luego se demuestra que B se puede generar
usando uniones e intersecciones numerables de conjuntos abiertos y cerrados.
Cuando una propiedad P se cumple en un conjunto X, excepto quiz en un subconjunto de X de medida nula, se dice
que la propiedad P se cumple en X casi en todas partes".

3.1.4 Construccin de la medida de Lebesgue


La construccin moderna de la medida de Lebesgue, basada en medidas exteriores, se debe a Constantin Caratho-
dory, y se realiza como sigue:
Para cualquier subconjunto B de Rn , se puede denir



(B) = inf{vol(M )|M B y M = Ci cada y Ci nitos reales intervalos n de cartesiano producto un es }
i=1

Aqu, vol(M) es la suma de los productos de las longitudes de los intervalos que forman cada Ci . Se dene entonces
que un conjunto A es Lebesgue-medible si

(B) = (A B) + (B A)
para todo conjunto B. Estos conjuntos Lebesgue-medibles forman una -lgebra, y la medida de Lebesgue se dene
como (A) = * (A) para todo conjunto medible A.
Existen, sin embargo, subconjuntos de R que no son Lebesgue-medibles, por ejemplo el conjunto de Vitali.

3.1.5 Relacin con otras medidas


La medida de Borel coincide con la de Lebesgue en los conjuntos para los que est denida; sin embargo, hay muchos
ms conjuntos Lebesgue-medibles que Borel-medibles. La de Borel es invariante por translacin pero no completa.
La medida de Haar se puede denir en cualquier grupo topolgico localmente compacto, y es una generalizacin de
la medida de Lebesgue; Rn con la suma es un grupo topolgico localmente compacto.
La medida de Hausdor es una generalizacin de la de Lebesgue, til para medir los subconjuntos de Rn de dimensin
inferior a n, como variedades, supercies o curvas en R3 , y conjuntos fractales.
Se puede demostrar que no hay un anlogo en innitas dimensiones de la medida de Lebesgue.
10 CAPTULO 3. MEDIDA DE LEBESGUE-STIELTJES EN R

3.1.6 Historia
Henri Lon Lebesgue describi su medida en 1901, siguindole al ao siguiente su descripcin de la integracin de
Lebesgue. Ambas fueron publicadas como parte de su tesis en 1902.
Captulo 4

Funciones medibles

4.1 Funcin medible


En teora de la medida, una funcin medible es aquella que preserva la estructura entre dos espacios medibles.
Formalmente, una funcin entre dos espacios medibles se dice medible si la preimagen (tambin llamada imagen
inversa) de cualquier conjunto medible es a su vez medible.

4.1.1 Funciones medibles especiales


Si (X, ) y (Y, T) son espacios de Borel, entonces toda funcin medible f : (X, ) (Y, T) es llamada
funcin de Borel (o funcin Borel-medible). Toda funcin continua es de Borel, pero no toda funcin de Borel
es continua.

Una funcin Lebesgue-medible es una funcin f : (R, L) (C, BC ) , donde L es la sigma-lgebra de los
conjuntos Lebesgue-medibles y BC es el lgebra de Borel en los nmeros complejos C . stas funciones son
de inters en el anlisis matemtico debido a que siempre pueden ser integradas.

Las variables aleatorias son por denicin funciones medibles cuyo dominio es un espacio muestral donde se
ha denido una sigma-lgebra y contradominio en R, con la medida de Lebesgue.

4.1.2 Propiedades de las funciones medibles


La suma y producto de dos funciones complejas medibles es tambin medible. Debido a esto tambin lo es el
cociente (siempre que no haya divisin por cero).

Si f : (X, 1 ) (Y, 2 ) y g : (Y, 2 ) (T, 3 ) son medibles entonces la composicin g f es medible.


Esto no es necesariamente cierto cuando las sigma-lgebras no coinciden, es decir, si f : (X, 1 ) (Y, 2 )
y g : (Y, 3 ) (T, 4 ) entonces g f podra no ser medible aunque f y g s lo sean.

4.1.3 Referencias
1. Strichartz, Robert (2000). The Way of Analysis. Jones and Bartlett. ISBN 0-7637-1497-6.
2. Folland, Gerald B. (1999). Real Analysis: Modern Techniques and their Applications. Wiley. ISBN 0471317160.
3. Billingsley, Patrick (1995). Probability and Measure. Wiley. ISBN 0-471-00710-2.
4. Royden, H. L. (1988). Real Analysis. Prentice Hall. ISBN 0-02-404151-3.

11
Captulo 5

Integracin

5.1 Integral de Lebesgue

La integral de una funcin no negativa puede ser interpretada como el rea bajo la curva.

En matemtica, la integracin de una funcin no negativa (por considerar el caso ms simple) puede considerarse
como el rea entre la grca de una curva y el eje x. La integral de Lebesgue es una construccin matemtica
que extiende el concepto de integracin covencional de Riemann a una clase mucho ms amplia de funciones, as
como extiende los posibles dominios en los cuales estas integrales pueden denirse. Haca mucho que se saba que
para funciones no negativas con una curva sucientemente suave (como una funcin continua en intervalos cerrados)
el rea bajo la curva poda denirse como la integral y calcularse usando tcnicas de aproximacin de la regin
mediante rectngulos o polgonos. Pero como se necesitaba considerar funciones ms irregulares, se hizo evidente
que una aproximacin ms cuidadosa era necesaria para denir una integral que se ajustara a dichos problemas.
La integral de Lebesgue desempea un papel muy importante en el Anlisis Real y en muchas otras ramas de la
Matemtica. Su nombre es en honor a su descubridor, Henri Lebesgue (1875-1941).

12
5.1. INTEGRAL DE LEBESGUE 13

5.1.1 Introduccin
La integral de una funcin f entre los lmites de integracin a y b puede interpretarse como el rea bajo la grca de
f. Esto es fcil de entender para funciones que nos son familiares como los polinomios, la exponencial o logartmica,
pero... qu quiere decir para funciones un poco ms exticas o con comportamiento errtico? En general, cul es la
clase de funciones para las cuales el concepto de "rea bajo la curva tiene sentido? La respuesta a esta interrogante
tiene importancia terica y prctica fundamental.
Como parte del gran avance de las matemticas en el siglo XIX, se hicieron varios intentos de poner sobre bases
slidas el clculo integral. La integral de Riemann, propuesta por Bernhard Riemann (1826-1866), sent la primera
base slida sobre la cual se desarroll la integral. La denicin de Riemann empieza con la construccin de una
sucesin de reas rectangulares fcilmente calculables que convergen a la integral de una funcin dada. Esta denicin
es buena en el sentido que provee las repuestas adecuadas y esperadas para muchos problemas ya resueltos, as como
importantes y tiles resultados para muchos otros problemas.
Sin embargo, la integracin de Riemann no funciona bien al tomar lmites de sucesiones de funciones, dicultando
su anlisis. Esto es de vital importancia, por ejemplo, en el estudio de la serie de Fourier, la transformada de Fourier
y otros temas. La integral de Lebesgue permite saber cmo y cundo es posible tomar lmites bajo el signo de la
integral.
La denicin de Lebesgue tambin hace posible calcular integrales para una clase ms amplia de funciones. Por
ejemplo, la funcin de Dirichlet, que es 0 cuando su argumento es irracional y 1 en otro caso (racional), tiene integral
de Lebesgue, pero no de Riemann.

5.1.2 Construccin de la integral de Lebesgue


La exposicin que sigue da la denicin ms comn de esta integral, en la que la teora de integracin se compone
de dos partes, a saber:

1. Una teora de conjuntos medibles y medidas en estos conjuntos.


2. Una teora de funciones medibles e integrales en estas funciones.

Teora de la medida

La teora de la medida se cre para disponer de un anlisis detallado de la nocin de longitud de los subconjuntos de
puntos de la recta real y, de forma ms general, rea y volumen de subconjuntos de espacios euclideos. En particular,
esta teora nos brinda una respuesta sistemtica a la pregunta: a qu subconjuntos de R se les puede asociar una
longitud?. Como se comprob al desarrollar la teora de conjuntos, es imposible asociar una longitud a cualquier
subconjunto de R de tal manera que se cumplan las propiedades de invariancia por traslacin y de aditividad con
respecto a la unin conjuntos. Estos conjuntos se llaman no medibles.
Naturalmente, la integral de Riemann usa implcitamente el concepto de longitud. Un elemento bsico de este tipo
de integral son los rectngulos de base [a, b] y altura [c, d] cuya longitud es (b - a) y cuya rea es (b-a)(d-c).
En el desarrollo de la teora los libros ms modernos (posteriores a 1950) se usa el mtodo axiomtico para denir la
medida, es decir, que una medida es una funcin denida sobre ciertos subconjuntos de un conjunto E que satisface
una lista de propiedades.

Integracin de Lebesgue

Consideremos una medida no negativa sobre -lgebra X de subconjuntos de E. Por ejemplo, E puede ser un espacio
eucldeo n dimensional Rn o algn subconjunto medible de l, X puede ser el -lgebra de todos los subconjuntos
medibles de E, y puede ser la medida de Lebesgue. En la teora de la probabilidad puede ser una funcin de
probabilidad sobre un espacio de probabilidad E.
En la teora de Lebesgue, el clculo de integrales se restringe a un tipo de funciones llamadas funciones medibles. Una
funcin es medible si la preimagen de cualquier intervalo cerrado pertenece a X, es decir, es un conjunto medible:

f 1 ([a, b]) X para todo a < b.


14 CAPTULO 5. INTEGRACIN

El conjunto de funciones medibles es cerrado bajo operaciones algebraicas, aunque ms importante es el hecho de
que esta clase tambin es cerrada al tomar lmites de sucesiones de funciones:

lim inf fk , lim sup fk


kN kN

es medible si las funciones que forman los trminos de la sucesin {fk}, k N, son tambin medibles.

Vamos a construir la integral de Lebesgue : E f d para funciones reales medibles f construidas sobre E en varias
etapas calculando las integrales de funciones sencillas:
Funcin caracterstica o indicadora: Dado un subconjunto S medible contenido en E, la funcin caracterstica 1S
toma valor 1 para los elementos pertenecientes a S y 0 para el resto.

{
1 si x S
1S (x) =
0 si x
/S
La integral de esta funcin ha de ser la medida del conjunto S.

1S d = (S)

Funcin simple: Una funcin simple es de la forma = k ak 1Sk , donde ak son nmeros reales y la suma es
nita.
A partir del caso anterior ms sencillo se puede asumir que el resultado de integrar una funcin simple sea:

( )
d = ak 1Sk d = ak 1Sk d = ak (Sk )
k k k

A pesar de que una funcin simple se pueda expresar como distintas sumas, el resultado de la integral no vara.
Funcin no negativa: Sea f una funcin no negativa medible sobre E. Se dene

{ }
f d = sup d : f, simple
E E

Funciones con signo: Una funcin con signo denida sobre E se puede escribir como suma de dos funciones no
negativas:

f = f + f ,
donde

{
f (x) si f (x) > 0
f + (x) =
0 en otro caso
{
f (x) si f (x) < 0
f (x) =
0 en otro caso
Si ambas integrales verican


f d < ,
+
f d < ,

entonces se puede denir la integral de Lebesgue de f (x) de la siguiente manera


f d = f + d f d
5.1. INTEGRAL DE LEBESGUE 15

Interpretacin intuitiva

Folland[1] resumi los dos distintos modos de aproximarse al concepto de integral de la siguiente forma: para calcular
la integral de Riemann se particiona (divide) el dominio [a, b] en subintervalos, mientras que en la integral de
Lebesgue se particiona el rango de f".
Imaginemos que queremos calcular el rea de una curva (ver gura). Tenemos dos mtodos distintos para encontrar
una aproximacin a esta rea:

Integral de Riemann-Darboux (en azul) e integral de Lebesgue (en rojo).

Mtodo de Riemann-Darboux, en el cual dividimos la curva en columnas con la misma base y altura la
correspondiente a la curva en el centro de la columna. El rea de cada columna es igual a su altura por su base,
y el rea total de la curva viene dado aproximadamente por la suma de los reas de todas las columnas. Este
caso es equivalente a particionar el intervalo horizontal [a, b].

Mtodo de Lebesgue, en el cual dividimos la curva en capas horizontales de igual altura aunque de distinto
rea, debido a las diferentes longitudes de la base ((Sk)). El rea total de la curva ser aproximado por la suma
de los reas de todas las capas (ak (Sk)). Este caso es equivalente a particionar el rango de f (intervalo vertical
de la funcin).

Ejemplo: la funcin de Dirichlet 1Q

Consideremos la funcin caracterstica de los racionales 1Q denida sobre el intervalo [0, 1] . Esta funcin no es
continua en ningn punto de su dominio, ser integrable?

1Q no es integrable Riemann sobre [0, 1] : no importa cun na sea una particin del intervalo [0, 1] ,
cualquier subintervalo contendr al menos un nmero racional y otro nmero irracional, ya que ambos conjuntos
son densos en los reales. Por tanto, cualquier suma superior ser 1, as como el nmo de todas las sumas
superiores (suma superior de Riemann-Darboux) y cualquier suma inferior ser 0, igual que el supremo de
todas las sumas inferiores (suma inferior de Riemann-Darboux). Si el supremo y el nmo son distintos la
integral de Riemann no existe.

1Q s es integrable Lebesgue sobre [0, 1] : dado que es la funcin indicadora de los nmeros racionales, por
denicin
16 CAPTULO 5. INTEGRACIN

1Q d = (Q [0, 1]) = 0,
[0,1]

ya que Q es numerable.

5.1.3 Propiedades bsicas de la integral de Lebesgue


Si dos funciones f y g son iguales en todas partes de su dominio salvo en un conjunto de medida nula y si f
es integrable Lebesgue, entonces g es integrable Lebesgue y la integral de Lebesgue de ambas funciones ser
idntica.

Si ({x E : f (x) = g(x)}) = 0 entonces f d = g d

Linealidad: Si f y g son funciones integrables Lebesgue y a y b son nmeros reales jos, entonces

(af + bg) d = a f d + b g d

Monotona: Si f y g son funciones integrables Lesbesgue y f < g, entonces



f d g d.

5.1.4 Notas
[1] Gerald B. Folland, Real Analysis: Modern Techniques and Their Applications, 1984, p. 56.

5.1.5 Referencias
Dudley, R. M., 1989. Real Analysis and Probability. Wadsworth & Brookes/Cole. Very thorough treatment,
particularly for probabilists with good notes and historical references.
Folland, G. B., 1999. Real Analysis: Modern Techniques and Their Applications. John Wiley & Sons.

Paul Halmos, Measure Theory, D. van Nostrand Company, Inc. 1950. A classic, though somewhat dated pre-
sentation.

Loomis, L. H., 1953. An Introduction to Abstract Harmonic Analysis. Van Nostrand Company, Inc. Includes a
presentation of the Daniell integral.

Henri Lebesgue, 1972. Oeuvres Scientiques. L'Enseignement Mathmatique.


Munroe, M. E., 1953. Introduction to Measure and Integration, Addison Wesley. Good treatment of the theory
of outer measures.
Royden, H. L., 1988. Real Analysis, 3rd. ed. Prentice Hall.

Walter Rudin, 1976. Principles of Mathematical Analysis, 3rd. ed. McGraw-Hill. Known as Little Rudin, con-
tains the basics of the Lebesgue theory, but does not treat material such as Fubinis theorem.

------, 1966. Real and Complex Analysis. McGraw-Hill. Known as Big Rudin. A complete and careful presen-
tation of the theory. Good presentation of the Riesz extension theorems. However, there is a minor aw (in
the rst edition) in the proof of one of the extension theorems, the discovery of which constitutes exercise 21
of Chapter 2.

Shilov, G. E., and Gurevich, B. L., 1978. Integral, Measure, and Derivative: A Unied Approach, Richard A.
Silverman, trans. Dover Publications. ISBN 0-486-63519-8. Emphasizes the Daniell integral.

Guillermo Grabinsky S., 2009. Teora de la medida. Servicios editoriales de la facultad de ciencias, UNAM.
Captulo 6

Text and image sources, contributors, and


licenses

6.1 Text
-lgebra Fuente: http://es.wikipedia.org/wiki/%CE%A3-%C3%A1lgebra?oldid=79056141 Colaboradores: Fibonacci, Magister Mat-
hematicae, RobotQuistnix, CSTAR, FlaBot, YurikBot, Wewe, Equi, Eskimbot, Grizzly Sigma, Chlewbot, Bunder~eswiki, Thijs!bot, MS-
BOT, JAnDbot, VolkovBot, Muro Bot, BotMultichill, SieBot, Loveless, HUB, Alexbot, Jose32, MastiBot, DumZiBoT, Sardur, Luckas-
bot, Xqbot, Jkbw, Richard8933, Ricardogpn, AstaBOTh15, TjBot, Julio grillo, MetroBot, Legobot y Annimos: 19
Teora de la medida Fuente: http://es.wikipedia.org/wiki/Teor%C3%ADa%20de%20la%20medida?oldid=80500296 Colaboradores:
Fibonacci, Sabbut, Ivn, Sms, Elwikipedista, Tano4595, AlfonsoERomero, Rembiapo pohyiete (bot), Orgullobot~eswiki, RobotQuistnix,
Yrbot, YurikBot, Wewe, Eskimbot, Baneld, Chlewbot, CEM-bot, Davius, FrancoGG, Thijs!bot, JAnDbot, AlnoktaBOT, VolkovBot,
Technopat, AlleborgoBot, YonaBot, SieBot, Loveless, Zladmat, Ken123BOT, Correogsk, Gato ocioso, Farisori, Eduardosalg, Diegus-
jaimes, Daniki7, Jkbw, Ricardogpn, Botarel, Morytelov, Humbefa, Jorge c2010, EmausBot, Emiduronte, MerlIwBot, Deivis, Acratta,
Addbot, FedeBosio, Milder.q y Annimos: 40
Medida exterior Fuente: http://es.wikipedia.org/wiki/Medida%20exterior?oldid=64946846 Colaboradores: Egaida, Chzelada, Dange-
lin5, MerlIwBot, KLBot2, Elvisor y Annimos: 2
Medida de Lebesgue Fuente: http://es.wikipedia.org/wiki/Medida%20de%20Lebesgue?oldid=78526021 Colaboradores: Oblongo, Fi-
bonacci, RobotQuistnix, CEM-bot, Davius, Egaida, JAnDbot, TXiKiBoT, Snakefang, VolkovBot, AlleborgoBot, Muro Bot, Drinibot,
Farisori, UA31, Luckas-bot, Ptbotgourou, Ricardogpn, ChuispastonBot, Rezabot, JYBot, Legobot, Addbot y Annimos: 8
Funcin medible Fuente: http://es.wikipedia.org/wiki/Funci%C3%B3n%20medible?oldid=67946197 Colaboradores: CEM-bot, Juan
Mayordomo, CayoMarcio, Manuel Valadez Snchez, EmausBot, ZroBot, KLBot2 y Annimos: 1
Integral de Lebesgue Fuente: http://es.wikipedia.org/wiki/Integral%20de%20Lebesgue?oldid=71703188 Colaboradores: Vivero, Anacle-
to, Magister Mathematicae, Alfredobi, CEM-bot, Davius, Rosarinagazo, Flobo, Cratn, JAnDbot, Gerardpc, TXiKiBoT, Matdrodes,
AlleborgoBot, Muro Bot, MetsBot~eswiki, Mar del Sur, Alexbot, Lluvia, Fidelbotquegua, Raulshc, MastiBot, Amirobot, Erud, Xqbot,
Ricardogpn, NixBot, Jmsescribano, Fportales, Edslov, EmausBot, Alfredomalagon, Erick GR, MerlIwBot, KLBot2 y Annimos: 27

6.2 Images
Archivo:Integral-area-under-curve.png Fuente: http://upload.wikimedia.org/wikipedia/commons/9/98/Integral-area-under-curve.png
Licencia: CC-BY-SA-3.0 Colaboradores: ? Artista original: ?
Archivo:Measure_illustration.png Fuente: http://upload.wikimedia.org/wikipedia/commons/a/a6/Measure_illustration.png Licencia:
Public domain Colaboradores: self-made with en:Inkscape Artista original: Oleg Alexandrov
Archivo:RandLintegrals.png Fuente: http://upload.wikimedia.org/wikipedia/commons/1/1b/RandLintegrals.png Licencia: CC-BY-SA-
3.0 Colaboradores: en.wiki Artista original: ?

6.3 Content license


Creative Commons Attribution-Share Alike 3.0

17
Ampliacin de Variable Compleja
ndice general

1 Funciones holomorfas y meromorfas 1


1.1 Funcin holomorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.4 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Funcin meromorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Funciones meromorfas sobre supercies de Riemann . . . . . . . . . . . . . . . . . . . . 4
1.2.4 Diversas variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Productorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Teorema de factorizacin de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1 Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Las dos formas del teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.3 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Sucesiones y series de funciones analticas 10

3 Transformacin conforme. 11
3.1 Transformacin conforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.1.1 Anlisis complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Fraccin continua generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2.1 Historia de las fracciones continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.2 Notacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.3 Algunas consideraciones elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.4 Transformaciones fraccionarias lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

i
ii NDICE GENERAL

3.2.5 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19


3.2.6 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Teorema de representacin conforme de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4 Funciones elpticas 20
4.1 Funcin elptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.3 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Funciones de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.1 Funcin sigma de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.2 Funcin zeta de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.3 Funcin eta de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2.4 Funcin p de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

5 Supercies de Riemann 23
5.1 Supercie de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.1.1 Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.1.2 Concepto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.4 Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.5 Clasicacin de supercies de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.6 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

6 Text and image sources, contributors, and licenses 26


6.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
6.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
6.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Captulo 1

Funciones holomorfas y meromorfas

1.1 Funcin holomorfa


Las funciones holomorfas son el principal objeto de estudio del anlisis complejo; son funciones que se denen
sobre un subconjunto abierto del plano complejo C y con valores en C, que adems son complejo-diferenciables en
cada punto. Esta condicin es mucho ms fuerte que la diferenciabilidad en caso real e implica que la funcin es
innitamente diferenciable y que puede ser descrita mediante su serie de Taylor.
El trmino funcin analtica se usa a menudo en vez del de funcin holomorfa, especialmente para cuando se
trata de la restriccin a los nmeros reales de una funcin holomorfa. Una funcin que sea holomorfa sobre todo el
plano complejo se dice funcin entera. La frase holomorfa en un punto a" signica no slo diferenciable en a, sino
diferenciable en todo un disco abierto centrado en a, en el plano complejo.

1.1.1 Denicin
Si U es un conjunto abierto de C (ver espacio mtrico para la denicin de abierto) y f :U C es una funcin, se
dice que f es complejo-diferenciable en el punto z0 de U si existe el siguiente lmite:

f (z) f (z0 )
f (z0 ) = lim
zz0 z z0

Este lmite se toma aqu sobre todas las sucesiones de nmeros complejos que se aproximen a z0 , y para todas esas
sucesiones el cociente de diferencias tiene que dar el mismo nmero f '(z0 ).
Intuitivamente, si f es complejo-diferenciable en z0 y nos aproximamos al punto z0 desde la direccin r, entonces las
imgenes se acercarn al punto f(z0 ) desde la direccin f '(z0 ) r, donde el ltimo producto es la multiplicacin de
nmeros complejos. Este concepto de diferenciabilidad comparte varias propiedades con la diferenciabilidad en caso
real: es lineal y obedece a las reglas de derivacin del producto, del cociente y de la cadena.
Si f es complejo-diferenciable y las derivadas son continuas en cada punto z0 en U, se dice que f es holomorfa en U.
Es claro que, al igual que en el caso real, si f es holomorfa e inyectiva en U con inversa continua entonces f 1
es holomorfa y su derivada vale:

1
(f 1 ) (z) =
f (f 1 (z))

1.1.2 Ejemplos
Todas las funciones polinmicas en z con coecientes complejos son holomorfas sobre C, y tambin lo son las
funciones trigonomtricas de z y la funcin exponencial. (Las funciones trigonomtricas estn de hecho relacionadas

1
2 CAPTULO 1. FUNCIONES HOLOMORFAS Y MEROMORFAS

estrechamente con esta ltima y pueden denirse a partir de ella usando la frmula de Euler). La rama principal de
la funcin
logaritmo es holomorfa sobre el conjunto C - {z R : z 0}. La funcin raz cuadrada se puede denir
1
como : z = e 2 ln z y es por tanto all donde lo sea la funcin logaritmo ln(z). La funcin 1/z es holomorfa sobre {z
: z 0}. Las funciones trigonomtricas inversas tienen cortes y son holomorfas en todos los puntos excepto en estos
cortes.

1.1.3 Propiedades
Ya que la diferenciacin compleja es lineal y cumple las reglas del producto, del cociente y de la cadena, se tendr
que las sumas, productos, composiciones son tambin holomorfas, y el cociente de dos funciones holomorfas lo ser
all donde el denominador sea distinto de cero.
Cada funcin holomorfa es innitamente diferenciable en cada punto, y coincide con su propia serie de Taylor; esta
serie converger sobre cada disco abierto que se encuentre dentro del dominio U. La serie de Taylor puede converger
en un disco ms grande; por ejemplo, la serie de Taylor para el logaritmo converge sobre cada disco que no contenga al
0, incluso en las cercanas de la lnea real negativa. Ver demostracin de que las funciones holomorfas son analticas.
Si se identica C con R, entonces las funciones holomorfas son las mismas que aquellas funciones de dos variables
reales diferenciables y que cumplan las ecuaciones de Cauchy-Riemann, que son un par de ecuaciones diferenciales
parciales.
Las funciones holomorfas son conformes cerca de los puntos con derivada distinta de cero, en el sentido de que
preservan ngulos y la forma (pero no el tamao) de las guras pequeas.
La frmula integral de Cauchy dice que los valores, dentro de un disco, de una funcin holomorfa, quedan determi-
nados por los valores de la funcin en la frontera del disco.

1.1.4 Vase tambin


funcin meromorfa

funcin antiholomorfa

1.1.5 Referencias
Weisstein, Eric W. Holomorphic function. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.

1.2 Funcin meromorfa


En anlisis complejo, una funcin meromorfa sobre un subconjunto abierto D del plano complejo es una funcin
que es holomorfa en todo D excepto en un conjunto de puntos aislados, llamados polos de la funcin. (La terminologa
viene del Griego clsico meros, que signica parte, en contrapunto a holos, que signica todo.) Dichas funciones
son a veces conocidas como funciones regulares o regulares sobre D.
Toda funcin meromorfa sobre D puede ser expresada como el cociente entre dos funciones holomorfas (no siendo
el denominador la funcin constante 0) denidas sobre D: los polos de la funcin meromorfa ocurren en los ceros del
denominador.
Intuitivamente, una funcin meromorfa es un cociente de dos buenas funciones (holomorfas). Dicha funcin seguir
siendo buena excepto en los puntos en el que el denominador se anula, en los cuales el valor tiende a innito.
Desde un punto de vista algebraico, si D es un espacio conexo, entonces el conjunto de funciones meromorfas es un
cuerpo de fracciones del dominio de integridad del conjunto de funciones holomorfas. Esta relacin es anloga a la
existente entre Q , los racionales, y Z , los enteros.

1.2.1 Ejemplos
Toda funcin racional como
1.2. FUNCIN MEROMORFA 3

La funcin gamma es meromorfa en todo el plano complejo.

f(z) = (z3 2z + 1)/(z5 + 3z 1)


es meromorfa en todo el plano complejo.

Las funciones

f(z) = exp(z)/z and f(z) = sin(z)/(z 1)2


as como la funcin gamma y la funcin zeta de Riemann son meromorfas en todo el plano complejo.

La funcin

f(z) = exp(1/z)
est denida en todo el plano complejo exceptuando el origen, z=0. Sin embargo, el punto z=0 no es
un polo de la funcin sino una singularidad esencial. Por tanto, esta funcin no es meromorfa en todo el
plano complejo. Sin embargo, es meromorfa (incluso holomorfa) en C-{0}.

La funcin f(z) = ln(z) no es meromorfa en todo el plano complejo, ya que no puede ser denida de forma
contnua en todo el plano y ni siguiera quitando un conjunto de puntos aislados.

1.2.2 Propiedades
Como los polos de una funcin meromorfa son aislados, como mucho puede haber una cantidad numerable de ellos.
El conjunto de polos puede ser innito, como se puede ver en la funcin

f(z)=1/sin(z).

Mediante la continuacin analtica para eliminar las singularidades evitables, las funciones meromorfas pueden ser
sumadas, restadas, multiplicadas, y el cociente f/g est bien denido a no ser que g(z) = 0 sobre una componente
conexa de D. Por lo que, si D es conexo, las funciones meromorfas constituyen un cuerpo, de hecho constituyen una
extensin de los complejos.
4 CAPTULO 1. FUNCIONES HOLOMORFAS Y MEROMORFAS

1.2.3 Funciones meromorfas sobre supercies de Riemann


En una supercie de Riemann todo punto admite un entorno abierto que es isomorfo a un subconjunto abierto del
plano complejo. De este modo la nocin de funcin meromorfa puede ser denida para toda supercie de Riemann.
Cuando el conjunto D es la esfera de Riemann, el cuerpo de funciones meromorfas es simplemente el cuerpo de fun-
ciones racionales de una variable sobre el plano complejo, por lo que se puede demostrar que toda funcin meromorfa
sobre la esfera es racional.
Para toda supercie de Riemann, una funcin meromorfa es lo mismo que una funcin holomorfa cuyo espacio de
llegada es la esfera de Riemann y que no toma el valor en todo punto. Los polos corresponden a aquellos nmeros
complejos cuya imagen es .
En una supercie de Riemann no compacta, toda funcin meromorfa puede ser expresada como el cociente de dos
(globalmente denidas) funciones holomorfas. En cambio, sobre una supercie de Riemann compacta toda funcin
holomorfa es constante, mientras que siempre existen funciones meromorfas no constantes.
Las funciones meromorfas sobre una curva elptica se les conoce como funciones elpticas.

1.2.4 Diversas variables


Con mltiples variables complejas, una funcin meromorfa se dene como el cociente local de dos funciones holo-
morfas. Por ejemplo, f(z1 ,z2 )=z1 /z2 es una funcin meromorfa sobre el espacio afn complejo de dos dimensiones.
En este nuevo contexto, no es cierto que cada funcin meromorfa puede ser pensada como una funcin holomorfa
con valores dentro de la esfera de Riemann: hay un conjunto de indeterminacin de codimensin 2 (en el ejemplo
que se ha mostrado, este conjunto consiste en el origen (0,0)). A diferencia de una sola dimensin, en dimensiones
ms altas existen variedades complejas sobre las cuales no hay ninguna funcin meromorfa no constante.

1.2.5 Referencias
Lars Ahlfors, Complex Analysis, McGraw-Hill Education, ISBN 0-07-085008-9
Serge Lang, Complex Analysis, Springer, 2003. ISBN 0-387-98592-1.

1.3 Productorio
El operador productorio o productoria, tambin conocido como multiplicatoria o simplemente producto (por
denotarse como una letra pi mayscula), es un operador matemtico que representa una multiplicacin de una cantidad
arbitraria (nita o innita).

n
ak = am am+1 ... an
k=m

Para todos los valores m < n, si m = n tenemos que:


n
m
m=n, ak = ak = am
k=m k=m

En el caso de que m sea mayor que n, m > n, se le asigna el valor del elemento neutro de la multiplicacin, el uno:


n
m>n, ak = 1
k=m

Se puede denir por induccin como sigue.


1. Se dene
1.3. PRODUCTORIO 5


1
ak = a1
k=1

2. Supuesta denida para un n 1 jo, se dene

( )

n+1
n
ak = ak an+1
k=1 k=1

1.3.1 Ejemplo
Se puede usar el productorio para denir otras igualdades importantes.
Se puede tomar n=1 y aplicar la segunda igualdad para obtener:

( )

2
1
ak = ak (a2 ) = a1 a2
k=1 k=1

Denida para n=2, se puede aplicar otra vez la segunda igualdad con n=2 para luego obtener

( )

3
2
ak = ak (a3 ) = (a1 a2 )a3
k=1 k=1

As, usando la propiedad asociativa de la multiplicacin, el producto (a1 a2 )a3 es el mismo que a1 (a2 a3 ) y, por lo
tanto, podemos prescindir del uso de parntesis sin peligro de confusin y usar simplemente


3
a1 a2 a3 = ak
k=1

Se puede entonces, usar este razonamiento para cualquier n N sin que haya peligro de confusin.
Luego, se puede aplicar la denicin de Multiplicatoria, para denir n! (n factorial) como sigue:

n
k = n!
k=1

Se dene 0! = 1! = 1

1.3.2 Propiedades
Se puede usar el Mtodo de Induccin Matemtica para demostrar algunas propiedades. Para ello, nos basaremos
en la denicin formal por induccin descrita anteriormente.

Propiedad Multiplicativa

( )( )

n
n
n
(ak bk ) = ak bk
k=1 k=1 k=1
6 CAPTULO 1. FUNCIONES HOLOMORFAS Y MEROMORFAS

Demostracin por Induccin i) Tomemos n=1 y veamos si se cumple la igualdad

( )( )

1
1
1
(ak bk ) = a1 b1 = ak bk
k=1 k=1 k=1

y la igualdad es cierta para n=1


ii) Supongmosla cierta para n y analicmosla para n+1

[ ]

n+1
n
(ak bk ) = (ak bk ) (an+1 bn+1 )
k=1 k=1
( )( )

n+1
n
n
(ak bk ) = ak bk an+1 bn+1
k=1 k=1 k=1
(Denicin por induccin)

[( ) ] [( ) ]

n+1
n
n
(ak bk ) = ak (an+1 ) bk (bn+1 )
k=1 k=1 k=1

(Asociatividad en IR) Luego,

(n+1 ) (n+1 )

n+1
(ak bk ) = ak bk
k=1 k=1 k=1

Propiedad Telescpica

n
ak an
= , si cada ak = 0
ak1 a0
k=1

Demostracin por Induccin


i) Analicemos para n=1

1
ak a1
= , con : a0 = 0 y la igualdad es cierta para : n = 1
ak1 a0
k=1

ii) Supongmosla cierta para n y analicmosla para n+1


n+1 ak ( )( )
n ak an+1
k=1 ak1 = k=1 ak1 an (Denicin por induccin)

Luego,

n+1
ak an an+1
=
ak1 a0 an
k=1

que es lo que queramos demostrar.


Ntese que nuestra exigencia era que para cada k , ak = 0 . En particular, para k = n , ak = an = 0 . Luego la
simplicacin es posible y

n+1
ak an+1
=
ak1 a0
k=1
1.4. TEOREMA DE FACTORIZACIN DE WEIERSTRASS 7

1.3.3 Vase tambin

Sumatoria

Factorial

Suma

Multiplicacin

1.4 Teorema de factorizacin de Weierstrass


En matemtica, concretamente en anlisis complejo, el teorema de factorizacin de Weierstrass, llamado as en
honor a Karl Weierstrass, asegura que las funciones enteras pueden ser representadas mediante un producto que
envuelve sus ceros. Adems, cualquier sucesin que tienda al innito tiene asociada una funcin entera con ceros
precisamente en los puntos de esa sucesin.
Una segunda forma extendida a funciones meromorfas permite considerar una funcin meromorfa dada como un
producto de tres factores: los polos, los ceros, y una funcin holomorfa asociada distinta de cero.

1.4.1 Motivacin

Las consecuencias del teorema fundamental del lgebra son dobles.[1] La primera de ellas, cualquier sucesin nita
{c
n } en el plano complejo tiene asociado un polinomio que tiene ceros precisamente en los puntos de esa sucesin,
n (z cn ).

La segunda de ellas, cualquier funcin polinmica p(z) es el plano complejo tiene una factorizacin p(z) = a n (z
cn ), donde a es una constante distinta de cero y cn son los ceros de p.
Las dos formas del teorema de factorizacin de Weierstrass pueden ser pensadas como extensiones superiores
de las
funciones enteras. La necesidad de un mecanismo extra se demuestra cuando se considera el producto n (z cn )
si la sucesin {cn } no es nita. Esto nunca puede denir una funcin entera, porque el producto innito no converge.
As que, en general, no se puede denir una funcin entera de una sucesin de ceros preestablecidos o representar
una funcin entera mediante sus ceros usando las expresiones dadas mediante el teorema fundamental del algebra.
Una condicin necesaria para la convergencia de un producto innito en cuestin es que, cada factor (z cn ) debe
aproximarse a 1 cuando n . As que, parece lgico que se deba buscar una funcin que podra ser 0 en el punto
preestablecido y sin embargo, permanecer prximo a 1 cuando no se encuentre en ese punto, adems de no introducir
ms ceros de los establecidos. Esto se dene con los factores elementales de Weierstrass. Estos factores sirven para el
mismo propsito que los factores (z cn ) de arriba.

Los factores elementales

Tambin se les conoce como factores primarios.[2]


Para n N , se denen los factores elementales como:[3]

{
(1 z) ( ) si n = 0,
En (z) = z1 z2 zn
(1 z) exp 1 + 2 + + n de otra forma.

Su utilidad radica en el siguiente lema:[3]


Lema (15.8, Rudin) para |z| 1, n N

|1 En (z)| |z|n+1 .
8 CAPTULO 1. FUNCIONES HOLOMORFAS Y MEROMORFAS

1.4.2 Las dos formas del teorema


Existencia de una funcin entera con ceros especcos

A veces llamado como teorema de Weierstrass.[4]


Sea {an } una sucesin de nmeros complejos distintos de cero tales que |an | . Si {pn } es cualquier sucesin
de enteros tales que para todo r > 0 ,

1+pn
(r/|an |) < ,
n=1

entonces la funcin



f (z) = Epn (z/an )
n=1

es entera con ceros nicamente en los puntos an . Si el nmero z0 se produce en la sucesin {an } exactamente m
veces, entonces la funcin f tiene un cero en z = z0 de multiplicidad m.

Ntese que la sucesin {pn } en la declaracin del teorema siempre existe. Por ejemplo siempre se podra tomar
pn = n y se obtendra convergencia. Tal sucesin no es nica: cambiando sta un nmero nito de posiciones,
o tomando otra secuencia p'n pn, no se romper la convergencia.
El teorema generaliza lo siguiente: sucesiones en conjuntos abiertos (y por lo tanto regiones) de la esfera de
Riemann tienen funciones asociadas que son holomorfas en esos subconjuntos y tienen ceros en los puntos de
la sucesin.[3]
Ntese tambin que el caso dado por el teorema fundamental del lgebra
est incorporado aqu. Si la sucesin
{an } es nita entonces se puede tomar pn = 0 y obtener: f (z) = c (z an ) .
n

El teorema de factorizacin de Weierstrass

A veces llamado como Teorema del producto/factor de Weierstrass.[5]


Sea una funcin entera, y sea {an } los ceros distintos de 0 de , repetidos acorde con su multiplicidad; supngase
tambin que tiene un cero en z = 0 de orden m 0 (un cero de orden m = 0 en z = 0 signica que (0) 0). Entonces
existe una funcin entera g y una sucesin de enteros {pn } tales que

( )
z [6]
f (z) = z m eg(z) n=1 E pn an .

Ejemplos de factorizacin
( ) ( z2
)
sin z = z n=0 1 z
n ez/n = z n=1 1 n2

( ) ( )
4z 2
cos z = n=0 1 2z
2n1 e2z/(2n1) = n=1 1 (2n1)2

Teorema de factorizacin de Hadamard

Si es una funcin nita con un orden , entonces sta admite una factorizacin


f (z) = z m eg(z) Ep (z/an )
n=1

donde g(z) es un polinomio de grado q, y q .[6]


1.4. TEOREMA DE FACTORIZACIN DE WEIERSTRASS 9

1.4.3 Vase tambin


Teorema de Mittag-Leer

1.4.4 Referencias
[1] Knopp, K. (1996), Weierstrasss Factor-Theorem, Theory of Functions, Part II, New York: Dover, pp. 17.

[2] Boas, R. P. (1954), Entire Functions, New York: Academic Press Inc., ISBN 0821845055, OCLC 6487790, chapter 2.

[3] Rudin, W. (1987), Real and Complex Analysis (3rd edicin), Boston: McGraw Hill, pp. 301304, ISBN 0070542341,
OCLC 13093736.

[4] Weisstein, Eric W. Weierstrasss Theorem. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.

[5] Weisstein, Eric W. Weierstrass Product Theorem. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.

[6] Conway, J. B. (1995), Functions of One Complex Variable I, 2nd ed., springer.com: Springer, ISBN 0387903283
Captulo 2

Sucesiones y series de funciones analticas

10
Captulo 3

Transformacin conforme.

3.1 Transformacin conforme


En matemticas, una transformacin conforme es una funcin que preserva ngulos. En el caso ms comn la
funcin es entre dominios del plano complejo.

3.1.1 Anlisis complejo


En el anlisis complejo, una transformacin conforme es una funcin f : A C , diferenciable en z0 A C ,
que preserva el ngulo que dos curvas
: [a, b] A y : [a, b] A , diferenciables en 1 (z0 ) y 1 (z0 ) , respectivamente, forman entre s en z0 . Es
decir f es conforme en z0 cuando se verica

[ ] [ ]
(f ) (z0 ) (z0 )
arg = arg
(f ) (z0 ) (z0 )

siempre y cuando (z0 ) y (z0 ) sean vectores tangentes no nulos.


Una denicin equivalente es que una funcin es conforme si y solamente si es holomorfa o antiholomorfa (es decir
conjugada de una holomorfa) y su derivada es por todas partes diferente a cero. El teorema de representacin conforme
de Riemann establece que cualquiera subconjunto propio abierto y simplemente conexo de C admite una funcin
conforme sobre un disco unitario abierto en C.
Una funcin del plano complejo extendido (que es equivalente conforme a una esfera) sobre s mismo es conforme
(si y slo si) es una transformacin de Moebius o su conjugada.

3.2 Fraccin continua generalizada


En anlisis complejo, una rama de las matemticas, una fraccin continua generalizada o fraccin fractal es una
generalizacin de una fraccin continua en la cual los numeradores parciales y los denominadores parciales pueden
tomar cualesquiera valores reales o complejos.[1]
Una fraccin continua generalizada es una expresin de la forma:

a1
x = b0 +
a2
b1 +
a3
b2 +
a4
b3 +
.
b4 + . .

11
12 CAPTULO 3. TRANSFORMACIN CONFORME.

donde los an (n > 0) son los numeradores parciales, los bn son los denominadores parciales y el trmino principal b0
es el llamado parte entera de la fraccin continua.
Las convergentes sucesivas de la fraccin continua se forma aplicando las frmulas fundamentales de recurrencia:

A0 A1 b1 b0 + a1 A2 b2 (b1 b0 + a1 ) + a2 b0
x0 = = b0 , x1 = = , x2 = = ,
B0 B1 b1 B2 b2 b1 + a2
donde An es el numerador y Bn es el denominador (tambin llamado continuante [2][3] ) del n-simo convergente.
Si la sucesin de convergentes {xn} tiene lmite, la fraccin continua es convergente y tiene un valor denido. Si la
sucesin de convergentes no tiene lmite, la fraccin continua es divergente. La divergencia puede darse por osci-
lacin (por ejemplo, los convergentes pares e impares pueden tender a distinto lmite) o por tendencia a innito o
denominadores Bn iguales a cero.

3.2.1 Historia de las fracciones continuas


La historia de las fracciones continuas comienza con el Algoritmo de Euclides,[4] un procedimiento para encontrar
el mximo comn divisor de dos nmeros naturales m y n. Ese algoritmo introdujo la idea de dividir para extraer un
nuevo resto y entonces dividir por el nuevo resto de nuevo y as, sucesivamente.
Cerca de dos mil aos despus, Rafael Bombelli[5] encontr una tcnica para la aproximacin de las races de ecua-
ciones cuadrticas con fracciones continuas. A partir de ah, el ritmo de desarrollo se aceler. Justo 24 aos despus
Pietro Cataldi present la primera notacin formal[6] para la fraccin continua generalizada. Cataldi representaba
una fraccin continua como

n1 n2 n3
a0 . & & & ,
d1 . d2 . d3
donde los puntos indicaban dnde ira la siguiente fraccin y cada & representa al actual signo ms.
Ms tarde, en el siglo XVII John Wallis[7] introdujo el trmino fraccin continua en la literatura matemtica. Nuevas
tcnicas de anlisis mtematico haban sido presentadas por Newton y Leibniz y una generacin de contemporneos
de Wallis se pusieron a usar el trmino inmediatamente.
En 1748 Euler public un teorema muy importante mostrando que un tipo particular de fraccin continua es equiva-
lente a cierta serie innita muy general.[8] El teorema de fracciones continuas de Euler tiene todava una importancia
crucial en los intentos actuales de reduccin en el problema de convergencia.
Las fracciones continuas pueden aplicarse tambin a problemas de la teora de nmeros y son especialmente tiles
en el estudio de ecuaciones diofnticas. A nales del siglo XVIII Lagrange us fracciones continuas para construir
la solucin general de la ecuacin de Pell, dando as respuesta a una cuestin que haba fascinado a los matemticos
durante ms de mil aos.[9] Sorprendentemente, el descubrimiento de Lagrange implicaba que la expansin de raz
cuadrada de la fraccin continua cannica de cualquier entero no cuadrado perfecto es peridica y as, si el periodo
es de longitud p > 1, contiene una sucesin palindrmica de longitud p - 1.
En 1813 Gauss us un ingenioso truco con la funcin hipergeomtrica compleja para derivar una expresin en for-
ma de fraccin continua que ha sido denominada en su honor.[10] Esa frmula puede usarse para expresar muchas
funciones elementales (e incluso ms funciones avanzadas, como las funciones de Bessel como fracciones continuas
rpidamente convergentes vlidas casi siempre en el plano complejo.

3.2.2 Notacin
La gran expresin de fraccin continua mostrada en la introduccin es, probablemente, la forma ms intuitiva de
fraccin continua para el lector. Desafortunadamente, ocupa un montn de espacio en un libro (y tampoco es fcil su
escritura). As que los matemticos han encontrado algunas notaciones alternativas. Una forma apropiada de expresar
una fraccin continua generalizada tiene el siguiente aspecto:

a1 a2 a3
x = b0 +
b1 + b2 + b3 +
3.2. FRACCIN CONTINUA GENERALIZADA 13

Pringsheim escribi una fraccin continua generalizada del siguiente modo:

a1 | a2 | a3 |
x = b0 + + + +
| b1 | b2 | b3
Karl Friedrich Gauss evocaba el ms familiar producto innito cuando ide esta notacin:

ai
x = b0 + K .
i=1 bi

Aqu K signica Kettenbrche, la palabra alemana para fraccin continua. Esta es probablemente la forma ms
compacta y conveniente para expresar fracciones continuas.

3.2.3 Algunas consideraciones elementales


Aqu se muestran algunos resultados elementales que son de importancia fundamental en el posterior desarrollo de la
teora analtica de fracciones continuas.

Numeradores y denominadores parciales

Si uno de los numeradores parciales an es cero, la fraccin continua innita

ai
b0 + K
i=1 bi

es, precisamente, una fraccin continua nita con n trminos fraccionarios y, por consiguiente, una funcin racional
de el primer n ais y el primer (n + 1) bis. Tal objeto es de poco inters desde el punto de vista adoptado en el anlisis
matemtico, as que habitualmente se asume que ninguno de los ai = 0. No hay necesidad de aplicar esta restriccin
a los denominadores parciales bi.

La frmula determinante

Cuando el n-simo convergente de una fraccin continua

n ai
xn = b0 + K
i=1 bi

se expresa como una fraccin simple xn = An/Bn podemos usar la frmula determinante

An1 Bn An Bn1 = (1)n a1 a2 an = ni=1 (ai )

para relacionar los numeradores y denominadores de los convergentes sucesivos xn and xn entre s. Especcamente,
si ni Bn ni Bn son cero, podemos expresar la diferencia entre el n-primero y el n-simo (n > 0) convergente como
sigue:

An1 An a1 a2 an n (ai )
xn1 xn = = (1)n = i=1 .
Bn1 Bn Bn Bn1 Bn Bn1

La transformacin de equivalencia

Si {ci} = {c1 , c2 , c3 , ...} es cualquier sucesin innita de nmeros complejos no nulos, puede probarse por induccin
que
14 CAPTULO 3. TRANSFORMACIN CONFORME.

a1 c1 a1
b0 + = b0 +
a2 c1 c2 a2
b1 + c1 b1 +
a3 c2 c3 a3
b2 + c2 b2 +
a4 c3 c4 a4
b3 + c3 b3 +
.. ..
. .
donde la igualdad se entiende como una equivalencia, es decir, que los convergentes sucesivos de la fraccin continua
de la izquierda son, exactamente, los mismos que los convergentes de la fraccin de la derecha.
La transformacin de equivalencia es perfectamente general, pero dos casos particulares merecen una mencin es-
pecial. En primer lugar, si uno de los ai es cero, se puede elegir una sucesin {ci} para hacer 1 cada numerador
parcial:

ai 1
b0 + K = b0 + K
i=1 bi i=1 ci bi

donde c1 = 1/a1 , c2 = a1 /a2 , c3 = a2 /(a1 a3 ) y, en general, cn = 1/(ancn).


En segundo lugar, si uno de los denominadores parciales bi es cero, podemos usar un procedimiento similar para
elegir otra sucesin {di} que haga 1 cada denominador parcial:

ai d a
i i
b0 + K = b0 + K
i=1 bi i=1 1

donde d1 = 1/b1 y por otra parte dn = 1/(bnbn).


Estos dos casos especiales de transformaciones de equivalencia son enormemente tiles cuando se analiza el problema
de convergencia general.

Conceptos de convergencia simple

Como ya se ha dicho, la fraccin continua

ai
x = b0 + K
i=1 bi

converge si la sucesin de convergencia {xn} tiende a un lmite nito.


La nocin de convergencia absoluta juega un papel central en la teora de series innitas. No existe una nocin
correspondiente en la teora analtica de fracciones continuas, en otras palabras, los matemticos no hablan de una
fraccin continua absolutamente convergente. A veces la nocin de convergencia absoluta entra, no obstante, en la
discusin, especialmente en el estudio de el problema de la convergencia. Por ejemplo, una fraccin continua en
concreto

1
x= K
i=1 bi

diverge por oscilacin si la serie b1 + b2 + b3 + ... es absolutamente convergente.[11]


A veces los numeradores y denominadores parciales de una fraccin continua se expresan como funciones de variable
compleja z. Por ejemplo, una funcin relativamente simple[12] podra estar denida como

1
f (z) = K .
i=1 z

Para una fraccin continua como esta, la nocin de convergencia uniforme surge de forma bastante natural. Una
fraccin continua de una o ms variables complejas es uniformemente convergente en un entorno abierto si los
3.2. FRACCIN CONTINUA GENERALIZADA 15

convergentes de la fraccin convergen uniformemente en cada punto de . O, dicho de otro modo, si para cada >
0 puede encontrarse un entero M tal que el valor absoluto de la diferencia

ai (z) n ai (z)
f (z) fn (z) = K K
i=1 bi (z) i=1 bi (z)

es menor que para cada punto z en un entorno abierto cuando n > M, la fraccin continua denida por f(z) es
uniformemente convergente en . (Aqu fn(z) denota el n-simo convergente de la fraccin continua, evaluado en el
punto z del interior de , y f(z) es el valor de la fraccin continua innita en el punto z.)

Convergentes pares e impares

Es en ocasiones necesario separar una fraccin continua en sus partes pares e impares. Por ejemplo, si la fraccin
continua diverge por oscilacin entre dos puntos lmite distintos p y q, entonces la sucesin {x0 , x2 , x4 , ...} debe
converger a uno de estos y {x1 , x3 , x5 , ...} debe converger al otro. En tal situacin puede ser conveniente expresar la
fraccin continua original como dos fracciones continuas diferentes, una de ellas convergiendo a p y la otra a q.
Las frmulas para las partes pares e impares de una fraccin continua pueden escribirse de forma ms compacta si
la fraccin ya se ha transformado, de este modo todos sus denominadores parciales son uno. Especcamente, si

ai
x= K
i=1 1
es una fraccin continua, entonces la parte par x y la parte impar x vienen dadas por

a1
xeven =
a2 a3
1 + a2
a4 a5
1 + a3 + a4
a6 a7
1 + a5 + a6
..
.
y

a1 a2
xodd = a1
a3 a4
1 + a2 + a3
a5 a6
1 + a4 + a5
a7 a8
1 + a6 + a7
..
.
respectivamente. Con ms precisin, si los sucesivos convergentes de la fraccin continua x son {x1 , x2 , x3 , ...},
entonces los sucesivos convergentes de x como se escriban ms arriba son {x2 , x4 , x6 , ...} y los convergentes
sucesivos de x son {x1 , x3 , x5 , ...}.[13]

Condiciones para la irracionalidad

Si a1 , a2 , . . . y b1 , b2 , . . . son enteros positivos con ak bk para todo k sucientemente grande, entonces

ai
x = b0 + K
i=1 bi

converge a un lmite irracional.[14]


16 CAPTULO 3. TRANSFORMACIN CONFORME.

3.2.4 Transformaciones fraccionarias lineales


Una transformacin fraccionaria lineal (TFL) es una funcin compleja de la forma

a + bz
w = f (z) = ,
c + dz
donde z es una variable compleja y a, b, c, d son constantes complejas arbitrarias. Suele imponerse una restriccin
adicional que ad bc , para dejar fuera los casos en los cuales w = f(z) es una constante. La transformacin
fraccionaria lineal, tambin conocida como transformacin de Mbius, tiene muchas propiedades fascinantes. Cuatro
de ellas son de importancia primordial en el desarrollo de la teora analtica de fracciones continuas.

Si d 0, la TFL tiene uno o dos puntos jos. Esto puede verse si se considera la ecuacin

f (z) = z dz 2 + cz = a + bz

que es claramente una ecuacin cuadrtica en z. Las races de esta ecuacin son puntos jos de f(z). Si
el discriminante (c b)2 + 4ad es cero, la TFL da lugar a un punto jo; en otro caso, tiene dos puntos
jos.

Si ad bc, la TFL es una biyeccin del plano complejo extendido en s mismo . En otras palabras esta TFL
tiene funcin inversa

a + cw
z = g(w) =
b dw

tal que f(g(z)) = g(f(z)) = z para todo punto z en el plano complejo extendido y ambos, f y g preservan
ngulos y formas a escalas muy pequeas. Desde la formulacin z = g(w) se comprueba que g es tambin
una TFL.

La composicin de dos TFL diferentes para las cuales ad bc es tambin una TFL para la cual ad bc. En otras
palabras, el conjunto de todas las TFL para las cuales ad bc es cerrado para la composicin de funciones.
El conjunto de tales TFL juntas con la operacin como grupo de composicin - se conoce como un grupo
automrco del plano complejo extendido.

Si b = 0 la TFL se reduce a

a
w = f (z) = ,
c + dz

lo cual es una funcin mermrca muy simple de z con un polo simple (at c/d) y un resto igual a a/d.
(Vase tambin Serie de Laurent).

La fraccin continua como una composicin de TFL

Considrese una sucesin de transformaciones fraccionarias lineales simples

a1 a2 a3
0 (z) = b0 + z, 1 (z) = , 2 (z) = , 3 (z) = ,
b1 + z b2 + z b3 + z
3.2. FRACCIN CONTINUA GENERALIZADA 17

Aqu se usa la letra griega (tau) para representar cada TFL simple y se adopta la notacin habitual para la com-
posiccin de funciones. Tambin se introduce un nuevo smbolo n para representar la composicin de n+1 - , es
decir,

T1 (z) = 0 1 (z) = 0 (1 (z)), T2 (z) = 0 1 2 (z) = 0 (1 (2 (z))),

y as, sucesivamente. Por substitucin directa desde el primer conjunto de expreseiones en el segundo, se ve que

a1
T1 (z) = 0 1 (z) = b0 +
b1 + z
a1
T2 (z) = 0 1 2 (z) = b0 +
a2
b1 +
b2 + z
y, en general,

n ai
Tn (z) = 0 1 2 n (z) = b0 + K
i=1 bi

donde el ltimo denominador parcial en la fraccin continua nita K se entiende que es bn + z. Y, desde bn + 0 =
bn, la imagen del punto z = 0 bajo la iteracin de la TFL n es de hecho el valor de la fraccin continua nita con n
numeradores parciales:

n ai
Tn (0) = Tn+1 () = b0 + K .
i=1 bi

Una interpretacin geomtrica

La intuicin no puede nunca reemplazar una prueba matemtica. No obstante, es una til herramienta que, a me-
nudo, sugiere nuevas lneas de ataque que nalmente resuelven problemas inicialmente intratables. Si se dene una
fraccin continua nita como la imagen de un punto bajo la iteracin de una TFL (z) se llega intuitivamente a una
interpretacin geomtrica de la fracciones continuas innitas. A continuacin se puede ver cmo funciona.
La relacin

n ai An
xn = b0 + K = = Tn (0) = Tn+1 ()
i=1 bi Bn
es probablemente mejor comprendida mediante la reescritura de las TFL n(z) y n(z) en trminos de frmulas
fundamentales de recurrencia:

(bn + z)An1 + an An2 zAn1 + An


Tn (z) = Tn (z) = ;
(bn + z)Bn1 + an Bn2 zBn1 + Bn
(bn+1 + z)An + an+1 An1 zAn + An+1
Tn+1 (z) = Tn+1 (z) = .
(bn+1 + z)Bn + an+1 Bn1 zBn + Bn+1
En la primera de estas ecuaciones la razn tiende a An/Bn as como z tiende a cero. En la segunda, la razn tiende a
An/Bn como z tiende a innito. Esto lleva a la primera interpretacin geomtrica. Si la fraccin continua converge,
los convergentes sucesivos An/Bn estn eventualmente tan juntos como se desee. En virtud de que la transformacin
fraccionaria lineal n(z) es una transformacin continua , debe haber un entorno de z = 0 que se transforma en
un entorndo arbitrariamente pequeo de n(0) = An/Bn. De un modo similar, debe haber un entorno del punto en
innito que se transforma en un entorno arbitrariamente pequeo de n() = An/Bn. As, si la fraccin continua
converge la transformacin n(z) convierten z muy pequeas y z muy grandes en un entorno arbitrariamente pequeo
de x, el valor de la fraccin continua, cuando n se hace ms y ms grande.
18 CAPTULO 3. TRANSFORMACIN CONFORME.

Y qu ocurre con los valores intermedios de z? Bien, en virtud de que los sucesivos convergentes se hacen ms
cercanos entre s, se tiene

An1 An An1 Bn1


=k
Bn1 Bn An Bn

donde k es una constante, introducida por conveniencia. Pero entonces, sustituyendo en la expresin por n(z) se
obtiene

( ) ( )
zAn1 + An An z AAn1 +1 An zk + 1 An
Tn (z) = = n
=
zBn1 + Bn Bn z BBn1
n
+1 Bn zk + 1 Bn

as que incluso los valores intermedios de z (excepto cuando z k1 ) se transforman en entornos arbitrariamente
pequeos de x, el valor de la fraccin continua, as como n se hace ms y ms grande. Intuitivamente es casi como si
el convergente de la fraccin continua transformara por completo el plano complejo extendido en un simple punto.[15]
Ntese que la sucesin {n} cae dentro del grupo de automorsmo del plano complejo extendido, en el momento en
que cada n es una transformacin lineal fraccionaria para la cual ab cd. Y cada miembro del grupo de automorsmo
se aplica desde el plano complejo extendido en s mismo no uno de los n puede posiblemente aplicar el plano en
un solo punto. Todava en el lmite de la sucesin {n} dene una fraccin continua innita la cual (si converge)
representa un solo punto en el plano complejo.
Cmo es esto posible? Pinsese del siguiente modo: cuando una fraccin continua innita converge, la sucesin
correspondiente {n} de TFL se enfoca en el plano en la direccin de x, el valor de la fraccin continua. En cada
etapa del proceso una regin ms y ms grande del plano se aplica en un entorno de x, y una regin ms y ms pequea
del plano se va achicando hasta cubrir el borde de ese entorno.[16]
Y qu hay de las fracciones continuas divergentes? Pueden tambin ser interpretadas geomtricamente? En una
palabra, s. Se distinguen tres casos:

1. Las dos sucesiones {n} y {n} podran denirse como dos fracciones continuas convergentes que tienen
dos valores diferentes, x y x . En este caso, la fraccin continua denida por la sucesin {n} diverge
por oscilacin entre dos distintos puntos lmite. Y de hecho esta idea puede generalizarse (pueden construirse
sucesiones {n} que oscilan entre tres o cuatro o incluso cualquier nmero de puntos lmite. Se llega a intere-
santes instancias de este caso cuando la sucesin {n} constituye un subgrupo de orden nico en el grupo de
automorsmos sobre el plano complejo extendido.

2. La sucesin {n} puede producir un nmero innito de denominadores cero Bi mientras que tambin produce
una subsucesin de convergentes nitos. Estos convergentes nitos podran no repetirse o caer en un patrn de
oscilacin reconocible. O podran converger a un lmite nito o incluso oscilar entre mltiples lmites nitos.
Sin importar como se comporten los convergentes nitos, la fraccin denida por la sucesin {n} diverge por
oscilacin con el punto en innito en este caso.[17]

3. La sucesin {n} podra producir no ms de un nmero nito de denominadores cero Bi, mientras que la
subsucesin de convergentes nitos baila ampliamente alrededor de el plano en un patrn que nunca se repite
y nunca alcanza un lmite nito tampoco.

Se pueden construir interesantes ejemplos de los casos 1 y 3 mediante el estudio de la fraccin simple continua

z
x=1+
z
1+
z
1+
z
1+
..
.
donde z es cualquier nmero real tal que z < .
3.3. TEOREMA DE REPRESENTACIN CONFORME DE RIEMANN 19

3.2.5 Vase tambin


Fraccin continua
Fraccin continua de Gauss

Fraccin continua de Euler

3.2.6 Referencias
[1] Medra \cfrac{a_3}{b_3 + \cfrac{a_4}{\ddots\,. Falta el |ttulo= (ayuda)}}</math>

[2] Thomas W. Cusick; Mary E. Flahive (1989). The Marko and Lagrange Spectra. American Mathematical Society. p. 89.
ISBN 0-8218-1531-8.

[3] George Chrystal (1999). Algebra, an Elementary Text-book for the Higher Classes of Secondary Schools and for Colleges:
Pt. 1. American Mathematical Society. p. 500. ISBN 0-8218-1649-7.

[4] 300 BC Euclides, Elements - El algoritmo de Euclides genera una fraccin continua como un producto-por

[5] 1579 Rafael Bombelli, L'Algebra Opera

[6] 1613 Pietro Cataldi, Trattato del modo brevissimo di trovar la radice quadra delli numeri, (Tratado sobre un modo rpido
de encontrar la raz cuadrada de un nmero).

[7] 1695 John Wallis, Opera Mathematica

[8] 1748 Leonhard Euler, Introductio in analysin innitorum, Vol. I, Chapter 18.

[9] Brahmagupta (598 - 670) fue el primer matemtico en hacer un estudio sistemtico de la ecuacin de Pell.

[10] 1813 Karl Friedrich Gauss, Werke, Vol. 3, pp. 134-138.

[11] 1895 Helge von Koch, Bull. Soc. Math. de France, Sur un thorme de Stieltjes et sur les fractions continues.

[12] Cuando z se toma entero, esta funcin es bastante famosa, genera la razn area y la sucesin estrechamente relacionada
de medias plateadas.

[13] 1929 Oskar Perron, Die Lehre von den Kettenbrchen derives even more general extension and contraction formulas for
continued fractions.

[14] Angell, David. (2007), Irrationality and Transcendence - Lamberts Irrationality Proofs, School of Mathematics, University
of New South Wales, http://web.maths.unsw.edu.au/~{}angell/5535

[15] Esta interpretacin intuitiva no es rigurosa porque una fraccin continua no es una transformacin , sino el lmite de una su-
cesin de transformaciones. Esta construccin de una fraccin continua innita es completamente anloga a la construccin
de un nmero irracional como el lmite de una sucesin de Cauchy de nmeros racionales.

[16] Because of analogies like this one, the theory of conformal mapping is sometimes described as rubber sheet geometry.

[17] Una aproximacin al problema de la convergencia es construir fracciones continuas denidas positivas, para las cuales los
denominadores Bi nunca son cero.

3.3 Teorema de representacin conforme de Riemann


En anlisis complejo el teorema del mapeo de Riemann o teorema de representacin conforme de Riemann
establece que dado un dominio del plano complejo simplemente conexo cuya frontera contenga al menos un punto,
existe una aplicacin holomorfa y biyectiva de dicho dominio sobre el disco unidad. Tiene una relacin inversa con
la geometra hiperblica de Lobachebski.
El teorema se debe al matemtico Bernhard Riemann quien lo enunci en su tesis doctoral de 1851 sobre funciones
de variable compleja.
Captulo 4

Funciones elpticas

4.1 Funcin elptica


En anlisis complejo, una funcin elptica es, hablando toscamente, una funcin denida sobre el plano complejo
y peridica en ambas direcciones. Las funciones elpticas pueden ser vistas como generalizaciones de las funciones
trigonomtricas (las cuales nicamente tienen la periodicidad en una direccin, paralela a la recta real). Histrica-
mente, las funciones elpticas fueron descubiertas como las funciones inversas de las integrales elpticas; estas fueron
estudiadas en relacin con el problema de la longitud de arco en una elipse, de donde el nombre se deriva.

4.1.1 Denicin
Formalmente, una funcin elptica es una funcin meromorfa f denida sobre C para la que existen dos nmeros
complejos no nulos a y b tal que

f(z + a) = f(z + b) = f(z) para todo z perteneciente a C

y tal que a/b no es un real. De esto se deduce que

f(z + ma + nb) = f(z) para todo z perteneciente a C y para todo entero m y n.

En el desarrollo de la teora de las funciones elpticas, la mayora de autores modernos utilizan la notacin creada por
Karl Weierstrass: la notacin de las funciones elpticas en forma de Weierstrass basadas en la funcin es cmoda
y cualquier funcin elptica puede ser expresada a partir de estas. Weierstrass se interes en estas funciones cuando
era estudiante de Christoph Gudermann, un estudiante de Carl Friedrich Gauss. Las funciones elpticas introducidas
por Carl Jacobi, y la funcin auxiliar theta (no doble peridica), son ms complicadas pero ambas importantes para
la historia y para la teora general. La diferencia ms importante entre estas dos teoras es que las funciones de
Weierstrass tienen polos de alto orden situados en las esquinas de un retculo peridico, mientras que las funciones
de Jacobi tienen polos simples.
El estudio de las funciones elpticas est estrechamente relacionado con el estudio de las funciones modulares y las
formas modulares, relacin demostrada por el teorema de Taniyama-Shimura. Algunos ejemplos de esta relacin son
el invariante j, las series de Eisenstein y la funcin eta de Dedekind.

4.1.2 Propiedades
Cualquier nmero tal que f(z + ) = f(z) para toda z de C se le llama period de f. Si dos periodos a y b son tales
que cualquier otro periodo puede ser escrito como = ma + nb con m y n enteros , entonces a y b se les llama
periodos fundamentales. Toda funcin elptica tiene un par fundamental de perodos, aunque este par no es nico,
como se describe ms adelante.
Si a y b son periodos fundamentales que describen un retculo, entonces exactamente el mismo retculo puede ser
obtenido por los periodos fundamentales a' y b' donde a' = p a + q b y b' = r a + s b donde p, q, r y s son enteros

20
4.2. FUNCIONES DE WEIERSTRASS 21

( )
p q
que satisfacen p s q r = 1. Dicho de otra forma, la matriz tiene determinante unidad, por lo que pertenece
r s
al grupo modular. En otras palabras, si a y b son periodos fundamentales de una funcin elptica, entonces tambin
lo son a' y b' .
Si a y b son periodos fundamentales, entonces cualquier paralelogramo con vertices z, z + a, z + b, z + a + b se
le llama paralelogramo fundamental. Moviendo dicho paralelogramo mltiples de a y b obtenemos una copia del
paralelogramo, y la funcin f se comporta idnticamente sobre todas esas copias, debido a esta periodicidad.
El nmero de polos es cualquier paralelogramo es nito (e igualmente para todo paralelogramo fundamental). A no
ser que la funcin elptica sea constante, todo paralelogramo fundamental tiene al menos un polo como consecuencia
del teorema de Liouville.
La suma de los rdenes de los polos en cualquier paralelogramo fundamental se le llama el orden de la funcin elptica.
La suma de los residuos de los polos en cualquier paralelogramos fundamental es igual a cero, en particular, ninguna
funcin elptica puede tener orden uno.
El nmero de ceros (contados con su multiplicidad) en cualquier paralelogramo fundamental es igual al orden de la
funcin elptica.
La derivada de una funcin elptica es otra funcin elptica con los mismos periodos. El conjunto de todas las funciones
elpticas con el mismo periodo fundamental forman un cuerpo.
Las funciones elpticas en forma de Weierstrass son el prototipo de funcin elptica, y de hecho, el cuerpo de
funciones elpticas para un retculo dado se genera a partir de y su derivada .

4.1.3 Vase tambin


Funcin elptica de Jacobi

Funcin elptica de Weierstrass

4.2 Funciones de Weierstrass


En el mbito de las matemticas, las funciones de Weierstrass son un conjunto de funciones especiales de variable
compleja que son auxiliares a la funcin elptica de Weierstrass. Han sido nombradas en honor al matemtico alemn
Karl Weierstrass (1815 1897), considerado el padre del anlisis moderno.

4.2.1 Funcin sigma de Weierstrass


La funcin sigma de Weierstrass asociada a una grilla bidimensional C se encuentra denida por el producto

( ) 1 2
(z; ) = z w 1 z
w ez/w+ 2 (z/w)

donde:

denota el conjunto {0}

4.2.2 Funcin zeta de Weierstrass

La funcin zeta de Weierstrass se encuentra denida por la suma

( )
(z;) 1 1 1 z
(z; ) = (z;) = z + w zw + w + w2 .

Notar que la funcin zeta de Weierstrass es bsicamente la derivada logartmica de la funcin sigma. La funcin zeta
puede ser re-escrita como:
22 CAPTULO 4. FUNCIONES ELPTICAS


(z; ) = 1
z k=1 G2k+2 ()z 2k+1 donde G2k+2 es la serie de Eisenstein de peso 2k + 2 .

Tambin es interesante notar que la derivada de la funcin zeta es (z) , donde (z) es la funcin elptica de Weiers-
trass.
No debe confundirse la funcin zeta de Weierstrass con la funcin zeta de Riemann de la teora de nmeros.

4.2.3 Funcin eta de Weierstrass


La funcin eta de Weierstrass est denida por la expresin

(w; ) = (z + w; ) (z; ), para todo z C

Se puede demostrar que est bien denida, o sea (z + w; ) (z; ) solo depende de w. No se debe confundir la
funcin eta de Weierstrass con la funcin eta de Dedekind.

4.2.4 Funcin p de Weierstrass


La funcin p de Weierstrass est denida por la expresin

(z; ) = (z; ), para todo z C

La funcin p de Weierstrass es una funcin par elptica de rden N=2 con un nico polo doble en cada grilla.
Captulo 5

Supercies de Riemann

5.1 Supercie de Riemann


Supercie de Riemann que aparece al extender el dominio de la funcin f (z) = z

En geometra algebraica, una supercie de Riemann es una variedad compleja de dimensin (compleja) uno. Con-
secuentemente, la variedad real subyacente ser de dimensin 2.

5.1.1 Historia

El desarrollo de la idea de supercie de Riemann comenz a mediados del siglo XIX de la mano del matemtico
Bernhard Riemann, con los intentos de extender el dominio de denicin de funciones analticas f:U C denidas
sobre un abierto U del plano complejo. La extensin maximal (extensin analtica) se lograba no sobre el propio plano

23
24 CAPTULO 5. SUPERFICIES DE RIEMANN

complejo, sino sobre copias de abiertos del mismo que se solapaban, en lo que hoy da conocemos como variedad
compleja de dimensin uno.

5.1.2 Concepto
Una variedad real de dimensin 2 puede convertirse en una supercie de Riemann (frecuentemente de varios modos
no equivalentes) si y slo s es orientable. De este modo, la esfera y el toro admitirn estructuras complejas, pero la
banda de Mbius, la botella de Klein y el plano proyectivo real no.
Se sabe que la 2-esfera tiene una sola estructura analtica. Mientras que cada supercie orientable de gnero mayor
que cero tiene una innidad, constrastando con el punto de vista diferenciable ya que las supercies slo tienen una
estructura diferenciable.
Las supercies de Riemann
constituyen el lugar natural donde estudiar el comportamiento global de numerosas fun-
ciones (p ej f (z) = (z) , f (z) = log(z) ).

5.1.3 Ejemplos
Sea S = C {} y sea f(z) = z donde z pertenece a S \ {} y g(z) = 1 / z donde z pertenece a S \ {0} y 1/ se
dene como 0. As denidas, f y g son cartas complejas compatibles, y { f, g } es un atlas para S, convirtiendo
a S en una supercie de Riemann compacta llamada la esfera de Riemann.

Sea G un grupo de biholomorsmos de una supercie de Riemann X , que acta de modo libre y propiamente
discontinuo, entonces el espacio cociente Y es una supercie de Riemann y la proyeccin p: X Y es una
aplicacin recubridora.

Por ejemplo, G puede ser un grupo de traslaciones del plano complejo,. Sea G el grupo generado por
dos traslaciones independientes, por ejemplo:
T : z z + 1, U :z z+a
donde a es un nmero complejo no real. El espacio cociente ser homeomorfo al toro, La topologa no
depender de la eleccin de a (es siempre un toro), pero la estructura compleja cambia sensiblemente al
variar a.

Numerosos ejemplos de supercies de Riemann no compactas se obtienen por el procedimiento de extensin


analtica.

5.1.4 Funciones
Toda supercie de Riemann no compacta admite funciones holomorfas no constantes.
Esto contrasta con que en una supercie de Riemann compacta toda funcin holomorfa es constante debido al princi-
pio del mximo. Sin embargo, en supercies compactas siempre existirn funciones meromorfas no constantes, que
pueden considerarse como aplicaciones holomorfas de la supercie sobre la esfera de Riemann C {}).

5.1.5 Clasicacin de supercies de Riemann


El conjunto de supercies de Riemann puede dividirse en tres tipos: las supercies hiperblicas, las parablicas y las
elpticas. Esta divisin viene dada por el teorema de uniformizacin, que garantiza que toda supercie de Riemann
simplemente conexa es conformemente equivalente a una de las siguientes:
5.1. SUPERFICIE DE RIEMANN 25

al plano complejo C

a la esfera de Rieman C {}, tambin llamada lnea proyectiva compleja P1 C o


al disco abierto D := {z C : |z| < 1} o a la supercie equivalente formada por el semiplano superior H := {z
C : Im(z) > 0}.

En caso de que la supercie X no sea simplemente conexa, podremos armar que su recubridor universal Y es con-
formemente equivalente a uno de los tres modelos anteriores. En ese caso, la supercie X podr obetenersese como
el espacio cociente de Y bajo la accin de un grupo de biholomorsmos del recubridor Y que acte de modo libre
(es decir, sin puntos jos) y propiamente discontinuo.

Cocientes de la esfera (supercies elpticas)

Los biholomorsmos de la esfera son exactamente las transformaciones de Moebius. Como una transformacin de
Moebius siempre deja un punto jo, no obtendremos ningn cociente de la esfera.

Cocientes del plano (supercies parablicas).

Los biholomorsmos del plano complejo que actan de modo libre y propiamente discontinuo son las traslaciones, en
concreto los grupos de traslaciones con uno o dos generadores, isomorfos a Z o a Z + Z . Los cocientes respectivos
son topolgicamente equivalentes a una corona circular o a un toro.
Al ser las traslaciones isometras respecto de la mtrica plana del plano, inducen una mtrica plana en el cociente.

Cocientes del disco (supercies hiperblicas).

Un grupo de biholomorsmos del disco que acte de modo libre y propiamente discontinuo se dice un grupo Fuch-
siano. Existen numerosos grupos Fuchsianos, y su estudio es un ramo importante de la geometra moderna.
Como todo biholomorsmo del disco resulta ser una isometra de la mtrica hiperblica del disco unidad, tambin
conocida como mtrica de Poincar, se induce una mtrica hiperblica en el cociente.

5.1.6 Referencias
Hershel M. Farkas and Irwin Kra, Riemann Surfaces (1980), Springer-Verlag, New York. ISBN 0-387-90465-4

Jrgen Jost, Compact Riemann Surfaces (2002), Springer-Verlag, New York. ISBN 3-540-43299-X
Artculo Riemann surface en Encyclopaedia of Mathematics
Captulo 6

Text and image sources, contributors, and


licenses

6.1 Text
Funcin holomorfa Fuente: http://es.wikipedia.org/wiki/Funci%C3%B3n%20holomorfa?oldid=79103160 Colaboradores: Sms, Tano4595,
Jsanchezes, Rembiapo pohyiete (bot), Orgullobot~eswiki, RobotQuistnix, Francosrodriguez, Yrbot, YurikBot, KnightRider, Giro720, Da-
vius, Thijs!bot, JAnDbot, TXiKiBoT, Rei-bot, VolkovBot, BOTarate, DragonBot, Estirabot, Artra, Alexbot, Juan Mayordomo, Raulshc,
Kadellar, Alecas000, Xario, Luckas-bot, MystBot, ArthurBot, Xqbot, Belerofontesp, Kismalac, TobeBot, ZroBot, ChuispastonBot, Me-
troBot, Acratta, YFdyh-bot, Addbot y Annimos: 22
Funcin meromorfa Fuente: http://es.wikipedia.org/wiki/Funci%C3%B3n%20meromorfa?oldid=64945865 Colaboradores: Tano4595,
GermanX, Wewe, Ricard Delgado Gonzalo, CEM-bot, JAnDbot, Uruk, VolkovBot, Muro Bot, Gerakibot, Gato ocioso, Farisori, Juan
Mayordomo, MastiBot, SpBot, DumZiBoT, Luckas-bot, MystBot, ArthurBot, Xqbot, TobeBot, Dinamik-bot, ZroBot, KLBot2 y An-
nimos: 4
Productorio Fuente: http://es.wikipedia.org/wiki/Productorio?oldid=77941027 Colaboradores: Sabbut, Magister Mathematicae, Cami-
ma, Marianov, Rovnet, VolkovBot, Feministo, Loveless, Bigsus-bot, Camiloalcubo2, Dnu72, Botito777, Raulshc, Luckas-bot, Anselmi-
Juan, Euclides, Proferichardperez, EmausBot, ZroBot, MerlIwBot, Thehelpfulbot, MahdiBot, Addbot y Annimos: 12
Teorema de factorizacin de Weierstrass Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20factorizaci%C3%B3n%20de%20Weierstrass?
oldid=73929112 Colaboradores: BOT-Superzerocool, Urdangaray, Drinibot, Raulshc, LucienBOT, KLBot2, Invadibot y Makecat-bot
Transformacin conforme Fuente: http://es.wikipedia.org/wiki/Transformaci%C3%B3n%20conforme?oldid=73758495 Colaborado-
res: Wewe, Alfredobi, Rosarinagazo, Felipe Cruz G., SieBot, Juan Mayordomo, Raulshc, Luckas-bot, Xqbot, Kismalac, EmausBot, Z-
roBot, KLBot2, Elvisor, Addbot y Annimos: 1
Fraccin continua generalizada Fuente: http://es.wikipedia.org/wiki/Fracci%C3%B3n%20continua%20generalizada?oldid=67946194
Colaboradores: Tartaglia, CEM-bot, Drinibot, Bigsus-bot, Raulshc, CayoMarcio, MAfotBOT, MerlIwBot, KLBot2 y Annimos: 4
Teorema de representacin conforme de Riemann Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20representaci%C3%B3n%
20conforme%20de%20Riemann?oldid=73929059 Colaboradores: Lourdes Cardenal, Digigalos, Drini2, CEM-bot, Davius, Botones, Ur-
dangaray, Belgrano, Muro Bot, PaintBot, Juan Mayordomo, SilvonenBot, Luckas-bot, Barnacaga, KLBot2, Nawiks y Annimos: 3
Funcin elptica Fuente: http://es.wikipedia.org/wiki/Funci%C3%B3n%20el%C3%ADptica?oldid=64945769 Colaboradores: Tano4595,
Aadrover, RobotQuistnix, Yrbot, BOTijo, GermanX, Ricard Delgado Gonzalo, CEM-bot, Davius, TXiKiBoT, AlleborgoBot, Muro Bot,
SieBot, Macarrones, Farisori, Alexbot, Juan Mayordomo, Raulshc, David0811, Luckas-bot, RedBot, Dinamik-bot, EmausBot, KLBot2,
YFdyh-bot y Annimos: 3
Funciones de Weierstrass Fuente: http://es.wikipedia.org/wiki/Funciones%20de%20Weierstrass?oldid=74559280 Colaboradores: Sab-
but, CEM-bot, Davius, Uruk, VolkovBot, Urdangaray, Xqbot, KLBot2 y Annimos: 1
Supercie de Riemann Fuente: http://es.wikipedia.org/wiki/Superficie%20de%20Riemann?oldid=78782891 Colaboradores: Vitami-
ne, GermanX, Er Komandante, Siabef, Juan Marquez, Tamorlan, CEM-bot, Drake 81, Botones, TXiKiBoT, Muro Bot, Alexandrosas,
YonaBot, SieBot, Drinibot, Gato ocioso, Alexbot, Juan Mayordomo, Raulshc, AVBOT, DumZiBoT, Joelcuervo, Luckas-bot, Lu Tup,
Erud, Jkbw, D'ohBot, Jerowiki, GrouchoBot, ZroBot, KLBot2, Vagobot y Annimos: 6

6.2 Images
Archivo:Gamma_abs.png Fuente: http://upload.wikimedia.org/wikipedia/commons/4/44/Gamma_abs.png Licencia: Public domain Co-
laboradores: Trabajo propio Artista original: FredStober
Archivo:Riemann_sqrt.jpg Fuente: http://upload.wikimedia.org/wikipedia/commons/b/b5/Riemann_sqrt.jpg Licencia: CC-BY-SA-3.0
Colaboradores: Transferido desde en.wikipedia a Commons. Artista original: Elb2000 de Wikipedia en ingls

26
6.3. CONTENT LICENSE 27

6.3 Content license


Creative Commons Attribution-Share Alike 3.0
413 - Geometra Diferencial
ndice general

1 Geometra diferencial 1
1.1 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 lgebra tensorial 3
2.1 Construccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 lgebra tensorial de una variedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.3 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3 Producto exterior 5
3.1 Teora Grassmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.2 Teora moderna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.3 Producto cua de espacios, potencia exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.4 Denicin con generalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5 lgebras de Grassmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.6 Formas diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4 Variedad diferenciable 8
4.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4.1.1 Generalizacin de los conceptos de curva y supercie . . . . . . . . . . . . . . . . . . . . 8
4.1.2 Un poco de historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4.1.3 Conceptos previos de variedades topolgicas . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2.1 Estructura diferenciable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2.2 Variedad diferenciable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2.3 Subvariedad diferenciable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3 Clculo en variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.1 Aspectos que se generalizan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.2 Vectores tangentes en un punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.3 Aplicaciones diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.4 Relacin con variedades topolgicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.5 Deniciones alternativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

i
ii NDICE GENERAL

4.5.1 Denicin mediante parametrizaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 11


4.5.2 Deniciones en espacios eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.6 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.7 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

5 Funcin diferenciable 15
5.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.2 Visualizacin Geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.3 Funciones reales de una variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.4 Ejemplos para funciones de dos variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.4.1 De funcin diferenciable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.4.2 De funcin derivable no-diferenciable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.4.3 De funcin no-continua y no-diferenciable . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.5 Funcin diferenciable de varias variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.6 Funcin diferenciable entre variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.7 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.8 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

6 Grupo de Lie 17
6.1 Tipos de grupos de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.2 Homomorsmos e isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.3 El lgebra de Lie asociada a un grupo de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.4 Lista de algunos grupos de Lie reales y de sus lgebras de Lie . . . . . . . . . . . . . . . . . . . . 19
6.5 Lista de algunos grupos de Lie complejos y de sus lgebras de Lie . . . . . . . . . . . . . . . . . . 19
6.6 Lista de algunos grupos de Lie de dimensin innita . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.7 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.8 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

7 Espacio tangente 20
7.1 Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.2 Espacio tangente R n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.3 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

8 Diferencial (matemtica) 22

9 Denicin de diferencial 23
9.1 Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
9.2 Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
9.3 Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

10 Teorema de la funcin inversa 26


10.1 Enunciado del Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
10.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
10.3 Generalizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
NDICE GENERAL iii

10.3.1 Variedades diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27


10.4 Inversa global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
10.5 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
10.6 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

11 Teorema de la funcin implcita 28


11.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
11.2 Enunciado general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
11.3 Diferenciacin de funciones dadas de forma implcita . . . . . . . . . . . . . . . . . . . . . . . . . 30
11.4 Aplicacin prctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
11.5 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
11.6 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
11.6.1 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

12 Campo vectorial 32
12.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
12.1.1 Operaciones con campos vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
12.1.2 Derivacin y potenciales escalares y vectores . . . . . . . . . . . . . . . . . . . . . . . . . 33
12.1.3 Puntos estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
12.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.2.1 Campo gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.2.2 Campo central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.2.3 Campo solenoidal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.3 Integral curvilnea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.4 Curvas integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.5 Teorema de Poincar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
12.6 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

13 Corchete de Lie (campos de vectores) 37


13.1 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
13.2 Coecientes de estructura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
13.3 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

14 lgebra de Lie 39
14.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
14.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
14.3 Homomorsmos, sublgebras e ideales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
14.4 Clasicacin de las lgebras de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
14.5 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
14.6 Temas relacionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

15 Curva integral de un campo vectorial 42


15.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
iv NDICE GENERAL

15.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

16 Derivada exterior 43
16.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
16.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
16.3 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

17 Derivada de Lie 44
17.1 Derivada de Lie de campos tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
17.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
17.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
17.4 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 46
17.4.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
17.4.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
17.4.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Captulo 1

Geometra diferencial

En matemticas, la geometra diferencial es el estudio de la geometra usando las herramientas del anlisis matem-
tico por mtodos diferenciales. Los objetos de estudio de este campo son las variedades diferenciables (tal y como la
topologa diferencial) as como las nociones de conexin y curvatura (que no se estudia en la topologa diferencial).
Las aplicaciones modernas de la geometra diferencial han dado el estado del arte que goza la fsica, por ejemplo el
estudio de la Teoria de la Relatividad.

1.1 Vase tambin


Sobre curvas, supercies y variedades:
Geometra diferencial de curvas
Geometra diferencial de supercies
Geometra diferencial de variedades.
Construcciones tcnicas tiles en geometra diferencial:
Grupo de Lie
Fibrado
Clase caracterstica
Derivada covariante.
Geometra diferencial y fsica:
Geometra riemanniana
Teora de gauge
tensor de curvatura
Relatividad

Matemticas vinculadas
lgebra, lgebra multilineal
Variable compleja
Ecuaciones diferenciales
Anlisis funcional, Clculo innitesimal
Mtodos numricos
Geometra analtica, Geometra algebraica, Geometra simplctica
teora de categoras

En su concepcin moderna la geometra diferencial podra confundirse con el lgebra multilineal

1
2 CAPTULO 1. GEOMETRA DIFERENCIAL

1.2 Enlaces externos


Curso avanzado de geometra diferencial, por lvaro Tejero Cantero y Marta Balbs Gambra (con licencia
libre)
Captulo 2

lgebra tensorial

En matemtica, el lgebra tensorial es (dentro del lgebra abstracta) una construccin de un lgebra asociativa
(T(V ),+,) partiendo de un espacio vectorial (V,K,+) (sobre el cuerpo K ). Las lgebras tensoriales pueden ser vistas
como una generalizacin del clculo tensorial.

2.1 Construccin
Un lgebra tensorial se construye a partir de una base de la misma: partiendo de una base vectorial del espacio vectorial
base V , se dene un producto tensorial no conmutativo de estos elementos y no sujeto a ninguna restriccin (ms all
de la asociatividad, de la ley distributiva y las K -linealidades, donde T(V ) est denido sobre el cuerpo K ). Una vez
denidos esos productos, el conjunto T(V ) est formado por combinaciones de esos mismos productos. Por lo tanto,
T(V ) , mirada en trminos que no son intrnsecos, se puede ver como el lgebra de polinomios en n variables que no
conmutan sobre K, si V tiene dimensin n. Otras lgebras de inters tales como el lgebra exterior aparecen como
cocientes de T(V ) , como relaciones impuestas por generadores.
La construccin de T(V ) es una suma directa de partes graduadas Tk para k = 0, 1, 2,...:

T(V ) = k Tk (V ) = T0 (V ) T1 (V ) T2 (V ) . . .

Donde Tk es el producto tensorial de V con s mismo k veces:

k
z }| {
T (V ) = V V
k

y T0 (V )=K es un espacio vectorial unidimensional. La funcin de multiplicacin en Ti y Tj mapea a T i + j y es la


yuxtaposicin natural de los tensores puros, ampliados por bilinealidad. Es decir, el lgebra tensorial es representante
de las lgebras con tensores covariantes que se forman de V y de cualquier rango. Para tener el lgebra completa de
tensores, contravariantes as como covariantes, se debe tomar T(W ) donde W es la suma directa de V y de su espacio
dual - esto consistir en todos los tensores TIJ con los ndices superiores J e ndices inferiores I, en la notacin clsica.
Uno tambin se puede referir a T(V ) como el lgebra libre sobre el espacio vectorial V . De hecho,el funtor que lleva
una K-lgebra A a su espacio K-vectorial subyacente est en un par de funtores adjuntos con T, que es su adjunto
izquierdo. El punto de vista de lgebra libre es til para construcciones como la de un lgebra de Cliord o un lgebra
envolvente universal, donde la pregunta sobre la existencia se puede resolver comenzando con T(V) e imponiendo
despus las relaciones requeridas.
La construccin se generaliza fcilmente al lgebra tensorial de cualquier mdulo M sobre un anillo conmutativo.

2.2 lgebra tensorial de una variedad


Dada una variedad diferenciable puede denirse localmente un espacio tangente a partir del cual se puede denir
un lgebra tensorial. Como en cada punto se puede denir un espacio tangente, y dados dos puntos sus respectivos

3
4 CAPTULO 2. LGEBRA TENSORIAL

espacios tangentes son isomorfos, puede construirse un lgebra tensorial asociada a toda la variedad diferenciable.

2.3 Vase tambin


Categora monoidal
lgebra exterior

2.4 Enlaces externos


Tensor Algebra en PlanetMath
Captulo 3

Producto exterior

En matemtica, el producto exterior es una antisimetrizacin (alternacin) del producto tensorial. El producto exte-
rior es una multiplicacin asociativa y distributiva de funciones multilineales antisimtrico que sea anticonmutativo
para las funciones con el nmero impar de variables y conmutativo de otra manera. La teora sistemtica empieza en
la construccin de la potencia exterior para un espacio vectorial.

3.1 Teora Grassmann


La teora algebraica se remonta a Hermann Grassmann. Su mtodo de construir las estructuras algebraicas utiliz
generadores y relaciones y no es maniestamente independiente de una base. Grassmann utiliz solamente las lgebras
reales, es decir las lgebras en que los escalares son los nmeros reales (l no hizo ninguna distincin entre los nmeros
reales y las funciones a valores reales, lo que sin embargo cambia la teora algebraica drsticamente.) Sin embargo,
seguimos esta actitud aqu y damos las deniciones para algunos de sus productos: producto (denicin general):

Un producto es una funcin lineal del producto tensorial de un espacio con s mismo en un espacio lineal.
'Nota:' tal producto es distributivo, (a izquierda y derecha) pero puede no ser unital o asociativo.

Producto exterior (producto de la cua):

Sea { e } una base de un espacio vectorial V. Un producto exterior, o producto cua, de dos tales
generadores se dene exigiendo las reglas de cmputo (relaciones) siguientes:

ei ej = eij = eji si y solamente si i = j


ei ei = 0

y se ampla este proceso recursivamente a los productos de un grado ms alto va

ei ej..k = eij..k = eji..k etc.

Ntese que el producto toma valores en un nuevo espacio V V (ndice doble) que sea un espacio factor del producto
tensorial V V . El producto es asociativo por denicin y alternante, es decir se anula si dos ndices son iguales.
Un clculo combinatorio breve demuestra que a partir de n vectores de base se obtienen 2n productos linealmente
independientes. Estos productos construyen el espacio V vectorial subyacente a un lgebra de Grassmann (vase
abajo). El producto exterior se extiende al espacio entero V por bilinealidad. El lgebra de Grassmann es un lgebra
graduada. Denimos el grado de los escalares como cero y el grado de los vectores de base como 1. El grado de un
producto diferente a cero de generadores cuenta el nmero de generadores. El espacio de un lgebra de Grassmann
se puede por lo tanto descomponer en una suma directa de subespacios homogneos de grado denido, es decir el
espacio expandido por todos los productos que tienen exactamente k generadores:

V = V 0 V 1 V n
donde V 0 se identica con R , los nmeros reales

5
6 CAPTULO 3. PRODUCTO EXTERIOR

3.2 Teora moderna


Como en el caso de los productos tensoriales, el nmero de las variables de la cua de dos funciones son la suma de
los nmeros de sus variables:
Denicin:

(k + m)!
= Alt( )
k! m!
donde k y m son los nmeros de las variables para cada una de las dos funciones y alternaciones antisimtricas de una
funcin se dene como el promedio signado de los valores sobre todas las permutaciones de sus variables:

1
Alt() = sgn() [(x1 ), ...(xk )]
k!
k

3.3 Producto cua de espacios, potencia exterior


El producto cua de dos espacios vectoriales se pueden identicar con el subespacio de su producto tensorial generados
por los tensores antisimtricos. (esta denicin, trabaja solamente con cuerpos de caracterstica cero. En trabajo
algebraico uno puede necesitar una denicin alternativa, basada en una propiedad universal. Esto signica tomar
un cociente apropiado del producto tensorial, de la misma dimensin. La diferencia es irrelevante para los espacios
vectoriales reales y complejos.)
El producto cua de un espacio vectorial de V con s mismo k veces se llama su potencia exterior k-sima y es el
k V. Si dim de V = n, entonces dim k V es (n ) = n!/(k!(n-k)!).
Ejemplo: V * sea el espacio dual de V, es decir el espacio de todos las funciones lineales de V a R. la segunda potencia
exterior V * es el espacio de todos los mapas bilineales antisimtricos de V x V a R.

3.4 Denicin con generalidad


La denicin de un operador multilineal antisimtrico es un operador m: Vn X tales que si hay una dependencia
lineal entre sus argumentos, el resultado es 0. Observe que la adicin de dos operadores antisimtricos, o la multipli-
cacin de uno por un escalar, sigue siendo antisimtrica -- por tanto los operadores multilineales antisimtricos en
Vn forma un espacio vectorial. El ejemplo ms famoso de un operador antisimtrico es el determinante. El espacio
n-sima cua W, para un mdulo V sobre un anillo conmutativo R, junto con el operador cua lineal antisimtrico
w: Vn W es tal que para cada operador antisimtrico n-lineal m: Vn X existe un operador lineal nico l: W
X tal que m = l o w. La cua es nica mdulo un isomorsmo nico.
Una forma de denir el espacio cua constructivamente es dividiendo el espacio tensorial por el subespacio generado
por todos los tensores de los n-uplas que son linealmente dependientes.
La dimensin del espacio cua k-simo para un mdulo libre de dimensin n es (n ) = n!/(k!(n-k)!). En particular, ese
signica que mdulo una constante, hay un nico funcional antisimtrico con la aridad de la dimensin del espacio.
Tambin observe que cada funcional lineal es antisimtrico. Observe asimismo que el operador cua conmuta con
el operador * . Es decir podemos denir una cua en funcionales tales que el resultado es un funcional multilineal
antisimtrico. En general, podemos denir la cua de un funcional antisimtrico m-lineal y un funcional antisimtrico
n-lineal dando un funcional antisimtrico (m+n)-lineal. Puesto que resulta que esta operacin es asociativa, podemos
tambin denir la potencia de un funcional lineal antisimtrico.

3.5 lgebras de Grassmann


Un lgebra de Grassmann abstracta (tambin conocida como lgebra exterior) es un lgebra asociativa unital K
generado por un conjunto S conforme a la relacin +=0 para cualquier , en S. Esta denicin dice que los
generadores son cantidades anticonmutativas y debe ser modicada en caso de que K tenga caracterstica 2.
3.6. FORMAS DIFERENCIALES 7

La construccin de tal lgebra es la misma construccin del producto cua dada arriba: tome el espacio vectorial V
que tiene S como base, y la suma directa de todas las potencias exteriores de V, usando el producto cua en cada
parte graduada. Si S es nito de cardinal n, el lgebra de Grassmann tiene como base un producto cua por cada
subconjunto de S, y cada producto compuesto de cuas de elementos de S con repeticiones se iguala a 0.

3.6 Formas diferenciales


Al tratar con variedades diferenciables, denimos n-forma como una seccin de la variedad a la potencia cua n-sima
del brado cotangente. Tal forma se dir diferenciable si, cuando es aplicado a n campos vectoriales diferenciables, el
resultado es una funcin diferenciable. El producto cua tiene sentido punto a punto para las formas diferenciales.
Captulo 4

Variedad diferenciable

En Geometra y Topologa, una variedad diferenciable es un tipo especial de variedad topolgica, a la que podemos
extender las nociones de clculo diferencial que normalmente usamos en Rn . En una variedad diferenciable M
podremos denir lo que es una funcin diferenciable f : M R , y campos de tensores diferenciables (incluidos
campos de vectores). El estudio del clculo en variedades diferenciables se conoce como geometra diferencial.

4.1 Introduccin
Para un desarrollo informal del tema

4.1.1 Generalizacin de los conceptos de curva y supercie

Una variedad diferenciable representa una generalizacin, en dos aspectos bsicos, del concepto de supercie dife-
renciable:

Supone la generalizacin a cualquier nmero de dimensiones. En dimensin 1, una variedad es una curva. En
dimensin 2, una supercie sera un ejemplo de variedad.

Supone otra generalizacin al intentar denir una variedad de modo intrnseco. Por ejemplo, una curva o una
supercie suelen describirse embebidas en un espacio ambiente R, pero podran describirse sin hacer alusin a
l. Es ms, existen casos de variedades de dimensin 2 que no podrn verse embebidas en un espacio eucldeo
de dimensin 3 (pero s de dimensin superior).

Antes de hacer la segunda generalizacin, podramos pensar que una variedad es diferenciable, informalmente ha-
blando, si cada uno de sus puntos tiene espacio tangente, es decir, no tiene picos ni los. Pero para hacer una
denicin formal necesitaremos que esta no haga alusin a un posible embebimiento de la variedad en un espacio
ambiente.

4.1.2 Un poco de historia

Riemann, en el siglo XIX, observ la importancia de denir la nocin de variedad de un modo intrnseco, sin re-
querir que el espacio topolgico subyacente estuviera embebido en un espacio afn. La denicin formal precisa fue
introducida por primera vez por Hermann Weyl en 1913.
Las variedades diferenciables aparecen en diversos campos de la Fsica:

En Relatividad general, el espacio (de dimensin 3) y el tiempo forman una variedad de dimensin 4 llamada
espacio-tiempo.

Muchas teoras modernas, como la Teora de cuerdas, operan en una variedad de dimensin mayor que 4.

8
4.2. DEFINICIN 9

En mecnica clsica, para describir la situacin de un slido rgido en el espacio se necesitan 6 parmetros (3
que describan la posicin de su centro de masas y otros 3 que corresponden a los grados de libertad rotacional).
Una situacin concreta de un slido quedar descrita como un punto en una variedad diferenciable de dimensin
6, que se denomina espacio de conguracin del slido rgido.

4.1.3 Conceptos previos de variedades topolgicas

Recordemos los conceptos de variedad topolgica y de cartas:

Una variedad topolgica de dimensin n 0 es un espacio topolgico M (que suele suponerse Hausdor
y ANII) en el que para cada p M existe un entorno abierto Up M homeomorfo a un abierto de Rn
mediante p : Up Vp Rn .

Un par (Up , p ) bajo estas condiciones se denomina carta o sistema coordenado sobre M para p , y la
aplicacin p se denomina aplicacin coordenada para p .

Cada aplicacin coordenada se podr desglosar como un conjunto de n funciones coordenadas (x1 , , xn )
: en efecto, si para cada j {1, ..., n} Z convenimos en representar por rj a la funcin rj : Rn R
que a cada q = (q1 , ..., qn ) Rn le hace corresponder rj (q) = qj (es decir, la j -sima coordenada de q ),
denominaremos a la aplicacin xj = rj p como la funcin coordenada para p .

Podramos cuestionarnos cmo sera posible determinar si una funcin f : M R denida en una variedad topol-
gica es una funcin diferenciable. Aparentemente bastara exigir que f 1 , su expresin en un entorno coordenado
sea diferenciable. Pero esta condicin no sera consistente si realizamos un cambio de carta. En efecto, si observamos
su expresin en otra carta:

f 1 1 1 1 1
= f ( ) = (f ) ( )

necesitaremos para mantener la consistencia que el cambio de cartas representado por el ltimo parntesis sea dife-
renciable. Esta exigencia es la base de la denicin de estructura diferenciable.

4.2 Denicin

4.2.1 Estructura diferenciable

Dada una variedad topolgica M y un nmero entero r 0 , una estructura diferenciable (o atlas maximal) F de
clase r sobre M es una familia {(U , ) : } de sistemas coordenados sobre M de manera que se cumpla que:


1. U recubre M, es decir, U = M ,

2. dados dos cualesquiera , ha de ocurrir que la aplicacin 1


, llamada cambio de cartas sea
diferenciable de orden r .

3. F es maximal (relativo al orden dado por la inclusin de conjuntos) entre todas las familias de entornos coor-
denados sobre M bajo las condiciones 1 y 2.

4.2.2 Variedad diferenciable

Se dice que el par (M, F ) formado por la variedad topolgica M de dimensin n y por la estructura diferenciable F
de clase r es una variedad diferenciable de dimensin n y clase r .
Hay una cierta confusin sobre la terminologa variedad diferenciable (sin ms especicaciones) y variedad suave. En
cualquier caso, para evitar confusiones, todos los textos indican qu entienden por variedad diferenciable.
10 CAPTULO 4. VARIEDAD DIFERENCIABLE

4.2.3 Subvariedad diferenciable


Es cualquier subconjunto de una variedad diferenciable que mediante la topologa inducida de la variedad original
sigue teniendo estructura de variedad diferenciable. En general las subvariedades diferenciables son los subconjuntos
de puntos para los cuales es posible denir localmente una funcin diferenciable f que satisfaga:

f (p) = 0, p M

Los conjuntos no suaves, o que satisfaciendo una ecuacin similar a la anterior pero donde f no fuera diferenciable
en general no constituyen subvariedades diferenciables.

4.3 Clculo en variedades

4.3.1 Aspectos que se generalizan


Muchas de las tcnicas del clculo multivariable son aplicables mutatis mutandis en variedades diferenciables. Pode-
mos denir la derivada direccional de una funcin diferenciable en la direccin marcada por un vector tangente a la
variedad. Dicha derivada se comportar de modo similar al de la derivada ordinaria de una funcin denida en el
espacio eucldeo, al menos localmente: habr versiones del teorema de la funcin implcita y de funcin inversa.
Sin embargo, la derivada direccional de un campo de vectores no estar denida de forma directa. Existen varias
generalizaciones que captan ciertas caractersticas formales de la derivacin en espacios eucldeos. Las principales
son:

La derivada de Lie, que queda denida de forma nica por la estructura diferenciable, pero deja de satisfacer
alguna de las propiedades de la derivada direccional.
Una conexin afn que no est denida de forma nica, por lo que debe ser especicada como un dato aadido a
la variedad. Presenta una generalizacin ms completa de las caractersticas de la derivada direccional ordinaria.

Las ideas del clculo integral tambin pueden extenderse a las variedades diferenciables. Encontrarn su expresin
natural en el lenguaje del clculo exterior con formas diferenciables. Teoremas fundamentales del clculo integral
en varias variables, en particular el teorema de Green, el de la divergencia y el de Stokes se generalizan en un solo
teorema llamado teorema de Stokes.

4.3.2 Vectores tangentes en un punto


En una variedad abstracta, al no considerarse embebida en ningn espacio ambiente, no podremos visualizar el espacio
tangente como un subespacio afn del ambiente. La generalizacin del concepto de espacio tangente requerir concebir
los vectores tangentes como operadores que representan una derivada direccional.
En Rn podemos visualizar un vector Xp = (a1 , , an ) como un operador Xp : C (p) R que acta sobre una
funcin f C (p) diferenciable en un entorno cualquiera de p, y nos devuelve su derivada en la direccin marcada
por Xp :

f
Xp (f ) = ai
xi
En los aos 1960 surge la denicin axiomtica de vector tangente en un punto de una variedad, como generali-
zacin de lo anterior. Un vector Xp tangente a una variedad ser un operador Xp : C (p) R que satisfaga:

1. la condicin de linealidad: Xp (f + g) = Xp (f ) + Xp (g)


2. la regla de Leibniz: Xp (f g) = Xp (f )g(p) + f (p)Xp (g) .

El conjunto de vectores tangentes en un punto forman un espacio vectorial de la misma dimensin que la variedad
llamado espacio tangente en p y notado como Tp M . En principio, espacios tangentes en puntos distintos no son
comparables. Pero podemos formar con ellos una variedad de dimensin el doble de la dimensin de M, que se
llamar brado tangente y se notar como TM. Como conjunto, T M = pM Tp M
4.4. RELACIN CON VARIEDADES TOPOLGICAS 11

4.3.3 Aplicaciones diferenciables


Una aplicacin F : M N se dir diferenciable si su expresin en cartas lo es. Formalmente, F es diferenciable
si para todo punto p de M podemos encontrar una carta (U, ) de M que lo contenga y una carta (V, ) de N que
contenga a F(p) tales que F 1 sea diferenciable.
Una aplicacin diferenciable induce un homomorsmo de espacios vectoriales dFp : Tp M Tf (p) N entre los
espacios tangentes respectivos. Al igual que en el clculo diferencial ordinario, podremos aproximar un objeto dife-
renciable (F) por un objeto lineal ( dp F ).

4.4 Relacin con variedades topolgicas


Dada una variedad topolgica, nos podemos preguntar si admitir siempre una estructura diferenciable C k o si dicha
estructura ser nica. En primer lugar, segn un teorema debido a Whitney, en cualquier variedad con una estructura
C k con k>0, hay una nica estructura C compatible con la anterior.
La existencia y unicidad est garantizada en dimensiones menores que 4:

Toda variedad topolgica de dimensin 1, 2, o 3 tiene una nica estructura diferenciable (salvo difeomorsmos).

La situacin es diferente en dimensin superior:

Se conocen ejemplos de variedades topolgicas que no admiten ninguna estructura diferenciable (Teorema de
Donaldson),

y de otras que admiten mltiples estructuras difeomorfas (incluso una cantidad no numerable de ellas).

Algunos ejemplos:

Slo hay una estructura diferenciable (salvo difeomorsmos) sobre Rn excepto cuando n = 4, caso que admite
un nmero no numerable de estructuras diferenciables.

La siguiente tabla muestra el nmero de estructuras diferenciables (mdulo homeomorsmos que conservan la
orientacin) sobre la n-esferas para dimensiones n < 19. Las esferas con estructuras diferenciables diferentes
de la usual se conocen con el nombre de esferas exticas.

4.5 Deniciones alternativas


Existen al menos dos maneras de denir lo que es una variedad diferenciable, ambas equivalentes: por medio de
parametrizaciones o por medio de aplicaciones coordenadas. La diferencia es sutil, pero importante.
Adems, en el caso de espacios eucldeos existe una serie de deniciones equivalentes que son ms sencillas que en
el caso general.

4.5.1 Denicin mediante parametrizaciones.


Sea M un conjunto (en principio pudiera ser vaco, pero es un caso trivial), n 0 y r 0 dos nmeros enteros, una
familia {(U , x ) : } en la que cada U Rn es un abierto y cada x : U M una aplicacin inyectiva,
de manera que se cumpla que:


1. x (U ) = M ,

2. dados cualesquiera dos , de forma que x (U ) x (U ) = W = ha de ocurrir que x1 (W ) y


x1
(W ) son abiertos de R n
y la aplicacin x 1
x es diferenciable de orden r en U (i.e., x 1
x C r (U )
).
12 CAPTULO 4. VARIEDAD DIFERENCIABLE

bajo estas condiciones, cada par (U , x ) de manera que p x (U ) M se denomina una carta local o sistema de
coordenadas de M en p , x se denomina parametrizacin de M para p , x (U ) se denomina entorno coordenado
de p , y la familia {(U , x ) : } es denominada una atlas sobre M . Si un atlas A es maximal (relativo al orden
dado por la inclusin de conjuntos) entre todos los atlas sobre M (por supuesto bajo las condiciones 1 y 2, ya que de
otra manera no sera atlas) se dice que el atlas A es una estructura diferenciable sobre M .
El conjunto {G M : x1 (G) (U ), } (donde aqu (U ) representa la topologa del conjunto U )
no es otra cosa que la topologa nal en M para la familia {(U , x ) : } . Cuando se toma una estructura
diferenciable A sobre M y la topologa nal en M para esa estructura diferenciable hace de M un espacio topolgico
que cumple el segundo axioma de numerabilidad y la propiedad de Hausdor, entonces se dice que el par (M, A)
formado por el conjunto M y la estructura diferenciable A sobre M es una variedad topolgica de dimensin n y
clase r . Cuando adems r > 0 , entonces se dice que (M, A) es una variedad diferenciable (de dimensin n y
clase r ).

4.5.2 Deniciones en espacios eucldeos

Existen al menos cuatro maneras (todas equivalentes entre s) de denir una variedad diferencial cuando se las con-
sidera como subconjuntos de un espacio eucldeo. Cada una de ellas es til, y dependiendo del contexto o de la
dicultad del problema se usar una u otra, o incluso se combinarn varias a la vez.

Representacin implcita de una variedad diferenciable

Sea E un espacio eucldeo de dimensin n 0 y sea S E . Diremos que S es una variedad diferenciable en E de
dimensin k (donde 0 k n es un nmero entero) y clase C r (donde r 1 es un nmero entero) si para cada
x0 S existe un entorno abierto U E de x0 y una aplicacin : U Rnk de manera que:

1. es de clase r sobre U (esto es, C r (U ) ),

2. la matriz jacobiana de tiene rango n k (es decir, rang[D(x0 )] = n k ),

3. S U = {x U : (x) = 0} .

A la igualdad (x) = 0 la llamaremos representacin implcita local de la variedad S en el punto x0 , o simplemente


diremos que la variedad viene dada implcitamente por en x0 .
Si existe un abierto V E y una aplicacin C r (V ) (donde r 1 es un nmero entero) de manera que
S = {x V : (x) = 0, rang[D(x)] = n k} = , a la igualdad (x) = 0 se la denomina representacin
implcita global de la variedad, o se dice simplemente que la variedad viene dada implcitamente por . En este caso
podemos tomar como representacin implcita local para cada punto de S el abierto U = {x V : rang[D(x)] =
n k} y la aplicacin .

Representacin explcita de una variedad diferenciable

Sea E un espacio eucldeo de dimensin n 0 y sea S E . Diremos que S es una variedad diferenciable en E de
dimensin k (donde 0 k n es un nmero entero) y clase C r (donde r 1 es un nmero entero) si para cada
x0 S existen:

1. una base < u1 , u2 , ..., un > de E ,

2. un abierto V E1 de z0 := x10 u1 + x20 u2 + ... + xk0 uk , donde se dene el subespacio E1 como el espacio
generado por {u1 , ..., uk } ,

3. un abierto W E2 de y0 := xk+10 uk+1 + xk+2


0 uk+2 + ... + xn0 un , donde se dene el subespacio E2 como
el espacio generado por {uk+1 , ..., un } ,

4. una aplicacin f : V W de clase r sobre V (esto es, f C r (V ) )de manera que f (z0 ) = y0 y
S (V W ) = {(z, f (z)) E1 E2 : z V } .
4.6. REFERENCIAS 13

La ltima condicin equivale a decir que S (V W ) es la grca Gr(f ) de f . A la igualdad y = f (z), z V


, o simplemente a la aplicacin f , se le denomina representacin explcita local de la variedad S en el punto x0 .
Si existe una nica aplicacin f tal que S = Gr(f ) , entonces f se denomina representacin explcita global de la
variedad.

Representacin difeomrca local de una variedad diferenciable

Sea E un espacio eucldeo de dimensin n 0 y sea S E . Diremos que S es una variedad diferenciable en E de
dimensin k (donde 0 k n es un nmero entero) y clase C r (donde r 1 es un nmero entero) si para cada
x0 S existe un entorno abierto U0 E de x0 y una aplicacin : U0 Rn de manera que:

1. es un difeomorsmo de clase r entre U0 y su imagen (esto es, C r (U0 ) es inyectiva),


2. (S U0 ) = (U0 ) (R {0}nk ) .

A la aplicacin (x) = 0 la llamaremos representacin difeomrca local de la variedad S en el punto x0 .


Hay que observar que, a consecuencia de ser difeomorsmo local y U0 abierto, (U0 ) es tambin un abierto de
Rn .

Representacin paramtrica de una variedad diferenciable

Sea E un espacio eucldeo de dimensin n 0 y sea S E . Diremos que S es una variedad diferenciable en E de
dimensin k (donde 0 k n es un nmero entero) y clase C r (donde r 1 es un nmero entero) si para cada
x0 S existe un entorno abierto U1 E de x0 , un abierto no vaco V Rk , un elemento t0 V y una aplicacin
: V E de manera que:

1. (t0 ) = x0 ,
2. la jacobiana D(t0 ) de en t0 es inyectiva,
3. es un homeomorsmo de clase r sobre V (esto es, C r (V ) es continua, abierta e inyectiva) entre V y
S U1 (con la topologa relativa).

A la aplicacin la llamaremos representacin paramtrica local de la variedad S en el punto x0 .

4.6 Referencias
William M. Boothby, An Introduction to Dierenciable Manifolds and Riemannian Geometry, 2nd ed. San
Diego: Academic Press, 1986.

Carmo, M. do, Riemannian Geometry. Boston: Birkhuser, 1993.

Currs Bosch, C. Geometria diferencial: varietats diferenciables i varietats de Riemann. Barcelona: Edicions
Universitat de Barcelona, 2003.

Girbau, J. Geometria diferencial i relativitat. Bellaterra: Publicacions de la Universitat Autnoma de Barcelo-


na,1993.

Hicks, N. J. Notas sobre la geometra diferencial. Barcelona: Hispano Europea, 1973.

Kobayashi, S., Nomizu, K. Foundations of Dierential Geometry, vol. I. New York [etc.] : Interscience, 1963.

Spivak, M. A. Comprehensive Introduction to Dierential Geometry. Boston [Mass.]: Publish or Perish, 1970-
1975.
14 CAPTULO 4. VARIEDAD DIFERENCIABLE

Volumen I,II,IV.

Warner, F. W. Foundations of Dierentiable Manifolds and Lie Groups. New York : Springer, 1983.

John M. Lee, Introduction to Smooth Manifolds, (2003) Springer Graduate Texts in Mathematics 218.

Roger Penrose: El camino de la realidad, Ed. Debate, Barcelona, 2006, p. 464, ISBN 84-8306-681-5.
Spivak, Michael, Clculo en variedades. Revert (1988), ISBN 84-291-5142-7

Spivak, Michael, A comprehensive introduction to dierential geometry,volume I, Publish or Perish, Inc, Hous-
ton, Texas, 1999, ISBN 0-914098-87-X.

4.7 Enlaces externos


Teora general de la conexin afn por Wenceslao Segura
Captulo 5

Funcin diferenciable

El concepto de funcin diferenciable es una generalizacin para el clculo en varias variables del concepto ms
simple de funcin derivable. En esencia una funcin diferenciable admite derivadas en cualquier direccin y puede
aproximarse al menos hasta primer orden por una aplicacin afn.
La formulacin rigurosa de esta idea intuitiva sin embargo es algo ms complicada y requiere de conocimientos de
lgebra lineal. Debe notarse que aunque una funcin de varias variables admita derivadas parciales segn cada una
de sus variables no necesariamente eso implica que sea una funcin diferenciable.

5.1 Denicin
Una funcin de mltiples variables f : Rn Rm se dir diferenciable en x0 Rn si, siendo un conjunto
abierto en Rn , existe una transformacin lineal T que cumpla:

f (x0 + h) = f (x0 ) + T (h) + (h)

Donde (h) cumple que:

(h)
limh0 h =0

o sea (h) tiende a cero ms rpido que funcin lineal, cuando h tiende a 0. Necesariamente la transformacin
lineal T es la nica cosa que se ve ms claramente si adoptamos como denicin de funcin derivable aquella para
la cual se cumple que exista una aplicacin lineal tal que:

f (x0 +h)f (x0 )T (h)


limh0 h =0

5.2 Visualizacin Geomtrica


Para jar ideas, usando una funcin f : R2 R cuyo grco sera una sbana. La funcin es diferenciable si la
sbana no est quebrada en los puntos donde es diferenciable, o sea la funcin es suave en todos los puntos de
su dominio, existiendo la matriz jacobiana o derivada en esos puntos.

5.3 Funciones reales de una variable


Una funcin real de una variable que admite derivada en todos sus puntos y tal que dicha derivada sea continua es
trivialmente una funcin diferenciable. Por esa razn para funciones reales de una variable el concepto de funcin
derivable y funcin diferenciable son bsicamente equivalentes.
Sin embargo, para funciones de ms de una variable la situacin es ms complicada. Ya que la existencia de derivadas
no comporta que una funcin sea automticamente diferenciable.

15
16 CAPTULO 5. FUNCIN DIFERENCIABLE

5.4 Ejemplos para funciones de dos variables

5.4.1 De funcin diferenciable


La funcin f(x,y) es diferenciable si x, y son diferentes de 0, puesto que existen las derivadas parciales en un entorno
de cualquier punto y son continuas en l:

f (x, y) = ex+y

5.4.2 De funcin derivable no-diferenciable


En cambio la funcin g(x,y) es continua, admite derivadas segn las variables x e y, e incluso derivadas direccionales,
sin embargo no es diferenciable en (0,0):

g(x, y) = x|y|
2x +y 2

5.4.3 De funcin no-continua y no-diferenciable


La funcin h(x, y) no es diferenciable en (0,0) puesto que no es continua en ese punto a pesar de que existen
derivadas parciales de cualquier orden en el punto (0,0):

xy 2
h(x, y) = x4 +y 4

5.5 Funcin diferenciable de varias variables

5.6 Funcin diferenciable entre variedades

5.7 Referencias
Bombal, R. Marn & Vera: Problemas de Anlisis matemtico: Clculo Diferencial, 1988, ed. AC, ISBN 84-
7288-101-6.

5.8 Vase tambin


funcin derivable (caso de una funcin de una variable.)
Captulo 6

Grupo de Lie

El toro es un ejemplo de grupo de Lie homeomorfo a S 1 S 1 .

En matemtica, un grupo de Lie (nombrado as por Sophus Lie) es una variedad diferenciable real o compleja
que es tambin un grupo tal que las operaciones de grupo (multiplicacin e inversin) son funciones diferenciables
o analticas, segn el caso. Los grupos de Lie son importantes en anlisis matemtico, fsica y geometra porque
sirven para describir la simetra de estructuras analticas. Fueron introducidos por Sophus Lie en 1870 para estudiar
simetras de ecuaciones diferenciales.
Mientras que el espacio eucldeo Rn es un grupo de Lie real (con la adicin ordinaria de vectores como operacin de
grupo), ejemplos ms tpicos son grupos de matrices inversibles (multiplicacin de matrices), por ejemplo el grupo
SO(3) de todas las rotaciones en el espacio de 3 dimensiones. Vase abajo para una lista ms completa de ejemplos.

6.1 Tipos de grupos de Lie

Se clasican los grupos de Lie con respecto a sus propiedades algebraicas (simple, semisimple, resoluble, nilpotente,
abeliano), su conexidad (conexo o no conexo) y su compacidad.

17
18 CAPTULO 6. GRUPO DE LIE

6.2 Homomorsmos e isomorsmos


Si G y H son grupos de Lie (reales o complejos ambos), entonces un morsmo de grupos de Lie f: G H es un
homomorsmo de grupo que es tambin una funcin diferenciable o analtica. (Se puede demostrar que es equivalente
a requerir solamente que sea funcin continua.) La composicin de dos tales homomorsmos es otra vez un homo-
morsmo, y la clase de todos los grupos de Lie (reales o complejos), junto con estos morsmos, forma una categora.
Dos grupos de Lie se dicen isomorfos si existe un homomorsmo biyectivo entre ellos cuyo inverso es tambin un
homomorsmo. Los grupos de Lie isomorfos no necesitan, para cualquier propsito prctico, ser distinguidos; se
diferencian solamente en la notacin de sus elementos.

6.3 El lgebra de Lie asociada a un grupo de Lie


A cada grupo de Lie, podemos asociar un lgebra de Lie que captura totalmente la estructura local del grupo. Esto
se hace como sigue. Un campo vectorial en un grupo de Lie G se dice invariante por la izquierda si conmuta con la
traslacin izquierda, que signica lo siguiente. Dena Lg[f](x) = f(gx) para cualquier funcin diferenciable o analtica
f: G F y todo g, x en G (aqu F es el cuerpo R o C). entonces el campo vectorial X es invariante por la izquierda
si X Lg = Lg X para todo g en G.
El conjunto de todos los campos vectoriales en una variedad diferenciable es un lgebra de Lie sobre F. En un grupo
de Lie, los campos vectoriales invariantes por la izquierda forman una sublgebra, el lgebra de Lie asociada a G,
denotado generalmente por una g gtica ( g ). Esta lgebra de Lie g es nito-dimensional (tiene la misma dimensin
que la variedad G) lo que la hace susceptible a las tentativas de clasicacin. Clasicando g, uno puede tambin
conseguir un acercamiento al grupo de Lie G. La teora de representacin de los grupos simples de Lie son el mejor
y ms importante ejemplo.
Cada elemento v del espacio tangente TeG en el elemento identidad e de G determina un campo vectorial invariante
por la izquierda nico cuyo valor en el elemento x de G es denotado xv; el espacio vectorial subyacente a g se puede
por lo tanto identicar con TeG. la estructura del lgebra de Lie en TeG puede tambin ser descrita como sigue: la
operacin del conmutador

(x, y) > xyx1 y 1

en G x G enva (e, e) a e, as que su derivada da una operacin bilineal en TeG. resulta que esta operacin bilineal
satisface los axiomas de un corchete de Lie, y es igual al que es denido a travs de campos vectoriales invariantes
por la izquierda.
Cada vector v en g determina una funcin c: R G cuya derivada en todo punto viene dado por el campo vectorial
invariante por la izquierda correspondiente

c(t) = c(t)v

y que tiene la propiedad

c(s + t) = c(s)c(t)

para todo s y t. La operacin en el lado derecho es la multiplicacin de grupo en G. La semejanza formal de esta
frmula con la que es vlida para la funcin exponencial justica la denicin

exp(v) = c(1)

esto se llama la funcin exponencial, y mapea el lgebra de Lie g en el grupo de Lie G. Proporciona un difeomorsmo
entre una vecindad de 0 en g y una vecindad de e en G. Esta funcin exponencial es una generalizacin de la funcin
exponencial para los nmeros reales (puesto que R es el lgebra de Lie del grupo de Lie de nmeros reales positivos
con la multiplicacin usual), para los nmeros complejos (puesto que C es el lgebra de Lie del grupo de Lie de
6.4. LISTA DE ALGUNOS GRUPOS DE LIE REALES Y DE SUS LGEBRAS DE LIE 19

nmeros complejos diferentes a cero con la multiplicacin usual) y para las matrices (puesto que M(n, R) con el
conmutador regular es el lgebra de Lie del grupo de Lie GL(n, R) de todas las matrices inversibles).
Porque la funcin exponencial es suryectiva en alguna vecindad N de e, es comn llamar a los elementos del lgebra
de Lie generadores innitesimales del grupo G. De hecho, el subgrupo de G generado por N ser el grupo entero
G solamente cuando G sea conexo.
La funcin exponencial y el lgebra de Lie determinan la estructura de grupo local de cada grupo de Lie conexo,
debido a la frmula de Campbell-Hausdor: existe una vecindad U del elemento cero de g, tal que para u, v en U se
tiene

exp(u) exp(v) = exp(u + v + 1/2[u, v] + 1/12[[u, v], v] 1/12[[u, v], u] . . . )

donde los trminos omitidos son conocidos e implican los corchetes de Lie de cuatro o ms elementos. En caso de
que u y v conmuten, esta frmula se reduce a la ley exponencial familiar exp(v) exp(u) = exp(u + v).
Cada homomorsmo f: G H de los grupos de Lie induce un homomorsmo entre las lgebra de Lie correspondien-
tes g y h. la asociacin G|- > g es un funtor. La estructura global de un grupo de Lie no est totalmente determinada,
en general, por su lgebra de Lie; vea la tabla abajo para los ejemplos de grupos de Lie diversos que comparten la
misma lgebra de Lie. Podemos decir sin embargo que un grupo de Lie conexo es simple, semisimple, resoluble,
nilpotente, o abeliano si y solamente si su lgebra de Lie tiene la propiedad correspondiente.
Si requerimos que el grupo de Lie sea simplemente conexo, entonces la estructura global est determinada por su
lgebra de Lie: para cada lgebra de Lie g nito dimensional sobre F hay un nico (mdulo un isomorsmo) grupo
de Lie G simplemente conexo con g como lgebra de Lie. Por otra parte cada homomorsmo entre las lgebras de
Lie se eleva a un homomorsmo nico entre los correspondientes grupos de Lie simplemente conexos.

6.4 Lista de algunos grupos de Lie reales y de sus lgebras de Lie

6.5 Lista de algunos grupos de Lie complejos y de sus lgebras de Lie

6.6 Lista de algunos grupos de Lie de dimensin innita

6.7 Referencias
Adams, John Frank (1969), Lectures on Lie Groups, Chicago Lectures in Mathematics, Chicago: Univ. of
Chicago Press, ISBN 0-226-00527-5.

Hall, Brian C. (2003), Lie Groups, Lie Algebras, and Representations: An Elementary Introduction, Springer,
ISBN 0-387-40122-9.

Serre, Jean-Pierre (1965), Lie Algebras and Lie Groups: 1964 Lectures given at Harvard University, Lecture
notes in mathematics, 1500, Springer, ISBN 3-540-55008-9.

Lie Groups. Representation Theory and Symmetric Spaces Wolfgang Ziller, Vorlesung 2010

6.8 Vase tambin


E8 (matemticas)
Una teora del todo excepcionalmente simple

lgebra de Virasoro
lgebra de Witt
Captulo 7

Espacio tangente

g.1 El plano que toca a la esfera en un solo punto es llamado plano tangente. Cada punto de la esfera tiene asociado un plano
tangente. Para la esfera los puntos antipodales tiene planos tangente paralelos.

En geometra diferencial, espacio tangente es el conjunto asociado a cada punto de una variedad diferenciable for-
mado por todos los vectores tangentes a dicho punto (vase g.1). Es un espacio vectorial de la misma dimensin
que la dimensin de la variedad.
El conjunto de todos los espacios tangentes, debidamente topologizado, forma el llamado brado tangente. Resulta
ser en s mismo otra variedad de dimensin doble de la dimensin de la variedad de entrada.

7.1 Deniciones
Hay varias formas de entender este concepto. Primero vamos a explicar utilizando la grca de la g.2. Empecemos
suponiendo que tenemos una curva en la variedad M que pasa por alguna posicin elegida cualquiera: xM . Es
decir una aplicacin : [,]M diferenciable que satisface (0)=x y (0)=v . Resulta que el conjunto de todos estos
vectores tangentes a la curva en el punto x forman el espacio tangente Tx M de x en M.

20
7.2. ESPACIO TANGENTE RN 21

Tx M

(t) M

g.2 Las cartas que cumplan esta condicin formarn parte de dicha estructura. Ilustracin del espacio tangente Tx M y un vector
tangente vTx M obtenido utilizando una curva que pasa por un punto xM .

7.2 Espacio tangente Rn


Si se tiene una variedad diferencial inmersa en Rn dada por la ecuacin f(x1 ,x2 ,...,xn )=0 entonces el espacio tangente
en un punto de dicha variedad a=(a1 ,a2 ,...,an )M viene dado por la ecuacin:

Df(a)(x a) = 0

x1 f1 (a) . . . xn f1 (a) x1 a1
... ... . . . . . . = 0
x1 fn (a) . . . xn fn (a) xn an

Donde Df(a) es la matriz jacobiana o diferencial de la funcin.

7.3 Vase tambin


Vector normal
Conjunto recticable
Captulo 8

Diferencial (matemtica)

Este artculo habla sobre la denicin del diferencial dentro del campo de la geometra diferencial, para
otros usos dentro de la matemtica vea diferencial (clculo, desambiguacin), para usos ms generales
vea diferencial (desambiguacin)

Herramienta matemtica que nos permite trabajar sobre espacios tangentes de diferentes variedades diferenciables
aprovechado las buenas propiedades de unos bien conocidos sobre otros que casi no conocemos.
Eslabn necesario para construir la teora de geometra diferencial y generalizar su estudio.

22
Captulo 9

Denicin de diferencial

Sean M , N variedades diferenciables, F : M N una aplicacin diferenciable y p M , llamaremos diferencial


de F a

dp F : Tp M TF (p) N
dp F () : F(M ) R
7
g 7 dp F ()(g) := (g F ).
Observaciones
Queda claro que es p , ya que p es redundante pues hablamos de elementos de Tp M y, es decir, derivaciones a M
precisamente en p .
Veamos que est bien denida, es decir, que dp F () TF (p) N como se ha requerido:

f, g F(N ), R

dp F ()(f + g) = ((f + g) F ) = (f F + g F ) = (f F ) + (g F ) =
dp F ()(f ) + dp F ()(g),

dp F ()(f ) = ((f ) F ) = ((f F )) = (f F ) = dp F ()(f ),

dp F ()(f g) = ((f g)F ) = ((f F )(gF )) = (f F )(gF )(p)+(f F )(p)(gF ) = dp F ()(f )g|F (p) +f|F (p) dp F ()(g)

y, por tanto, es una derivacin; en resumen, el diferencial de una derivacin es una derivacin.

Veamos nalmente que dp F es R -lineal:

1 , 2 Tp M, f F(N ) y R

dp F (1 + 2 )(f ) = (1 + 2 )(f F ) = 1 (f F ) + 2 (f F ) = dp F (1 )(f ) +


dp F (2 )(f ) ,

dp F (1 )(f ) = (1 )(f F ) = 1 (f F ) = dp F (1 )(f ) ,

y por tanto, al ser lineal y bien denida, hereda correctamente las propiedades de suma vectorial y
producto por escalar para que los elemento obtenidos en TF (p) N , a partir de los elementos de Tp M
, puedan formar un subespacio vectorial, seria deseable conseguir una base para generar totalmente
TF (p) N .

As pues, tenemos que dp F , como aplicacin lineal entre espacios vectoriales, queda totalmente determinada por
una matriz.

23
24 CAPTULO 9. DEFINICIN DE DIFERENCIAL

9.1 Propiedad
Sean M, N, P variedades diferenciables, F : M N , G : N P y p M , entonces tenemos que:

dp (G F ) = dF (p) G dp F

Demostracin

h F (P ), Tp M , sucesivamente por denicin:

dp (G F )()(h) = (h G F ) = dp F ()(h G) = dF (p) G(dp F ())(h) = dF (p) G


dp F ()(h) .

9.2 Propiedad
Sea M una variedad diferenciable, IdM : M M y p M , entonces tenemos que:

dp (IdM ) = IdTp M

Demostracin

h F (P ), Tp M

dp (IdM )()(h) = (h IdM ) = (h) .

9.3 Propiedad
Sea M, N variedades diferenciables y F : M N un difeomorsmo, entonces tenemos que:

p M, dp F es un isomorsmo de R -espacios vectoriales.

Demostracin

Si F es un difeomorsmo entonces tenemos que G : N M diferenciable: F G = IdN y


G F = IdM .
9.3. PROPIEDAD 25

Bastara considerar los diferenciales dq G y dp F , q = F (p) , usando sucesivamente las propiedades


anteriores tenemos:

dq G dp F = dp (G F ) = dp (IdM ) = IdTp M ,

dp F dq G = dq (F G) = dq (IdN ) = IdTq N .

Por tanto hemos visto que dp F es un isomorsmo de R -espacios vectoriales.


Captulo 10

Teorema de la funcin inversa

En la rama de la matemtica denominada anlisis matemtico, el teorema de la funcin inversa proporciona las
condiciones sucientes para que una aplicacin sea invertible localmente en un entorno de un punto p en trminos de
su derivada en dicho punto. Tcnicamente es un teorema de existencia local de la funcin inversa. El teorema puede
enunciarse para aplicaciones en Rn o se puede generalizar a variedades diferenciables o espacios de Banach.

10.1 Enunciado del Teorema


La versin en Rn del teorema es la siguiente: Sea f : A Rn Rn una funcin C1 . Supongamos que para a A
, la diferencial Df (a) es invertible y que f (a) = b . Entonces existen abiertos U, V Rn tales que a U ,
b V y f : U V es una funcin biyectiva por lo que la inversa f 1 : V U de f es C1 y por lo tanto
Df 1 (b) = [Df (a)]1 .
Existe una versin del teorema en espacios de Banach, que es una generalizacin de lo anterior. Sin embargo, la
versin presentada es la que se presenta frecuentemente en la literatura puesto que su comprensin es ms fcil. La
demostracin del teorema no es sencilla, puede consultarse en las referencias puesto que entre se requiere aplicar
el teorema del punto jo de Banach y la norma matricial adems de otros resultados del anlisis matemtico que se
obtienen de la caracterizacin de la convexidad.

10.2 Ejemplo
Consideremos la funcin F de R2 en R2 denida por

[ ]
ex cos y
F(x, y) = x
e sin y

Su matriz jacobiana es

[ ]
ex cos y ex sin y
JF (x, y) = x
e sin y ex cos y

y su determinante

det JF (x, y) = e2x cos2 y + e2x sin2 y = e2x .

Como el determinante e2x es no nulo en todo punto, aplicando el teorema, para cada punto p de R2 , existe un entorno
de p en que F es invertible.

26
10.3. GENERALIZACIONES 27

10.3 Generalizaciones

10.3.1 Variedades diferenciables


En este contexto, el teorema arma que dada una aplicacin F : M N entre dos variedades diferenciables, si la
diferencial de F,

(dF)p : TpM TFpN

es un isomorsmo lineal (es decir, isomorsmo entre espacios vectoriales) en un punto p de M, entonces existe un
entorno abierto U de p tal que

F|U : U F(U)

es un difeomorsmo.
Dicho de otro modo, si la diferencial de F es un isomorsmo en todos los puntos p de M, entonces la aplicacin F es
un difeomorsmo local.

10.4 Inversa global


El teorema de la funcin inversa slo garantiza localmente la existencia de una funcin inversa. Los requerimientos
para la existencia de una inversa global son algo ms complicados y no quedan garantizados por el cumplimiento de
las condiciones del teorema de la funcin inversa. De hecho dada una funcin diferenciable:

f : Rn Rm , m n, f C 1 (, Rm )

Puede demostrarse que existe una constante c() si se cumple:

maxx Duf (x) = supx Duf (x) < c() 1

Tal que la funcin f admite inversa global, donde uf es el vector desplazamiento asociado a la funcin denido como
la resta vectorial entre la imagen de un punto y su posicin inicial:

uf (x) = f (x) x Rn

Puede demostrarse que c()=1 si el dominio es convexo, mientras que un dominio no convexo requiere c()<1 .

10.5 Vase tambin


Teorema de la Funcin Implcita

10.6 Referencias
Para una demostracin con detalles vase:

Alejandro Jofr, Patricio Felmer, Paul Bosch, Matas Bulnes, Arturo Prat, Luis Rademacher, Jos Zamora, y
Mauricio Vargas. "Clculo en Varias Variables - Apunte Completo" (2010). Disponible en: http://docencia.dim.
uchile.cl/calculo_vv/material/apunte_cvv_felmer-jofre.pdf

Para ejemplos de aplicacin prctica:

Bombal, Marin & Vera: Problemas de Anlisis matemtico: Clculo Diferencial, 1988, ed. AC, ISBN 84-7288-
101-6.
Captulo 11

Teorema de la funcin implcita

En anlisis matemtico, el teorema de la funcin implcita establece condiciones sucientes bajo las cuales una
ecuacin o conjunto de ecuaciones de varias variables permite denir a una de ellas o varias de ellas como funcin
de las dems.
Una funcin y(x) est dada de forma implcita cuando est denida de la forma F (x, y) = 0 en lugar de la habitual.
Dada la ecuacin F(x,y)=0 (lo que se conoce como funcin implcita), bajo ciertas exigencias sobre la derivada de F
podramos, al menos localmente, despejar y = f(x).
Por ejemplo, puede probarse que la siguiente ecuacin dene una funcin implcita en cierta regin de R2 entre las
variables x e y:

y 3 + y 2 + 5xy + x2 + x + y = 0

Es decir, el teorema establece que existe una funcin y = f(x) que sustituida en la ecuacin anterior, la convierte en
una identidad matemtica.

11.1 Ejemplos
Antes de enunciar el teorema, considere la funcin

f : A R2 R

(x, y) 7 x2 + y 2
Si consideramos la ecuacin f (x, y) = 0 , entonces la funcin admite como preimgenes todos los vectores (x, y)
que resuelven esta ecuacin: x20 + y02 = 0 . Por esto, no es posible despejar globalmente una variable en trminos
de la otra y por lo mismo no es posible determinar cmo cambia una variable en funcin de la otra, al menos no
globalmente pero s en un entorno de (x0 , y0 ) . (El nico vector factible (x0 , y0 ) en la preimagen es (0, 0) ).
Otro ejemplo ms complejo sera el siguiente:

{
xz 3 + y 2 u3 = 1
2xy 3 + u2 z = 0

Puede verse que si para valores de (z, u) cercanos al punto (0, 1) existen dos funciones x=f1 (z,u), y=f2 (z,u) tales que
se cumple automticamente para puntos de un entorno abierto:

{
f1 (z, u)z 3 + f22 (z, u)u3 = 1
2f1 (z, u)f23 (z, u) + u2 z = 0

28
11.2. ENUNCIADO GENERAL 29

La circunferencia unitaria puede representarse


por la ecuacin implcita x2 + y 2 1 = 0 . Alrededor del punto A, podremos
expresar y como una funcin y(x) = 1 x . Pero no existir una funcin similar en un entorno del punto B.
2

11.2 Enunciado general


El enunciado general es como sigue:

Teorema (de la Funcin Implcita)

Sean f :ARm+n Rn una funcin continuamente diferenciable y (a,b)Rm+n cualquier vector tal que f (a,b)=0 . Con-
sidere (x,y)Rm+n y dena la matriz jacobiana DF (a,b)=[Dx f (a,b),Dy f (a,b)] y sobre esta considere que la sub-
matriz que dene [Dy f (a,b)] es invertible. Entonces existen los conjuntos abiertos V Rm+n y W Rm con (a,b)V
y aW tales que para cada xW existe un nico y tal que (x,y)V y f (x,y)=0 lo que dene una funcin g:W Rn
que es continua y diferenciable y que adems satisface

f (x, g(x)) = 0, x W

adems
30 CAPTULO 11. TEOREMA DE LA FUNCIN IMPLCITA

Dg(x) = [Dy f (x, g(x))]1 Dx f (x, g(x)) x W

donde g(a)=b .
La demostracin del teorema se puede encontrar en diversos libros de clculo, en particular el nal del artculo se
presenta un enlace a una demostracin con detalles. Las versiones del teorema en dos dimensiones resultan tiles para
jar ideas antes de extenderse al caso de n dimensiones.

11.3 Diferenciacin de funciones dadas de forma implcita


Para poder derivar una funcin implcita se usa la Regla de la cadena, en el caso de la variable independiente no hay
problema ya que se deriva directamente, para la variable dependiente se considera como una funcin que a su vez
est en funcin de la variable independiente:
Dada una funcin de manera implcita en la ecuacin F (x, y) = 0 , si queremos calcular la derivada de y respecto
dy
de x dx = f (x) , debemos considerar a y = f (x) como una funcin en trminos de la variable independiente x. Si
derivamos con respecto a x la ecuacin F (x, y) = 0 queda, en virtud de la Regla de la Cadena:

Fx + Fy f (x) = 0

F
Es decir que la derivada buscada es f (x) = Fx .
y

11.4 Aplicacin prctica


Obtener la derivada de:

6x2 y + 5y 3 + 3x2 = 12 x2 y 2

El trmino 6x2 y Se puede considerar que son dos funciones, 6x2 y y por lo que se derivara como un producto:

( )
( ) ( ) dy
Dx 6x2 y = (12x) y + 6x2
dx

El trmino 5y 3 se deriva como:

( ) dy
Dx 5y 3 = 15y 2
dx
El trmino 3x2 se deriva de forma normal como:

( )
Dx 3x2 = 6x

El valor constante 12, que no depende ni de x ni de y, tiene por derivada 0, como corresponde a un valor constante.

Dx (12) = 0

Para el trmino x2 y 2 se puede considerar como un producto y se deriva como:

( )
( ) dy
Dx x y 2 2
= 2xy + x 2y
2 2
dx
11.5. VASE TAMBIN 31

Al unir todos los trminos se obtiene:

dy dy dy
12xy + 6x2 + 15y 2 + 6x = 2xy 2 2x2 y
dx dx dx
Ordenando

dy dy dy
6x2 + 15y 2 + 2x2 y = 12xy 6x 2xy 2
dx dx dx
dy
Factorizando respecto a ( dx ) los valores son:

( ) dy ( )
6x2 + 15y 2 + 2x2 y = 12xy + 6x + 2xy 2
dx
dy
Finalmente despejando dx se obtiene la derivada de la funcin implcita:

dy 12xy + 6x + 2xy 2
= 2
dx 6x + 15y 2 + 2x2 y

11.5 Vase tambin


Teorema de la funcin inversa

11.6 Referencias
Alejandro Jofr, Patricio Felmer, Paul Bosch, Matas Bulnes, Arturo Prat, Luis Rademacher, Jos Zamora,
y Mauricio Vargas. "Clculo en Varias Variables - Apunte Completo" (2011). Disponible en: http://www-old.
dim.uchile.cl/~{}docencia/calculo_vv/material/apunte_cvv_felmer-jofre.pdf

11.6.1 Bibliografa
Para una coleccin de ejemplos:

Bombal, Marin & Vera: Problemas de Anlisis matemtico: Clculo Diferencial, 1988, ed. AC, ISBN 84-7288-
101-6.
Captulo 12

Campo vectorial

Ejemplo de campo vectorial no conservativo cuyo rotacional no se anula.

En matemticas, un campo vectorial representa la distribucin espacial de una magnitud vectorial. Es una expresin
de clculo vectorial que asocia un vector a cada punto en el espacio euclidiano, de la forma : Rn Rn .
Los campos vectoriales se utilizan en fsica, por ejemplo, para representar la velocidad y la direccin de un uido en

32
12.1. DEFINICIN 33

el espacio, o la intensidad y la direccin de fuerzas como la gravitatoria o la fuerza electromagntica.


Como expresin matemtica rigurosa, los campos vectoriales se denen en variedades diferenciables como secciones
del brado tangente de la variedad. Este es el tipo de tratamiento necesario para modelizar el espacio-tiempo curvo
de la teora general de la relatividad por ejemplo.

12.1 Denicin
Un campo vectorial sobre un subconjunto del espacio euclidiano X Rn es una funcin con valores vectoriales:

F : X Rn

Se dice que F es un campo vectorial C k si como funcin es k veces diferenciable con continuidad en X. Un campo
vectorial se puede visualizar como un espacio X con un vector n- dimensional unido a cada punto en X.

12.1.1 Operaciones con campos vectoriales


Dados dos campos vectoriales C k F, G denidos sobre X y una funcin Ck a valores reales f denida sobre X, se
denen las operaciones producto por escalar y adicin:

(f F)(x) = f (x)F(x)

Debido a la linealidad de la funcin (F+G):

(F + G)(x) = F(x) + G(x)

dene el mdulo de los campos vectoriales C k sobre el anillo de las funciones C k . Alternativamente el conjunto de
todos los campos vectoriales sobre un determinado subconjunto X es en s mismo un espacio vectorial.

12.1.2 Derivacin y potenciales escalares y vectores


Los campos vectoriales se deben comparar a los campos escalares, que asocian un nmero o escalar a cada punto en
el espacio (o a cada punto de alguna variedad).
Las derivadas de un campo vectorial, que dan por resultado un campo escalar u otro campo vectorial, se llaman
divergencia y rotor respectivamente. Recprocamente:

Dado un campo vectorial cuyo rotacional se anula en un punto , existe un campo potencial escalar cuyo gradiente
coincide con el campo escalar en un entorno de ese punto.

Dado un campo vectorial solenoidal cuya divergencia se anula en un punto, existe un campo vectorial llamado
potencial vector cuyo rotacional coincide con el campo escalar en un entorno de ese punto.

Estas propiedades derivan del teorema de Poincar.

12.1.3 Puntos estacionarios


Un punto xX es estacionario si:

F(x) = 0

El conjunto de todos los espacios vectoriales denidos sobre un subconjunto X, que son estacionarios en un deter-
minado punto forman un subespacio vectorial del conjunto del espacio vectorial denido en la seccin anterior.
34 CAPTULO 12. CAMPO VECTORIAL

12.2 Ejemplos

Un campo vectorial para el movimiento del aire en la tierra asociar a cada punto en la supercie de la tierra
un vector con la velocidad y la direccin del viento en ese punto. Esto se puede dibujar usando echas para
representar el viento; la longitud (magnitud) de la echa ser una indicacin de la velocidad del viento. Un Alta
en la funcin usual de la presin baromtrica actuara as como una fuente (echas saliendo), y un Baja ser
un sumidero (echas que entran), puesto que el aire tiende a moverse desde las reas de alta presin a las reas
de presin baja.

Un campo de velocidad de un lquido mvil. En este caso, un vector de velocidad se asocia a cada punto en el
lquido. En un tnel de viento, las lneas de campo se pueden revelar usando humo.

Campos magnticos. Las lneas de campo se pueden revelar usando pequeas limaduras de hierro.

Las ecuaciones de Maxwell permiten que utilicemos un conjunto dado de condiciones iniciales para deducir,
para cada punto en el espacio euclidiano, una magnitud y una direccin para la fuerza experimentada por una
partcula de prueba cargada en ese punto; el campo vectorial que resulta es el campo electromagntico.

12.2.1 Campo gradiente

Los campos vectoriales se pueden construir a partir de campos escalares usando el operador diferencial vectorial
gradiente que da lugar a la denicin siguiente.
Un campo vectorial C k F sobre X se llama un campo gradiente o campo conservativo si existe una funcin Ck+1 a
valores reales f: X R (un campo escalar) de modo que

F(x) = f (x) (x X)

La integral curvilnea sobre cualquier curva cerrada (e.g. (a) = (b)) en un campo gradiente es siempre cero.

I b b
d
F(x), dx = f ((t)), (t) dt = f (t) dt = f ((b)) f ((a)) = 0
a a dt

12.2.2 Campo central

Un campo vectorial C sobre Rn \{0} se llama campo central si puede encontrarse un punto xS tal que:

F(O(x xS )) = O(F(x xS )) (O O(n, R) , x Rn \ {0})

Donde O(n, R) es el grupo ortogonal.Se dice que los campos centrales son invariantes bajo transformaciones orto-
gonales alrededor de un punto S cuyo vector posicin es xS . El punto S se llama el centro del campo.
Un campo central es siempre un campo gradiente, por los campos centrales pueden ser caracterizados ms fcilmente
mediante:

( )
U ^ U ^ U ^
F(x) = x i + y j + z k

Donde U = f (x xS ) es una funcin potencial que depende slo de la distancia entre el punto donde se mide el
campo y el centro del campo.
12.3. INTEGRAL CURVILNEA 35

12.2.3 Campo solenoidal


Otros campos vectoriales se pueden construir a partir de un campo vectorial usando el operador diferencial vectorial
rotacional que da lugar a la denicin siguiente.
Un campo vectorial C k F sobre X se llama un campo solenoidal si existe una funcin vectorial Ck+1 A: X Rn (un
campo vectorial) de modo que:

F(x) = A(x) (x X)

La integral de supercie o ujo cualquier supercie cerrada de un campo solenoidal es siempre cero.
H
V
F(x), dS = V
( A) dV = V
0 dV = 0

12.3 Integral curvilnea


Una tcnica comn en la fsica es integrar un campo vectorial a lo largo de una curva. Dado una partcula en un campo
vectorial gravitacional, donde cada vector representa la fuerza que acta en la partcula en ese punto del espacio, la
integral curvilnea es el trabajo hecho sobre la partcula cuando viaja a lo largo de cierta trayectoria.
La integral curvilnea se construye anlogamente a la integral de Riemann y existe si la curva es recticable (tiene
longitud nita) y el campo vectorial es continuo.
Dado un campo vectorial F(x) y una curva (t) de a a b se dene la integral curvilnea como

b
F(x), dx = F((t)), (t)dt
a

Algunas reglas simples para el clculo de los integrales curvilneas son


(F + G)(x), dx = F(x), dx + G(x), dx


F(x), dx = F(x), dx


F(x), dx = F(x), dx


F(x), dx = F(x), dx + F(x), dx
1 +2 1 2

12.4 Curvas integrales


Los campos vectoriales tienen una interpretacin agradable en trminos de ecuaciones diferenciales ordinarias de
primer orden autnomas.
Dado un C0 campo vectorial F denido sobre X

y = F(x) (x X)

podemos intentar denir curvas (t) sobre X de modo que para cada t en un intervalo I

(t) = x (t I)
36 CAPTULO 12. CAMPO VECTORIAL

(t) = y (t I)
Puesto en nuestra ecuacin de campo vectorial conseguimos

(t) = F((t)) (t I)
lo que es la denicin de una ecuacin diferencial ordinaria de primer orden explcita con las curvas (t) como
soluciones.
Si F es Lipschitz continua se puede encontrar una curva C nica x para cada punto x en X de modo que

x (0) = (x)
x (t) = F(x (t)) (t (, +) R)
Las curvas x se llaman las curvas integrales del campo vectorial F y particionan X en clases de equivalencia. No
es siempre posible ampliar el intervalo (-, +) a la recta real total. El ujo puede por ejemplo alcanzar el borde de
X en un tiempo nito.
Integrar el campo vectorial a lo largo de cualquier curva integral da

b b
F(x), dx = F((t)), (t)dt = dt = constante.
a a

En dimensin 2 o tres se puede visualizar el campo vectorial como dando lugar a un ujo en X. Si dejamos caer una
partcula en este ujo en el punto x se mover a lo largo de una curva en el ujo dependiendo del punto inicial x.
Si x es un punto estacionario en F entonces la partcula seguir estacionaria.
Los usos tpicos son aerodinmica en lquidos, ujo geodsico, los subgrupos uniparamtricos y la funcin exponencial
en grupos de Lie.

12.5 Teorema de Poincar


El teorema de Poincar sobre 1-formas exactas tiene varias consecuencias interesantes para los campos vectoriales:

1. Si un campo vectorial cumple en algn punto P que A = 0 , entonces el campo es localmente conservativo,
es decir, existe un entorno de P donde se cumple que: A = , es decir, es localmente expresable como el
gradiente de un campo escalar.
2. Si un campo vectorial es solenoidal en un punto P: A = 0 , entonces el campo localmente deriva de un
potencial vector, es decir, existe un entorno de P donde se cumple que: A = P .

12.6 Vase tambin


campo escalar
campo tensorial
clculo vectorial
geometra diferencial de curvas
Campo vectorial en coordenadas cilndricas y esfricas
Secciones de brados vectoriales
Captulo 13

Corchete de Lie (campos de vectores)

En topologa diferencial, dados dos campos de vectores diferenciables X e Y sobre una variedad M, se dene el
corchete de Lie de los campos X e Y, notado [X, Y ] como el nico campo de vectores que cumple:

[X, Y ](f ) = X(Y (f )) Y (X(f ))

Su expresin en un sistema de coordenadas asociado una carta local x ser:

n (
) ( )
Y i j X
i
i
[X, Y ] = X j
Y
j=1
xj xj

donde n es la dimensin de M.
El corchete de Lie de dos campos constituye un caso particular de una operacin ms general: la derivada de Lie de
un tensor cualquiera LX T a lo largo de la direccin que marque un campo X. Cuando T es un campo de vectores Y,
recuperamos el corchete de Lie

LX Y = [X, Y ]

13.1 Propiedades
[.,.] es 'R-bilineal:

[X1 + X2 , Y ] = [X1 , Y ] + [X2 , Y ]

[X, Y1 + Y2 ] = [X, Y1 ] + [X, Y2 ]

Antisimetra:

[X, Y ] = [Y, X]

Identidad de Jacobi:

[X, [Y, Z]] + [Z, [X, Y ]] + [Y, [Z, X]] = 0.

37
38 CAPTULO 13. CORCHETE DE LIE (CAMPOS DE VECTORES)

Para funciones f y g tenemos

[f X, gY ] = f g[X, Y ] + f X(g)Y gY (f )X

Esta ltima igualdad destaca que aunque el corchete sea R-bilineal, no es bilineal sobre las funciones diferenciables.
Como consecuencia, el corchete no tendr carcter tensorial, es decir, el valor del vector [X, Y ]p no solo depender
del valor de los vectores Xp e Yp (no podremos denir el corchete de Lie de dos vectores), sino de los campos X e Y.
Como consecuencia inmediata de la antisimetra, [X, X] = 0 para cualquier campo X .

13.2 Coecientes de estructura


Si {e } una base local de campos de vectores, podremos desarrollar el corchete de dos de sus elementos como com-
binacin lineal de los elementos de la base:

[ek , e ] = ck m em

A las funciones ck m se les denomina coecientes de estructura de la base {e }. Estos coecientes no forman parte
de un tensor.
En el caso especial en que la base est asociada a un sistema de coordenadas {xa }, dado que los vectores bsicos
conmutan ( [xa , xb ] = 0 ), los coecientes de estructura sern nulos. Las bases locales para las que se anulan estos
coecientes reciben el nombre de bases holnomas.
En un grupo de Lie G, considerado como variedad, podemos denir un conjunto particular de campos de vecto-
res: los campos invariantes por la izquierda. A este conjunto se le denomina lgebra de Lie de G. Dada una base
{X1 , . . . , Xn } de campos invariantes por la izquierda, se demuestra que los coecientes de estructura son constan-
tes, y reciben el nombre de constantes de estructura de G con respecto a la base {Xi } .

13.3 Vase tambin


Derivada de Lie
lgebra de Witt
Captulo 14

lgebra de Lie

En matemtica, un lgebra de Lie es la estructura algebraica denida sobre un espacio vectorial, asociada usualmente
a los grupos de Lie y usadas en el estudio geomtrico de esos los propios grupos y de otras variedades diferenciables.
El trmino "lgebra de Lie (referido a Sophus Lie) fue creado por Hermann Weyl en la dcada de 1930, para lo que
se denominaba grupo innitesimal.
Si un grupo de Lie puede interpretarse en fsica como un grupo de transformaciones sobre una variedad diferenciable
el lgebra de Lie fsicamente puede concebirse como un conjunto de transformaciones innitesimales.

14.1 Denicin
Un lgebra de Lie A es un espacio vectorial sobre un cierto cuerpo F junto con una operacin binaria [, ] : A A
-> A, llamada corchete de Lie, que satisface las propiedades siguientes:

es bilineal, es decir, [a x + b y, z] = a [x, z] + b [y, z] y [z, a x + b y] = a [z, x] + b [z, y] para todo a, b en F y


todo x, y, z en A.

satisface la identidad de Jacobi, es decir, [[x, y], z] + [[z, x], y] + [[y, z], x] = 0 para todo x, y, z en A.

[x, x] = 0 para todo x en A.

Observe que la primera propiedad y la tercera juntas implican [x, y] = [y, x] para todo x, y en A (anti-simetra) si
el cuerpo F es de caracterstica diferente de dos. Observe tambin que la multiplicacin representada por el corchete
de Lie no es, en general, asociativa, es decir, [[x, y], z] no necesariamente es igual a [x, [y, z]].

14.2 Ejemplos
Cada espacio vectorial se convierte en un lgebra de Lie abeliana trivial si denimos el corchete de Lie como
idnticamente cero.
El espacio eucldeo R3 se convierte en un lgebra de Lie con el corchete de Lie dado por el producto vectorial.
Si se da un lgebra asociativa A con la multiplicacin * , se puede dar un lgebra de Lie deniendo [x, y] = x
* y y * x. esta expresin se llama el conmutador de x e y.
Inversamente, puede ser demostrado que cada lgebra de Lie se puede sumergir en otra que surja de un lgebra
asociativa de esa manera.
Otro ejemplo importante viene de la topologa diferencial: los campos vectoriales en una variedad diferenciable
forman un lgebra de Lie de dimensin innita. Estos campos vectoriales actan como operadores diferenciales
sobre las funciones diferenciables sobre la variedad. Dados dos campos vectoriales X e Y, el corchete de Lie
[X,Y ] se dene como:

39
40 CAPTULO 14. LGEBRA DE LIE

[X, Y ] f = (XY Y X)f

y puede comprobarse que este operador corresponde a un campo vectorial. Las generalizaciones adecuadas de la
teora de variedades al caso de dimensin innita muestra que este lgebra de Lie es ala asociada (ver siguiente
punto) al grupo de Lie de los difeomorsmos de la variedad.

En el caso de una variedad que sea un grupo de Lie G a su vez, un subespacio de los campos vectoriales queda
inalterado por las transformaciones dadas por el propio grupo, en el sentido de que en cada punto g del mismo,
el campo no es ms que:

X(g) = dlg (X(e))

Este subespacio es de dimensin nita (e igual a la del grupo), dado que se corresponde con el espacio tangente en la
identidad. Adems hereda la estructura de lgebra de Lie denida en el punto anterior, y se le denomina el lgebra
de Lie asociada al grupo G .

Como ejemplo concreto, consideremos el grupo de Lie SL(n, R) de todas las matrices n n con valores reales
y determinante 1. El espacio tangente en la matriz identidad se puede identicar con el espacio de todas las
matrices reales n n con traza 0 y la estructura de lgebra de Lie que viene del grupo de Lie coincide con el
que surge del conmutador de la multiplicacin de matrices.

14.3 Homomorsmos, sublgebras e ideales


Un homomorsmo : A -> B entre las lgebra de Lie A y B sobre el mismo cuerpo de base F es una funcin
F-lineal tal que [(x),(y)] =([x, y]) para todo x y y en A. La composicin de tales homomorsmos es otra vez
un homomorsmo, y las lgebras de Lie sobre el cuerpo F, junto con estos morsmos, forman una categora. Si tal
homomorsmo es biyectivo, se llama un isomorsmo, y las dos lgebras de Lie A y B se llaman isomorfas. Para todos
los efectos prcticos, las lgebras de Lie isomorfas son idnticas.
Una subalgebra del lgebra de Lie A es un subespacio vectorial B de A tal que [x, y] B para todo x, y B. i.e. [B,
B] B. La subalgebra es entonces un lgebra de Lie.
Un ideal del lgebra de Lie A es un subespacio vectorial I de A tales que [a, y ] I para toda a A y y I. i.e. [A,
I] I. Todos los ideales son subalgebras. Si I es un ideal de A, entonces el espacio cociente A/I se convierte en una
lgebra de Lie deniendo [x + I, y + I] = [x, y] + I para todo x, y A. Los ideales son precisamente los ncleos de
homomorsmos, y el teorema fundamental de homomorsmos es vlido para las lgebras de Lie.

14.4 Clasicacin de las lgebras de Lie


Las lgebras de Lie reales y complejas se pueden clasicar hasta un cierto grado, y esta clasicacin es un paso
importante hacia la clasicacin de los grupos de Lie. Cada lgebra de Lie real o compleja nito-dimensional se
presenta como el lgebra de Lie de un nico grupo de Lie simplemente conexo real o complejo (teorema de Ado),
pero puede haber ms de un grupo, an ms de un grupo conexo, dando lugar a la misma lgebra. Por ejemplo, los
grupos SO(3) (matrices ortogonales 33 de determinante 1) y SU(2) (matrices unitarias 22 de determinante 1),
ambos dan lugar a la misma lgebra de Lie, a saber R con el producto vectorial. Un lgebra de Lie es abeliana si el
corchete de Lie se anula, es decir [x, y] = 0 para todo x e y. Ms generalmente, un lgebra de Lie A es nilpotente si
la serie central descendente

A [A, A] [[A, A]], A] [[[A, A]], A], A] ...

acaba hacindose cero. Por el teorema de Engel, un lgebra de Lie es nilpotente si y solo si para cada x en A, la funcin
ad(x): A -> A denida por

ad(x)(y) = [x, y]
14.5. ENLACES EXTERNOS 41

es nilpotente. Ms generalmente an, un lgebra de Lie A es soluble si la serie derivada

A [A, A] [[A, A]], [A, A]] [[[A, A]], [A, A]],[[A, A]], [A, A]]] ...

acaba hacindose cero. Una sublgebra soluble maximal se llama una sublgebra de Borel.
Un lgebra de Lie A se llama semisimple si el nico ideal soluble de A es trivial. Equivalente, A es semisimple si
y solamente si la forma de Killing K(x, y) = tr(ad(x)ad(y)) es no-degenerada; aqu tr denota el operador de traza.
Cuando el cuerpo F es de caracterstica cero, A es semi-simple si y solamente si cada representacin es totalmente
reducible, esto es, que para cada subespacio invariante de la representacin hay un complemento invariante (teorema
de Weyl). Un lgebra de Lie es simple si no tiene ningn ideal no trivial. En particular, un lgebra de Lie simple es
semi-simple, y ms generalmente, las lgebras de Lie semi-simples son suma directa de simples. Las lgebras de Lie
complejas semi-simples se clasican a travs de sus sistemas de raz.

14.5 Enlaces externos


Miguel A. Rodrguez (2007) lgebras de Lie de Universidad Complutense de Madrid.

14.6 Temas relacionados


super lgebra de Lie

Algebroide de Lie
lgebra de Virasoro

E8 (matemticas)
Captulo 15

Curva integral de un campo vectorial

En matemticas, una curva integral de un campo vectorial es el anlogo abstracto de la lnea de corriente en el ujo
de un uido. En fsica cuando el campo en cuestin representa un campo de fuerzas las curvas integrales corresponden
a las lneas de fuerza.

15.1 Denicin
Dado un campo vectorial V(x) denido en algn conjunto abierto A en el espacio eucldeo, o ms generalmente en
una variedad diferenciable M , una curva integral C(t) de V en un punto dado P de M es la curva en M denida
en un cierto intervalo [-a, a] con 0 < a, tal que

C : [a, a] A M, con C(0) = P

y tal que la derivada:

C (t) = Dt C(t) = V(C(t))

Esta ltima condicin en la derivada equivale a que el vector tangente a la curva C sea precisamente el vector dado
por V.

15.2 Propiedades
Adems el conjunto de curvas integrales de una regin constituye una foliacin unidimensional de dicha regin. Eso
implica que dado un punto de esa regin donde el campo no sea nulo, por ese punto pasa una y slo una curva integral.
Esas propiedades de las curvas integrales, hacen posible visualizar un campo vectorial como dando lugar a un ujo
en M, con cada punto movindose en la direccin vectorial dada por V, y en una tasa proporcional a su longitud. Si V
tiene un cero en un punto Q, entonces Q ser inmvil (es decir la curva constante a Q ser la curva integral). Esto es
un ujo 'estacionario' (independiente del tiempo); como un modelo de una ecuacin diferencial ordinaria, ste es el
ms simple posible, y las representaciones del espacio de fase se utilizan a menudo para construir tal campo vectorial
auxiliar.
Desde un punto de vista matemtico, puede haber problemas en extender una curva integral para tener como dominio
el conjunto de la recta de los nmeros reales. El ujo puede por ejemplo alcanzar el borde de M en un tiempo nito.
Los usos tpicos son el ujo geodsico, y subgrupos uniparamtricos y funcin exponencial en grupos de Lie.

42
Captulo 16

Derivada exterior

En matemticas, el operador de derivada exterior (o diferencial exterior) de la topologa diferencial, ampla el


concepto del diferencial de una funcin a formas diferenciales de un grado ms alto. Fue inventado, en su forma
actual, por lie Cartan.

16.1 Denicin
La derivada exterior de una forma diferencial de grado k es una forma diferencial de grado k+1. La diferenciacin
exterior satisface tres propiedades importantes:

d es el diferencial de para cualquier 0-forma (funciones de la clase C ).

d2 = 0 , dicho de otro modo, que siempre: d(d) = 0 , para cualquier forma .

La regla del producto cua:

d( ) = d + (1)deg ( d)
Puede ser demostrado que la derivada exterior est determinada unvocamente por estas propiedades y su coincidencia
con el diferencial en 0-formas (funciones).
Los casos especiales de la diferenciacin exterior corresponden a los operadores diferenciales familiares del clcu-
lo vectorial a lo largo de las mismas lneas que el diferencial corresponde a gradiente. Por ejemplo, en el espacio
euclidiano tridimensional, la derivada exterior de una 1-forma corresponde al rotacional y la derivada exterior de
2-formas corresponde a la divergencia. Esta correspondencia muestra ms de una docena de frmulas del clculo
vectorial como casos especiales de las tres reglas antedichas de la diferenciacin exterior. El ncleo del operador d
consiste en las formas cerradas, y la imagen en las formas exactas (cf. diferenciales exactos).

16.2 Vase tambin


Derivada de Lie
Formas diferenciales cerradas y exactas

16.3 Enlaces externos


Weisstein, Eric W. Exterior Derivative. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.
Exterior derivative en PlanetMath

43
Captulo 17

Derivada de Lie

En matemtica, una derivada de Lie es una derivacin en el lgebra de funciones diferenciables sobre una variedad
diferenciable M , cuya denicin puede extenderse al lgebra tensorial de la variedad. Obtenemos entonces lo que en
topologa diferencial se denomina derivacin tensorial: una aplicacin R -lineal sobre el conjunto de tensores de tipo
(r,s), que preserva el tipo tensorial y satisface la regla del producto de Leibniz y que conmuta con las contracciones.
Para denir la derivada de Lie sobre el conjunto de tensores de tipo (r,s) bastar con denir su accin sobre funciones
y sobre campos de vectores: As, si X es un campo diferenciable de vectores, se dene la derivada de Lie con respecto
a X como la nica derivacin tensorial tal que:[1]

LX f = X(f ). para toda funcin diferenciable f.

LX Y = [X, Y ]. para todo campo diferenciable Y. Donde [,] es el corchete de Lie.

La derivada as denida satisfar automticamente las propiedades citadas de una derivacin tensorial:

la regla del producto

LX (S T ) = (LX S) T + S (LX T ).

conmutar con las contracciones.

El espacio vectorial de todas las derivadas de Lie en M forma a su vez un lgebra de Lie innito dimensional con
respecto al corchete de Lie.

17.1 Derivada de Lie de campos tensoriales


En geometra diferencial, si tenemos un tensor diferenciable T de rango (p, q) (es decir una funcin lineal de secciones
diferenciables, , , ... del T*M brado cotangente y X, Y,... del TM brado tangente,
T(,...,X,Y ,...)
Tales que para cualesquiera funciones diferenciables
f1 ...,f ...,f , T(f1 ,f2 ...,f X,f Y,...) = f1 f2 ... f f ... f T(, ..., X, Y ,...)) y un campo vectorial (seccin
del brado tangente) A diferenciable, entonces la funcin lineal:
(AT)(, ,..., X, Y,...) A T(, ,..., X, Y,...) - T-,...,X,Y,...A()... + T(, ...,XA,Y,...)+...
es independiente de la conexin que se utiliza, mientras sea libre de torsin, y es, de hecho, un tensor.[2]
Este tensor se llama la derivada de Lie de T con respecto a A.

44
17.2. VASE TAMBIN 45

17.2 Vase tambin


lgebra de Witt
Corchete de Lie. El corchete de Lie reproduce la accin de la derivada de Lie sobre campos de vectores.

Vector de Killing

17.3 Referencias
[1] O Neill Semiriemaniann geometry. Academic Press, 1983. ISBN 0-12-526740-1 (cap 2)

[2] T. J. Willmore. The Denition of Lie Derivative. Proceedings of the Edinburgh Mathematical Society (Series 2), Volume
12, Issue 01, Jun 1960, pp 27-29 doi: 10.1017/S0013091500025013
46 CAPTULO 17. DERIVADA DE LIE

17.4 Text and image sources, contributors, and licenses


17.4.1 Text
Geometra diferencial Fuente: http://es.wikipedia.org/wiki/Geometr%C3%ADa%20diferencial?oldid=81094862 Colaboradores: Ma-
veric149, Moriel, Zwobot, Sms, Mandramas, Cinabrium, Digigalos, Rembiapo pohyiete (bot), Chobot, Yrbot, BOTijo, YurikBot, Knigh-
tRider, Juan Marquez, CEM-bot, F.A.A, Davius, Thijs!bot, Pasajero~eswiki, JAnDbot, TXiKiBoT, Rei-bot, AlnoktaBOT, Aibot, Volkov-
Bot, Josell2, SieBot, PaintBot, Gato ocioso, MastiBot, DumZiBoT, MelancholieBot, Luckas-bot, DiegoFb, ArthurBot, D'ohBot, Dinamik-
bot, GrouchoBot, EmausBot, ZroBot, WikitanvirBot, Acratta, Legobot, Sherezadee y Annimos: 9
lgebra tensorial Fuente: http://es.wikipedia.org/wiki/%C3%81lgebra%20tensorial?oldid=72435391 Colaboradores: DefLog, Ascn-
der, Rsg, Tostadora, Yrbot, BOT-Superzerocool, Juan Marquez, CEM-bot, Davius, Ingenioso Hidalgo, VolkovBot, Muro Bot, SieBot,
Alexbot, Raulshc, AVBOT, DrFO.Tn.Bot~eswiki, Elvisor, Addbot, JuanManwell y Annimos: 1
Producto exterior Fuente: http://es.wikipedia.org/wiki/Producto%20exterior?oldid=72436148 Colaboradores: AstroNomo, Sabbut, Zwo-
bot, DefLog, Sms, Tano4595, Rembiapo pohyiete (bot), Yrbot, Tomatejc, Juan Marquez, Ingenioso Hidalgo, VolkovBot, Raulshc, Xtqui-
que, Mcapdevila, Caritdf, Jerowiki, Euclides, Elvisor, Addbot, JuanManwell y Annimos: 11
Variedad diferenciable Fuente: http://es.wikipedia.org/wiki/Variedad%20diferenciable?oldid=78456167 Colaboradores: Genba, Ali-
man5040, Yrbot, BOTijo, Wewe, Eskimbot, Juan Marquez, CEM-bot, Ignacio Icke, Durero, Marianov, Davius, Lauranrg, HiTe, Muro
Bot, PaintBot, Rigenea, Mafores, Gato ocioso, Artra, Xtquique, Banana04131, TiaKarina, Usuwiki, Humbefa, MerlIwBot, Elvisor, Le-
gobot, Addbot, JuanManwell y Annimos: 9
Funcin diferenciable Fuente: http://es.wikipedia.org/wiki/Funci%C3%B3n%20diferenciable?oldid=82292151 Colaboradores: Tano4595,
BOTijo, GermanX, Davius, Gafotas, Egaida, Jorge C.Al, Technopat, El cuco, Paco79, Andfelsiapic, Mafores, Javierito92, Farisori, Eduar-
dosalg, Juan Mayordomo, Raulshc, Nachosk8ersi, Alecas000, SuperBraulio13, Jkbw, Dreitmen, Botarel, KLBot2, M.herzinger, Acratta,
Elvisor, MaKiNeoH, CivilianVictim, El escriba sentado, DavosMat, JuanManwell, Jajajajaxdlol y Annimos: 26
Grupo de Lie Fuente: http://es.wikipedia.org/wiki/Grupo%20de%20Lie?oldid=78185511 Colaboradores: Joseaperez, DefLog, Sms, Re-
nabot, Rembiapo pohyiete (bot), RobotQuistnix, Yrbot, YurikBot, GermanX, KnightRider, C-3POrao, Eskimbot, Jos., Er Komandante,
Juan Marquez, CEM-bot, Daniel De Leon Martinez, Davius, Ingenioso Hidalgo, Thijs!bot, JAnDbot, Wybot, TXiKiBoT, Tirabo, Ale-
sico, Muro Bot, YonaBot, Gato ocioso, Leonpolanco, Artra, Juan Mayordomo, MastiBot, Luckas-bot, Amirobot, Xtquique, Nallimbot,
Txebixev, ArthurBot, Alex degarate, RedBot, Alpha carinae, Elas, Kasirbot, Bibliolotranstornado, Acratta, Elvisor, RuHouse'ls, Addbot
y Annimos: 8
Espacio tangente Fuente: http://es.wikipedia.org/wiki/Espacio%20tangente?oldid=79683617 Colaboradores: Yrbot, KnightRider, Gtz,
Chlewbot, Juan Marquez, CEM-bot, Damifb, Davius, Botones, VolkovBot, Muro Bot, SieBot, PaintBot, Drinibot, Bigsus-bot, Gato ocioso,
Luckas-bot, Xtquique, Gusbelluwiki, MondalorBot, Pitufox27, ZroBot, Legobot y Annimos: 6
Diferencial (matemtica) Fuente: http://es.wikipedia.org/wiki/Diferencial%20(matem%C3%A1tica)?oldid=79297332 Colaboradores:
GermanX, CEM-bot, Marianov, Montgomery, Fremen, Muro Bot, Cobalttempest, Drinibot, Bigsus-bot, Juan Mayordomo, Andreasmperu,
Wikisilki, Usuwiki, Bot0811, EmausBot, Grillitus, Addbot, Matiia y Annimos: 8
Teorema de la funcin inversa Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20la%20funci%C3%B3n%20inversa?oldid=74647763
Colaboradores: Tano4595, Alfredobi, Juan Marquez, BOTpolicia, Seba91, Davius, Martnhache, Isha, Orly01, VolkovBot, Muro Bot, Sie-
Bot, Tirithel, Gato ocioso, Farisori, Eduardosalg, Juan Mayordomo, Ucevista, Amirobot, Ptbotgourou, Xqbot, Alph Bot, Fcrizul, ZroBot,
Addbot, Ignaciolopezpaj y Annimos: 21
Teorema de la funcin implcita Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20la%20funci%C3%B3n%20impl%C3%ADcita?
oldid=82168120 Colaboradores: Pino, Tux~eswiki, Sabbut, Rsg, Opinador, Tano4595, Alhen, Wewe, Alfredobi, Juan Marquez, Davius,
Gafotas, Rigadoun, TXiKiBoT, Vitruvian~eswiki, Belgrano, BlackBeast, Muro Bot, SieBot, Gato ocioso, Farisori, Juan Mayordomo, Uce-
vista, Diegusjaimes, Luckas-bot, DiegoFb, Bsea, Xqbot, NahuelMS, Fcrizul, EmausBot, ZroBot, Rsalfonso, WikitanvirBot, MerlIwBot,
KLBot2, Acratta, Elvisor, FedeBosio, Itza Tlaloc Quetzalcoatl Curiel Cabral, JuanManwell y Annimos: 21
Campo vectorial Fuente: http://es.wikipedia.org/wiki/Campo%20vectorial?oldid=75161020 Colaboradores: Pino, Fibonacci, DefLog,
Sms, Rsg, Tano4595, Renabot, Yrithinnd, Rembiapo pohyiete (bot), RobotQuistnix, Francosrodriguez, Yrbot, YurikBot, Icvav, Juan
Marquez, CEM-bot, JMCC1, Davius, Gafotas, Ingenioso Hidalgo, Fsd141, Thijs!bot, JAnDbot, TXiKiBoT, HiTe, Phirosiberia, Idioma-
bot, Hebrides, Aibot, VolkovBot, Urdangaray, Matdrodes, Muro Bot, Rhernan, SieBot, Loveless, Cobalttempest, Rigenea, Eduardosalg,
Alecs.bot, BodhisattvaBot, Armando-Martin, AVBOT, Diegusjaimes, Luckas-bot, MystBot, Nallimbot, ArthurBot, Xqbot, Bot0811, Kis-
malac, Jerowiki, PatruBOT, Jorge c2010, EmausBot, ZroBot, TeleMania, AXL122, EduLeo, Addbot y Annimos: 31
Corchete de Lie (campos de vectores) Fuente: http://es.wikipedia.org/wiki/Corchete%20de%20Lie%20(campos%20de%20vectores)
?oldid=65081534 Colaboradores: Jos., Muro Bot, Gato ocioso, KLBot2 y Annimos: 1
lgebra de Lie Fuente: http://es.wikipedia.org/wiki/%C3%81lgebra%20de%20Lie?oldid=78662133 Colaboradores: Suisui, Joseaperez,
Sabbut, DefLog, Ascnder, Sms, Tostadora, Cinabrium, Airunp, Rembiapo pohyiete (bot), Orgullobot~eswiki, RobotQuistnix, Chobot,
Yrbot, YurikBot, GermanX, C-3POrao, Gtz, Jos., CEM-bot, Hikoboshi, Davius, Rosarinagazo, Thijs!bot, Drake 81, VolkovBot, SieBot,
HUB, Gato ocioso, Farisori, AVBOT, Diegusjaimes, Luckas-bot, SassoBot, Kismalac, Botarel, D'ohBot, Alxromero, TobeBot, Prtmrz,
Caritdf, Walterpfeifer, Edhardex, Addbot, Rgdboer y Annimos: 13
Curva integral de un campo vectorial Fuente: http://es.wikipedia.org/wiki/Curva%20integral%20de%20un%20campo%20vectorial?
oldid=79365200 Colaboradores: DefLog, Dodo, CEM-bot, Davius, Ingenioso Hidalgo, Egaida, Mar1986, StarBOT, Farisori, DumZiBoT,
Luckas-bot, TobeBot, EmausBot, Elvisor, Addbot, FedeBosio y Annimos: 2
Derivada exterior Fuente: http://es.wikipedia.org/wiki/Derivada%20exterior?oldid=73539136 Colaboradores: DefLog, Rsg, Tano4595,
RobotQuistnix, Superzerocool, BOT-Superzerocool, GermanX, Juan Marquez, CEM-bot, Marianov, Davius, Ingenioso Hidalgo, Volkov-
Bot, Muro Bot, Gato ocioso, Raulshc, Luckas-bot, Ptbotgourou, EmausBot, ZroBot, WikitanvirBot, KLBot2, Edson Luque, Addbot y
Annimos: 3
Derivada de Lie Fuente: http://es.wikipedia.org/wiki/Derivada%20de%20Lie?oldid=81381232 Colaboradores: DefLog, Rembiapo poh-
yiete (bot), Unf, Yrbot, YurikBot, GermanX, Eskimbot, Jos., Yleon, Juan Marquez, Pinar~eswiki, Davius, Ingenioso Hidalgo, Alnokta-
BOT, Raystorm, Muro Bot, PaintBot, Loveless, NeoNato, Gato ocioso, Botito777, LucienBOT, Bot0811, MAfotBOT, TobeBot, Boehm,
ZroBot, MetroBot, Elvisor, MahdiBot, Legobot, Addbot y Annimos: 1
17.4. TEXT AND IMAGE SOURCES, CONTRIBUTORS, AND LICENSES 47

17.4.2 Images
Archivo:ComposicinDiferencial.png Fuente: http://upload.wikimedia.org/wikipedia/commons/f/f4/Composici%C3%B3nDiferencial.
png Licencia: Public domain Colaboradores: Trabajo propio Artista original: Marianov
Archivo:Diferencial.png Fuente: http://upload.wikimedia.org/wikipedia/commons/d/d9/Diferencial.png Licencia: Public domain Co-
laboradores: Trabajo propio Artista original: Marianov
Archivo:Image_Tangent-plane.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/6/66/Image_Tangent-plane.svg Licencia:
Public domain Colaboradores: Transferred from en.wikipedia; Transfer was stated to be made by User:Ylebru. Artista original: Original
uploader was Alexwright at en.wikipedia Later version(s) were uploaded by BenFrantzDale at en.wikipedia.
Archivo:Implicit_circle.png Fuente: http://upload.wikimedia.org/wikipedia/commons/a/a1/Implicit_circle.png Licencia: CC-BY-SA-
3.0 Colaboradores: English Wikipedia Artista original: Salix_alba
Archivo:Tangentialvektor.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/e/e7/Tangentialvektor.svg Licencia: Public do-
main Colaboradores:
Tangentialvektor.png Artista original:
derivative work: McSush (<a href='//commons.wikimedia.org/wiki/User_talk:McSush' title='User talk:McSush'>talk</a>)
Archivo:ToricCodeTorus.png Fuente: http://upload.wikimedia.org/wikipedia/commons/d/d2/ToricCodeTorus.png Licencia: CC BY
3.0 Colaboradores: Trabajo propio Artista original: Woottonjames
Archivo:Vector_field.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/c/c2/Vector_field.svg Licencia: Public domain Co-
laboradores: Trabajo propio Artista original: Fibonacci.

17.4.3 Content license


Creative Commons Attribution-Share Alike 3.0
414 - Procesos Estocsticos
ndice general

1 Proceso estocstico 1
1.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Denicin matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Casos especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Proceso de Mrkov 4
2.1 La propiedad de Mrkov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3 Propiedad de Mrkov 6
3.1 Demostracin matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

4 Cadena de Mrkov 8
4.1 Denicin formal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2 Notacin til . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2.1 Cadenas homogneas y no homogneas . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2.2 Probabilidades de transicin y matriz de transicin . . . . . . . . . . . . . . . . . . . . . 9
4.2.3 Vector de probabilidad invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2.4 Clases de comunicacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2.5 Tiempos de entrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2.6 Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2.7 Periodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3 Tipos de cadenas de Mrkov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3.1 Cadenas irreducibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3.2 Cadenas positivo-recurrentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3.3 Cadenas regulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3.4 Cadenas absorbentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.3.5 Cadenas de Mrkov en tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.4 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.4.1 Fsica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

i
ii NDICE GENERAL

4.4.2 Meteorologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.3 Modelos epidemiolgicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.4 Internet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.5 Simulacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.6 Juegos de azar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.7 Economa y nanzas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.8 Gentica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.9 Msica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.10 Operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.11 Redes Neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.6 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.7 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.8 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.8.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.8.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.8.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Captulo 1

Proceso estocstico

El ndice de la bolsa es un ejemplo de proceso estocstico de tipo no estacionario (por eso no se puede predecir).

En estadstica, y especcamente en la teora de la probabilidad, un proceso estocstico es un concepto matemtico


que sirve para caracterizar una sucesin de variables aleatorias (estocsticas) que evolucionan en funcin de otra va-
riable, generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia funcin de distribucin
de probabilidad y, entre ellas, pueden estar correlacionadas o no.
Cada variable o conjunto de variables sometidas a inuencias o efectos aleatorios constituye un proceso estocstico.

1.1 Ejemplos
Los siguientes son ejemplos dentro del amplio grupo de las series temporales:

Seales de telecomunicacin.
Seales biomdicas (electrocardiograma, encefalograma, etc.)

1
2 CAPTULO 1. PROCESO ESTOCSTICO

Seales ssmicas.
El nmero de manchas solares ao tras ao.
El ndice de la bolsa segundo a segundo.
La evolucin de la poblacin de un municipio ao tras ao.
El tiempo de espera en cola de cada uno de los usuarios que van llegando a una ventanilla.
El clima es un gigantesco conjunto de procesos estocsticos interrelacionados (velocidad del viento, hu-
medad del aire, etc) que evolucionan en el espacio y en el tiempo.
Los procesos estocsticos de orden mayor a uno, como el caso de una serie de tiempo de orden 2 y una
correlacin de cero con las dems observaciones.

1.2 Denicin matemtica


Un proceso estocstico se puede denir equivalentemente de dos formas diferentes:

Como un conjunto de realizaciones temporales y un ndice aleatorio que selecciona una de ellas.

Como un conjunto de variables aleatorias Xt indexadas por un ndice t , dado que t T , con T R .

Un proceso se dice de tiempo continuo si T es un intervalo (usualmente este intervalo se toma como [0, ) ) o
de tiempo discreto si T es un conjunto numerable (solamente puede asumir determinados valores, usualmente se
toma T N ). Las variables aleatorias Xt toman valores en un conjunto que se denomina espacio probabilstico.
Sea (, B, P ) un espacio probabilstico. En una muestra aleatoria de tamao n se observa un suceso compuesto E
formado por sucesos elementales :

E = {1 , 2 , ..., n } , de manera que E B .

El suceso compuesto es un subconjunto contenido en el espacio muestral y es un lgebra de Boole B . A cada suceso
le corresponde un valor de una variable aleatoria V , de manera que V es funcin de :

V = V (); , < V <

El dominio de esta funcin o sea el campo de variabilidad del suceso elemental, es el espacio muestral, y su recorrido,
o sea el de la variable aleatoria, es el campo de los nmeros reales. Se llama proceso aleatorio al valor en (A, A) de
un elemento X = (, B, (Xt )t0 , P ) , donde para todo t R, Xt es una variable aleatoria del valor en (A, A) .
Si se observa el suceso en un momento t de tiempo:

V = V (, t), , t T, < V <

V dene as un proceso estocstico.[1]


Si (Bt )t es una ltracin,[2] se llama proceso aleatorio adaptado, al valor en (A, A) , de un elemento X = (, B, Bt , (Xt )t , P )
, donde Xt es una variable aleatoria Bt -medible del valor en (A, A) . La funcin R A : t 7 Xt () se llama la
trayectoria asociada al suceso .

1.2.1 Casos especiales


Proceso estacionario: Un proceso es estacionario en sentido estricto si la funcin de distribucin conjunta de
cualquier subconjunto de variables es constante respecto a un desplazamiento en el tiempo. Se dice que un
proceso es estacionario en sentido amplio (o dbilmente estacionario) cuando se verica que:

1. La media terica es independiente del tiempo; y


1.3. VASE TAMBIN 3

2. Las autocovarianzas de orden s slo vienen afectadas por el lapso de tiempo transcurrido entre los
dos periodos y no dependen del tiempo.

Proceso homogneo: variables aleatorias independientes e idnticamente distribuidas.


Proceso de Mrkov: Aquellos procesos discretos en que la evolucin slo depende del estado actual y no de los
anteriores.
Proceso de Gauss: Proceso continuo en el que toda combinacin lineal de variables es una variable de distribucin
normal.
Proceso de Poisson

Proceso de Gauss-Mrkov: Son procesos, al mismo tiempo, de Gauss y de Mrkov


Proceso de Bernoulli Son procesos discretos con una distribucin binomial.

Proceso de Lvy: Son procesos homogneos de Markov de tiempo continuo que generalizan el paseo aleatorio
que usualmente se dene como de tiempo discreto.

1.3 Vase tambin


Movimiento browniano

Vuelo de Lvy

1.4 Referencias
[1] Dagum, Camilo y Estela M. Bee de Dagum(1971) Introduccin a la Econometra: 79-83. Mxico: Siglo XXI editores,
stima edicin, 1980.

[2] Se llama ltracin a una sucesin {B (t), t T}de sub--lgebras tal que B (t) est incluida en B (r) si r <t.
Captulo 2

Proceso de Mrkov

En la teora de la probabilidad y en estadstica, un proceso de Mrkov, llamado as por el matemtico ruso Andri
Mrkov, es un fenmeno aleatorio dependiente del tiempo para el cual se cumple una propiedad especca: la
propiedad de Mrkov. En una descripcin comn, un proceso estocstico con la propiedad de Mrkov, o sin memoria,
es uno para el cual la probabilidad condicional sobre el estado presente, futuro y pasado del sistema son independien-
tes.[1] Los procesos de Mrkov surgen en probabilidad y en estadstica en una de dos maneras:
i) Un proceso estocstico, que se dene a travs de un argumento separado, puede demostrarse (matemticamente)
que tiene la propiedad de Mrkov y como consecuencia tiene las propiedades que se pueden deducir de sta para
todos los procesos de Mrkov.
ii) De ms importancia prctica es el uso de la suposicin que la propiedad de Mrkov es vlida para un proceso
aleatorio con el n de construir, ab initio, un modelo estocstico para este proceso. En trminos de modelado, suponer
que la propiedad de Mrkov es vlida es una de un limitado nmero de formas sencillas de introducir dependencia
estadstica en un modelo para un proceso estocstico, de tal manera que permita que la fuerza de la dependencia en
los diferentes retardos decline a medida que el retardo aumenta.
Frecuentemente el trmino cadena de Mrkov se usa para dar a entender que un proceso de Mrkov tiene un espacio de
estados discreto (innito o numerable). Usualmente una cadena de Mrkov sera denida para un conjunto discreto de
tiempos (es decir, una cadena de Mrkov de tiempo discreto),[2] aunque algunos autores usan la misma terminologa
donde tiempo puede tomar valores continuos.[3]

2.1 La propiedad de Mrkov


Para ciertos tipos de procesos estocsticos es simple formular la condicin que especica que la propiedad de Mrkov
es vlida mientras que para otros se requiere una matemtica ms sosticada como se describe en el artculo propiedad
de Mrkov..

2.2 Vase tambin


Camino aleatorio

Movimiento browniano

Cadena de Mrkov

Proceso de Feller

2.3 Referencias
[1] Markov process (mathematics) - Britannica Online Encyclopedia

4
2.3. REFERENCIAS 5

[2] Everitt,B.S. (2002) The Cambridge Dictionary of Statistics. CUP. ISBN 0-521-81099-X

[3] Dodge, Y. The Oxford Dictionary of Statistical Terms, OUP. ISBN 0-19-920613-9
Captulo 3

Propiedad de Mrkov

En teora de probabilidad y estadstica, la propiedad de Markov se reere a la propiedad de ciertos procesos esto-
csticos por la cual carecen de memoria, lo que signica que la distribucin de probabilidad del valor futuro de una
variable aleatoria depende de su valor presente, pero es independiente de la historia de dicha variable. A los procesos
que satisfacen esta condicin se les conoce como procesos de Mrkov. Debe su nombre al matemtico ruso Andri
Mrkov, quien desarroll la teora de las cadenas de Mrkov.

3.1 Demostracin matemtica


Una cadena de Mrkov se puede caracterizar por la probabilidad de ir al estado n+1 condicionada a que antes est-
bamos en el estado n:

P (Xn+1 |Xn )

Que es la probabilidad de transicin del proceso. La propiedad de las cadenas de Mrkov es que las transiciones entre
los estados, slo puede producirse entre estados vecinos. Slo se puede llegar al estado i desde el estado i-1 bien de
i+1.
Este tipo de estadstica se suele encontrar en la distribucin exponencial, cuya funcin de densidad de probabilidad
se expresa as:

f (t) = et t>0

Vamos a comprobar que un proceso denido por esta funcin de densidad de probabilidad no tiene memoria. La
probabilidad de que haya una transicin entre 0 y un tiempo t cualquiera es:

t
P (0 < < t) = P ( < t) = e d
0

Integrando obtenemos:

P ( < t) = e0 et = 1 et

Ahora vamos a calcular la probabilidad para el mismo intervalo t, pero con instante de inicio diferente t0 . Calcularemos
la probabilidad de tener una transicin en el intervalo t, (de t0 hasta t0 +t) condicionado a que antes de t0 no ha habido
ninguna transicin:

p(t0 < < t0 + t)


P (t0 < < t0 + t| > t0 ) =
p( > t0 )

6
3.1. DEMOSTRACIN MATEMTICA 7

Sustituyendo por las fdp y operando obtenemos:

t0 +t
e d et0 e(t0 +t) et0 (1 et )
P (t0 < < t0 + t| > t0 ) = t0 = = = 1 et
t0
e d et0 e et0 0

Con lo que queda demostrado que la probabilidad de tener una transicin en un estado, no depende del tiempo anterior.
Captulo 4

Cadena de Mrkov

En la teora de la probabilidad, se conoce como cadena de Mrkov o modelo de Mrkov a un tipo especial de
proceso estocstico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inme-
diatamente anterior. Esta caracterstica de falta de memoria recibe el nombre de propiedad de Markov.

0.3

E
0.7

0.4
A
0.6
Cadena simple biestable de Markov.

8
4.1. DEFINICIN FORMAL 9

Recibe su nombre del matemtico ruso Andri Mrkov (1856-1922), que lo introdujo en 1907.[1]
Estos modelos estadsticos cuentan con un gran nmero de aplicaciones reales.

4.1 Denicin formal


En matemtica se dene como un proceso estocstico discreto que cumple con la propiedad de Mrkov, es decir, si
se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la informacin relevante para
describir en probabilidad su estado futuro.
Una cadena de Mrkov es una secuencia X1 , X2 , X3 ,... de variables aleatorias. El dominio de estas variables es llamado
espacio estado; el valor de Xn es el estado del proceso en el tiempo n. Si la distribucin de probabilidad condicional
de Xn en estados pasados es una funcin de Xn por s sola, entonces:

P (Xn+1 = xn+1 |Xn = xn , Xn1 = xn1 , . . . , X2 = x2 , X1 = x1 ) = P (Xn+1 = xn+1 |Xn = xn ).

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Mrkov.

4.2 Notacin til

4.2.1 Cadenas homogneas y no homogneas


Una cadena de Mrkov se dice homognea si la probabilidad de ir del estado i al estado j en un paso no depende
del tiempo en el que se encuentra la cadena, esto es:

P (Xn = j|Xn1 = i) = P (X1 = j|X0 = i)


Si para alguna pareja de estados y para algn tiempo n la propiedad antes mencionada no se cumple diremos que la
cadena de Mrkov es no homognea.

4.2.2 Probabilidades de transicin y matriz de transicin


La probabilidad de ir del estado i al estado j en n unidades de tiempo es

(n)
pij = Pr(Xn = j | X0 = i)
en la probabilidad de transicin en un paso se omite el superndice de modo que queda

pij = Pr(X1 = j | X0 = i).

Un hecho importante es que las probabilidades de transicin en n pasos satisfacen la ecuacin de Chapman-
Kolmogrov, esto es, para cualquier k tal que 0 < k < n se cumple que

(n)
(k) (nk)
pij = pir prj
rE

donde E denota el espacio de estados.

Cuando la cadena de Mrkov es homognea, muchas de sus propiedades tiles se pueden obtener a travs de
su matriz de transicin, denida entrada a entrada como Ai,j = pij

esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a j en un paso.


Del mismo modo se puede obtener la matriz de transicin en n pasos como:
(n) (n) (n)
Ai,j = Pij , donde Pij = P (Xn = j|X0 = i) .
10 CAPTULO 4. CADENA DE MRKOV

4.2.3 Vector de probabilidad invariante


Se dene la distribucin inicial (x) = P (X0 = x) .

Diremos que un vector de probabilidad (nito o innito numerable) es invariante para una cadena de Mrkov
si

P =
donde P denota la matriz de transicin de la cadena de Mrkov. Al vector de probabilidad invariante tambin se le
llama distribucin estacionaria o distribucin de equilibrio.

4.2.4 Clases de comunicacin


Para dos estados i,j en el espacio de estados E, diremos que de i se accede a j (y se denotar i j ) si

(n)
pij > 0 para algn n,

si i j y j i entonces diremos que i comunica con j y se denotar ij.


La propiedad "" es una relacin de equivalencia. Esta relacin induce una particin en el espacio de estados. A estas
clases de equivalencia las llamaremos clases de comunicacin.
Dado un estado x, denotaremos a su clase de comunicacin como C(x).

Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es cerrado si ningn estado de
(m)
E-C puede ser accedido desde un estado de C, es decir, si px,y = 0 para todo xC, para todo yE-C y para
todo natural m>0.

4.2.5 Tiempos de entrada


Si C E , denimos el primer tiempo de entrada a C como la variable aleatoria
{
min{n > 0|Xn C} si {n > 0|Xn C} =

TC =
si {n > 0|Xn C} =

esto es, TC denota la primera vez que la cadena entra al conjunto de estados C.

4.2.6 Recurrencia
En una cadena de Mrkov con espacio de estados E, si xE se dene Lx = P (Xn = x para algun n N |X0 = x)
y diremos que:

x es estado recurrente si Lx = 1 .
x es transitorio si Lx < 1
x es absorbente si px,x = 1
Una clase de comunicacin es clase recurrente si todos sus estados son recurrentes.

Sea x = E (Tx |X0 = x) , si xEdiremos que:

x es cero-recurrente si x =
x es positivo-recurrente si x <

El real x se interpreta como el tiempo promedio de recurrencia.


4.3. TIPOS DE CADENAS DE MRKOV 11

4.2.7 Periodicidad

El periodo de un estado xE se dene como:

(n)
d(x) = mcd{n : Px,x > 0}

donde mcd denota el mximo comn divisor.

Si d(x)=1 diremos que x es un estado aperidico.

Una cadena de Mrkov se dice aperidica si todos sus estados son aperidicos.

4.3 Tipos de cadenas de Mrkov

4.3.1 Cadenas irreducibles

Una cadena de Mrkov se dice irreducible si se cumple cualquiera de las siguientes condiciones (equivalentes entre
s):

1. Desde cualquier estado de E se puede acceder a cualquier otro.

2. Todos los estados se comunican entre s.

3. C(x)=E para algn xE.

4. C(x)=E para todo xE.

5. El nico conjunto cerrado es el total.

La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de Mrkov irredu-
cibles.

4.3.2 Cadenas positivo-recurrentes

Una cadena de Mrkov se dice positivo-recurrente si todos sus estados son positivo-recurrentes. Si la cadena es adems
irreducible es posible demostrar que existe un nico vector de probabilidad invariante y est dado por:

x = 1/x

4.3.3 Cadenas regulares

Una cadena de Mrkov se dice regular (tambin primitiva o ergdica) si existe alguna potencia positiva de la matriz
de transicin cuyas entradas sean todas estrictamente mayores que cero.
Cuando el espacio de estados E es nito, si P denota la matriz de transicin de la cadena se tiene que:

lim P n = W
n

donde W es una matriz con todos sus renglones iguales a un mismo vector de probabilidad w, que resulta ser el vector
de probabilidad invariante de la cadena. En el caso de cadenas regulares, ste vector invariante es nico.
12 CAPTULO 4. CADENA DE MRKOV

4.3.4 Cadenas absorbentes

Una cadena de Mrkov con espacio de estados nito se dice absorbente si se cumplen las dos condiciones siguientes:

1. La cadena tiene al menos un estado absorbente.

2. De cualquier estado no absorbente se accede a algn estado absorbente.

Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos los siguientes
resultados:

Su matriz de transicin siempre se puede llevar a una de la forma

( )
Q R
P =
0 I
donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0 es la matriz nula y R alguna
submatriz.

Px (TA < ) = 1 , esto es, no importa en donde se encuentre la cadena, eventualmente terminar en un
estado absorbente.

4.3.5 Cadenas de Mrkov en tiempo continuo

Si en lugar de considerar una secuencia discreta X1 , X2 ,..., Xi,.. con i indexado en el conjunto N de nmeros naturales,
se consideran las variables aleatorias Xt con t que vara en un intervalo continuo del conjunto R de nmeros reales,
tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Mrkov se
expresa de la siguiente manera:

P (X(tn+1 ) = xn+1 |X(tn ) = xn , . . . , X(t1 ) = x1 ) = P (X(tn+1 ) = xn+1 |X(tn ) = xn ) tal


que tn+1 > tn > tn1 > > t1

Para una cadena de Mrkov continua con un nmero nito de estados puede denirse una matriz estocstica dada
por:

P(t1 , t2 ) = [pij (t1 , t2 )]i,j=1,...,N , pij (t1 , t2 ) = P [X(t2 ) = j|X(t1 ) = i], 0 t1 < t2

La cadena se denomina homognea si P(t1 , t2 ) = P(t2 t1 ) . Para una cadena de Mrkov en tiempo continuo
homognea y con un nmero nito de estados puede denirse el llamado generador innitesimal como:[2]

P(h)I
Q = limh0+ h

Y puede demostrarse que la matriz estocstica viene dada por:

Q n tn
P(t) = eQt = n=0 n!

4.4 Aplicaciones

4.4.1 Fsica

Las cadenas de Mrkov son usadas en muchos problemas de la termodinmica y la fsica estadstica. Ejemplos im-
portantes se pueden encontrar en la Cadena de Ehrenfest o el modelo de difusin de Laplace.
4.4. APLICACIONES 13

4.4.2 Meteorologa

Si consideramos el clima de una regin a travs de distintos das, es claro que el estado actual solo depende del
ltimo estado y no de toda la historia en s, de modo que se pueden usar cadenas de Mrkov para formular modelos
climatolgicos bsicos. Por ejemplo se han desarrollado modelos de recurrencia de las lluvias basados en cadenas de
Mrkov.[3]

4.4.3 Modelos epidemiolgicos

Una importante aplicacin de las cadenas de Mrkov se encuentra en el proceso Galton-Watson. ste es un proceso
de ramicacin que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (vase modelaje
matemtico de epidemias).

4.4.4 Internet

El pagerank de una pgina web (usado por Google en sus motores de bsqueda) se dene a travs de una cadena
de Mrkov, donde la posicin que tendr una pgina en el buscador ser determinada por su peso en la distribucin
estacionaria de la cadena.

4.4.5 Simulacin

Las cadenas de Mrkov son utilizadas para proveer una solucin analtica a ciertos problemas de simulacin, por
ejemplo en teora de colas el Modelo M/M/1[4] es de hecho un modelo de cadenas de Mrkov.

4.4.6 Juegos de azar

Son muchos los juegos de azar que se pueden modelar a travs de una cadena de Mrkov. El modelo de la ruina del
jugador, que establece la probabilidad de que una persona que apuesta en un juego de azar nalmente termine sin
dinero, es una de las aplicaciones de las cadenas de Mrkov en este rubro.

4.4.7 Economa y nanzas

Las cadenas de Mrkov se pueden utilizar en modelos simples de valuacin de opciones para determinar cundo existe
oportunidad de arbitraje, as como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad
de los precios. En los negocios, las cadenas de Mrkov se han utilizado para analizar los patrones de compra de los
deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

4.4.8 Gentica

Se emplean cadenas de Mrkov en teora de gentica de poblaciones, para describir el cambio de frecuencias gnicas
en una poblacin pequea con generaciones discretas, sometida a deriva gentica. Ha sido empleada en la construccin
del modelo de difusin de Mot Kimura.

4.4.9 Msica

Diversos algoritmos de composicin musical usan cadenas de Mrkov, por ejemplo el software Csound o Max

4.4.10 Operaciones

Se emplean cadenas de Mrkov en inventarios, mantenimiento, ujo de proceso


14 CAPTULO 4. CADENA DE MRKOV

4.4.11 Redes Neuronales

Se utilizan en las mquinas de Boltzmann (redes neuronales)

4.5 Referencias
[1] Basharin, Gely P.; Langville, Amy N.; Naumov, Valeriy A. (2004). The Life and Work of A. A. Markov. Linear Algebra
and its Applications (en ingls) 386: 326. Consultado el 31 de marzo de 2010.

[2] Masaki Kijima, 1997, p. 175

[3] R. Gabriel & J. Neumann (2006): A Markov chain model for daily rainfall occurrence at Tel Aviv

[4] Masaki Kijima, 1997, pp. 287-290.

4.6 Bibliografa
A.A. Mrkov. Rasprostranenie zakona bolshih chisel na velichiny, zavisyaschie drug ot druga. Izvestiya
Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, tom 15, pp. 135156, 1906.

A.A. Markov. Extension of the limit theorems of probability theory to a sum of variables connected in a
chain. reprinted in Appendix B of: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains.
John Wiley and Sons, 1971.

Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin
Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591600.
Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500

Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968; reprinted by Society for In-
dustrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (See Chapter 7.)

J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.

S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-
387-19832-6. online: http://web.archive.org/web/https://netfiles.uiuc.edu/meyn/www/spm_files/book.html .
Second edition to appear, Cambridge University Press, 2009.

S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 978-0-521-
88441-9. Appendix contains abridged Meyn & Tweedie. online: https://netfiles.uiuc.edu/meyn/www/spm_
files/CTCN/CTCN.html

Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1st edicin). Nueva York: John Wiley and
Sons, Inc. Library of Congress Card Catalog Number 67-25924. Extensive, wide-ranging book meant for specia-
lists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations
of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent
treatment of Markov processes pp. 449. Discusses Z-transforms, D transforms in their context.

Kemeny, John G.; Hazleton Mirkil, J. Laurie Snell, Gerald L. Thompson (1959). Finite Mathematical Structures
(1st edicin). Englewood Clis, N.J.: Prentice-Hall, Inc. Library of Congress Card Catalog Number 59-12841.
Classical text. cf Chapter 6 Finite Markov Chains pp. 384.

Kijima, Masaaki (1997). Markov Processes for Stochastic Modeling (1st edicin). Cambridge: Chapman & Hall.
ISBN 0 412 60660 7.

E. Nummelin. General irreducible Markov chains and non-negative operators. Cambridge University Press,
1984, 2004. ISBN 0-521-60494-X
4.7. ENLACES EXTERNOS 15

4.7 Enlaces externos


Cadenas de Markov en tiempo discreto

http://www.gestiondeoperaciones.net/cadenas-de-markov/ejemplo-de-una-cadena-de-markov-en-tiempo-discreto/
Techniques to Understand Computer Simulations: Markov Chain Analysis

Desambiguacin mediante Cadenas de Markov

Una explicacin visual por Victor Powell


16 CAPTULO 4. CADENA DE MRKOV

4.8 Text and image sources, contributors, and licenses


4.8.1 Text
Proceso estocstico Fuente: http://es.wikipedia.org/wiki/Proceso%20estoc%C3%A1stico?oldid=79958252 Colaboradores: Juan Ma-
nuel, Rsg, Elwikipedista, Kordas, Rembiapo pohyiete (bot), Orgullobot~eswiki, RobotQuistnix, Akhram, LuchoX, Yrbot, YurikBot,
Gaeddal, GermanX, LoquBot, Eskimbot, BludgerPan, Paintman, Hhmb, Javg, Davius, Resped, Thijs!bot, JAnDbot, Hlnodovic, Phirosi-
beria, VolkovBot, Muro Bot, SieBot, Loveless, BOTarate, Correogsk, Waykicha, Farisori, Fanattiq, VanBot, AVBOT, NicolasAlejandro,
Diegusjaimes, Luckas-bot, Amirobot, LordboT, Xqbot, Jkbw, RedBot, Humbefa, ZroBot, J. A. Glvez, Grillitus, JackieBot, Elas, Mer-
lIwBot, KLBot2, Acratta, Elvisor, RosenJax, Jarould y Annimos: 37
Proceso de Mrkov Fuente: http://es.wikipedia.org/wiki/Proceso%20de%20M%C3%A1rkov?oldid=78688782 Colaboradores: Davius,
Hlnodovic, Urdangaray, Adelpine, Xqbot, AstaBOTh15, Humbefa, MerlIwBot, MetroBot, Invadibot, Addbot y Annimos: 4
Propiedad de Mrkov Fuente: http://es.wikipedia.org/wiki/Propiedad%20de%20M%C3%A1rkov?oldid=73933272 Colaboradores: Pa-
bloab, Yrbot, YurikBot, Echani, Eskimbot, Maldoror, Chlewbot, CEM-bot, Davius, Isha, Hlnodovic, Pato darwin, Urdangaray, SieBot,
PaintBot, Loveless, Pedro Felipe, StarBOT, Farisori, Estirabot, Juan Mayordomo, Louperibot, MystBot, Xqbot, Skder, Halfdrag, Gan-
medes, Grillitus, KLBot2 y Annimos: 4
Cadena de Mrkov Fuente: http://es.wikipedia.org/wiki/Cadena%20de%20M%C3%A1rkov?oldid=81277968 Colaboradores: Angus,
Stoni, Elwikipedista, Dianai, Mechonbarsa, Atalatlae, Rembiapo pohyiete (bot), OMenda, RobotQuistnix, Chobot, Yrbot, BOT-Superzerocool,
Mpagano, BOTijo, YurikBot, GermanX, KnightRider, Eskimbot, Paintman, Rdds, CEM-bot, Pinar~eswiki, Fenicio, Santhy, Davius,
Thijs!bot, Drake 81, Egaida, Cgb, JAnDbot, TXiKiBoT, Hlnodovic, Rei-bot, VolkovBot, Urdangaray, Matdrodes, Muro Bot, Jmvgpart-
ner, SieBot, Loveless, Bigsus-bot, BOTarate, Correogsk, El bot de la dieta, DorganBot, Javierito92, Farisori, Leonpolanco, Botito777,
UA31, AVBOT, LucienBOT, Flakinho, MastiBot, Arjuno3, Luckas-bot, Nallimbot, Ptbotgourou, FariBOT, ArthurBot, Xqbot, Jkbw, Ru-
binbot, Igna, Jmgalan, D'ohBot, RedBot, Marsal20, HUBOT, Humbefa, Jorge c2010, Manuel Valadez Snchez, AndyNOB, GrouchoBot,
Antonorsi, MerlIwBot, Maapitol, Invadibot, Elvisor, RosenJax, Addbot, Eugenio Lpez Cortegano, Edwinmontes, Djaviroma, Jarvizx,
Egis57 y Annimos: 50

4.8.2 Images
Archivo:Commons-emblem-question_book_orange.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/1/1f/Commons-emblem-question_
book_orange.svg Licencia: CC BY-SA 3.0 Colaboradores: <a href='//commons.wikimedia.org/wiki/File:Commons-emblem-issue.svg'
class='image'><img alt='Commons-emblem-issue.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/25px-Commons-emblem-issue.svg.png' width='25' height='25' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/38px-Commons-emblem-issue.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.svg/
50px-Commons-emblem-issue.svg.png 2x' data-le-width='48' data-le-height='48' /></a> + <a href='//commons.wikimedia.org/wiki/
File:Question_book.svg' class='image'><img alt='Question book.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/25px-Question_book.svg.png' width='25' height='20' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/38px-Question_book.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/50px-Question_
book.svg.png 2x' data-le-width='252' data-le-height='199' /></a> Artista original: GNOME icon artists, Jorge 2701
Archivo:Markovkate_01.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/2/2b/Markovkate_01.svg Licencia: CC BY-SA
3.0 Colaboradores: Trabajo propio Artista original: Joxemai4
Archivo:TelekomAustriaAktie.png Fuente: http://upload.wikimedia.org/wikipedia/commons/7/75/TelekomAustriaAktie.png Licen-
cia: CC BY-SA 2.5 Colaboradores: ? Artista original: ?

4.8.3 Content license


Creative Commons Attribution-Share Alike 3.0
415 - Teora de la Decisin
ndice general

1 Teora de la decisin 1
1.1 Partes de la teora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Tipos de decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2.1 Eleccin entre mercancas inconmensurables . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Eleccin bajo incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.3 Eleccin atemporal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Decisiones complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Paradoja de la eleccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.5.1 Otras referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.6 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.7 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Toma de decisiones 5
2.1 Importancia de tomar decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Decisiones programadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.2 Decisiones no programadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Indecisin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 En que etapa son ms frecuentes las indecisiones? . . . . . . . . . . . . . . . . . . . . . 7
2.2.2 A que se debe la indecisin? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Anlisis de la Indecisin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3.1 El estado de nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3.2 La importancia de la situacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3.3 El miedo al cambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3.4 Mltiples opciones a tomar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3.5 Baja autoestima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4 Las decisiones en el Contexto empresarial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4.1 Modelo Racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.2 Modelo de racionalidad limitada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.3 Modelo Poltico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5 Estilo de toma de decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.1 Estilo directivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.2 Estilo analtico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

i
ii NDICE GENERAL

2.5.3 Estilo conceptual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11


2.5.4 Estilo conductual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.6 Situaciones o contextos de decisin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6.1 Ambiente de certeza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6.2 Ambiente de riesgo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6.3 Ambiente de incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.7 Proceso de toma de decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.1 Identicar y analizar el problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.2 Identicar los criterios de decisin y ponderarlos . . . . . . . . . . . . . . . . . . . . . . 13
2.7.3 Denir la prioridad para atender el problema . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.4 Generar las opciones de solucin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.5 Evaluar las opciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.7.6 Eleccin de la mejor opcin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.7.7 Aplicacin de la decisin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.7.8 Evaluacin de los resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.7.9 Procesos cognitivos implicados en la toma de decisiones . . . . . . . . . . . . . . . . . . . 14
2.8 La informacin como materia prima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.9 Sesgos cognitivos en la toma de decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.10 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.11 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3 Minimax 17
3.1 Teorema Minimax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Algoritmo Minimax con movimientos alternativos . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Optimizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.5 Minimax en la ccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.6 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.7 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.7.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.7.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.7.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Captulo 1

Teora de la decisin

La teora de la decisin es una rea interdisciplinaria de estudio, relacionada con casi todos los participantes en
ramas de la ciencia, la Administracin, Economa, la psicologa (basados en perspectivas cognitivo-conductuales).
Concierne a la forma y al estudio del comportamiento y fenmenos psquicos de aquellos que toman las decisiones
(reales o cticios), as como las condiciones por las que deben ser tomadas las decisiones.

1.1 Partes de la teora


La mayor parte de la teora de la decisin es normativa o prescriptiva, es decir concierne a la identicacin de la
mejor decisin que pueda ser tomada, asumiendo que una persona que tenga que tomar decisiones (decision maker)
sea capaz de estar en un entorno de completa informacin, capaz de calcular con precisin y completamente racional.
La aplicacin prctica de esta aproximacin prescriptiva (de como la gente debera hacer y tomar decisiones) se
denomina anlisis de la decisin y proporciona una bsqueda de herramientas, metodologas y software para ayudar a
las personas a tomar mejores decisiones. Las herramientas de software orientadas a este tipo de ayudas se desarrollan
bajo la denominacin global de Sistemas para la ayuda a la decisin (decision support systems, abreviado en ingls
como DSS).
Como parece obvio que las personas no se encuentran en estos entornos ptimos y con la intencin de hacer la teora
ms realista, se ha creado un rea de estudio relacionado que se encarga de la parte de la disciplina ms positiva
o descriptiva, intentando describir qu es lo que la gente realmente hace durante el proceso de toma de decisiones.
Se pens en esta teora debido a que la teora normativa, trabaja slo bajo condiciones ptimas de decisin y a
menudo crea hiptesis, para ser probadas, algo alejadas de la realidad cotidiana. Los dos campos estn ntimamente
relacionados; no obstante, es posible relajar algunas presunciones de la informacin perfecta que llega al sujeto que
toma decisiones, se puede rebajar su racionalidad y as sucesivamente, hasta llegar a una serie de prescripciones o
predicciones sobre el comportamiento de la persona que toma decisiones, permitiendo comprobar qu ocurre en la
prctica de la vida cotidiana.

1.2 Tipos de decisiones


Existen tipos de decisin que son interesantes desde el punto de vista del desarrollo de una teora, estos son:

Decisin sin riesgo entre mercancas inconmensurables (mercancas que no pueden ser medidas bajo las mismas
unidades)

Eleccin bajo impredecibilidad

Eleccin intertemporal - estudio del valor relativo que la gente asigna a dos o ms bienes en diferentes momentos
del tiempo

Decisiones sociales: decisiones tomadas en grupo o bajo una estructura organizativa

1
2 CAPTULO 1. TEORA DE LA DECISIN

1.2.1 Eleccin entre mercancas inconmensurables


Esta rea es importante cuando se ha de tomar la decisin de elegir, por ejemplo, entre comprar una tonelada de
caones.

1.2.2 Eleccin bajo incertidumbre


Esta rea representa el principal esfuerzo de investigacin en la teora de la decisin. El procedimiento se basa en el
valor esperado ya conocido en el siglo XVII. El lsofo francs Blaise Pascal ya lo enunciaba en sus famosas dudas,
contenidas en su Pensamientos, publicado en 1670. La idea del valor esperado consiste en que cuando afrontamos
con un nmero de acciones, cada una de ellas con un nmero de resultados asociados a una probabilidad diferente, el
procedimiento racional es identicar todos los posibles resultados de las acciones, determinar sus valores (positivos
o negativos) y sus probabilidades asociadas que resultan de cada accin y, al multiplicar los dos valores, se obtiene
el valor esperado. La accin elegida deber ser aquella que proporcione el mayor valor esperado. En 1738, Daniel
Bernoulli public un documento inuyente denominado Exposicin de una nueva Teora sobre la Medida del Riesgo,
en la que emplea la paradoja de San Petersburgo para mostrar que el valor esperado debe ser normativamente errneo.
Proporciona un ejemplo con un mercante holands que intenta decidir si asegurar la carga que quiere enviar desde
msterdam a San Petersburgo en invierno, cuando se sabe que hay un 5% de probabilidad de perder la carga durante
el viaje. En su solucin, dene por primera vez la funcin de utilidad y calcula la utilidad esperada en vez del valor
nanciero.
En el siglo XX el inters por este tema fue reiniciado por un artculo de Abraham Wald en 1939 sealando los dos
temas centrales de la estadstica ortodoxa de aquel tiempo: los test de hiptesis estadsticas y la teora de la estimacin
estadstica, que podran ser aspectos especiales del problema general de la decisin. Este artculo introduce muchos
de los ingredientes actuales de la moderna teora de la decisin, incluyendo funciones de prdida, funcin de riesgo,
reglas de decisin admisibles, distribuciones a priori, teora de Bayes de la decisin, y reglas minimax para la toma
de decisin. La frase teora de la decisin fue empleada por primera vez en el ao 1950 por E. L. Lehmann.
El crecimiento de la teora de probabilidad subjetiva, procedente del trabajo de Frank Ramsey, Bruno de Finetti,
Leonard Savage y otros, extendiendo el mbito de la teora de la utilidad a situaciones donde slo la teora de la
probabilidad subjetiva puede ser empleada. En este tiempo se asume que en economa la gente se comporta como
agentes racionales humanos que toman decisiones bajo riesgo. El trabajo de Maurice Allais y Daniel Ellsberg mostr
que no es tan fcilmente formalizar estas situaciones. La teora prospectiva de Daniel Kahneman y Amos Tversky
dio lugar a la economa comportacional. En esta teora se enfatiza en las capacidades humanas (opuestas a lo nor-
mativamente correcto) en la toma de decisiones basada en perdidas y ganancias, la gente es ms focalizada en los
cambios en sus estados de utilidad y en la estimacin subjetiva a menudo sesgada por anclaje.
La Apuesta de Pascal es un ejemplo clsico de eleccin ante incertidumbre. La incertidumbre, de acuerdo con Pascal,
est en saber si Dios existe. Las creencias o escepticismos personales sobre la eleccin de creer en su existencia.

1.2.3 Eleccin atemporal


Esta rea concierne a un tipo de tomas de decisin donde intervienen una serie de acciones en diferentes instantes
de tiempo. Por ejemplo, si recibiera una gran cantidad de euros en un instante de tiempo, podra gastarlos en unas
vacaciones de lujo, proporcionndome un placer inmediato, o por el contrario podra invertirlo en un plan de pen-
siones, que me proporcionara un benecio en el futuro. Surge la pregunta de cul es la decisin ptima, la respuesta
depende parcialmente de factores tales como el valor de esperanza de vida, la inacin, el inters, la conanza en el
sistema de pensiones, etc. Sin embargo aunque todos estos factores fueran tomados en cuenta a la hora de tomar la
decisin, el comportamiento humano se desva de las predicciones de la teora prescriptiva, dando lugar a modelos
alternativos en los que, por ejemplo, el inters objetivo se reemplaza por un descuento subjetivo.

1.3 Decisiones complejas


Otras reas de la teora de la decisin conciernen con la dicultad de tomar decisiones debido en parte a la com-
plejidad de clculo de las expectativas, o bien por la complejidad de la propia organizacin que tiene que tomar
las decisiones. En tales casos la teora no se ja tanto en obtener un clculo basado en como se desva una decisin
real de una ptima, sino en la medida de la dicultad de determinar el comportamiento ptimo a la hora de tomar
1.4. PARADOJA DE LA ELECCIN 3

la decisin. Un ejemplo de esta teora puede encontrarse en el Club de Roma, que ha desarrollado un modelo de
crecimiento econmico y de recursos basado en un modelo que puede ayudar a los polticos a tomar decisiones en
situaciones complejas.

1.4 Paradoja de la eleccin


Se ha observado en muchos casos que existe la paradoja de que muchas capacidades de elegir puede dar lugar a una
pobre decisin o incluso a una eleccin errnea. En algunas ocasiones se ha analizado el problema desde una parlisis
del anlisis, real o percibido, o incluso desde una ignorancia racional. Un gran nmero de investigadores incluido
Sheena S. Iyengar y Mark R. Lepper ha publicado estudios basados en este fenmeno.[1] Una popularizacin de este
anlisis fue realizado por Barry Schwartz en su libro The Paradox of Choice.[2]

1.5 Referencias
[1] (Goode, 2001)

[2] 2004 book, The Paradox of Choice

1.5.1 Otras referencias


Sven Ove Hansson, Decision Theory: A Brief Introduction, Una introduccin (Formato PDF) Una excelente
y sencilla introduccin al tema (punto de vista no tcnico)

Paul Goodwin and George Wright, Decision Analysis for Management Judgment, 3rd edition. Chichester: Wiley,
2004 ISBN 0-470-86108-8 (cubre por igual la parte normativa y no normativa de la teora)

Robert Clemen. Making Hard Decisions: An Introduction to Decision Analysis, 2nd edition. Belmont CA: Dux-
bury Press, 1996. (cubre slo la parte normativa de la teora de la decisin)

D.W. North. A tutorial introduction to decision theory. IEEE Trans. Systems Science and Cybernetics, 4(3),
1968. Reprinted in Shafer & Pearl. (cubre slo la parte normativa de la teora de la decisin)

Glenn Shafer and Judea Pearl, editors. Readings in uncertain reasoning. Morgan Kaufmann, San Mateo, CA,
1990.

Howard Raia Decision Analysis: Introductory Readings on Choices Under Uncertainty. McGraw Hill. 1997.
ISBN 0-07-052579-X

Morris De Groot Optimal Statistical Decisions. Wiley Classics Library. 2004. (Originally published 1970.) ISBN
0-471-68029-X.

Khemani , Karan, Ignorance is Bliss: A study on how and why humans depend on recognition heuristics in social
relationships, the equity markets and the brand market-place, thereby making successful decisions, 2005.

J.Q. Smith Decision Analysis: A Bayesian Approach. Chapman and Hall. 1988. ISBN 0-412-27520-1

Akerlof, George A. and Janet L. YELLEN, Rational Models of Irrational Behavior

Arthur, W. Brian, Designing Economic Agents that Act like Human Agents: A Behavioral Approach to Boun-
ded Rationality

James O. Berger Statistical Decision Theory and Bayesian Analysis. Second Edition. 1980. Springer Series in
Statistics. ISBN 0-387-96098-8.

Goode, Erica. (2001) In Weird Math of Choices, 6 Choices Can Beat 600. The New York Times. Retrieved
May 16, 2005.

Anderson, Barry F. The Three Secrets of Wise Decision Making. Single Reef Press. 2002. ISBN 0-9722177-0-3.
4 CAPTULO 1. TEORA DE LA DECISIN

1.6 Vase tambin


Dinmica de sistemas
Sistema complejo

Sistema dinmico
Sistemas de soporte a decisiones

1.7 Enlaces externos


Comunidad virtual Toma de Decisiones en el mbito de la Direccin Empresarial en Yahoo! Grupos
Un ejemplo prctico de la teora de la toma de decisiones y de la parada ptima.
Captulo 2

Toma de decisiones

La toma de decisiones es el proceso mediante el cual se realiza una eleccin entre las opciones o formas para resolver
diferentes situaciones de la vida en diferentes contextos: a nivel laboral, familiar, personal, sentimental o empresarial
(utilizando metodologas cuantitativas que brinda la administracin). La toma de decisiones consiste, bsicamente,
en elegir una opcin entre las disponibles, a los efectos de resolver un problema actual o potencial (an cuando no se
evidencie un conicto latente).
En trminos bsicos segn Hellriegel, y Slocum (2004) es el proceso de denicin de problemas, recopilacin de
datos, generacin de alternativas y seleccin de un curso de accin.
Por su parte, Stoner, (2003) dene la toma de decisiones como el proceso para identicar y solucionar un curso de
accin para resolver un problema especco.
La toma de decisiones a nivel individual se caracteriza por el hecho de que una persona haga uso de su razonamiento
y pensamiento para elegir una solucin a un problema que se le presente en la vida; es decir, si una persona tiene un
problema, deber ser capaz de resolverlo individualmente tomando decisiones con ese especco motivo.
En la toma de decisiones importa la eleccin de un camino a seguir, por lo que en un estado anterior deben evaluarse
alternativas de accin. Si estas ltimas no estn presentes, no existir decisin. Para tomar una decisin, cualquiera que
sea su naturaleza, es necesario conocer, comprender, analizar un problema, para as poder darle solucin. En algunos
casos, por ser tan simples y cotidianos, este proceso se realiza de forma implcita y se soluciona muy rpidamente,
pero existen otros casos en los cuales las consecuencias de una mala o buena eleccin pueden tener repercusiones en
la vida y si es en un contexto laboral en el xito o fracaso de la organizacin, para los cuales es necesario realizar un
proceso ms estructurado que puede dar ms seguridad e informacin para resolver el problema.

2.1 Importancia de tomar decisiones


Las decisiones se pueden clasicar teniendo en cuenta diferentes aspectos, como lo es la frecuencia con la que se
presentan. Se clasican en cuanto a las circunstancias que afrontan estas decisiones sea cual sea la situacin para
decidir y cmo decidir.

2.1.1 Decisiones programadas

Son aquellas que se toman frecuentemente, es decir son repetitivas y se convierte en una rutina tomarlas; como el
tipo de problemas que resuelve y se presentan con cierta regularidad ya que se tiene un mtodo bien establecido de
solucin y por lo tanto ya se conocen los pasos para abordar este tipo de problemas, por esta razn, tambin se las
llama decisiones estructuradas. La persona que toma este tipo de decisin no tiene la necesidad de disear ninguna
solucin, sino que simplemente se rige por la que se ha seguido anteriormente.
Las decisiones programadas se toman de acuerdo con polticas, procedimientos o reglas, escritas o no escritas, que
facilitan la toma de decisiones en situaciones recurrentes porque limitan o excluyen otras opciones.
Por ejemplo, los gerentes rara vez tienen que preocuparse por el ramo salarial de un empleado recin contratado
porque, por regla general, las organizaciones cuentan con una escala de sueldos y salarios para todos los puestos.

5
6 CAPTULO 2. TOMA DE DECISIONES

Existen procedimientos rutinarios para tratar problemas rutinarios.


Las decisiones programadas se usan para abordar problemas recurrentes. Sean complejos o simples. Si un problema es
recurrente y si los elementos que lo componen se pueden denir, pronosticar y analizar, entonces puede ser candidato
para una decisin programada. Por ejemplo, las decisiones en cuanto a la cantidad de un producto dado que se llevar
en inventario puede entraar la bsqueda de muchos datos y pronsticos, pero un anlisis detenido de los elementos
del problema puede producir una serie de decisiones rutinarias y programadas. En el caso de Nike, comprar tiempo
de publicidad en televisin es una decisin programada.
En cierta medida, las decisiones programadas limitan nuestra libertad, porque la persona tiene menos espacio para
decidir qu hacer. No obstante, el propsito real de las decisiones programadas es liberarnos. Las polticas, las reglas
o los procedimientos que usamos para tomar decisiones programadas nos ahorran tiempo, permitindonos con ello
dedicar atencin a otras actividades ms importantes. Por ejemplo, decidir cmo manejar las quejas de los clientes en
forma individual resultara muy caro y requerira mucho tiempo, mientras que una poltica que dice se dar un plazo
de 14 das para los cambios de cualquier compra simplica mucho las cosas. As pues, el representante de servicios
a clientes tendr ms tiempo para resolver asuntos ms espinosos.

2.1.2 Decisiones no programadas

Tambin denominadas no estructuradas, son decisiones que se toman ante problemas o situaciones que se presentan
con poca frecuencia, o aquellas que necesitan de un modelo o proceso especco de solucin, por ejemplo: Lan-
zamiento de un nuevo producto al mercado, en este tipo de decisiones es necesario seguir un modelo de toma de
decisin para generar una solucin especca para este problema en concreto.
Las decisiones no programadas abordan problemas poco frecuentes o excepcionales. Si un problema no se ha pre-
sentado con la frecuencia suciente como para que lo cubra una poltica o si resulta tan importante que merece trato
especial, deber ser manejado como una decisin no programada. Problemas como asignar los recursos de una organi-
zacin, qu hacer con una lnea de produccin que fracas, cmo mejorar las relaciones con la comunidad de hecho,
los problemas ms importantes que enfrentar el gerente , normalmente, requerirn decisiones no programadas.

2.2 Indecisin
Se puede considerar a la indecisin como falta de autonoma, que impide a un individuo tomar una decisin, elegir
algn camino entre varios, o resolver alguna problemtica. La indecisin provoca hacer juicios prematuros sin tener
la suciente informacin requerida para procesarlo y agregando un valor tico y moral, muchas veces son inconscien-
tes. Al preocuparse de problemas que no estn a nuestro alcance o que no podemos resolver, solo podemos observar
nuestra falta de capacidades, por lo cual entramos en bloqueos emocionales y conictos para toma de decisiones.
Teniendo en cuenta que lo ms comn para llegar a un bloqueo, son los miedos.
La indecisin se dene como una falta de determinacin ante una situacin, es inseguridad, falta de carcter o valor.
es un trastorno que destruye la seguridad y que se vuelve un problema a la hora de decidir, es la incapacidad de elegir
entre dos o ms opciones, como; decidir que ropa usar, que men escoger en un restaurante o simplemente decir no
a lo que no se quiere hacer, todo ello por la falta de conanza en si mismo.
Dr. Jerey Z. Rubin (1986) identic algunos factores que entorpecen la toma de decisiones:

Desconectarnos de nuestros sentimientos, autoduda, desconar de nuestras capacidades, baja autoestima, exa-
geracin del propio punto de vista, ser dependiente, tomar decisiones bajo presin y evadir la toma de decisio-
nes.

Es importante considerar que al momento de tomar decisiones, es necesario no involucrarse de manera personal
en la situacin presentada y de tratar de tomar una postura imparcial o neutra, as como ver desde distintos
puntos la situacin, para poder buscar una solucin viable y adecuada a la vivencia de cada persona.

Tambin es importante destacar las propias motivaciones, para lograr lo que se desea, encontrando opciones
nuevas. Brindndonos cierta libertad, que har de este proceso de decisin, una posibilidad creativa,de probar
diferentes posibilidades a partir de las cuales puedan abrir paso a nuevas alternativas.
2.3. ANLISIS DE LA INDECISIN 7

2.2.1 En que etapa son ms frecuentes las indecisiones?

Segn estudios aportan que las etapas ms frecuentes de indecisiones son la pre-adolescencia y la adolescencia como
tal, son etapas difciles en las cuales a los jvenes les cuesta trabajo decidir en los varios aspectos de su vida; los
elementos que tal vez inuyen son miedo, enojo, apata, etc. La pre-adolescencia y la adolescencia son complicadas
porque se quiere dejar de ser nio pero, a la vez, seguirlo siendo y empezar a ser adulto, pero se teme serlo. Es la
indecisin de soy nio o soy adulto?, Quin soy?. Aunque cabe mencionar que a lo largo de nuestra vida el tomar
decisiones es todo un reto Cuntas veces no hemos estado indecisos, y cuando llegamos a una respuesta nos damos
cuenta de que no era tan complicado como pareca?. Entonces como conclusin podemos decir que las indecisiones
siempre estarn presentes a lo largo de nuestras vidas pero no con tanta fuerza como en la pre-adolescencia y la
adolescencia.

2.2.2 A que se debe la indecisin?

Algunas de las causas pueden ser,que la falta de conanza en las habilidades propias para resolver problemas venga
desde el seno familiar, es decir, que dado en un ambiente familiar autoritario hace que los hijos no tengan un desarrollo
personal ptimo, por lo que llegan a la edad adulta sin saber tomar decisiones, lo mismo pasa en un ambiente sobre
protector donde prcticamente le resuelven la vida a los hijos, afectando su propia madurez.
La poca capacidad para tomar decisiones es uno de los problemas que ms inconvenientes causan a la hora del
desarrollo personal y profesional.
El temor de tomar el camino incorrecto es mucha veces el causante para que no se enfrenten las elecciones y siempre
se deriven a otra persona que debe ejercer esa responsabilidad. Tomar decisiones es un aprendizaje que mucho tiene
que ver con la propia seguridad y la conanza en uno mismo, nada tiene que ver con acertar en lo que se decida hacer
o no hacer. Todos nos equivocamos, hay que perder el miedo a errar para poder elegir sin temores y as poder tomar
decisiones, ya sean buenas o malas
El indeciso es la persona que no se decide a ejecutar una accin, ni a seleccionar una estrategia no se orienta a un
determinado rumbo renunciando a otros, no se atreve a solucionar problemas. Cada decisin nos compromete y en
ltima instancia lo que el indeciso teme es al compromiso, no est dispuesto a pagar por el costo de sus decisiones,
no quiere asumir el riesgo de perder.
Hay a los que les cuesta elegir porque son personalidades inseguras y perfeccionistas y los que exageradamente no
pueden tomar alguna decisin por ms pequea que sea. La magnitud de la indecisin adquiere su mayor medida
cuando la persona se siente seriamente abrumada por la ms mnima eleccin que tiene que hacer, generalmente por
el temor obsesivo a equivocarse, este trastorno tambin incluye en muchos casos un estado de extraamiento que les
da la sensacin de estar siendo dominado por otro. Este sentimiento de sometimiento a la voluntad de otro entorpece
su forma de hablar, sus pensamientos, sus ideas, la identidad, como defensa estas personas pueden vivir apuradas,
comer y hablar rpido.

2.3 Anlisis de la Indecisin

Escondemos nuestras emociones, sentimientos, anhelos, inquietudes tras la mscara de la represin con la que nos
obligamos a tomar la decisin ms costosa, que es el no tomar una decisin, para as simular que no somos responsables
de las consecuencias y eludimos el efecto creado, si es negativo el resultado lo desconocemos, y si fuera positivo le
damos crdito a la suerte y en tantas ocasiones a alguna divinidad. El conicto que se tiene en el momento de tomar
una decisin suele desarrollarse en diferentes circunstancias como:

2.3.1 El estado de nimo

Los momentos de tristeza, ansiedad, miedo, euforia y cualquier otro, alteran el nivel percepcin de una realidad
concreta, y cualquier decisin est determinada por el estado anmico del momento, sera mejor buscar un momento
de tranquilidad para elegir con mayor acierto.
8 CAPTULO 2. TOMA DE DECISIONES

2.3.2 La importancia de la situacin

En estas situaciones se maneja gran cantidad de estrs, y ms si se desconocen las opciones, lo que provoca un
desequilibrio emocional.

2.3.3 El miedo al cambio

Se ha hablado del estado de confort, en el que el individuo preere estar en una situacin conformista antes de decidir
un cambio, por miedo a las consecuencias que le pueda traer dar un paso hacia adelante.

2.3.4 Mltiples opciones a tomar

En sta situacin el individuo no se decide por alguna opcin, queriendo posiblemente todo para s. El egosmo es
otra cara de la indecisin, ya que al querer tenerlo todo asume que todas las opciones estn incluidas y descarta todas
las decisiones y sacricios. " El que atiende a dos amos con uno queda mal, y si atiende a todos se queda sin energa
".

2.3.5 Baja autoestima

Cuando existe una baja autoestima o ignorancia por los derechos ms bsicos del ser humano, el individuo es sus-
ceptible a ser inuenciado por otras personas a las que les convenga aprovecharse de l, pues son manipulados en su
toma de decisiones.
Incapacidad de vivir el aqu y el ahora, despreciando lo que se tiene, anhelar constantemente lo que no se tiene
despreciando lo que si, conlleva a una eterna espera, esa ceguera perpetua, no da opcin a elegir porque no deja de
ser ilusin.
REFERENCIAS
http://www.manuelescudero.com/psicologo-indecision-madrid/ consultdo el 11 de abril de 2015
http://www.crecimiento-y-bienestar-emocional.com/indecision.html consultado el 11 de abril de 2015
http://www.webconsultas.com/mente-y-emociones/emociones-y-autoayuda/porque-nos-cuesta-tomar-decisiones-7221
consultado el 10 de abril de 2015
Balderas Salvador y Villora Quijada Olivia. Bloqueos Psicolgicos en la Toma de Decisiones (en web) http://
autodesarrollate.vitro.com/PORTAL/autodesarrollate/portal/pdf/La_toma_de_decisiones.com consultado el 08 de
diciembre de 2014. http://www.mundobebe.com/adolescencia-y-pre-adolescencia-etapas-de-indecision-para-los-chicos-y-de-dificult
notas_1916 http://www.mundohomeopata.com/indecision.html

2.4 Las decisiones en el Contexto empresarial


Toda mala decisin que tomo va seguida de otra mala decisin.
Harry S. Truman

Partiendo de las deniciones de Hellriegel, Slocum (2004) y Stoner, (2003) la toma de decisiones es una parte impor-
tante de la labor del gerente. Sin embargo, cuando un gerente toma una decisin o cuando el coste de buscar y evaluar
las alternativas es bajo, el modelo racional proporciona una descripcin moderadamente precisa del proceso de de-
cisin. Pero tales situaciones, arma Robbins (1999), son la excepcin. En el mbito organizacional, las mayoras de
las decisiones signicativas se realizan mediante el juicio, ms que por un modelo prescriptivo denido.
Dado lo anterior, a continuacin se establece una visin de cmo se toman realmente la mayora de las decisiones
en las organizaciones, a travs de la caracterizacin de tres modelos de toma de decisin de acuerdo con los criterios
establecidos McLeod (2000): el racional, el de racionalidad limitada y el poltico. La utilidad de estos modelos reside
en que ayudan a identicar la complejidad y variedad de las situaciones para la toma de decisiones en una organizacin.
2.4. LAS DECISIONES EN EL CONTEXTO EMPRESARIAL 9

Organizacin jerrquica y departamental de una empresa.

En las organizaciones en general y en las empresas en particular suele existir una jerarqua que determina el tipo
de acciones que se realizan dentro de ella y, en consecuencia, el tipo de decisiones que se deben tomar, la Ciencia
administrativa divide a la empresa en 3 niveles jerrquicos:

1. Nivel estratgico.- Alta direccin; planicacin global de toda la empresa.

2. Nivel tctico.- Planicacin de los subsistemas empresariales.

3. Nivel operativo.- Desarrollo de operaciones cotidianas (diarias/rutinarias).

Conforme se sube en la jerarqua de una organizacin, la capacidad para tomar decisiones no programadas o no
estructuradas adquiere ms importancia, ya que son este tipo de decisiones las que ataen a esos niveles. Por tanto, la
mayor parte de los programas para el desarrollo de gerentes pretenden mejorar sus habilidades para tomar decisiones
no programadas, por regla general ensendoles a analizar los problemas en forma sistemtica y a tomar decisiones
lgicas.
A medida que se baja en esta jerarqua, las tareas que se desempean son cada vez ms rutinarias, por lo que las
decisiones en estos niveles sern ms estructuradas (programadas).
Adicionalmente, una organizacin tambin estar dividida en varias secciones funcionales, son varias las propuestas
de divisin que se han planteado para una empresa de forma genrica, aunque la ms aceptada es la que considera los
siguientes departamentos o unidades funcionales:

1. Direccin

2. Marketing

3. produccin

4. Finanzas

5. Recursos humanos

Las decisiones tambin sern diferentes, en funcin de en qu unidad funcional o departamento tengan lugar.
10 CAPTULO 2. TOMA DE DECISIONES

2.4.1 Modelo Racional

El Modelo Racional: persigue la constitucin de un proceso de eleccin entre alternativas para maximizar los bene-
cios de la organizacin. Incluye una amplia denicin del problema, una exhaustiva recopilacin y el anlisis de los
datos, as como una cuidadosa evaluacin de las alternativas. Andreu, et al (2001), arma que los criterios de evalua-
cin de alternativas son bien conocidos y supone que la generacin e intercambio de informacin entre individuos es
objetiva y precisa. Por tanto, el modelo racional de toma de decisiones se basa 3 suposiciones explicitas:
Se ha obtenido toda la informacin disponible relacionada con las alternativas. Se pueden clasicar estas alternativas
de acuerdo con criterios explcitos. La alternativa seleccionada brinda la mxima ganancia posible para la organizacin
(o para quienes toman las decisiones)
Este modelo posee una suposicin implcita arma McLeod (2000) No existen dilemas ticos en el proceso de toma
de decisiones. Adems, desde el punto de vista organizacional existen algunas limitaciones para este modelo:
Su uso puede requerir bastante tiempo y puede ser que las organizaciones no dispongan de l. El uso de recursos hu-
manos puede rebasar cualquier benecio. Este enfoque requiere datos e informacin que, habitualmente, son difciles
de obtener. Si el proceso de toma de decisiones requiere considerable tiempo, estas pueden convertirse en obsoletas.
Los gerentes pueden verse forzados a actuar si las metas son vagas o contradictorias, llegando as a cambiar las metas
establecidas, los criterios o su ponderacin si la alternativa mas favorecida no resulta ser la primera.
En resumen, se puede sugerir que se utilice el modelo racional en la medida que sea factible, sin esperar que sea la
nica o ni siquiera la gua principal en la toma de muchas decisiones organizacionales.

2.4.2 Modelo de racionalidad limitada

El Modelo de Racionalidad Limitada: describe la limitaciones de la racionalidad y pone de maniesto los procesos
de toma de decisiones frecuentemente utilizados por personas y equipos. Este modelo explica la razn por la que
diferentes personas o equipos toman decisiones distintas cuando cuentan exactamente con la misma informacin.
As, el modelo de racionalidad limitada reeja tendencias individuales o de equipo para:
Seleccionar una meta o una solucin alterna que no sea la mejor (es decir, que satisfaga). Realizar una bsqueda
limitada de soluciones alternas.
Las reglas de la decisin desde la perspectiva organizacional, segn McLeod (2000), son una parte del modelo de
racionalidad limitada. Esto es, proporciona formas rpidas y fciles de llegar a una decisin sin anlisis y bsque-
das detalladas. Estn escritas y se aplican con facilidad. Ahora bien, su principal desventaja es que se basa en la
toma decisiones mediante la construccin de modelos simplicados que extraen las caractersticas esenciales de los
problemas, sin capturar toda su complejidad.

2.4.3 Modelo Poltico

El Modelo Poltico: describe la toma de decisiones de las personas para satisfacer sus propios intereses. Las prefe-
rencias basadas en metas personales egostas rara vez cambian conforme se adquiere nueva informacin. Por tanto,
la denicin de los problemas, la bsqueda y recopilacin de datos, el intercambio de informacin y los criterios de
evaluacin son slo mtodos utilizados para predisponer el resultado a favor del que toma la decisin. Las decisiones
reejan segn Laudon (2002), la distribucin del poder en la organizacin y la efectividad de las tcticas usadas por
gerentes y empleados, determinan el impacto de las decisiones.
El modelo poltico predomina en las organizaciones en todo el mundo, es decir, prevalece por encima de los dos
modelos antes descritos por ser la base de los procedimientos organizacionales establecidos por la alta directiva.
Desde la perspectiva de la prctica gerencial, el modelo poltico se expresa muy vvidamente en las organizaciones
mediante el uso de diversos mtodos de inuencia, medios por los cuales los individuos o grupos tratan de ejercer el
poder o inuir en la conducta de otros.
Ahora bien, todas las decisiones estn fundamentadas en la informacin que se tenga a la disposicin, lo cual permite
establecer un criterio basado en alternativas de solucin a un mismo problema. Dado esto, la gerencia para los efectos
de toma de decisin organizacional, hace uso de los sistemas de informacin soportados por la tecnologa de la
informacin instalada, los cuales generan informacin relevante del negocio, que de acuerdo a la estructura jerrquica
establece prioridades para su aplicacin.
2.5. ESTILO DE TOMA DE DECISIONES 11

2.5 Estilo de toma de decisiones


Todas las personas que toman una decisin poseen una serie nica de caractersticas personales inuyentes en la
resolucin del problema. Por ejemplo, en una empresa, el gerente creativo tolerar bien la incertidumbre, ofreciendo
diversas alternativas para su decisin en un menor tiempo y evalundolas de un modo diferente al de otro gerente con
una personalidad ms conservadora y menos propenso a aceptar riesgos. Teniendo en cuenta esta informacin, los
investigadores han tratado de identicar los diferentes estilos para tomar decisiones.
El supuesto bsico del modelo de la toma de decisiones reside en reconocer que las personas dieren en dos dimen-
siones:
La primera es la forma de pensar.
A la hora de tomar una decisin, hay personas que lo hacen con una mayor lgica y racionalidad, procesando la
informacin de forma secuencial. Sin embargo, otras personas se enfrentan a este proceso de forma ms creativa e
intuitiva contemplando una perspectiva ms amplia.
La segunda dimensin hacer referencia a la tolerancia a la ambigedad que toleran las personas:
En aquellas situaciones donde el individuos para tomar la decisin requiera de mucha coherencia y orden en la infor-
macin, el grado de tolerancia a la ambigedad es mnimo. En contraposicin, aquellas personas capaces de procesar
multitud de informacin al mismo tiempo, asumiendo con ello un importante grado de incertidumbre, la tolerancia
a la ambigedad es elevada.
Teniendo en cuenta estas dos dimensiones, Stephen P. Robbins (Supervision Today, Prentice Hall, Upper Saddle
River, NJ, 1995) desarrollo un diagrama donde aparecen los cuatro estilos para la toma de decisiones.

2.5.1 Estilo directivo

El estilo directivo para la toma de decisiones se caracteriza por una baja tolerancia a la ambigedad y un modo
de pensar totalmente racional. En este estilo se sitan aquellas personas con un alto grado de razonamiento lgico,
capaces de tomar decisiones rpidas, enfocadas a corto plazo. Su ecacia y rapidez en la toma de decisiones permite
adoptar una solucin con informacin mnima y evaluando pocas alternativas.

2.5.2 Estilo analtico

El estilo analticos para tomar decisiones se caracteriza por una mayor tolerancia a la ambigedad que los tipos
directivos, combinado con una forma de pensar totalmente racional. Estas personas precisan de ms informacin antes
de tomar una decisin, considerando y analizando ms alternativas. Los individuos situados en este estilo analtico se
caracterizan por su capacidad para adaptarse o enfrentar situaciones nicas.

2.5.3 Estilo conceptual

El estilo conceptual para tomar decisiones engloba a personas con una gran tolerancia a la ambigedad y un modo
de pensar intuitivo. Estas personas se caracterizan por tener una amplia capacidad para procesar informacin desde
una perspectiva extensa y una elevada capacidad analtica tratando de analizar muchas alternativas. Se enfocan en el
largo plazo y con frecuencia buscan soluciones creativas a los problemas.

2.5.4 Estilo conductual

El estilo conductual representa a aquellas personas cuyo modo de pensar es de manera intuitiva pero cuyo grado
de tolerancia a la ambigedad es bajo. Estas personas trabajan bien con otras, estn abiertas a las sugerencias y se
preocupan por los que trabajan con ellas. La aceptacin de los dems es importante para los de este estilo de toma de
decisiones.
Los cuatro estilos para tomar decisiones podran considerarse independientes unos de otros. Sin embargo, es fcil
detecta que un individuo con un estilo dominante posea caractersticas de los otros tres como posibles alternativas
para una mejor resolucin a una situacin concreta.
12 CAPTULO 2. TOMA DE DECISIONES

2.6 Situaciones o contextos de decisin


Las situaciones, ambientes o contextos en los cuales se toman las decisiones se pueden clasicar segn el conocimiento
y control que se tenga sobre las variables que intervienen o inuencian el problema, ya que la decisin nal o la solucin
que se tome va a estar condicionada por dichas variables.

2.6.1 Ambiente de certeza


En este contexto se tiene conocimiento total sobre el problema (informacin exacta, medible y conable acerca del
resultado de cada una de las alternativas consideradas), y las opciones de solucin que se planteen van a causar
siempre resultados conocidos e invariables. Al tomar la decisin slo se debe pensar en la opcin que genere mayor
benecio. Ante un ambiente de certeza o certidumbre, los individuos poseen plena informacin sobre el problema,
las soluciones alternativas son obvias y los posibles resultados de cada decisin son claros. En estas condiciones, los
individuos pueden prever e incluso controlar los hechos y resultados al disponer de un adecuado conocimiento y una
clara denicin tanto del problema como de las soluciones alternativas. En este contexto, la toma de decisiones es
relativamente fcil. El responsable de la toma de decisin elige la solucin que aporte el mejor resultado potencial.
No obstante, no hay que olvidar que un problema puede tener muchas posibles soluciones, y calcular los resultados
esperados de todas ellas puede ser extremadamente lento y costoso.
Por ejemplo, el agente de compras de una imprenta tiene que decidir sobre varios proveedores de papel, con el objeto
de conseguir papel de calidad estndar a un menor precio y mejor servicio. En esta situacin el encargado de la
compra poseer informacin sobre los diferentes distribuidores y nicamente tendr que estudiar minuciosamente
las posibles alternativas hasta conseguir su objetivo.

2.6.2 Ambiente de riesgo


Se podra denir riesgo como la probabilidad de que suceda un evento, impacto o consecuencia adversa. En el proceso
de toma de decisiones bajo riesgo el decisor tiene informacin completa para solucionar el problema, es decir, tiene
conocimiento del mismo, conoce las posibles soluciones, pero no es capaz de diagnosticar con certeza el resultado de
alguna alternativa, aun contando con suciente informacin como para prever la probabilidad que tenga para llevarnos
a un estado de cosas deseado.
En este tipo de decisiones, las posibles opciones de solucin tienen cierta probabilidad conocida de generar un resul-
tado. En estos casos se pueden usar modelos matemticos o tambin el decisor puede hacer uso de la probabilidad
objetiva o subjetiva para estimar el posible resultado. La probabilidad objetiva es la posibilidad de que ocurra un
resultado basndose en hechos concretos, puede ser cifras de aos anteriores o estudios realizados para este n. En la
probabilidad subjetiva se determina el resultado basndose en opiniones y juicios personales e individuales de cada
persona. Los principales criterios de decisin empleados sobre tablas de decisin en ambiente de riesgo son:

Criterio del valor esperado.


Criterio de mnima varianza con media acotada.
Criterio de mnima varianza con media acotada.
Criterio de la dispersin.
Criterio de la probabilidad mxima.

2.6.3 Ambiente de incertidumbre


Se posee informacin deciente para tomar la decisin, no se tiene ningn control sobre la situacin, no se conoce
como puede variar o la interaccin de la variables del problema, se pueden plantear diferentes opciones de solu-
cin pero no se le puede asignar probabilidad a los resultados que arrojen. Por esto, se le llama incertidumbre sin
probabilidad. Con base en lo anterior, hay dos clases de incertidumbre:

Estructurada: No se sabe que puede ocurrir entre diferentes opciones, pero s se conoce que puede ocurrir entre
varias posibilidades.
2.7. PROCESO DE TOMA DE DECISIONES 13

No estructurada: No se sabe que puede ocurrir ni las probabilidades para las posibles soluciones, es decir, se
desconoce totalmente lo que puede ocurrir en un caso determinado en la vida.

2.7 Proceso de toma de decisiones


La separacin del proceso en etapas puede ser tan resumida o tan extensa como se desee, pero podemos identicar
principalmente las siguientes etapas:

2.7.1 Identicar y analizar el problema

Esta etapa consiste en comprender la condicin del momento y de visualizar la condicin deseada, es decir, encontrar
el problema y reconocer que se debe tomar una decisin para llegar a la solucin de este. El problema puede ser
actual, porque existe una brecha entre la condicin presente real y la deseada, o potencial, porque se estima que dicha
brecha existir en el futuro.
En la identicacin del problema es necesario tener una visin clara y objetiva, y tener bien claro el trmino alteridad,
es decir escuchar las ideologas de los dems para as poder formular una posible solucin colectiva al problema.
Para ello es Imprescindible la formulacin de la pregunta inicial, pues constituye el punto de partida de toda decisin.
el mundo de los negocios se ve abrumado por un nmero innito de decisiones que han de ser tomadas a cada
momento y que, en gran medida, determinarn el rumbo que tomen las empresas. De este modo, la informacin
que se obtiene debe ser rica, variada y relevante, a la vez que debe provenir de diversas fuentes y a travs de formas
distintas (verbales, estadsticas, datos, etc.)
Y dentro de este mbito, los mtodos cuantitativos se tornan como algunas de las herramientas ms conables a la
hora de basar una decisin gracias a su capacidad de gestionar, procesar y analizar datos de manera rpida y ecaz

2.7.2 Identicar los criterios de decisin y ponderarlos

Vase tambin criterio.


Consiste en identicar aquellos aspectos que son relevantes al momento de tomar la decisin, es decir, aquellas pautas
de las cuales depende la decisin que se tome.
La ponderacin, es asignar un valor relativo a la importancia que tiene cada criterio en la decisin que se tome, ya
que todos son importantes pero no de igual forma.
Muchas veces, la identicacin de los criterios no se realiza en forma consciente previa a las siguientes etapas, sino que
las decisiones se toman sin explicitar los mismos, a partir de la experiencia personal de los tomadores de decisiones. En
la prctica, cuando se deben tomar decisiones muy complejas y en particular en grupo, puede resultar til explicitarlos,
para evitar que al momento de analizar las opciones se manipulen los criterios para favorecer a una u otra opcin de
solucin ptima.

2.7.3 Denir la prioridad para atender el problema

La denicin de la prioridad se basa en el impacto y en la urgencia que se tiene para atender y resolver el problema.
Esto es, el impacto describe el potencial al cual se encuentra vulnerable, y la urgencia muestra el tiempo disponible
que se cuenta para evitar o al menos reducir este impacto.

2.7.4 Generar las opciones de solucin

Consiste en desarrollar distintas posibles soluciones al problema. Si bien no resulta posible en la mayora de los casos
conocer todos los posibles caminos que se pueden tomar para solucionar el problema, cuantas ms opciones se tengan
va ser mucho ms probable encontrar una que resulte satisfactoria.
De todos modos, el desarrollo de un nmero exagerado de opciones puede tornar la eleccin sumamente dicultosa,
y por ello tampoco es necesariamente favorable continuar desarrollando opciones en forma indenida.
14 CAPTULO 2. TOMA DE DECISIONES

Para generar gran cantidad de opciones es necesaria una cuota importante de creatividad. Existen diferentes tcnicas
para potenciar la creatividad, tales como la lluvia de ideas, las relaciones forzadas, etctera.
En esta etapa es importante la creatividad de los tomadores de decisiones.

2.7.5 Evaluar las opciones

Consiste en hacer un estudio detallado de cada una de las posibles soluciones que se generaron para el problema, es
decir mirar sus ventajas y desventajas, de forma individual con respecto a los criterios de decisin, y una con respecto
a la otra, asignndoles un valor ponderado.
Como se explic antes segn los contextos en los cuales se tome la decisin, esta evaluacin va a ser ms o menos
exacta.
Existen herramientas, en particular para la administracin de empresas para evaluar diferentes opciones, que se co-
nocen como mtodos cuantitativos.
En esta etapa del proceso es importante el anlisis crtico como cualidad del tomador de decisiones.

2.7.6 Eleccin de la mejor opcin

En este paso se escoge la opcin que segn la evaluacin va a obtener mejores resultados para el problema. Existen
tcnicas (por ejemplo, anlisis jerrquico de la decisin) que nos ayudan a valorar mltiples criterios.
Los siguientes trminos pueden ayudar a tomar la decisin segn el resultado que se busque:

Maximizar: Tomar la mejor decisin posible.

Satisfacer: Elegir la primera opcin que sea mnimamente aceptable satisfaciendo de esta forma una meta u
objetivo buscado.

Optimizar: La que genere el mejor equilibrio posible entre distintas metas.

2.7.7 Aplicacin de la decisin

Poner en marcha la decisin tomada para as poder evaluar si la decisin fue o no acertada. La implementacin
probablemente derive en la toma de nuevas decisiones, de menor importancia.

2.7.8 Evaluacin de los resultados

Despus de poner en marcha la decisin es necesario evaluar si se solucion o no el problema, es decir si la decisin
est teniendo el resultado esperado o no.
Si el resultado no es el que se esperaba se debe mirar si es porque debe darse un poco ms de tiempo para obtener
los resultados o si denitivamente la decisin no fue la acertada, en este caso se debe iniciar el proceso de nuevo para
hallar una nueva decisin.
El nuevo proceso que se inicie en caso de que la solucin haya sido errnea, contar con ms informacin y se tendr
conocimiento de los errores cometidos en el primer intento.
Adems se debe tener conciencia de que estos procesos de decisin estn en continuo cambio, es decir, las decisiones
que se tomen continuamente van a tener que ser modicadas, por la evolucin que tenga el sistema o por la aparicin
de nuevas variables que lo afecten.

2.7.9 Procesos cognitivos implicados en la toma de decisiones

Al igual que en el pensamiento crtico en la toma de decisiones se utilizan ciertos procesos cognitivos como:
2.8. LA INFORMACIN COMO MATERIA PRIMA 15

1. Observacin: Analizar el objetivo, examinar atentamente y recato, atisbar. Inquirir, investigar, escudriar con
diligencia y cuidado algo. Observar es aplicar atentamente los sentidos a un objeto o a un fenmeno, para
estudiarlos tal como se presentan en realidad, puede ser ocasional o casualmente.
2. Comparacin: Relacin de semejanza entre los asuntos tratados. Fijar la atencin en dos o ms objetos para
descubrir sus relaciones o estimar sus diferencias o semejanza. Smil terica.
3. Codicacin: Auto conocerse, conocer quien soy, quienes somos y claricar valores. Hacer o formar un cuerpo
de leyes metdico y sistemtico. Transformar mediante las reglas de un cdigo la formulacin de un mensaje.
4. Organizacin: Curso de accin ms responsable, evaluar opciones para elegir el curso de accin ms respon-
sable. Disposicin de arreglo u orden. Regla o modo que se observa para hacer las cosas.
5. Clasicacin: Ordenar disponiendo por clases/categoras. Es un ordenamiento sistemtico de algo.
6. Resolucin: Implementacin de la toma de decisiones. Trmino o conclusiones de un problema, parte en que
se demuestran los resultados.
7. Evaluacin: Hacer el sealamiento del rango. Anlisis y reexin de los anteriores razonamientos y las con-
clusiones.
8. Retroalimentacin (feedback): Evaluacin de los resultados obtenidos, el proceso de compartir observaciones,
preocupaciones y sugerencias, con la intencin de recabar informacin, a nivel individual o colectivo, para
intentar mejorar el funcionamiento de una organizacin o de cualquier grupo formado por seres humanos. Para
que la mejora continua sea posible, la re alimentacin tiene que ser pluridireccional, es decir, tanto entre iguales
como en el escalafn jerrquico, en el que debera funcionar en ambos sentidos, de arriba para abajo y de abajo
para arriba.

2.8 La informacin como materia prima


El proceso de toma de decisiones utiliza como materia prima informacin. sta es fundamental, ya que sin ella no
resultara posible evaluar las opciones existentes o desarrollar opciones nuevas.
En las organizaciones, que se encuentran sometidas constantemente a la toma de decisiones, la informacin adquiere
un rol fundamental, y por ello un valor inigualable.
Para procesar los datos de la organizacin y transformarlos en informacin, es fundamental el sistema de informacin,
dentro de los cuales se encuentra la contabilidad.
Adems de los sistemas de informacin, existen sistemas diseados especialmente para ayudar a transitar el proceso
de toma de decisiones, que se conocen como sistemas de soporte a decisiones o sistemas de apoyo a la decisin.

2.9 Sesgos cognitivos en la toma de decisiones


Los sesgos cognitivos son fenmenos psicolgicos, normalmente involuntarios, que dicultan el procesamiento de la
informacin y pueden acarrear equivocaciones de distinto grado en la toma de decisiones. Estos patrones de pensa-
miento pueden conducir a errores sistemticos como los siguientes:

Sesgo de conrmacin: es la propensin a interpretar la informacin nueva que le llega a una persona tomando
como referencia las creencias o convicciones que ya posee. De esta forma, se rechazan los datos y hechos que
no concuerdan con decisiones u opiniones previas.

Sesgo de autoridad: es la tendencia a ver los consejos de los expertos (o los que as se autodenominan) como si
fueran verdades indiscutibles.[1] Tambin se produce este sesgo cuando se obedece a la autoridad (en el amplio
sentido del trmino), incluso en aquello que moral o racionalmente carece de sentido.

Pensamiento de grupo: este sesgo se produce cuando un grupo de personas toma una decisin por consenso,
pero hay personas que no estn de acuerdo aunque evitan expresar sus objeciones. Las causas para no expresar
las discrepancias pueden ser muy variadas, pero suelen tener su raz en el miedo (a la autoridad, a la crtica, al
rechazo social, a equivocarse...).
16 CAPTULO 2. TOMA DE DECISIONES

La adaptacin hedonista: una vez que se experimentan cambios importantes (positivos o negativos) en cualquier
mbito de la vida el nivel de bienestar de las personas tiende a estabilizarse.[2] Debido a esta circunstancia
con frecuencia se toman decisiones errneas debido a un estado emocional transitorio que impide ponderar
adecuadamente las distintas alternativas existentes.

Efecto halo: este sesgo cognitivo aparece cuando una persona se deja deslumbrar por un hecho particular que
le lleva a deducir las caractersticas de otros hechos en principio no relacionados. As, por ejemplo, una nica
cualidad de una persona (belleza) puede ofrecer una impresin positiva que lleve a pensar que esa persona
tambin es inteligente (aunque resulta evidente que no existe correlacin entre belleza e inteligencia). En el
mundo del marketing se utiliza con frecuencia el efecto halo para inuir en la mente de los consumidores, lo
que puede dicultar la toma de decisiones racional.[3]

Disonancia cognitiva: en ocasiones, lo que una persona se propone y la decisin que toma no coinciden. Suele
tratarse de un autoengao o incoherencia, como, por ejemplo, cuando alguien se equivoca al comprar un pro-
ducto, pero ante sus amistades habla bien de las prestaciones de ese objeto por miedo a reconocer el error y
ser ridiculizado por haberlo comprado. El hecho de mantener al mismo tiempo dos pensamientos que estn en
conicto puede mermar la capacidad de una persona para tomar decisiones adecuadas.

2.10 Vase tambin


Participacin de las mujeres en las tomas de decisin
Contabilidad de gestin
Dinmica de sistemas
Decisin por consenso
Habilidades gerenciales
Grupo de trabajo
Dinmica de sistemas empresariales
Herbert Simon
Proceso de toma de decisiones del comprador
Loomio, software de toma de decisiones

2.11 Referencias
[1] Leader Summaries (ed.). Resumen del libro Equivocados, de David H. Freedman. Consultado el 1 octubre 2014.
[2] Leader Summaries (ed.). Resumen del libro Los mitos de la felicidad, de Sonja Lyubomirsky. Consultado el 1 octubre
2014.
[3] Leader Summaries (ed.). Resumen del libro As se manipula al consumidor, de Martin Lindstrom. Consultado el 1
octubre 2014.

[1] [2] [3] [4] [5] [6]

[1] http://www.revistaespacios.com/a10v31n02/10310233.html
[2] Robbins, S.P. (2004),Comportamiento organizacional, Person Educacin, Madrid.
[3] Robbins, S.P. (2004),Comportamiento organizacional, 10a. ed. Person Educacin, Mxico.
[4] http://thales.cica.es/rd/Recursos/rd99/ed99-0191-03/riesgo.htm
[5] TEORA DE LA DECISIN: Decisin con Incertidumbre, Decisin Multicriterio y Teora de Juegos. Begoa Vitoriano
(Julio 2007): www.mat.ucm.es/~{}bvitoria/Archivos/a_dt_UCM.pdf
[6] Teora de la decisin e incertidumbre: modelos normativos y descriptivos: digital.csic.es/bitstream/10261/7734/1/eserv.pdf
Captulo 3

Minimax

En teora de juegos, Minimax es un mtodo de decisin para minimizar la prdida mxima esperada en juegos con
adversario y con informacin perfecta. Minimax es un algoritmo recursivo.
El funcionamiento de Minimax puede resumirse como elegir el mejor movimiento para ti mismo suponiendo que tu
contrincante escoger el peor para ti.

3.1 Teorema Minimax


John von Neumann es el creador del teorema minimax, quien dio la siguiente nocin de lo que era un juego:
Un juego es una situacin conictiva en la que uno debe tomar una decisin sabiendo que los dems tambin toman
decisiones, y que el resultado del conicto se determina, de algn modo, a partir de todas las decisiones realizadas.
Tambin arm que:
Siempre existe una forma racional de actuar en juegos de dos participantes, si los intereses que los gobiernan son
completamente opuestos.
La demostracin a esa armacin se llama Teora Minimax y surge en 1926.
Este teorema establece que en los juegos bipersonales de suma cero, donde cada jugador conoce de antemano la
estrategia de su oponente y sus consecuencias, existe una estrategia que permite a ambos jugadores minimizar la
prdida mxima esperada. En particular, cuando se examina cada posible estrategia, un jugador debe considerar todas
las respuestas posibles del jugador adversario y la prdida mxima que puede acarrear. El jugador juega, entonces,
con la estrategia que resulta en la minimizacin de su mxima prdida. Tal estrategia es llamada ptima para ambos
jugadores slo en caso de que sus minimaxes sean iguales (en valor absoluto) y contrarios (en signo). Si el valor comn
es cero el juego se convierte en un sinsentido.
En los juegos de suma no nula, existe tanto la estrategia Minimax como la Maximin. La primera intenta minimizar
la ganancia el rival, o sea busca que el rival tenga el peor resultado. La segunda intenta maximizar la ganancia propia,
o sea busca que el jugador obtenga el mejor resultado.

3.2 Algoritmo Minimax con movimientos alternativos


Pasos del algoritmo Minimax:

1. Generacin del rbol de juego. Se generarn todos los nodos hasta llegar a un estado terminal.

2. Clculo de los valores de la funcin de utilidad para cada nodo terminal.

3. Calcular el valor de los nodos superiores a partir del valor de los inferiores. Segn nivel si es MAX o MIN se
elegirn los valores mnimos y mximos representando los movimientos del jugador y del oponente, de ah el
nombre de Minimax.

17
18 CAPTULO 3. MINIMAX

0 -7

1 -10 -7

2 10 -10 5 -7

3 10 5 -10 5 - -7

4 10 + 5 -10 7 5 - -7 -5

4. Elegir la jugada valorando los valores que han llegado al nivel superior.

El algoritmo explorar los nodos del rbol asignndoles un valor numrico mediante una funcin de evaluacin,
empezando por los nodos terminales y subiendo hacia la raz. La funcin de utilidad denir lo buena que es la posicin
para un jugador cuando la alcanza. En el caso del ajedrez los posibles valores son (+1,0,1) que se corresponden
con ganar, empatar y perder respectivamente. En el caso del backgammon los posibles valores tendrn un rango de
[+192,192], correspondindose con el valor de las chas. Para cada juego pueden ser diferentes.
Si Minimax se enfrenta con el dilema del prisionero escoger siempre la opcin con la cual maximiza su resultado
suponiendo que el contrincante intenta minimizarlo y hacernos perder.

3.3 Ejemplo

En el siguiente ejemplo puede verse el funcionamiento de Minimax en un rbol generado para un juego imaginario.
Los posibles valores de la funcin de utilidad tienen un rango de [1-9]. En los movimientos del contrincante suponemos
que escoger los movimientos que minimicen nuestra utilidad, en nuestros movimientos suponemos que escogeremos
los movimientos que maximizan nuestra utilidad.
El primer paso ser calcular los nodos terminales, en verde. Posteriormente calcularemos el cuarto nivel, movimiento
min, minimizando lo elegido (5, 2 y 1). Despus podremos calcular el tercer nivel, movimiento max, maximizando la
utilidad (5, 9). El segundo nivel es un movimiento min (5, 3 y 1). Finalmente llegamos al primer nivel, el movimiento
actual, elegiremos el nodo que maximice nuestra utilidad (5).
3.4. OPTIMIZACIN 19

3.4 Optimizacin
En la prctica el mtodo Minimax es impracticable excepto en supuestos sencillos. Realizar la bsqueda completa
requeriran cantidades excesivas de tiempo y memoria.
Claude Shannon en su texto sobre ajedrez de 1950 (Programming a Computer for Playing Chess) propuso limitar la
profundidad de la bsqueda en el rbol de posibilidades y determinar su valor mediante una funcin heurstica. Para
optimizar Minimax puede limitarse la bsqueda por nivel de profundidad o por tiempo de ejecucin. Otra posible
tcnica es el uso de la poda alfa-beta. Esta optimizacin se basa en la suposicin que el jugador contrario no nos
permitir jugar nuestras mejores jugadas.

3.5 Minimax en la ccin


La teora del Minimax inspir a Phillip K. Dick a escribir la novela Lotera solar

3.6 Enlaces externos


Ejemplo de implementacin de MINIMAX en Clisp .
Explicacin Matemtica de juegos bipersonales de suma nula y algoritmo minimax
20 CAPTULO 3. MINIMAX

3.7 Text and image sources, contributors, and licenses


3.7.1 Text
Teora de la decisin Fuente: http://es.wikipedia.org/wiki/Teor%C3%ADa%20de%20la%20decisi%C3%B3n?oldid=78269379 Cola-
boradores: Juan Manuel, Elwikipedista, Yrbot, GermanX, Robespierre, Jesuja, Chlewbot, Nihilo, Paintman, Jcunich, Tamorlan, CEM-
bot, Culer, Antur, Thijs!bot, TXiKiBoT, Millars, ZrzlKing, KanTago, Ronald2308, Plux, Fdelrio89~eswiki, Dhidalgo, VolkovBot,
Matdrodes, Grudolph~eswiki, Muro Bot, Feministo, Bucho, PaintBot, Correogsk, Kikobot, Farisori, Alexbot, Krzysiulek~eswiki, Die-
gusjaimes, Luckas-bot, Daniel Feipeler, Xqbot, Jkbw, Dossier2, Botarel, Yabama, KamikazeBot, Setincho, Nastasyuk v, GrouchoBot,
MerlIwBot, Satans va de retro, KLBot2, Thehelpfulbot, Allan Aguilar, Elvisor, Rauletemunoz, Alfonsoramireznoguerol, Jlgr147, Ed-
winmontes, Hilda.cotaz y Annimos: 35
Toma de decisiones Fuente: http://es.wikipedia.org/wiki/Toma%20de%20decisiones?oldid=82312707 Colaboradores: Wesisnay, FAR,
Soulreaper, Aeveraal, Magister Mathematicae, Yrbot, Amads, GermanX, Jesuja, Dove, Er Komandante, Filipo, The worst user, Paint-
man, CEM-bot, Laura Fiorucci, Antur, Acrux~eswiki, Srengel, Tortillovsky, Rdaniels, Isha, JAnDbot, Mandrake33, Mansoncc, Humber-
to, Netito777, Nioger, Plux, Jmvkrecords, Dhidalgo, AlnoktaBOT, VolkovBot, Technopat, Matdrodes, Phoenix58, BlackBeast, Muro
Bot, Feministo, Anual, Correogsk, Elnuncabienponderado, Tirithel, Nicop, Eduardosalg, Veon, Leonpolanco, Alexbot, Julian leonardo
paez, UA31, AVBOT, David0811, LucienBOT, Angel GN, Diegusjaimes, Arjuno3, Saloca, Luckas-bot, Wikisilki, Vic Fede, Pincerri,
Marcomogollon, DSisyphBot, SuperBraulio13, Xqbot, Jkbw, Dreitmen, Igna, Botarel, Joninazio, Halfdrag, Niko.villano, Mti.carlos, Pa-
truBOT, Mr.Ajedrez, Tarawa1943, Setincho, Africanus, Grillitus, MercurioMT, Natitaap, Waka Waka, WikitanvirBot, Leo 0219, Lcsrns,
Antonorsi, Rezabot, MerlIwBot, Acratta, Diva fashion, Mega-buses, Harpagornis, Creosota, Helmy oved, Luigi jav, Syum90, Miguel2706,
Jlzg 95, Jumpiririjillo, Addbot, Mettallzoar, Romulanus, Hans Topo1993, Inernonegro, Failers, Beatrizaix, Yoelmauri, JacobRodrigues,
Julliettef, Editor GT, Jarould, Bjavier 11, Jons Regurgitado, Veggetta788, Que signica owssss, Vishel21, Crimnsoon, Al129950, San-
druch, Lizbeth Cano Hdz., Daniel Gtz., Aalizul, German54, FEB1MG28 y Annimos: 379
Minimax Fuente: http://es.wikipedia.org/wiki/Minimax?oldid=82079828 Colaboradores: Pino, Yearofthedragon, Maltusnet, Pedvi, Or-
gullobot~eswiki, RobotQuistnix, Platonides, Yrbot, YurikBot, GermanX, Eskimbot, Tomatejc, Davius, Thijs!bot, RoyFocker, Rufas-
to, TuvicBot, TXiKiBoT, Hernan1990, Rei-bot, Nicoguaro, Matdrodes, YonaBot, BotMultichill, Anoryat, Farisori, Alexbot, BotSottile,
MastiBot, Jorge.maturana, Luckas-bot, Ptbotgourou, Hunyadym, ArthurBot, MacyBot, Xqbot, Waeswaes, EmausBot, Wald, Xerox 5B,
MerlIwBot, Addbot, Jarould y Annimos: 29

3.7.2 Images
Archivo:Commons-emblem-issue.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/b/bc/Commons-emblem-issue.svg Li-
cencia: GPL Colaboradores: File:Gnome-emblem-important.svg Artista original: GNOME icon artists and User:ViperSnake151
Archivo:Minimax.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/6/6f/Minimax.svg Licencia: CC BY-SA 2.5 Colabora-
dores: http://en.wikipedia.org/wiki/Image:Minimax.svg, created in Inkscape by author Artista original: Nuno Nogueira (Nmnogueira)
Archivo:Minimax2.png Fuente: http://upload.wikimedia.org/wikipedia/commons/d/d6/Minimax2.png Licencia: CC-BY-SA-3.0 Cola-
boradores: ? Artista original: ?
Archivo:Organizacion_empresarial.png Fuente: http://upload.wikimedia.org/wikipedia/commons/d/d8/Organizacion_empresarial.png
Licencia: GFDL Colaboradores: Trabajo propio Artista original: Jesuja

3.7.3 Content license


Creative Commons Attribution-Share Alike 3.0
417 - Modelos de Regresin
ndice general

1 Anlisis de la regresin 1
1.1 Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Modelos de regresin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Regresin no lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.5 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Regresin lineal 4
2.1 Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Etimologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 El modelo de regresin lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Hiptesis del modelo de regresin lineal clsico . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4 Supuestos del modelo de regresin lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.5 Tipos de modelos de regresin lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.5.1 Regresin lineal simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.5.2 Regresin lineal mltiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.6 Rectas de regresin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.7 Aplicaciones de la regresin lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.7.1 Lneas de tendencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.7.2 Medicina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.7.3 Informtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.8 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.9 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.10 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.11 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Modelos de regresin mltiple postulados y no postulados 10


3.1 Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Modelo postulado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.3 El problema de la seleccin de las variables explicativas . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Modelo no postulado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.5 Descomposicin armnica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

i
ii NDICE GENERAL

3.6 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.7 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.7.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.7.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.7.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Captulo 1

Anlisis de la regresin

En estadstica, el anlisis de la regresin es un proceso estadstico para la estimacin de relaciones entre variables.
Incluye muchas tcnicas para el modelado y anlisis de diversas variables, cuando la atencin se centra en la relacin
entre una variable dependiente y una o ms variables independientes. Ms especcamente, el anlisis de regresin
ayuda a entender cmo el valor tpico de la variable dependiente cambia cuando cualquiera de las variables indepen-
dientes es variada, mientras que se mantienen las otras variables independientes jas. Ms comnmente, el anlisis
de regresin estima la esperanza condicional de la variable dependiente dadas las variables independientes - es decir,
el valor promedio de la variable dependiente cuando se jan las variables independientes. Con menor frecuencia,
la atencin se centra en un cuantil, u otro parmetro de localizacin de la distribucin condicional de la variable
dependiente dadas las variables independientes. En todos los casos, el objetivo es la estimacin de una funcin de
las variables independientes llamada la funcin de regresin. En el anlisis de regresin, tambin es de inters para
caracterizar la variacin de la variable dependiente en torno a la funcin de regresin que puede ser descrito por una
distribucin de probabilidad.
El anlisis de regresin es ampliamente utilizado para la prediccin y previsin, donde su uso tiene superposicin
sustancial en el campo de aprendizaje automtico. El anlisis de regresin se utiliza tambin para comprender que
cuales de las variables independientes estn relacionadas con la variable dependiente, y explorar las formas de estas
relaciones. En circunstancias limitadas, el anlisis de regresin puede utilizarse para inferir relaciones causales entre
las variables independientes y dependientes. Sin embargo, esto puede llevar a ilusiones o falsas relaciones, por lo que
se recomienda precaucin,[1] por ejemplo, la correlacin no implica causalidad.
Se han desarrollado muchas tcnicas para llevar a cabo anlisis de regresin. Mtodos familiares tales como regresin
lineal y ordinaria de mnimos cuadrados de regresin son paramtrica, en que la funcin de regresin se dene
en trminos de un nmero nito de desconocidos parmetros que se estiman a partir de los datos. regresin no
paramtrica se reere a las tcnicas que permiten que la funcin de regresin mienta en un conjunto especco de
funciones, que puede ser de dimensin innita.
El desempeo de los mtodos de anlisis de regresin en la prctica depende de la forma del proceso de generacin
de datos, y cmo se relaciona con el mtodo de regresin que se utiliza. Dado que la forma verdadera del proceso de
generacin de datos generalmente no se conoce, el anlisis de regresin depende a menudo hasta cierto punto de hacer
suposiciones acerca de este proceso. Estos supuestos son a veces comprobable si una cantidad suciente de datos est
disponible. Los modelos de regresin para la predicciamente, aunque pueden no funcionar de manera ptima. Sin
embargo, en muchas aplicaciones, sobre todo con pequeos efectos o las cuestiones de causalidad sobre la base de
los datos de observacin, mtodos de regresin pueden dar resultados engaosos.[2][3]

1.1 Historia
La primera forma de regresin fue el mtodo de mnimos cuadrados, que fue publicado por Legendre en 1805,[4]
y por Gauss en 1809.[5] Legendre y Gauss tanto aplicaron el mtodo para el problema de determinar, a partir de
observaciones astronmicas, la rbitas de los cuerpos sobre el Sol (la mayora de los cometas, sino tambin ms tarde
el entonces recin descubiertos planetas menores). Gauss public un desarrollo posterior de la teora de los mnimos
cuadrados en 1821,[6] incluyendo una versin del teorema de Gauss-Markov.
El trmino regresin fue acuado por Francis Galton en el siglo XIX para describir un fenmeno biolgico. El fe-

1
2 CAPTULO 1. ANLISIS DE LA REGRESIN

nmeno fue que las alturas de los descendientes de ancestros altos tienden a regresar hacia abajo, hacia un promedio
normal (un fenmeno conocido como regresin hacia la media ).[7][8] Para Galton, la regresin slo tena este signi-
cado biolgico,,[9][10] pero su trabajo se extendi ms tarde por Udny Yule y Karl Pearson a un contexto estadstico
ms general.[11][12] En la obra de Yule y Pearson, la distribucin conjunta de la respuesta y las variables explicativas
se supone que es de Gauss. Esta suposicin se vio debilitada por RA Fisher en sus obras de 1922 y 1925.[13][14][15]
Fisher supone que la distribucin condicional de la variable de respuesta es de Gauss, pero la distribucin conjunta
no es necesario. A este respecto, la asuncin de Fisher est ms cerca de la formulacin de Gauss de 1821.
En los aos 1950 y 1960, los economistas utilizan calculadoras electromecnicas para calcular regresiones. Antes de
1970, a veces tardaba hasta 24 horas para recibir el resultado de una regresin.[16]
Los mtodos de regresin siguen siendo un rea de investigacin activa. En las ltimas dcadas, los nuevos mtodos
han sido desarrollados para la regresin robusta, la regresin que implica respuestas correlacionadas, tales como
series de tiempo y las curvas de crecimiento, regresin en la que los predictores o variables de respuesta son curvas,
imgenes, grcos y otros objetos de datos complejos, los mtodos de regresin Aceptar varios tipos de datos faltantes,
la regresin no paramtrica, bayesianos mtodos de regresin, regresin en el que las variables de prediccin se miden
con error, regresin con ms variables predictoras que las observaciones y la inferencia causal con la regresin.

1.2 Modelos de regresin


Regresin lineal

Regresin lineal simple

Dadas dos variables (Y: variable dependiente; X: independiente) se trata de encontrar una funcin simple (lineal) de
X que nos permita aproximar Y mediante: = a + bX

a (ordenada en el origen, constante)


b (pendiente de la recta)
A la cantidad e=Y- se le denomina residuo o error residual.

As, en el ejemplo de Pearson: = 85 cm + 0,5X

Donde es la altura predicha del hijo y X la altura del padre: En media, el hijo gana 0,5 cm por cada
cm del padre.

Regresin lineal mltiple

1.2.1 Regresin no lineal


Regresin segmentada

1.3 Vase tambin


Contraste de hiptesis

1.4 Referencias
[1] Armstrong, J. Scott (2012). Illusions in Regression Analysis. International Journal of Forecasting (forthcoming) 28 (3):
689. doi:10.1016/j.ijforecast.2012.02.001.

[2] David A. Freedman, Statistical Models: Theory and Practice, Cambridge University Press (2005)
1.5. ENLACES EXTERNOS 3

[3] R. Dennis Cook; Sanford Weisberg Criticism and Inuence Analysis in Regression, Sociological Methodology, Vol. 13.
(1982), pp. 313361

[4] A.M. Legendre. Nouvelles mthodes pour la dtermination des orbites des comtes, Firmin Didot, Paris, 1805. Sur la
Mthode des moindres quarrs appears as an appendix.

[5] C.F. Gauss. Theoria Motus Corporum Coelestium in Sectionibus Conicis Solem Ambientum. (1809)

[6] C.F. Gauss. Theoria combinationis observationum erroribus minimis obnoxiae. (1821/1823)

[7] Mogull, Robert G. (2004). Second-Semester Applied Statistics. Kendall/Hunt Publishing Company. p. 59. ISBN 0-7575-
1181-3.

[8] Galton, Francis (1989). Kinship and Correlation (reprinted 1989). Statistical Science (Institute of Mathematical Statistics)
4 (2): 8086. doi:10.1214/ss/1177012581. JSTOR 2245330.

[9] Francis Galton. Typical laws of heredity, Nature 15 (1877), 492495, 512514, 532533. (Galton uses the term rever-
sion in this paper, which discusses the size of peas.)

[10] Francis Galton. Presidential address, Section H, Anthropology. (1885) (Galton uses the term regression in this paper, which
discusses the height of humans.)

[11] Yule, G. Udny (1897). On the Theory of Correlation. Journal of the Royal Statistical Society (Blackwell Publishing) 60
(4): 81254. doi:10.2307/2979746. JSTOR 2979746.

[12] Pearson, Karl; Yule, G.U.; Blanchard, Norman; Lee,Alice (1903). The Law of Ancestral Heredity. Biometrika (Biome-
trika Trust) 2 (2): 211236. doi:10.1093/biomet/2.2.211. JSTOR 2331683.

[13] Fisher, R.A. (1922). The goodness of t of regression formulae, and the distribution of regression coecients. Journal
of the Royal Statistical Society (Blackwell Publishing) 85 (4): 597612. doi:10.2307/2341124. JSTOR 2341124.

[14] Ronald A. Fisher (1954). Statistical Methods for Research Workers (Twelfth edicin). Edinburgh: Oliver and Boyd. ISBN
0-05-002170-2.

[15] Aldrich, John (2005). Fisher and Regression. Statistical Science 20 (4): 401417. doi:10.1214/088342305000000331.
JSTOR 20061201.

[16] Rodney Ramcharan. Regressions: Why Are Economists Obessessed with Them? March 2006. Accessed 2011-12-03.

1.5 Enlaces externos


Francis Galton. Regression Towards Mediocrity in Hereditary Stature, Journal of the Anthropological Insti-
tute, 15:246-263 (1886).

A non-mathematical explanation of regression toward the mean.


A simulation of regression toward the mean.

Amanda Wachsmuth, Leland Wilkinson, Gerard E. Dallal. Galtons Bend: An Undiscovered Nonlinearity in
Galtons Family Stature Regression Data and a Likely Explanation Based on Pearson and Lees Stature Data
Captulo 2

Regresin lineal

Ejemplo de una regresin lineal con una variable dependiente y una variable independiente.

En estadstica la regresin lineal o ajuste lineal es un mtodo matemtico que modela la relacin entre una variable
dependiente Y, las variables independientes Xi y un trmino aleatorio . Este modelo puede ser expresado como:

Yt = 0 + 1 X1 + 2 X2 + + p Xp +

Yt : variable dependiente, explicada o regresando.


X1 , X2 , , Xp : variables explicativas, independientes o regresores.
0 , 1 , 2 , , p : parmetros, miden la inuencia que las variables explicativas tienen sobre el regresando.
donde 0 es la interseccin o trmino constante, las i (i > 0) son los parmetros respectivos a cada variable
independiente, y p es el nmero de parmetros independientes a tener en cuenta en la regresin. La regresin lineal
puede ser contrastada con la regresin no lineal.

4
2.1. HISTORIA 5

2.1 Historia
La primera forma de regresin lineal documentada fue el mtodo de los mnimos cuadrados que fue publicada por
Legendre en 1805,[1] y en dnde se inclua una versin del teorema de Gauss-Mrkov.

2.1.1 Etimologa
El trmino regresin se utiliz por primera vez en el estudio de variables antropomtricas: al comparar la estatura
de padres e hijos, donde result que los hijos cuyos padres tenan una estatura muy superior al valor medio, tendan
a igualarse a ste, mientras que aquellos cuyos padres eran muy bajos tendan a reducir su diferencia respecto a la
estatura media; es decir, regresaban al promedio.[2] La constatacin emprica de esta propiedad se vio reforzada
ms tarde con la justicacin terica de ese fenmeno.
El trmino lineal se emplea para distinguirlo del resto de tcnicas de regresin, que emplean modelos basados en
cualquier clase de funcin matemtica. Los modelos lineales son una explicacin simplicada de la realidad, mucho
ms giles y con un soporte terico mucho ms extenso por parte de la matemtica y la estadstica.
Pero bien, como se ha dicho, podemos usar el trmino lineal para distinguir modelos basados en cualquier clase de
aplicacin.

2.2 El modelo de regresin lineal


El modelo lineal relaciona la variable dependiente Y con K variables explcitas Xk (k = 1,...K), o cualquier transformacin
de stas que generen un hiperplano de parmetros k desconocidos:

(2) Y = k Xk +

donde es la perturbacin aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y
que por tanto se asocian con el azar, y es la que conere al modelo su carcter estocstico. En el caso ms sencillo,
con una sola variable explcita, el hiperplano es una recta:

(3) Y = 1 + 2 X2 +

El problema de la regresin consiste en elegir unos valores determinados para los parmetros desconocidos k , de
modo que la ecuacin quede completamente especicada. Para ello se necesita un conjunto de observaciones. En una
observacin i-sima (i= 1,... I) cualquiera, se registra el comportamiento simultneo de la variable dependiente y las
variables explcitas (las perturbaciones aleatorias se suponen no observables).

(4) Yi = k Xki + i

Los valores escogidos como estimadores de los parmetros k , son los coecientes de regresin sin que se pueda
garantizar que coincida n con parmetros reales del proceso generador. Por tanto, en

(5) Yi = k Xki + i

Los valores i son por su parte estimaciones o errores de la perturbacin aleatoria.

2.3 Hiptesis del modelo de regresin lineal clsico


1. Esperanza matemtica nula.
E(i ) = 0
Para cada valor de X la perturbacin tomar distintos valores de forma aleatoria, pero no tomar sistemticamente
valores positivos o negativos, sino que se supone tomar algunos valores mayores que cero y otros menores que cero,
de tal forma que su valor esperado sea cero.
6 CAPTULO 2. REGRESIN LINEAL

2. Homocedasticidad
V ar(t ) = E(t Et )2 = E2t = 2 para todo t
Todos los trminos de la perturbacin tienen la misma varianza que es desconocida. La dispersin de cada t en torno
a su valor esperado es siempre la misma.
3. Incorrelacin.
Cov(t , s ) = (t Et )(s Es ) = Et s = 0 para todo t,s con t distinto de s
Las covarianzas entre las distintas pertubaciones son nulas, lo que quiere decir que no estn correlacionadas. Esto
implica que el valor de la perturbacin para cualquier observacin muestral no viene inuenciado por los valores de
las perturbaciones correspondientes a otras observaciones muestrales.
4. Regresores no estocsticos.
5. No existen relaciones lineales exactas entre los regresores.
6. T > k + 1 Suponemos que no existen errores de especicacin en el modelo, ni errores de medida en las variables
explicativas
7. Normalidad de las perturbaciones N (0, 2 )

2.4 Supuestos del modelo de regresin lineal


Para poder crear un modelo de regresin lineal es necesario que se cumpla con los siguientes supuestos:[3]

1. Que la relacin entre las variables sea lineal.

2. Que los errores en la medicin de las variables explicativas sean independientes entre s.

3. Que los errores tengan varianza constante. (Homocedasticidad)

4. Que los errores tengan una esperanza matemtica igual a cero (los errores de una misma magnitud y distinto
signo son equiprobables).

5. Que el error total sea la suma de todos los errores.

2.5 Tipos de modelos de regresin lineal


Existen diferentes tipos de regresin lineal que se clasican de acuerdo a sus parmetros:

2.5.1 Regresin lineal simple


Slo se maneja una variable independiente, por lo que slo cuenta con dos parmetros. Son de la forma:[4]

(6) Yi = 0 + 1 Xi + i

donde i es el error asociado a la medicin del valor Xi y siguen los supuestos de modo que i N (0, 2 ) (media
cero, varianza constante e igual a un y i j con i = j ).

Anlisis

Dado el modelo de regresin simple, si se calcula la esperanza (valor esperado) del valor Y, se obtiene:[5]

(7) E(yi ) = yi = E(0 ) + E(1 xi ) + E(i )

Derivando respecto a 0 y 1 e igualando a cero, se obtiene:[5]


2.6. RECTAS DE REGRESIN 7


(yi yi )2
(9) 0
=0


(yi yi )2
(10) 1
=0

Obteniendo dos ecuaciones denominadas ecuaciones normales que generan la siguiente solucin para ambos parmetros:[4]


x yn xy (x
x)(yy)
(11) 1 = 2
( x) n
2
x
= x)2
(x


y1 x
(12) 0 = n = y 1 x

La interpretacin del parmetro medio 1 es que un incremento en Xi de una unidad, Yi incrementar en 1

2.5.2 Regresin lineal mltiple

La regresin lineal permite trabajar con una variable a nivel de intervalo o razn. De la misma manera, es posible
analizar la relacin entre dos o ms variables a travs de ecuaciones, lo que se denomina regresin mltiple o
regresin lineal mltiple.
Constantemente en la prctica de la investigacin estadstica, se encuentran variables que de alguna manera estn
relacionadas entre s, por lo que es posible que una de las variables puedan relacionarse matemticamente en funcin
de otra u otras variables.
Maneja varias variables independientes. Cuenta con varios parmetros. Se expresan de la forma:[6]


(13) Yi = 0 + i Xip + i

donde i es el error asociado a la medicin i del valor Xip y siguen los supuestos de modo que i N (0, 2 ) (media
cero, varianza constante e igual a un y i j con i = j ).

2.6 Rectas de regresin


Las rectas de regresin son las rectas que mejor se ajustan a la nube de puntos (o tambin llamado diagrama de
dispersin) generada por una distribucin binomial. Matemticamente, son posibles dos rectas de mximo ajuste:[7]

La recta de regresin de Y sobre X:

xy
(14) y = y + x2 (x x
)

La recta de regresin de X sobre Y:

xy
(15) x = x
+ y2 (y y)

La correlacin (r) de las rectas determinar la calidad del ajuste. Si r es cercano o igual a 1, el ajuste ser bueno y las
predicciones realizadas a partir del modelo obtenido sern muy ables (el modelo obtenido resulta verdaderamente
representativo); si r es cercano o igual a 0, se tratar de un ajuste malo en el que las predicciones que se realicen
a partir del modelo obtenido no sern ables (el modelo obtenido no resulta representativo de la realidad). Ambas
rectas de regresin se intersecan en un punto llamado centro de gravedad de la distribucin.
8 CAPTULO 2. REGRESIN LINEAL

2.7 Aplicaciones de la regresin lineal

2.7.1 Lneas de tendencia

Una lnea de tendencia representa una tendencia en una serie de datos obtenidos a travs de un largo perodo. Este
tipo de lneas puede decirnos si un conjunto de datos en particular (como por ejemplo, el PBI, el precio del petrleo o
el valor de las acciones) han aumentado o decrementado en un determinado perodo.[8] Se puede dibujar una lnea de
tendencia a simple vista fcilmente a partir de un grupo de puntos, pero su posicin y pendiente se calcula de manera
ms precisa utilizando tcnicas estadsticas como las regresiones lineales. Las lneas de tendencia son generalmente
lneas rectas, aunque algunas variaciones utilizan polinomios de mayor grado dependiendo de la curvatura deseada
en la lnea.

2.7.2 Medicina

En medicina, las primeras evidencias relacionando la mortalidad con el fumar tabaco[9] vinieron de estudios que
utilizaban la regresin lineal. Los investigadores incluyen una gran cantidad de variables en su anlisis de regresin
en un esfuerzo por eliminar factores que pudieran producir correlaciones espurias. En el caso del tabaquismo, los
investigadores incluyeron el estado socio-econmico para asegurarse que los efectos de mortalidad por tabaquismo no
sean un efecto de su educacin o posicin econmica. No obstante, es imposible incluir todas las variables posibles
en un estudio de regresin.[10][11] En el ejemplo del tabaquismo, un hipottico gen podra aumentar la mortalidad
y aumentar la propensin a adquirir enfermedades relacionadas con el consumo de tabaco. Por esta razn, en la
actualidad las pruebas controladas aleatorias son consideradas mucho ms conables que los anlisis de regresin.

2.7.3 Informtica

Ejemplo de una rutina que utiliza una recta de regresin lineal para proyectar un valor futuro: Cdigo escrito en PHP
<?php //Licencia: GNU/GPL $xarray=array(1, 2, 3, 4, 5 ); //Dias $yarray=array(5, 5, 5, 6.8, 9); //Porcentaje de ejecu-
cion $pm=100; //Valor futuro $x2=0; $y=0; $x=0; $xy=0; $cantidad=count($xarray); for($i=0;$i<$cantidad;$i++){
//Tabla de datos print ($xarray[$i]. ---- ".$yarray[$i]."<br>"); //Calculo de terminos $x2 += $xarray[$i]*$xarray[$i];
$y += $yarray[$i]; $x += $xarray[$i]; $xy += $xarray[$i]*$yarray[$i]; } //Coeciente parcial de regresion $b=($cantidad*$xy-
$x*$y)/($cantidad*$x2-$x*$x); //Calculo del intercepto $a=($y-$b*$x)/$cantidad; //Recta tendencial //y=a+bx //Pro-
yeccion en dias para un 100% de la ejecucion: if ($b!=0) $dias_proyectados=($pm-$a)/$b; else $dias_proyectados=999999;
//Innitos $dp=round($dias_proyectados,0); if($dp<=$pm) print $dp."---> Culmina antes de los $pm dias <br>";
if($dp >$pm) print $dp ."---> ALARMA: No culmina antes de los $pm dias <br>"; ?>

2.8 Vase tambin


Homoscedasticidad

Regresin logstica

Modelos de regresin mltiple postulados y no postulados

Regresin segmentada

Econometra

Mnimos cuadrados

Regularizacin de Tikhonov

Cuarteto de Anscombe

Capital Asset Pricing Model


2.9. REFERENCIAS 9

2.9 Referencias
[1] C.F. Gauss. Theoria combinationis observationum erroribus minimis obnoxiae. (1821/1823)

[2] Introduction to linear regression Curvet.com (en ingls)

[3] Anlisis de regresin lineal, Universidad Complutense de Madrid

[4] Frmulas, Probabilidad y Estadstica. Cs. Bsicas. U.D.B. Matemtica. Universidad Tecnolgica Nacional, Facultad Re-
gional Buenos Aires. Editorial CEIT-FRBA. (Cdigo BM2BT2)

[5] Modelo de regresin lineal simple. EinsteinNet.

[6] Tcnicas de regresin: Regresin Lineal Mltiple. Prtega Daz, S., Pita Fernndez, S. Unidad de Epidemiologa Clnica y
Bioestadstica. Complejo Hospitalario de La Corua (Espaa)

[7] Apunte sobre Rectas de regresin. Ministerio de Educacin y Ciencia. Gobierno de Espaa.

[8] Utilizacin de las lneas de tendencia, Paritech (en ingls)

[9] Doll R, Peto r, Wheatley K, Gray R et al. Mortality in relation to smoking: 40 years observations on male British doctors
.BMJ 1994;309:901-911 (8 de octubre]

[10] Environmental Tobacco Smoke and Adult Asthma Division of Pulmonary and Critical Care Medicine, Division of Oc-
cupational and Environmental Medicine; Department of Medicine, Institute for Health Policy Studies; and Department of
Epidemiology and Biostatistics, Universidad de California, San Francisco, California. (en ingls)

[11] Efecto del tabaquismo, los sntomas respiratorios y el asma sobre la espirometra de adultos de la Ciudad de Mxico, Justino
Regalado-Pineda; Alejandro Gmez-Gmez; Javier Ramrez-Acosta; Juan Carlos Vzquez-Garca

2.10 Bibliografa
Devore, Jay L.; Probabilidad y Estadstica para Ingeniera y Ciencias. International Thomson Editores. Mxico.
ISBN-10: 9706864571.

Walpole, Ronald E.; Raymond H.; Myers, Sharon L.; Probabilidad y Estadstica para Ingenieros. Pretice-Hall
Hispanoamericana, S.A. Mxico. ISBN-10: 9701702646.

Canavos, George C.; Probabilidad y Estadstica. Aplicaciones y Mtodos. McGraw-Hill. Mxico. ISBN-10:
9684518560.

2.11 Enlaces externos


Clculo de regresiones lineales en lnea. (en ingls)

ZunZun.com Ajuste de curvas y supercies en lnea. (en ingls)


xuru.org Herramientas de regresin lineal en lnea. (en ingls)

Simulacin de la recta de regresion de una variable bidimensional continua con R (lenguaje de programacin)
Captulo 3

Modelos de regresin mltiple postulados


y no postulados

En estadstica un modelo de regresin mltiple no postulado es uno de los mtodos de regresin lineal.

3.1 Modelo
Un modelo relaciona una o varias variables que hay que explicar Y a unas variables explicativas X, por una relacin
funcional Y = F (X)

Un modelo fsico es un modelo explicativo sostenido por una teora.


Un modelo estadstico, al contrario, es un modelo emprico nacido de datos disponibles, sin conocimientos a
priori sobre los mecanismos en juego. Podemos sin embargo integrar en eso ecuaciones fsicas (en el momento
del pretratamiento de datos).

Disponemos de n de observaciones (i = 1,, n ) de p variables. La ecuacin de regresin se escribe:


yi = ao + a1 xi,1 + + ap xi,p + i i = 1n
donde

i es el error del modelo;


a0 , a1 , , ap son los coecientes del modelo que hay que estimar.

El clculo de los coecientes aj y del error del modelo, a partir de las observaciones, es un problema bien dominado
(ver Regresin lineal).
Ms delicado es la eleccin de las variables que entran en este modelo. Puede ser postulado o no postulado.

3.2 Modelo postulado


Slo los coecientes del modelo precedente de regresin son dirigidos por los datos, la estructura polinmica del
modelo es impuesta por el utilizador (segn su peritaje del problema), que postula a priori:

El tipo de modelo: lineal o polinmico, y el grado del polinomio,


las variables que entrarn en el modelo.

Ejemplo de modelo polinmico con dos variables explicativas: yi = ao + a1 xi,1 + a2 xi,2 + a3 xi,1 xi,2 + a4 x2i,1 +
a5 x2i,1 + i i = 1n
01

10
3.3. EL PROBLEMA DE LA SELECCIN DE LAS VARIABLES EXPLICATIVAS 11

3.3 El problema de la seleccin de las variables explicativas


Cuando el nmero de variables explicativas es grande, puede hacerse que ciertas variables sean correlacionadas. En
este caso hay que eliminar los doblones. El software utiliza para hacerlo mtodos de seleccin paso a paso (ascen-
dientes, descendentes o mixtos).
Sin embargo la calidad del modelo nal repone en gran parte en la eleccin de las variables, y del grado del polinomio.

3.4 Modelo no postulado


El modelo no postulado es al contrario totalmente dirigido por los datos , tanto su estructura matemtica como sus
coecientes. La seleccin de las variables explicativas no pide conocimiento a priori sobre el modelo: se efecta entre
un conjunto muy grande de variables, comprendiendo:

Variables explicativas simples: A, B, C, (propuestas por los expertos del campo considerado y cuyo nmero
p puede ser superior a n

Interacciones o acoplamiento de estas variables, por ejemplo A*B (producido cruzado sobre variables
centradas reducidas), pero tambin interacciones lgicas tal A y B , A o B , A y B medios , A
si B es fuerte , A si B es medio , A si B es dbil , etc.;

Funciones de estas variables: por ejemplo cos (A) o cualquier funcin sinusoidal amortiguada o ampliada,
funcin peridica no sinusoidal, efecto de umbral, etc.

La seleccin se produce antes del clculo de los coecientes de la regresin segn el principio siguiente:

Buscamos el factor o la interaccin o la funcin mejor correlada a la respuesta. Habindolo encontrado,


buscamos el factor o la interaccin mejor correlada al residuo no explicado por la correlacin precedente;
etc. Este mtodo pretende no contar dos veces la misma inuencia, cuando los factores son correlados,
y a ordenarlos por importancia decreciente.

La lista por orden de importancia decreciente encontrada y clasicada, no puede contar ms trminos que desconocidas
(n). Si se guarda slo un trmino en el modelo, deber ser la primera de la lista. Si se guarda dos, sern ambos primeros,
etc.
En efecto ya que cada uno de los trminos de la lista explica el residuo no explicado por los precedentes, los ltimos
explican posiblemente slo el ruido. Cul criterio de parada escoger?
El nmero de trminos conservados en el modelo puede ser, por ejemplo, el que minimiza el error estndar de
prediccin SEP (Standard error of Prediction), o el que maximiza el F de Fisher. Este nmero de trmino puede
tambin ser escogido por el utilizador a partir de consideraciones fsicas.

Ejemplo: suponemos que el conjunto de las variables explicativas candidatas es {A,B,C,D,E,F,G},


y que el modelo obtenido es :

Y = constante + a.A + b.( E et G ) + c.( D y F medios )

Observamos que:
* las variables B y C, no pertinentes, no guran en el modelo
* la variable A apareci como trmino simple
* las variables E y G de una parte, y D y F, por otra parte, aparecen slo como interacciones lgicas .

Este modelo parsimonioso , es decir conteniendo pocos trminos (aqu tres), contrata 5 variables, y estar pegado
mejor a la realidad fsica que un modelo polinmico. En efecto la conjuncin E y G que signica E y G fuertes
simultneamente es encontrado ms a menudo en la realidad fsica (ejemplo: la catlisis en qumica) que un trmino
polinmico de tipo E.G.
12 CAPTULO 3. MODELOS DE REGRESIN MLTIPLE POSTULADOS Y NO POSTULADOS

3.5 Descomposicin armnica


Un modelo no postulado ser tambin ecaz en la descomposicin armnica de las series.
En efecto, el principio se aplica tambin bien en caso de muestreo irregular (donde los mtodos de tipo media mvil,
ARIMA o Box y Jenkins son hechos caer en falta) que en los casos no estacionarios (donde Anlisis armnico no se
aplica). Permite descubrir y desenredar las interferencias de ciclos diversos y estacionalidad con roturas de tendencias
en escaln, en V, roturas logsticas, motivos peridicos, y acontecimientos accidentales tales como picos aislados o
pedazos de ondas.

3.6 Referencias
Lesty M. (1999) Une nouvelle approche dans le choix des rgresseurs de la rgression multiple en prsence dinteractions
et de colinarits. La revue de Modulad, n22, janvier 1999, pp. 41-77
Lesty M. (2002) La recherche des harmoniques, une nouvelle fonction du logiciel CORICO. La revue de Modulad,
n29, juin 2002, pp. 39-77
3.7. TEXT AND IMAGE SOURCES, CONTRIBUTORS, AND LICENSES 13

3.7 Text and image sources, contributors, and licenses


3.7.1 Text
Anlisis de la regresin Fuente: http://es.wikipedia.org/wiki/An%C3%A1lisis%20de%20la%20regresi%C3%B3n?oldid=82075581 Co-
laboradores: LP, Amads, BOT-Superzerocool, GermanX, Lauranrg, Botones, Matdrodes, Muro Bot, Gerakibot, robot, SrDonPa-
trn, Juan Mayordomo, UA31, AVBOT, MarcoAurelio, Ezarate, Cpey, EdBever, KamikazeBot, Ripchip Bot, GrouchoBot, Ivanpares,
Wikilptico, EmausBot, ConPermiso, Grillitus, ChuispastonBot, Antonorsi, MerlIwBot, KLBot2, Acratta, JYBot, Ralgisbot, Ihtizon,
Arisdas y Annimos: 30
Regresin lineal Fuente: http://es.wikipedia.org/wiki/Regresi%C3%B3n%20lineal?oldid=82160733 Colaboradores: Joseaperez, Jor-
geGG, Riviera, Elwikipedista, Tano4595, Felipealvarez, Magister Mathematicae, Alhen, BOT-Superzerocool, Vitamine, Gaeddal, Ger-
manX, Baneld, BOTpolicia, CEM-bot, Daniel De Leon Martinez, Laura Fiorucci, Marianov, Roberpl, Davius, Antur, Gafotas, Ggenelli-
na, Ingenioso Hidalgo, Thijs!bot, Alvaro qc, Xabier, Diego D E, Yeza, Gusgus, JAnDbot, Kved, Rjgalindo, TXiKiBoT, Juan renombrado,
Hlnodovic, Dhcp, Marvelshine, Alesico, Icchu, Snakeeater, VolkovBot, Technopat, Matdrodes, Muro Bot, PaintBot, Drinibot, Pacome-
gia, Correogsk, Tirithel, Dnu72, HUB, Antn Francho, Carro e, Botito777, Alexbot, Juan Mayordomo, Raulshc, Hucknall, UA31, Cho-
molungma, AVBOT, MastiBot, HanPritcher, NjardarBot, Diegusjaimes, DrFO.Tn.Bot~eswiki, Andreasmperu, Luckas-bot, Madmaxsrx,
Jcoronelf, El Quinche, FariBOT, Sergiportero, Mcapdevila, SuperBraulio13, Jkbw, Botarel, BOTirithel, TiriBOT, Blinski, TorQue As-
tur, Rouxfederico, PatruBOT, AldanaN, Ivanpares, EmausBot, Sergio Andres Segovia, ConPermiso, Gecime, Alfonso Aguilar, Fbport,
MerlIwBot, Acratta, Johnbot, Elvisor, Maria Antonia Aguilar C., Balles2601 y Annimos: 118
Modelos de regresin mltiple postulados y no postulados Fuente: http://es.wikipedia.org/wiki/Modelos%20de%20regresi%C3%
B3n%20m%C3%BAltiple%20postulados%20y%20no%20postulados?oldid=70365872 Colaboradores: Sabbut, Superzerocool, GermanX,
CEM-bot, Juan Mayordomo, El Quinche, KLBot2 y Annimos: 5

3.7.2 Images
Archivo:Artculo_bueno.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/e/e5/Art%C3%ADculo_bueno.svg Licencia: Pu-
blic domain Colaboradores: Circle taken from Image:Symbol support vote.svg Artista original: Paintman y Chabacano
Archivo:Icono_de_traduccin.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/4/40/Icono_de_traducci%C3%B3n.svg Li-
cencia: GFDL Colaboradores: trabajo propio a partir de image:View-refresh.svg y image:Japanese Hiragana kyokashotai A.svg Artista
original: Rastrojo DES
Archivo:Linear_regression.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/3/3a/Linear_regression.svg Licencia: Public
domain Colaboradores: Trabajo propio Artista original: Sewaqu

3.7.3 Content license


Creative Commons Attribution-Share Alike 3.0
418 - Teora de juegos
ndice general

1 Teora de juegos 1
1.1 Representacin de juegos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Forma normal de un juego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Forma extensiva de un juego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Tipos de juegos y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Juegos simtricos y asimtricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Juegos de suma cero y de suma distinta de cero . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Criterios maximin y minimax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.4 Equilibrio de Nash. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.5 Juegos cooperativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.6 Simultneos y secuenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.7 Juegos de informacin perfecta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.8 Juegos de longitud innita (SuperJuegos) . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Economa y negocios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Biologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3 Informtica y lgica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4 Ciencia poltica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.5 Filosofa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Historia de la teora de juegos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Notas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Forma normal de un juego 11


2.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Otras representaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Usos de la forma normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1 Estrategias dominadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.2 Juegos secuenciales en forma normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Formulacin general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

i
ii NDICE GENERAL

2.5 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3 Juegos en forma extensiva 14


3.1 Juegos nitos en forma extensiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Informacin perfecta y completa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Informacin imperfecta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.5 Bibliografa Ampliada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4 Juego simtrico 18
4.1 Simetra en juegos 2x2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.2 Simetra y equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.3 Asimetras incorreladas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5 Juego de suma cero 19


5.1 La economa y la suma no nula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.2 La complejidad y la suma no nula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.3 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.4 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6 Juego cooperativo 22
6.1 Denicin matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.3 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.3.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.3.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.3.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Captulo 1

Teora de juegos

La teora de juegos es un rea de la matemtica aplicada que utiliza modelos para estudiar interacciones en estruc-
turas formalizadas de incentivos (los llamados juegos) y llevar a cabo procesos de decisin. Sus investigadores
estudian las estrategias ptimas as como el comportamiento previsto y observado de individuos en juegos. Tipos de
interaccin aparentemente distintos pueden, en realidad, presentar estructura de incentivo similar y, por lo tanto, se
puede representar mil veces conjuntamente un mismo juego.[1]
Desarrollada en sus comienzos como una herramienta para entender el comportamiento de la economa, la teora de
juegos se usa actualmente en muchos campos, como en la biologa, sociologa, psicologa, losofa y ciencias de la
computacin. Experiment un crecimiento sustancial y se formaliz por primera vez a partir de los trabajos de John
von Neumann y Oskar Morgenstern, antes y durante la Guerra Fra, debido sobre todo a su aplicacin a la estrategia
militar, en particular a causa del concepto de destruccin mutua garantizada. Desde los setenta, la teora de juegos se
ha aplicado a la conducta animal, incluyendo el desarrollo de las especies por la seleccin natural. A raz de juegos
como el dilema del prisionero, en los que el egosmo generalizado perjudica a los jugadores, la teora de juegos ha
atrado tambin la atencin de los investigadores en informtica, usndose en inteligencia articial y ciberntica.
Aunque tiene algunos puntos en comn con la teora de la decisin, la teora de juegos estudia decisiones realizadas
en entornos donde interaccionan. En otras palabras, estudia la eleccin de la conducta ptima cuando los costes y los
benecios de cada opcin no estn jados de antemano, sino que dependen de las elecciones de otros individuos. Un
ejemplo muy conocido de la aplicacin de la teora de juegos a la vida real es el dilema del prisionero, popularizado por
el matemtico Albert W. Tucker, el cual tiene muchas implicaciones para comprender la naturaleza de la cooperacin
humana. La teora psicolgica de juegos, que se arraiga en la escuela psicoanaltica del anlisis transaccional, es
enteramente diferente.
Los analistas de juegos utilizan asiduamente otras reas de la matemtica, en particular las probabilidades, las
estadsticas y la programacin lineal, en conjunto con la teora de juegos. Adems de su inters acadmico, la teora
de juegos ha recibido la atencin de la cultura popular. La vida del matemtico terico John Forbes Nash, desarrolla-
dor del Equilibrio de Nash y que recibi un premio Nobel, fue el tema de la biografa escrita por Sylvia Nasar, Una
mente maravillosa (1998), y de la pelcula del mismo nombre (2001). Varios programas de televisin han explorado
situaciones de teora de juegos, como el concurso de la televisin de Catalua (TV3) Sis a traci (Seis a traicin),
el programa de la televisin estadounidense Friend or foe? (Amigo o enemigo?) y, hasta cierto punto, el concurso
Supervivientes.[2]

1.1 Representacin de juegos


Los juegos estudiados por la teora de juegos estn bien denidos por objetos matemticos. Un juego consiste en un
conjunto de jugadores, un conjunto de movimientos (o estrategias) disponible para esos jugadores y una especicacin
de recompensas para cada combinacin de estrategias. Hay dos formas comunes de representar a los juegos.

1.1.1 Forma normal de un juego


La forma normal (o forma estratgica) de un juego es una matriz de pagos, que muestra los jugadores, las estrategias,
y las recompensas (ver el ejemplo a la derecha). Hay dos tipos de jugadores; uno elige la la y otro la columna. Cada

1
2 CAPTULO 1. TEORA DE JUEGOS

jugador tiene dos estrategias, que estn especicadas por el nmero de las y el nmero de columnas. Las recompensas
se especican en el interior. El primer nmero es la recompensa recibida por el jugador de las las (el Jugador 1 en
nuestro ejemplo); el segundo es la recompensa del jugador de las columnas (el Jugador 2 en nuestro ejemplo). Si el
jugador 1 elige arriba y el jugador 2 elige izquierda entonces sus recompensas son 4 y 3, respectivamente.
Cuando un juego se presenta en forma normal, se presupone que todos los jugadores actan simultneamente o, al
menos, sin saber la eleccin que toma el otro. Si los jugadores tienen alguna informacin acerca de las elecciones de
otros jugadores el juego se presenta habitualmente en la forma extensiva.
Tambin existe una forma normal reducida. sta combina estrategias asociadas con el mismo pago.

1.1.2 Forma extensiva de un juego

Un juego en forma extensiva.

La representacin de juegos en forma extensiva modela juegos con algn orden que se debe considerar. Los juegos
se presentan como rboles (como se muestra a la derecha). Cada vrtice o nodo representa un punto donde el jugador
toma decisiones. El jugador se especica por un nmero situado junto al vrtice. Las lneas que parten del vrtice
representan acciones posibles para el jugador. Las recompensas se especican en las hojas del rbol.
En el juego que se muestra en el ejemplo hay dos jugadores. El jugador 1 mueve primero y elige F o U. El jugador
2 ve el movimiento del jugador 1 y elige A o R. Si el jugador 1 elige U y entonces el jugador 2 elige A, entonces el
jugador 1 obtiene 8 y el jugador 2 obtiene 2.
Los juegos en forma extensiva pueden modelar tambin juegos de movimientos simultneos. En esos casos se dibuja
una lnea punteada o un crculo alrededor de dos vrtices diferentes para representarlos como parte del mismo conjunto
de informacin (por ejemplo, cuando los jugadores no saben en qu punto se encuentran).
La forma normal da al matemtico una notacin sencilla para el estudio de los problemas de equilibrio, porque
desestima la cuestin de cmo las estrategias son calculadas o, en otras palabras, de cmo el juego es jugado en
realidad. La notacin conveniente para tratar estas cuestiones, ms relevantes para la teora combinatoria de juegos,
es la forma extensiva del juego.

1.2 Tipos de juegos y ejemplos


La teora clasica los juegos en muchas categoras que determinan qu mtodos particulares se pueden aplicar para
resolverlos (y, de hecho, tambin cmo se dene resolucin en una categora particular). Las categoras comunes
incluyen:
1.2. TIPOS DE JUEGOS Y EJEMPLOS 3

1.2.1 Juegos simtricos y asimtricos

Un juego simtrico es un juego en el que las recompensas por jugar una estrategia en particular dependen slo de
las estrategias que empleen los otros jugadores y no de quien las juegue. Si las identidades de los jugadores pueden
cambiarse sin que cambien las recompensas de las estrategias, entonces el juego es simtrico. Muchos de los juegos
22 ms estudiados son simtricos. Las representaciones estndar del juego de la gallina, el dilema del prisionero y
la caza del ciervo son juegos simtricos.[3]
Los juegos asimtricos ms estudiados son los juegos donde no hay conjuntos de estrategias idnticas para ambos
jugadores. Por ejemplo, el juego del ultimtum y el juego del dictador tienen diferentes estrategias para cada juga-
dor; no obstante, puede haber juegos asimtricos con estrategias idnticas para cada jugador. Por ejemplo, el juego
mostrado a la derecha es asimtrico a pesar de tener conjuntos de estrategias idnticos para ambos jugadores.

1.2.2 Juegos de suma cero y de suma distinta de cero

En los juegos de suma cero el benecio total para todos los jugadores del juego, en cada combinacin de estrategias,
siempre suma cero (en otras palabras, un jugador se benecia solamente a expensas de otros). El go, el ajedrez, el
pker y el juego del oso son ejemplos de juegos de suma cero, porque se gana exactamente la cantidad que pierde el
oponente. Como curiosidad, el ftbol dej hace unos aos de ser de suma cero, pues las victorias reportaban 2 puntos
y el empate 1 (considrese que ambos equipos parten inicialmente con 1 punto), mientras que en la actualidad las
victorias reportan 3 puntos y el empate 1.
La mayora de los ejemplos reales en negocios y poltica, al igual que el dilema del prisionero, son juegos de suma
distinta de cero, porque algunos desenlaces tienen resultados netos mayores o menores que cero. Es decir, la ganancia
de un jugador no necesariamente se corresponde con la prdida de otro. Por ejemplo, un contrato de negocios involucra
idealmente un desenlace de suma positiva, donde cada oponente termina en una posicin mejor que la que tendra si
no se hubiera dado la negociacin.
Se puede analizar ms fcilmente un juego de suma distinta de cero, y cualquier juego se puede transformar en un
juego de suma cero aadiendo un jugador cticio adicional (el tablero o la banca), cuyas prdidas compensen
las ganancias netas de los jugadores.
La matriz de pagos de un juego es una forma conveniente de representacin. Por ejemplo, un juego de suma cero de
dos jugadores con la matriz que se muestra a la derecha.

1.2.3 Criterios maximin y minimax

Los criterios maximin y minimax establecen que cada jugador debe minimizar su prdida mxima:

Criterio maximin: el jugador A, elige que su cobro mnimo posible sea el mayor.

Criterio minimax: el jugador B elige que el pago mximo a A sea el menor posible.

1.2.4 Equilibrio de Nash.

Los equilibrios de las estrategias dominantes estn muy bien cuando aparecen en los juegos, pero desafortunadamente,
eso no ocurre con frecuencia. Un par de estrategias es un equilibrio de Nash si la eleccin del jugador A es ptima,
dada eleccin de B, y la de B es ptima, dada la de A.
El equilibrio de Nash puede interpretarse como un par de expectativas sobre la eleccin de cada persona tal que,
cuando la otra revela su eleccin, ninguna de las dos quiere cambiar de conducta.

1.2.5 Juegos cooperativos

Un juego cooperativo se caracteriza por un contrato que puede hacerse cumplir. La teora de los juegos cooperativos
da justicaciones de contratos plausibles. La plausibilidad de un contrato est muy relacionada con la estabilidad.
4 CAPTULO 1. TEORA DE JUEGOS

Dos jugadores negocian tanto quieren invertir en un contrato. La teora de la negociacin axiomtica nos muestra
cunta inversin es conveniente para nosotros. Por ejemplo, la solucin de Nash para la negociacin demanda que la
inversin sea justa y eciente.
De cualquier forma, podramos no estar interesados en la justicia y exigir ms. De hecho, existe un juego no coope-
rativo creado por Ariel Rubinstein consistente en alternar ofertas, que apoya la solucin de Nash considerndola la
mejor, mediante el llamado equilibrio de Nash.

1.2.6 Simultneos y secuenciales


Los juegos simultneos son juegos en los que los jugadores mueven simultneamente o en los que stos desconocen
los movimientos anteriores de otros jugadores. Los juegos secuenciales (o dinmicos) son juegos en los que los
jugadores posteriores tienen algn conocimiento de las acciones previas. Este conocimiento no necesariamente tiene
que ser perfecto; slo debe consistir en algo de informacin. Por ejemplo, un jugador1 puede conocer que un jugador2
no realiz una accin determinada, pero no saber cul de las otras acciones disponibles eligi.
La diferencia entre juegos simultneos y secuenciales se recoge en las representaciones discutidas previamente. La
forma normal se usa para representar juegos simultneos, y la extensiva para representar juegos secuenciales.

1.2.7 Juegos de informacin perfecta

Un juego de informacin imperfecta (las lneas punteadas representan la ignorancia de la parte del jugador 2).

Un subconjunto importante de los juegos secuenciales es el conjunto de los juegos de informacin perfecta. Un juego
es de informacin perfecta si todos los jugadores conocen los movimientos que han efectuado previamente todos los
otros jugadores; as que slo los juegos secuenciales pueden ser juegos de informacin perfecta, pues en los juegos
simultneos no todos los jugadores (a menudo ninguno) conocen las acciones del resto. La mayora de los juegos
estudiados en la teora de juegos son juegos de informacin imperfecta, aunque algunos juegos interesantes son de
informacin perfecta, incluyendo el juego del ultimtum y el juego del ciempis. Tambin muchos juegos populares
son de informacin perfecta, incluyendo el ajedrez y el go.
La informacin perfecta se confunde a menudo con la informacin completa, que es un concepto similar. La infor-
macin completa requiere que cada jugador conozca las estrategias y recompensas del resto pero no necesariamente
las acciones.
En los juegos de informacin completa cada jugador tiene la misma informacin relevante al juego que los dems
jugadores. El ajedrez y el dilema del prisionero ejemplican juegos de informacin completa. Los juegos de infor-
macin completa ocurren raramente en el mundo real, y los tericos de los juegos, usualmente los ven slo como
aproximaciones al juego realmente jugado.
John Conway desarroll una notacin para algunos juegos de informacin completa y deni varias operaciones en
esos juegos, originalmente para estudiar los nales de go, aunque buena parte de este anlisis se enfoc en nim. Esto
1.3. APLICACIONES 5

devino en la teora de juegos combinatoria. Descubri que existe una subclase de esos juegos que pueden ser usados
como nmeros, como describi en su libro On Numbers and Games, llegando a la clase muy general de los nmeros
surreales.

1.2.8 Juegos de longitud innita (SuperJuegos)

Por razones obvias, los juegos estudiados por los economistas y los juegos del mundo real nalizan generalmente tras
un nmero nito de movimientos. Los juegos matemticos puros no tienen estas restricciones y la teora de conjuntos
estudia juegos de innitos movimientos, donde el ganador no se conoce hasta que todos los movimientos se conozcan.
El inters en dicha situacin no suele ser decidir cul es la mejor manera de jugar a un juego, sino simplemente qu
jugador tiene una estrategia ganadora (Se puede probar, usando el axioma de eleccin, que hay juegos incluso de
informacin perfecta, y donde las nicas recompensas son perder y ganar para los que ningn jugador tiene
una estrategia ganadora.) La existencia de tales estrategias tiene consecuencias importantes en la teora descriptiva
de conjuntos.

1.3 Aplicaciones
La teora de juegos tiene la caracterstica de ser un rea en que la sustancia subyacente es principalmente una categora
de matemticas aplicadas, pero la mayora de la investigacin fundamental es desempeada por especialistas en otras
reas. En algunas universidades se ensea y se investiga casi exclusivamente fuera del departamento de matemtica.
Esta teora tiene aplicaciones en numerosas reas, entre las cuales caben destacar las ciencias econmicas, la biologa
evolutiva, la psicologa, las ciencias polticas, el diseo industrial, la investigacin operativa, la informtica y la es-
trategia militar.

1.3.1 Economa y negocios

Los economistas han usado la teora de juegos para analizar un amplio abanico de problemas econmicos, incluyen-
do subastas, duopolios, oligopolios, la formacin de redes sociales, y sistemas de votaciones. Estas investigaciones
normalmente estn enfocadas a conjuntos particulares de estrategias conocidos como conceptos de solucin. Estos
conceptos de solucin estn basados normalmente en lo requerido por las normas de racionalidad perfecta. El ms
famoso es el equilibrio de Nash. Un conjunto de estrategias es un equilibrio de Nash si cada una representa la mejor
respuesta a otras estrategias. De esta forma, si todos los jugadores estn aplicando las estrategias en un equilibrio de
Nash, no tienen ningn incentivo para cambiar de conducta, pues su estrategia es la mejor que pueden aplicar dadas
las estrategias de los dems.
Las recompensas de los juegos normalmente representan la utilidad de los jugadores individuales. A menudo las
recompensas representan dinero, que se presume corresponden a la utilidad de un individuo. Esta presuncin, sin
embargo, puede no ser correcta.
Un documento de teora de juegos en economa empieza presentando un juego que es una abstraccin de una situacin
econmica particular. Se eligen una o ms soluciones, y el autor demuestra qu conjunto de estrategias corresponden al
equilibrio en el juego presentado. Los economistas y profesores de escuelas de negocios sugieren dos usos principales.

Descriptiva

El uso principal es informar acerca del comportamiento de las poblaciones humanas actuales. Algunos investigadores
creen que encontrar el equilibrio de los juegos puede predecir cmo se comportaran las poblaciones humanas si se
enfrentasen a situaciones anlogas al juego estudiado. Esta visin particular de la teora de juegos se ha criticado en la
actualidad. En primer lugar, se la critica porque los supuestos de los tericos se violan frecuentemente. Los tericos de
juegos pueden suponer jugadores que se comportan siempre racionalmente y actan para maximizar sus benecios
(el modelo homo oeconomicus), pero los humanos reales a menudo actan irracionalmente o racionalmente pero
buscando el benecio de un grupo mayor (altruismo).
Los tericos de juegos responden comparando sus supuestos con los que se emplean en fsica. As, aunque sus su-
puestos no se mantienen siempre, pueden tratar la teora de juegos como una idealizacin razonable, de la misma
6 CAPTULO 1. TEORA DE JUEGOS

Un juego del ciempis de tres fases.

forma que los modelos usados por los fsicos. Sin embargo, este uso de la teora de juegos se ha seguido criticando
porque algunos experimentos han demostrado que los individuos no se comportan segn estrategias de equilibrio.
Por ejemplo, en el juego del ciempis, el juego de adivinar 2/3 de la media y el juego del dictador, las personas a
menudo no se comportan segn el equilibrio de Nash. Esta controversia se est resolviendo actualmente.[4]
Por otra parte, algunos autores aducen que los equilibrios de Nash no proporcionan predicciones para las poblaciones
humanas, sino que proporcionan una explicacin de por qu las poblaciones que se comportan segn el equilibrio
de Nash permanecen en esa conducta. Sin embargo, la cuestin acerca de cunta gente se comporta as permanece
abierta.
Algunos tericos de juegos han puesto esperanzas en la teora evolutiva de juegos para resolver esas preocupaciones.
Tales modelos presuponen o no racionalidad o una racionalidad acotada en los jugadores. A pesar del nombre, la
teora evolutiva de juegos no presupone necesariamente seleccin natural en sentido biolgico. La teora evolutiva de
juegos incluye las evoluciones biolgica y cultural y tambin modela el aprendizaje individual.

Normativa

Por otra parte, algunos matemticos no ven la teora de juegos como una herramienta que predice la conducta de
los seres humanos, sino como una sugerencia sobre cmo deberan comportarse. Dado que el equilibrio de Nash
constituye la mejor respuesta a las acciones de otros jugadores, seguir una estrategia que es parte del equilibrio de
Nash parece lo ms apropiado. Sin embargo, este uso de la teora de juegos tambin ha recibido crticas. En primer
lugar, en algunos casos es apropiado jugar segn una estrategia ajena al equilibrio si uno espera que los dems tambin
jugarn de acuerdo al equilibrio. Por ejemplo, en el juego adivina 2/3 de la media.
El dilema del prisionero presenta otro contraejemplo potencial. En este juego, si cada jugador persigue su propio
benecio ambos jugadores obtienen un resultado peor que de no haberlo hecho. Algunos matemticos creen que esto
demuestra el fallo de la teora de juegos como una recomendacin de la conducta a seguir.

1.3.2 Biologa

A diferencia del uso de la teora de juegos en la economa, las recompensas de los juegos en biologa se interpretan
frecuentemente como adaptacin. Adems, su estudio se ha enfocado menos en el equilibrio que corresponde a la
nocin de racionalidad, centrndose en el equilibrio mantenido por las fuerzas evolutivas. El equilibrio mejor conocido
en biologa se conoce como estrategia evolutivamente estable, y fue introducido por primera vez por John Maynard
Smith. Aunque su motivacin inicial no comportaba los requisitos mentales del equilibrio de Nash, toda estrategia
evolutivamente estable es un equilibrio de Nash.
En biologa, la teora de juegos se emplea para entender muchos problemas diferentes. Se us por primera vez para
explicar la evolucin (y estabilidad) de las proporciones de sexos 1:1 (mismo nmero de machos que de hembras).
Ronald Fisher sugiri en 1930 que la proporcin 1:1 es el resultado de la accin de los individuos tratando de maxi-
mizar el nmero de sus nietos sujetos a la restriccin de las fuerzas evolutivas.
Adems, los bilogos han usado la teora de juegos evolutiva y el concepto de estrategia evolutivamente estable para
explicar el surgimiento de la comunicacin animal (John Maynard Smith y Harper en el ao 2003). El anlisis de
1.4. HISTORIA DE LA TEORA DE JUEGOS 7

juegos con seales y otros juegos de comunicacin ha proporcionado nuevas interpretaciones acerca de la evolucin
de la comunicacin en los animales.
Finalmente, los bilogos han usado el problema halcn-paloma (tambin conocido como problema de la gallina) para
analizar la conducta combativa y la territorialidad.

1.3.3 Informtica y lgica

La teora de juegos ha empezado a desempear un papel importante en la lgica y la informtica. Muchas teoras
lgicas se asientan en la semntica de juegos. Adems, los investigadores de informtica han usado juegos para
modelar programas que interactan entre s.

1.3.4 Ciencia poltica

La investigacin en ciencia poltica tambin ha usado resultados de la teora de juegos. Una explicacin de la teora
de la paz democrtica es que el debate pblico y abierto en la democracia enva informacin clara y able acerca de
las intenciones de los gobiernos hacia otros estados. Por otra parte, es difcil conocer los intereses de los lderes no
democrticos, qu privilegios otorgarn y qu promesas mantendrn. Segn este razonamiento, habr desconanza y
poca cooperacin si al menos uno de los participantes de una disputa no es una democracia.

1.3.5 Filosofa

La teora de juegos ha demostrado tener muchos usos en losofa. A partir de dos trabajos de W.V.O. Quine publica-
dos en 1960 y 1967, David Lewis (1969) us la teora de juegos para desarrollar el concepto losco de convencin.
De esta forma, proporcion el primer anlisis del conocimiento comn y lo emple en analizar juegos de coordina-
cin. Adems, fue el primero en sugerir que se poda entender el signicado en trminos de juegos de seales. Esta
sugerencia se ha seguido por muchos lsofos desde el trabajo de Lewis.[5]
Leon Henkin, Paul Lorenzen y Jaakko Hintikka iniciaron una aproximacin a la semntica de los lenguajes formales
que explica con conceptos de teora de juegos los conceptos de verdad lgica, validez y similares. En esta aproximacin
los jugadores compiten proponiendo cuanticaciones e instancias de oraciones abiertas; las reglas del juego son las
reglas de interpretacin de las sentencias en un modelo, y las estrategias de cada jugador tienen propiedades de las que
trata la teora semntica (ser dominante si y slo si las oraciones con que se juega cumplen determinadas condiciones,
etc.).
En tica, algunos autores han intentado continuar la idea de Thomas Hobbes de derivar la moral del inters personal.
Dado que juegos como el dilema del prisionero presentan un conicto aparente entre la moralidad y el inters personal,
explicar por qu la cooperacin es necesaria para el inters personal es una componente importante de este proyecto.
Esta estrategia general es un componente de la idea de contrato social en losofa poltica (ejemplos en Gauthier 1987
y Kavka 1986).[6]
Finalmente, otros autores han intentado usar la teora evolutiva de juegos para explicar el nacimiento de las actitudes
humanas ante la moralidad y las conductas animales correspondientes. Estos autores han buscado ejemplos en muchos
juegos, incluyendo el dilema del prisionero, la caza del ciervo, y el juego del trato de Nash para explicar la razn del
surgimiento de las actitudes acerca de la moral (vase Skyrms 1996, 2004; Sober y Wilson 1999).

1.4 Historia de la teora de juegos


La primera discusin conocida de la teora de juegos aparece en una carta escrita por James Waldegrave en 1713. En
esta carta, Waldegrave proporciona una solucin mnima de estrategia mixta a una versin para dos personas del juego
de cartas le Her. Sin embargo no se public un anlisis terico de teora de juegos en general hasta la publicacin de
Recherches sur les prncipes mathmatiques de la thorie des richesses, de Antoine Augustin Cournot en 1838. En este
trabajo, Cournot considera un duopolio y presenta una solucin que es una versin restringida del equilibrio de Nash.
Aunque el anlisis de Cournot es ms general que el de Waldegrave, la teora de juegos realmente no existi como
campo de estudio aparte hasta que John von Neumann public una serie de artculos en 1928. Estos resultados
fueron ampliados ms tarde en su libro de 1944, Theory of Games and Economic Behavior[8] , escrito junto con
8 CAPTULO 1. TEORA DE JUEGOS

Oskar Morgenstern. Este trabajo contiene un mtodo para encontrar soluciones ptimas para juegos de suma cero
de dos personas. Durante este perodo, el trabajo sobre teora de juegos se centr, sobre todo, en teora de juegos
cooperativos. Este tipo de teora de juegos analiza las estrategias ptimas para grupos de individuos, asumiendo que
pueden establecer acuerdos entre s acerca de las estrategias ms apropiadas.
En 1950 Albert W. Tucker plante formalmente las primeras discusiones del dilema del prisionero, y se emprendi un
experimento acerca de este juego en la corporacin RAND. En ese ao John Nash desarroll una denicin de una
estrategia ptima para juegos de mltiples jugadores donde el ptimo no se haba denido previamente, conocido
como equilibrio de Nash, bajo la supervisin del mencionado Tucker. Este equilibrio es sucientemente general,
permitiendo el anlisis de juegos no cooperativos adems de los juegos cooperativos.
La teora de juegos experiment una notable actividad en la dcada de 1950, momento en el cual los conceptos base, el
juego de forma extensiva, el juego cticio, los juegos repetitivos, y el valor de Shapley fueron desarrollados. Adems,
en ese tiempo, aparecieron las primeras aplicaciones de la teora de juegos en la losofa y las ciencias polticas.
En 1965, Reinhard Selten introdujo su concepto de solucin de los equilibrios perfectos del subjuego y el concepto
de equilibrio perfecto de mano temblorosa, que ms adelante renaron el concepto de equilibrio de Nash. En 1967
John Harsanyi desarroll los conceptos de la informacin completa y de los juegos bayesianos. l, junto con John
Forbes Nash y Reinhard Selten, ganaron el Premio Nobel de Economa en 1994.
En la dcada de 1970 la teora de juegos se aplic extensamente a la biologa, en gran parte como resultado del
trabajo de John Maynard Smith y su concepto estrategia estable evolutiva. Adems, los conceptos del equilibrio co-
rrelacionado, equilibrio perfecto de mano temblorosa, y del conocimiento comn fueron introducidos y analizados.[9]
En 2005, los tericos de juegos Thomas Schelling y Robert Aumann ganaron el premio Nobel de Economa. Sche-
lling trabaj en modelos dinmicos, los primeros ejemplos de la teora de juegos evolutiva. Por su parte, Aumann
contribuy ms a la escuela del equilibrio.
En el 2007, Roger Myerson, junto con Leonid Hurwicz y Eric Maskin, recibieron el premio Nobel de Economa por
sentar las bases de la teora de diseo de mecanismos.
En el 2012, Lloyd Stowell Shapley y Alvin E. Roth ganan el premio Nobel de Economa por dar nombre dentro de
este campo a media docena de teoremas, algoritmos, principios, soluciones e ndices.

1.5 Vase tambin


Teora de los juegos de rol

1.6 Bibliografa
Referencias generales

Bierman, H. S. y L. Fernndez, Game Theory with economic applications, Addison-Wesley, 1998.

Davis, M. D. (1971): Introduccin a la teora de juegos. Alianza Editorial, 1 edicin.

Fudenberg, Drew y Jean Tirole: Game Theory, MIT Press, 1991, ISBN 0-262-06141-4

Gardner, R. (1996): Juegos para empresarios y economistas. Antoni Bosh editores, 1 edicin.

Gibbons, Robert (1992): Game Theory for Applied Economists, Princeton University Press ISBN 0-691-00395-
5. Tambin publicado en Londres por Harvester Wheatsheaf (Londres) con el ttulo A primer in game theory.

Gibbons, R. (1993): Un primer curso de teora de juegos. Antoni Bosch editores, 1 edicin.

Ginits, Herbert (2000): Game Theory Evolving. Princeton University Press, ISBN 0-691-00943-0

Osborne, Martin y Ariel Rubinstein: A Course in Game Theory, MIT Press, 1994, ISBN 0-262-65040-1

Rasmusen, Erik: Games and information, 4 edicin, Blackwell, 2006. Disponible en Internet .

William Poundstone: El Dilema del Prisionero, Alianza Editorial, 2005.


1.7. NOTAS 9

Cano, Mauricio, Mena L., Carlos y Sadka, Joyce (2009): Teora de Juegos y Derecho Contemporneo; Temas
Selectos, ITAM, George Mason University y Porra. ISBN 978-607-9-00031-8

Hillier, Frederick S. Introduccin a la investigacin de operaciones. Mxico, D.F. : McGraw-Hill, c2010.

Lecturas adicionales

Binmore, K. (1994): Teora de juegos. Editorial McGraw-Hill, 1 edicin.

Friedman, J.W. (1991): Teora de juegos con aplicaciones a la economa. Editorial Alianza Universidad.

Kreps, D.M. (1994): Teora de juegos y modelacin econmica. Fondo de Cultura Econmica, 1 Edicin.

Tirole, J. (1990): La teora de la organizacin industrial. Editorial Ariel, 1 edicin.

Textos de importancia histrica

Fisher, Ronald (1930) The Genetical Theory of Natural Selection. Clarendon Press, Oxford.

Luce, Duncan y Howard Raia Games and Decisions: Introduction and Critical Survey. Dover, ISBN 0-486-
65943-7

Maynard Smith, John: Evolution and the Theory of Games, Cambridge University Press, 1982.

Morgenstern, Oskar y John von Neumann (1947): Theory of Games and Economic Behavior. Princeton Uni-
versity Press.

Nash, John (1950) Equilibrium points in n-person games Proceedings of the National Academy of the USA
36(1):48-49.

Poundstone, William Prisoners Dilemma: John von Neumann, Game Theory and the Puzzle of the Bomb, ISBN
0-385-41580-X

1.7 Notas
[1] De cmo la teora matemtica de los juegos de estrategia resolver los problemas de la Eurozona y frenar las armas
nucleares iranes, Ariel Rubinstein, 5/5/2013, Sin permiso

[2] GameTheory.net Tiene una extensa lista de referencias a la teora de juegos en la cultura popular.

[3] Algunos estudiosos consideran ciertos juegos asimtricos como ejemplos deste tipo de juegos. Sin embargo, las recom-
pensas ms habituales para todos estos juegos son simtricas.

[4] El trabajo experimental en teora de juegos recibe muchos nombres, economa experimental, economa conductista y teora
conductista de juegos. Para discusiones recientes en este campo vase Camer 2003.

[5] Skyrms 1996, Grim et al. 2004

[6] Para una discusin detallada del uso de la teora de juegos en tica vase la entrada de la Stanford Encyclopedia of Philo-
sophy teora de juegos y tica.

[7] Tony Crilly (2011). 50 cosas que hay que saber sobre matemticas. Ed. Ariel. ISBN 978-987-1496-09-9.

[8] Teora de juegos y del comportamiento econmico

[9] Aunque el conocimiento comn fue discutido por primera vez por el lsofo David Lewis en su disertacin Convention a
nales de la dcada de 1960, no se estudi con detenimiento por los economistas hasta el trabajo de Robert Aumann, en
1970.
10 CAPTULO 1. TEORA DE JUEGOS

1.8 Enlaces externos

Wikimedia Commons alberga contenido multimedia sobre Teora de juegos. Commons

En espaol:

Introduccin a la teora de juegos, Eumed.net

Literatura sobre teora de juegos, Rubn Osuna


La teora de los juegos y el origen de las instituciones, Martn Krause, RIIM/ESEADE

Sencilla introduccin a la teora de juegos, Ral Bajo

En ingls:

Game Theory, Wilfrid Hodges, Stanford Encyclopedia of Philosophy

A framework for the unication of the behavioral sciences, Herbert Gintis, Behavioral and Brain Sciences
(2007) 30:1-61

Game Theory, Experimental Economics, and Market Design Page, Alvin Roth
A Chronology of Game Theory, Paul Walker

GameTheory.net: A resource for educators and students of game theory, Mike Shor

Introduction to Game Theory. Lecture by Benjamin Polak


Captulo 2

Forma normal de un juego

En teora de juegos, la forma normal es una forma de describir un juego. A diferencia de la forma extensiva, las
representaciones en forma normal no son grafos, sino matrices. Esto puede ser de gran utilidad a la hora de identicar
estrategias estrictamente dominantes y equilibrios de Nash. Por otra parte se pierde algo de informacin si la com-
paramos con la forma extensiva, pues sta incluye todas las estrategias de cada jugador junto con sus recompensas.
En juegos estticos de informacin completa y perfecta, una forma normal de representacin de un juego es una
especicacin de los espacios de estrategia de los jugadores y las funciones de recompensa. Un espacio de estrategia
de un jugador es el conjunto de estrategias disponibles para ese jugador, mientras que una estrategia es un plan
completo de accin para cada situacin del juego, sin tener en cuenta si esa situacin se da realmente en el juego. Una
funcin de recompensa de un jugador es una correspondencia entre el producto cruzado de los espacios de estrategia
de los jugadores y el conjunto de recompensas del jugador (normalmente, el conjunto de los nmeros reales, donde
el nmero representa una utilidad ordinal o cardinal - a menudo cardinal) de un jugador, por ejemplo la funcin de
recompensa de un jugador toma como entrada un perl de estrategia (es decir, la especicacin de las estrategias de
cada jugador) y da lugar a una representacin de la recompensa a su salida.

2.1 Ejemplo
La matriz de la derecha es una representacin en forma normal de un juego en el que los jugadores mueven si-
multneamente (o, al menos, no conocen el movimiento del otro jugador) y reciben las recompensas tal y como se
especica para la combinacin jugada. Por ejemplo, si el jugador 1 elige arriba y el jugador 2 elige izquierda, el
jugador 1 recibe 4 y el jugador 2 recibe 3. En cada celda, el primer nmero representa la recompensa del jugador de
las las (en este caso el jugador 1), y el segundo nmero representa la recompensa del jugador de las columnas (en
este caso el jugador 2).

2.1.1 Otras representaciones


A menudo, los juegos simtricos (donde las recompensas no dependen de qu jugador realice cada accin) se re-
presentan por una sola recompensa. Esta es la recompensa del jugador de las las. Por ejemplo, las matrices de
recompensa de la derecha y la izquierda representan el mismo juego.

2.2 Usos de la forma normal

2.2.1 Estrategias dominadas


La matriz de recompensas facilita la eliminacin de estrategias dominadas, y se usa habitualmente para ilustrar este
concepto. Por ejemplo, en el dilema del prisionero (a la derecha), se puede determinar que Cooperar est estrictamente
dominado por Traicionar. Se deben comparar los primeros nmeros de cada columna, en este caso 3>2 y 1>0.
Esto muestra que no importa lo que haga el jugador de las columnas, el jugador de las las har mejor escogiendo
Traicionar. Similarmente, se compara la segunda recompensa de cada la; otra vez 3>2 y 1>0. Esto muestra que no

11
12 CAPTULO 2. FORMA NORMAL DE UN JUEGO

importa lo que haga el jugador de las columnas, el de las las har mejor escogiendo Traicionar. Esto demuestra que
el nico equilibrio de Nash de este juego es (Traicionar, Traicionar).

2.2.2 Juegos secuenciales en forma normal


Estas matrices slo representan juegos en el que los movimientos son simultneos (o, de forma ms general, la infor-
macin es imperfecta). La matriz de arriba no representa el juego en el que el jugador 1 mueve primero, es observado
por el jugador 2 y entonces 2 mueve porque no especica todas las estrategias de 2 en este caso. Para representar este
juego secuencial debemos especicar todas las acciones del jugador 2, incluso en estrategias de situaciones que nunca
pueden darse en el curso del juego. En este juego, el jugador 2 tiene dos acciones posibles, como antes, Izquierda y
Derecha. Al contrario que antes, tiene cuatro estrategias, dependientes de las acciones del jugador 1. Estas estrategias
son:

1. Izquierda si 1 elige Arriba e Izquierda si no lo hace.

2. Izquierda si 1 elige Arriba y Derecha si no lo hace.

3. Derecha si 1 elige Arriba e Izquierda si no lo hace.

4. Derecha si 1 elige Arriba y Derecha si no lo hace.

A la derecha est la representacin en forma normal de este juego.

2.3 Formulacin general


Para que un juego est representado en forma normal, tienen que cumplirse los siguientes requisitos:

Hay un conjunto nito P de jugadores {1, 2,..., m}

Cada jugador k de P tiene un nmero nito de estrategias puras.

Sk = {1, 2, . . . , nk }.

Un perl de estrategia pura es una asociacin de estrategias con jugadores, que es una m-tupla

= (1 , 2 , . . . , m )

tal que

1 S1 , 2 S2 , . . . , m Sm

Llamamos al conjunto de perles de estrategia


Una funcin de recompensa es una funcin

F : R.

cuya interpretacin es el premio que recibe cada jugador al nal del juego. De acuerdo con esto, para especicar por
completo un juego, la funcin de recompensa tiene que especicarse para cada jugador del conjunto de jugadores
P={1, 2,..., m}. El juego es entonces una funcin
2.4. REFERENCIAS 13


: i RN
iN

Denicin: Un juego en forma normal es una estructura

(P, S, F)

donde P = {1,2,...,m} es un conjunto de jugadores,

S = (S1 , S2 , . . . , Sm )

es una m-tupla de conjuntos de estrategias puras, una para cada jugador, y

F = (F1 , F2 , . . . , Fm )

es una m-tupla de funciones de recompensa.


No hay ninguna razn para excluir juegos que tienen un nmero innito de jugadores o un nmero innito de es-
trategias por jugador. Sin embargo, el estudio de los juegos innitos es ms difcil, pues requiere usar tcnicas de
anlisis funcional.
Una generalizacin adicional puede ser lograda dividiendo el juego en dos funciones: la forma normal del juego,
que describe la manera en que las estrategias denen eventos, y una segunda funcin, que ilustra las preferencias del
jugador sobre el conjunto de eventos. As:


: i
iN

donde es el conjunto de eventos del juego. Y para cada jugador i N hay una funcin de preferencia

i: R

2.4 Referencias
R. D. Luce y H. Raia, Games and Decisions, Dover Publications, 1989.

J. Weibull, Evolutionary Game Theory, MIT Press, 1996

J. von Neumann y O. Morgenstern, Theory of Games and Economic Behavior, John Wiley Science Editions,
1964. Publicado inicialmente por Princeton University Press en 1948.

2.5 Enlaces externos


http://www.whalens.org/Sofia/choice/matrix.htm
Captulo 3

Juegos en forma extensiva

Un juego en forma extensiva es una especicacin de un juego en la teora de juegos, que permite (como su nombre
sugiere) la representacin explcita de una serie de aspectos importantes, como la secuencia de movimientos posibles
de los jugadores, sus elecciones en cada punto de decisin, lo imperfecto de la informacin que cada jugador tiene en
algunos movimientos del otro jugador cuando l toma una decisin, y sus ganancias para todos los resultados posibles
del juego. Juegos en forma extensiva tambin permitir la representacin de la informacin incompleta en forma de
casualidades codicados como " se mueve por naturaleza.

3.1 Juegos nitos en forma extensiva


Algunos autores, especialmente en los textos introductorios, inicialmente al denir el juego en forma extensiva como
un rbol de juego con ganancias (sin informacin imperfecta o incompleta), y van aadiendo otros elementos en los
captulos posteriores como renamientos. Mientras que el resto de este artculo sigue este enfoque con la motivacin
ejemplos, se presentan por adelantado lo nito en forma extensiva juegos como (en ltima instancia) construidos
aqu. Esta denicin general fue presentado por Harold W. Kuhn en 1953, que extendi una denicin anterior de
von Neumann de 1928. Despus de la presentacin de Sergiu Hart (1992),[1] un juego de N-jugadores en forma
extensiva consiste en lo siguiente:

Un conjunto nito de n jugadores (racionales)


Un rbol con raz, llamado el rbol de juego
Cada terminal (hoja) nodo del rbol de juego tiene una n-tupla de pagos, es decir, hay una ganancia para cada
jugador al nal de cada juego posible
Una particin de los nodos no terminales del rbol de juego en n +1 subconjuntos, uno para cada jugador
(racional), y con un subconjunto especial para un jugador cticio llamado Chance (o la naturaleza). Cada
jugador subconjunto de nodos que se conoce como los nodos del jugador. (Un juego de informacin completa
por lo tanto tiene un conjunto vaco de nodos de azar.)
Cada nodo aleatorio de un jugador tiene una distribucin de probabilidad sobre los resultados salientes.

Un juego es por lo tanto un camino a travs del rbol desde la raz hasta un nodo terminal. En cualquier nodo no
terminal dado que pertenece a Chance, una rama que se escoge de acuerdo con la distribucin de probabilidad.
En el nodo cualquier jugador racional, el jugador debe elegir una de las clases de equivalencia para los bordes, lo
que determina precisamente un borde saliente excepto (en general) el jugador no sabe que se est siguiendo. (Un
observador externo conocer las opciones de los dems jugadores hasta ese punto, y la realizacin de movimientos
de la naturaleza, se puede determinar el lmite exacto.) Una estrategia pura para un jugador consiste, pues, de una
seleccin, eligiendo precisamente una clase de bordes salientes para cada informacin establecido (de l). En un
juego de informacin perfecta, los conjuntos de informacin son nicos. Es menos evidente cmo los pagos deben
ser interpretados en juegos con nodos de azar. Se supone que cada jugador tiene una von Neumann-Morgenstern
funcin de utilidad denida para cada resultado del juego; este supuesto implica que cada jugador racional evaluar
un a priori resultado aleatorio por su esperada utilidad.

14
3.2. INFORMACIN PERFECTA Y COMPLETA 15

La presentacin anterior, mientras que la denicin precisa de la estructura matemtica sobre la que se juega el
juego, elude sin embargo, la discusin ms tcnica de la formalizacin de declaraciones acerca de cmo se juega el
juego como un jugador no puede distinguir entre los nodos del conjunto de informacin misma hora de tomar una
decisin. stos se pueden hacer preciso utilizando la lgica modal epistmico, ver Shoham y Leyton-Brown (2009,
cap 13.) para ms detalles.

3.2 Informacin perfecta y completa


Una completa representacin en forma extensiva especica:

1. Los jugadores de un juego


2. Para todos los jugadores de todas las oportunidades que tienen que moverse
3. Lo que cada jugador puede hacer en cada uno de sus movimientos
4. Lo que cada jugador sabe con cada movimiento
5. Los pagos recibidos por cada jugador para cada combinacin posible de movimientos

El juego de la derecha tiene dos jugadores: 1 y 2. Los nmeros de cada nodo no terminal son para indicar a qu
jugador le pertenece la decisin de jugar. Los nmeros de cada nodo terminal representan los pagos a los jugadores
(por ejemplo, 2,1 representa un pago de 2 al 1 jugador y un pago de 1 al jugador 2). Las etiquetas de cada borde de
la grca son el nombre de la accin que representa ese borde.
El nodo inicial pertenece al jugador 1, lo que indica que el jugador 1 mueve primero. El juego segn el rbol es el
siguiente: El jugador 1 elige entre U y D; el jugador 2 observa eleccin del jugador 1 y luego elige entre U 'y D'. Los
benecios son los especicados en el rbol. Hay cuatro resultados representados por los cuatro nodos terminales del
rbol: (U, U '), (U, D'), (D, U ') y (D, D'). Los pagos asociados con cada resultado, respectivamente, son como sigue
(0,0), (2,1), (1,2) y (3,1).
Si el jugador 1 juega D, el jugador 2 jugar U' para maximizar su rentabilidad y por lo tanto el jugador 1 slo recibir
1. Sin embargo, si el jugador 1 juega U, el jugador 2 maximiza su recompensa por jugar D 'y el jugador 1 recibe 2.
El jugador 1 preere 2 a 1 y as jugar U y el jugador 2 jugar D'. Este es un equilibrio perfecto en subjuegos.

3.3 Informacin imperfecta


Una ventaja de representar el juego de esta manera es que est claro lo que el orden del juego. El rbol muestra
claramente que el jugador 1 mueve primero y el jugador 2 observa este movimiento. Sin embargo, en algunos juegos
del juego no ocurre as. Un jugador no siempre observar la eleccin de otro (por ejemplo, movimientos pueden ser
simultneos o un movimiento puede estar oculto). Un conjunto de informacin es un conjunto de nodos de decisin
de tal manera que:

1. Cada nodo del conjunto pertenece a uno de los jugadores.


2. Cuando el juego llegue al conjunto de informacin, el jugador con el movimiento no puede diferenciar entre
los nodos del conjunto de informacin, es decir, si el conjunto de datos contiene ms de un nodo, el jugador al
que pertenece ese grupo no sabe qu nodo en el conjunto se ha alcanzado.

En forma extensiva, un conjunto de informacin se indica mediante una lnea de puntos que conecta todos los nodos
que en conjunto o, a veces por un bucle dibujado alrededor de todos los nodos en ese conjunto.
Si un juego tiene un conjunto de informacin con ms de un miembro de ese partido se dice que tiene informacin
imperfecta. Un juego con informacin perfecta es tal que en cualquier momento de la partida, cada jugador sabe
exactamente lo que ha ocurrido antes en el juego, es decir, cada conjunto de informacin es un singleton set. Cualquier
juego sin informacin perfecta tiene informacin imperfecta.
El juego de la izquierda es el mismo que el juego anterior, excepto que el jugador 2 no sabe lo que el jugador 1 hace
cuando viene a jugar. El primer juego descrito tiene informacin perfecta, el juego de la izquierda no lo hace. Si
16 CAPTULO 3. JUEGOS EN FORMA EXTENSIVA

Un juego representado en forma extensiva

ambos jugadores son racionales y ambos saben que ambos jugadores son racionales y todo lo que es conocido por
cualquier jugador es conocido por ser conocido por todos los jugadores (es decir, el jugador 1 sabe que el jugador 2
sabe que el jugador 1 es racional y el jugador 2 sabe, etc ad innitum), jugar en el primer juego ser el siguiente: el
jugador 1 sabe que si juega U, el jugador 2 se juega D '(porque para el jugador 2 es preferible a una ganancia de 0
un pago de 1) y lo que el jugador 1 recibir 2. Sin embargo, si el jugador 1 juega D, el jugador 2 jugar U '(porque al
jugador 2 una rentabilidad del 2 es mejor que un pago de 1), y el jugador 1 recibe 1. Por lo tanto, en el primer juego,
el equilibrio ser (U, D '), ya que el jugador 1 preere recibir 2 a 1 y as se reproducir U y lo que el jugador 2 jugar
D'.
En el segundo juego no est tan claro: el jugador 2 no puede observar movimiento del jugador 1. Jugador 1 quisiera
engaar a jugador 2 en el pensamiento de que ha jugado U cuando en realidad ha jugado D para que el jugador
2 jugar D 'y el jugador 1 recibe 3. De hecho, en el segundo juego hay un equilibrio bayesiano perfecto donde el
jugador 1 juega D y el jugador 2 juega U 'y el jugador 2 tiene la creencia de que el jugador 1 sin duda jugar D. En
este equilibrio, cada estrategia es racional dadas las creencias y todas las creencias son consistentes con las estrategias
jugadas. Observe cmo la imperfeccin de la informacin cambia el resultado del juego.

3.4 Referencias
[1] Hart, Sergiu (1992). Games in extensive and strategic forms. In Aumann, Robert; Hart, Sergiu. Handbook of Game
Theory with Economic Applications 1. Elsevier. ISBN 978-0-444-88098-7.
3.5. BIBLIOGRAFA AMPLIADA 17

Hart, Sergiu; Hart, Sergiu (1992). Games in extensive and strategic forms. En Aumann, Robert. Handbook
of Game Theory with Economic Applications 1. Elsevier. ISBN 978-0-444-88098-7.
Binmore, Kenneth (2007). Playing for real: a text on game theory. Oxford University Press US. ISBN 978-0-19-
530057-4.

Dresher M. (1961). The mathematics of games of strategy: theory and applications (Ch4: Games in extensive
form, pp7478). Rand Corp. ISBN 0-486-64216-X
Fudenberg D and Tirole J. (1991) Game theory (Ch3 Extensive form games, pp67106). Mit press. ISBN
0-262-06141-4
Leyton-Brown, Kevin; Shoham, Yoav (2008), Essentials of Game Theory: A Concise, Multidisciplinary Intro-
duction, San Rafael, CA: Morgan & Claypool Publishers, ISBN 978-1-59829-593-1, http://www.gtessentials.org.
An 88-page mathematical introduction; see Chapters 4 and 5. Free online at many universities.

Luce R.D. and Raia H. (1957). Games and decisions: introduction and critical survey. (Ch3: Extensive and
Normal Forms, pp3955). Wiley New York. ISBN 0-486-65943-7
Osborne MJ and Rubinstein A. 1994. A course in game theory (Ch6 Extensive game with perfect information,
pp. 89115). MIT press. ISBN 0-262-65040-1
Shoham, Yoav; Leyton-Brown, Kevin (2009), Multiagent Systems: Algorithmic, Game-Theoretic, and Logical
Foundations, New York: Cambridge University Press, ISBN 978-0-521-89943-7, http://www.masfoundations.
org. A comprehensive reference from a computational perspective; see Chapter 5. Downloadable free online.

3.5 Bibliografa Ampliada


Horst Herrlich (2006). Axiom of choice. Springer. ISBN 978-3-540-30989-5., 6.1, Disasters in Game Theory
and 7.2 Measurability (The Axiom of Determinateness)", discusses problems in extending the nite-case
denition to innite number of options (or moves)

Neumann, J. (1928). Zur Theorie der Gesellschaftsspiele. Mathematische Annalen 100: 295320. doi:10.
1007/BF01448847.

Harold William Kuhn (2003). Lectures on the theory of games. Princeton University Press. ISBN 978-0-691-
02772-2. contains Kuhns lectures at Princeton from 1952 (ocially unpublished previously, but in circulation
as photocopies)
Captulo 4

Juego simtrico

En teora de juegos, un juego simtrico es un juego donde las recompensas por jugar una estrategia particular depen-
den solamente de las otras estrategias empleadas, no de quin las juegue. Si se pueden intercambiar las identidades
de los jugadores sin cambiar las recompensas, el juego es simtrico. La simetra puede aparecer en diferentes formas.
Los juegos ordinalmente simtricos son juegos simtricos respecto a la estructura ordinal de las recompensas. Un
juego es cuantitativamente simtrico si y slo si es simtrico respecto a las recompensas exactas.

4.1 Simetra en juegos 2x2


Muchos de los juegos 2x2 que se estudian habitualmente son al menos ordinalmente simtricos. Las representaciones
estndar del juego de la gallina, el dilema del prisionero, el juego de la batalla de sexos, la caza del ciervo y el juego
del oso son todos simtricos. Formalmente, para que un juego 2x2 sea simtrico, su matriz de recompensas debe
ajustarse al esquema mostrado a la derecha.
Los requisitos para que un juego sea ordinalmente simtricos son ms dbiles, pues solo es necesario que el orden de
las recompensas se ajuste al esquema de la derecha.

4.2 Simetra y equilibrio


Cheng, et al. (2004) mostraron que todo juego simtrico tiene un equilibrio de Nash de estrategia pura y todo juego
simtrico y nito tiene un equilibrio de Nash de equilibrio simtrico.

4.3 Asimetras incorreladas


Las simetras en este caso se reeren a simetra en las recompensas. Los bilogos a menudo tratan las asimetras en
las recompensas entre jugadores en un juego como asimetras correladas, en contraste con las asimetras incorreladas,
que son puramente informativas y no tienen efecto en las recompensas (por ejmplo, en el juego halcn-paloma).

4.4 Referencias
Shih-Fen Cheng, Daniel M. Reeves, Yevgeniy Vorobeychik and Michael P. Wellman. Notes on Equilibria
in Symmetric Games, International Joint Conference on Autonomous Agents & Multi Agent Systems, 6th
Workshop On Game Theoretic And Decision Theoretic Agents, Nueva York, agosto de 2004.
Juego simtrico en Gametheory.net

18
Captulo 5

Juego de suma cero

En teora de juegos no cooperativos, un juego de suma cero describe una situacin en la que la ganancia o prdida
de un participante se equilibra con exactitud con las prdidas o ganancias de los otros participantes.
Se llama as porque si se suma el total de las ganancias de los participantes y se resta las prdidas totales el resultado
es cero. El go, el ajedrez, el pker y el juego del oso son ejemplos de juegos de suma cero. La suma cero es un caso
especial del caso ms general de suma constante donde los benecios y las prdidas de todos los jugadores suman el
mismo valor, porque se gana exactamente la cantidad que pierde el oponente. Cortar una tarta es de suma constante
o cero porque llevarte un trozo ms grande reduce la cantidad de tarta que le queda a los dems. Situaciones donde
los participantes pueden beneciarse o perder al mismo tiempo, como el intercambio de productos entre una nacin
que produce un exceso de naranjas y otra que produce un exceso de manzanas, en la que ambas se benecian de la
transaccin, se denominan de suma no nula.
El concepto fue desarrollado en la Teora de juegos, por lo que a menudo a las situaciones de suma cero se les llama
juegos de suma cero. Esto no implica que el concepto, o la teora de juegos misma, se aplique nicamente a lo
que normalmente se conoce como juegos. Las estrategias ptimas para juegos de suma cero de dos jugadores suelen
emplear estrategias minimax.
En 1944 John von Neumann y Oskar Morgenstern probaron que cualquier juego de suma cero que involucre a n
jugadores es de hecho una forma generalizada de un juego de suma cero para dos personas, y que cualquier juego de
suma no cero para n jugadores puede reducirse a un juego de suma cero para n + 1 jugadores, donde el jugador (n +
1) representa la ganancia o prdida total (puede pensarse en la banca de ciertos juegos). Esto sugiere que los juegos
de suma cero para dos jugadores forman el ncleo esencial de la teora de juegos.[1]
Tratar a una situacin de suma no nula como una situacin de suma cero, o creer que todas las situaciones son de
suma cero, se denomina falacia de suma cero.
En juegos cooperativos, existe un tipo de juegos ntimamente relacionados con estos, ms comnmente llamados
juegos decisivos o auto-duales.

5.1 La economa y la suma no nula


Las situaciones de suma no nula son una parte importante de la actividad econmica debido a la produccin, utilidad
marginal y subjetividad del valor. La mayora de las situaciones econmicas son de suma no nula, ya que se pueden
crear, destruir, o asignar bienes y servicios valiosos, y cualquiera de stos crear una ganancia o prdida neta.
Si un granjero consigue una cosecha abundante, se benecia al ser capaz de vender una mayor cantidad de comida y
obtener ms dinero. Los consumidores a los que sirven se benecian tambin, ya que hay ms comida en el mercado,
as que el precio de cada unidad sera menor. Otros granjeros que no hayan tenido cosechas tan buenas perdern
algo, pero probablemente sus prdidas sern menores que los benecios que obtienen los dems, de modo que en
general la abundante cosecha ha generado un benecio neto. El mismo argumento se aplica a otros tipos de actividad
productiva.
El comercio es una actividad de suma no nula ya que todas las partes en una transaccin voluntaria creen que su
situacin mejorar tras ella, o si no, no participaran. Es posible que estn equivocados al creer esto, pero la experiencia
sugiere que la gente suele acertar a la hora de juzgar si una transaccin les benecia, y por ello continan realizndolas

19
20 CAPTULO 5. JUEGO DE SUMA CERO

a lo largo de sus vidas. No siempre sucede que todos los participantes se benecien de igual forma. Aun as, un
intercambio es una situacin de suma no nula cada vez que deriva en un benecio neto, sin importar cmo de desigual
sea la distribucin de las ganancias.

5.2 La complejidad y la suma no nula


Algunos autores, como Robert Wright, han teorizado sobre la evolucin de la sociedad hacia formas crecientes de
suma o aditividad no nula a medida que se va haciendo ms compleja, especializada e interdependiente. Bill Clinton,
uno de los que apoyan esta teora sostiene:

Cuanto ms complejas se vuelven las sociedades, y ms complejas son las redes de interdependen-
cia dentro y fuera de los lmites de las comunidades y las naciones, un mayor nmero de gente estar
interesada en encontrar soluciones de suma no nula. Esto es, soluciones ganancia-ganancia en lugar de
soluciones ganancia-prdida... Porque descubrimos que cuanto ms crece nuestra interdependencia, ge-
neralmente prosperamos cuando los dems tambin prosperan
Bill Clinton, entrevista en Wired, diciembre de 2000

5.3 Ejemplo
La matriz de recompensas de un juego es una forma de representacin conveniente. Considrese el ejemplo del juego
de suma cero mostrado a la derecha.
El orden de juego es el siguiente: el primer jugador elige en secreto una de las dos acciones 1 o 2; el segundo jugador;
sin conocer la eleccin del primero, elige en secreto una de las tres acciones A, B o C. Entonces se revelan las
elecciones de cada jugador y el total de puntos se ve afectado de acuerdo a la recompensa por tales elecciones.
Ejemplo: el primer jugador elige 2 y el segundo elige B. Cuando se asignan las recompensas, el primer jugador gana
20 puntos y el segundo pierde 20 puntos.
En este ejemplo los dos jugadores conocen la matriz de recompensas y tratan de maximizar sus puntos, Qu deben
hacer?
El jugador 1 puede razonar de la siguiente forma: con la accin 2, puedo perder 20 puntos y ganar slo 20, mientras
que con la 1 puedo perder slo 10 pero puedo ganar 30, as que 1 parece mucho mejor. Con un razonamiento
similar, 2 elegir C. Si los dos jugadores toman esas elecciones, el primer jugador ganar 20 puntos. Pero qu pasa
si el jugador 2 anticipa el razonamiento de 1, y elige B, para ganar 10 puntos? o si el primer jugador anticipa este
truco y elige 2, para ganar 20 puntos?
John von Neumann tuvo la idea fundamental y sorprendente de que la probabilidad proporciona una forma de salir
de este enredo. En lugar de decidirse por una accin denitiva, los dos jugadores asignan probabilidades a sus ac-
ciones, y entonces usan un dispositivo que, de acuerdo con dichas probabilidades, elige una accin por ellos. Cada
jugador calcula las probabilidades para minimizar el mximo valor esperado de las prdidas independientemente de
la estrategia del oponente; esto lleva a un problema de lgebra lineal con una solucin nica para cada jugador. Este
mtodo minimax puede calcular estrategias ptimas para todos los juegos de dos jugadores y suma cero.
Para el ejemplo de arriba, resulta que el primer jugador debe de elegir 1 con probabilidad 57%, y la accin 2 con
probabilidad 43%, mientras que el segundo debera asignar las probabilidades 0%, 57% y 43% a las tres opciones A,
B y C.
El jugador 1 ganar entonces 2.85 puntos de media por juego.

5.4 Vase tambin


Teora de juegos
Ajedrez (ejemplo de problema de suma cero)
Dilema del prisionero (ejemplo de problema de suma no nula)
5.5. REFERENCIAS 21

Trampa social

Juego decisivo

5.5 Referencias
[1] von Neumann, J.; Morgenstern, O. (1944). Theory of Games and Economic Behavior (en ingls). Princeton University
Press New Jersey.
Captulo 6

Juego cooperativo

En teora de juegos, un juego cooperativo es un juego en el cual dos o ms jugadores no compiten, sino que se
esfuerzan por conseguir el mismo objetivo y por lo tanto ganan o pierden en conjunto. En otras palabras, es un
juego donde grupos de jugadores (coaliciones) pueden tomar comportamientos cooperativos, pues el juego es una
competicin entre coaliciones de jugadores y no entre jugadores individuales. Un ejemplo de juego cooperativo es un
juego de coordinacin, donde los jugadores escogen las estrategias por un proceso de toma de decisiones consensuada.

6.1 Denicin matemtica


Un juego cooperativo est dado por la especicacin de un valor para cada coalicin. Formalmente, un juego coope-
rativo es un par = (N, v) , donde N es un conjunto de jugadores, tambin llamada gran coalicin (en ingls,
grand coalition) y v : 2N R es una funcin caracterstica (donde 2N denota el conjunto potencia de N ) que
asigna a cada coalicin de jugadores un pago o valor. Se asume que v() = 0 . Esta funcin v describe la cantidad de
recompensa colectiva que puede obtener un conjunto de jugadores si se agrupan en una coalicin. Por esta razn, un
juego cooperativo tambin suele llamarse juego de valor (en ingls, value game) o juego de lucro (en ingls, prot
game). Se supone que los jugadores eligen qu coaliciones formar de acuerdo con su estimacin de la manera en que
se dividir el pago entre los miembros de la coalicin.

6.2 Vase tambin


Juego no cooperativo

22
6.3. TEXT AND IMAGE SOURCES, CONTRIBUTORS, AND LICENSES 23

6.3 Text and image sources, contributors, and licenses


6.3.1 Text
Teora de juegos Fuente: http://es.wikipedia.org/wiki/Teor%C3%ADa%20de%20juegos?oldid=81273764 Colaboradores: Haylli, Oblon-
go, ManuelGR, Rtamayo, Rosarino, Dodo, Ascnder, Sms, Elwikipedista, Julian Colina, Tano4595, Barcex, Aracne, Xatufan, Rondador,
Kordas, Skeepa, LeonardoRob0t, Digigalos, Taragui, AlfonsoERomero, Gelo71, JMPerez, Taichi, Emijrp, Rembiapo pohyiete (bot),
Magister Mathematicae, Maltusnet, Orgullobot~eswiki, RobotQuistnix, Platonides, Chobot, Yrbot, BOT-Superzerocool, Wikiwert, BO-
Tijo, Oscarif, YurikBot, Sasquatch21, KnightRider, Guanabot~eswiki, ArielPalazzesi, Kazem, Jos., Maldoror, Smoken Flames, Zana-
qo, Arivera, Rodriguillo, Santiago Prez, Nihilo, Paintman, Juan Marquez, Guish!, CEM-bot, Monzerrat, Tute, Juan de leon, Ignacio
Icke, Retama, Baiji, Karshan, Mcetina, Javadane~eswiki, Ingenioso Hidalgo, Thijs!bot, Roberto Fiadone, Rufasto, Hanjin, MetalMind,
Edu.dg, CommonsDelinker, TXiKiBoT, Sa~eswiki, Humberto, Luisderanchos, Sincro, AlnoktaBOT, Technopat, Belgrano, Libertad y
Saber, Matdrodes, Muro Bot, YonaBot, BotMultichill, SieBot, Loveless, Macarrones, Anual, Gifo182, Prez Poch, Mafores, PipepBot,
Yonseca, Kikobot, Farisori, JackPier, Gallowolf, Alecs.bot, Frei sein, Aipni-Lovrij, Kintaro, Osado, SilvonenBot, Armando-Martin, En-
te X, AVBOT, LucienBOT, Juanjo.it.ab, Diegusjaimes, MelancholieBot, CarsracBot, Luckas-bot, Nallimbot, Ptbotgourou, Miunicornio,
Daniel Feipeler, Nixn, Luis Felipe Schenone, SuperBraulio13, Amnesico29, Faguiar, Raulbajob, Xqbot, Venerock, Jkbw, Igna, Bo-
tarel, Eljavobuenaonda, D'ohBot, TobeBot, KamikazeBot, Foundling, Ivanpares, EmausBot, Vinicius10, Emiduronte, ChuispastonBot,
WikitanvirBot, Palissy, MerlIwBot, Oten~eswiki, Sebrev, MetroBot, HiW-Bot, LlamaAl, Ralgisbot, YFdyh-bot, Tsunderebot, EduLeo,
Addbot, JacobRodrigues, ZgzThecreator, Matiia, Beromawiki y Annimos: 144
Forma normal de un juego Fuente: http://es.wikipedia.org/wiki/Forma%20normal%20de%20un%20juego?oldid=78016265 Colabo-
radores: BOTijo, Oscarif, YurikBot, CEM-bot, Chabacano, Zifra, Pablo hualpa, VolkovBot, Farisori, Leonpolanco, Alecs.bot, Louperi-
bot, Luckas-bot, Jkbw, D'ohBot, MondalorBot, DixonDBot, Manuel Valadez Snchez, Ivanpares, Grillitus, ChuispastonBot, Legobot y
Annimos: 7
Juegos en forma extensiva Fuente: http://es.wikipedia.org/wiki/Juegos%20en%20forma%20extensiva?oldid=80554575 Colaborado-
res: Ivanpares, Grillitus, JackieBot, KLBot2, MetroBot y Invadibot
Juego simtrico Fuente: http://es.wikipedia.org/wiki/Juego%20sim%C3%A9trico?oldid=66164713 Colaboradores: Oscarif, BOTpoli-
cia, CEM-bot, Chabacano, Jugones55, Farisori, Osado, HUBOT, EmausBot, Grillitus, Waka Waka, KLBot2 y Annimos: 4
Juego de suma cero Fuente: http://es.wikipedia.org/wiki/Juego%20de%20suma%20cero?oldid=78025436 Colaboradores: Oblongo,
Aracne, Alfanje, Chobot, Yrbot, Wikiwert, BOTijo, YurikBot, KnightRider, Maldoror, Shant, Chabacano, Thijs!bot, Clementito, Soul-
bot, Xenon chile, Luisderanchos, Dhidalgo, VolkovBot, AlleborgoBot, SieBot, Anual, BOTarate, Farisori, Alecs.bot, Osado, MastiBot,
SpBot, Luckas-bot, Hq3473, Yodigo, SassoBot, D'ohBot, GrouchoBot, EmausBot, Grillitus, WikitanvirBot, Rezabot, MerlIwBot, John-
bot, Makecat-bot, Addbot, JacobRodrigues, Matiia, BenjaBot y Annimos: 11
Juego cooperativo Fuente: http://es.wikipedia.org/wiki/Juego%20cooperativo?oldid=81281636 Colaboradores: SimnK, Txopi, Robot-
Quistnix, Jasampler, Yrbot, Wikiwert, YurikBot, Laura Fiorucci, Jugones55, VolkovBot, Technopat, Muro Bot, Loveless, Farisori, Pixel-
Bot, Alecs.bot, LordT, Hernaldo, Ngrab, Diegusjaimes, Andreasmperu, Luckas-bot, Manuelt15, Jkbw, Rubinbot, D'ohBot, PatruBOT,
EmausBot, WikitanvirBot, MerlIwBot, Addbot, Jarould, Beromawiki y Annimos: 19

6.3.2 Images
Archivo:Centipede_game.png Fuente: http://upload.wikimedia.org/wikipedia/commons/6/68/Centipede_game.png Licencia: CC-BY-
SA-3.0 Colaboradores: ? Artista original: ?
Archivo:Commons-emblem-question_book_orange.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/1/1f/Commons-emblem-question_
book_orange.svg Licencia: CC BY-SA 3.0 Colaboradores: <a href='//commons.wikimedia.org/wiki/File:Commons-emblem-issue.svg'
class='image'><img alt='Commons-emblem-issue.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/25px-Commons-emblem-issue.svg.png' width='25' height='25' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/38px-Commons-emblem-issue.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.svg/
50px-Commons-emblem-issue.svg.png 2x' data-le-width='48' data-le-height='48' /></a> + <a href='//commons.wikimedia.org/wiki/
File:Question_book.svg' class='image'><img alt='Question book.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/25px-Question_book.svg.png' width='25' height='20' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/38px-Question_book.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/50px-Question_
book.svg.png 2x' data-le-width='252' data-le-height='199' /></a> Artista original: GNOME icon artists, Jorge 2701
Archivo:Commons-logo.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/4/4a/Commons-logo.svg Licencia: Public do-
main Colaboradores: This version created by Pumbaa, using a proper partial circle and SVG geometry features. (Former versions used to
be slightly warped.) Artista original: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version,
created by Reidab.
Archivo:Extensive_form_game_1.JPG Fuente: http://upload.wikimedia.org/wikipedia/commons/c/c3/Extensive_form_game_1.JPG
Licencia: CC-BY-SA-3.0 Colaboradores: wiki.en Artista original: User:Treborbassett
Archivo:PD_with_outside_option.png Fuente: http://upload.wikimedia.org/wikipedia/commons/1/10/PD_with_outside_option.png Li-
cencia: CC-BY-SA-3.0 Colaboradores: Trabajo propio Artista original: Kevin Zollman Kzollman 23:01, 3 May 2006 (UTC)
Archivo:Ultmatum_game.png Fuente: http://upload.wikimedia.org/wikipedia/commons/f/fc/Ultmatum_game.png Licencia: CC-BY-
SA-3.0 Colaboradores: Trabajo propio Artista original: Kevin Zollman --Kzollman 00:53, 31 December 2006 (UTC)

6.3.3 Content license


Creative Commons Attribution-Share Alike 3.0
421 - Espacios Normados
ndice general

1 Espacio mtrico 1
1.1 Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Denicin de espacio mtrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Algunas deniciones asociadas a un espacio mtrico . . . . . . . . . . . . . . . . . . . . . 1
1.2 Topologa de un espacio mtrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Sistemas axiomticos alternativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.5 Un anlisis lgico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.6 Espacios metrizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.6.1 Teorema de metrizacin de Urysohn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6.2 Teorema de metrizacin de Nagata-Smirnov (condicin suciente) . . . . . . . . . . . . . 4
1.6.3 Teorema de metrizacin de Nagata-Smirnov (condicin necesaria) . . . . . . . . . . . . . 4
1.6.4 Teorema de metrizacin de Stone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6.5 Teorema de metrizacin de Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6.6 Teorema de metrizacin de espacios completamente separables . . . . . . . . . . . . . . . 4
1.7 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.8 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Espacio vectorial normado 5


2.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.1 De dimensin nita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.2 De dimensin innita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Distancia inducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Espacios vectoriales normados de dimensin nita . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.5 Espacios normados de dimensin innita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.6 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.6.1 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3 Desigualdad de Hlder 7
3.1 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4 Desigualdad de Minkowski 8

i
ii NDICE GENERAL

4.1 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

5 Espacio de Banach 9
5.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
p
5.2.1 Espacios de sucesiones l . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
p
5.2.2 Espacios de funciones L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5.2.3 Otros ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5.3 Relacin con espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5.4 Construcciones en espacios de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.4.1 Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.4.2 Espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.4.3 Derivada de Frchet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.5 Generalizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.6 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.7 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

6 Operador lineal acotado 13


6.1 Propiedades de los operadores acotados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6.2 Jerarqua de operadores acotados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6.2.1 Operadores compactos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6.2.2 Operadores Hilbert-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2.3 Operadores con traza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2.4 Operadores degenerados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.3 Espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6.4.1 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

7 Espacio de Hilbert 16
7.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
7.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
7.2.1 Espacios eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
7.2.2 Espacios de sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
7.2.3 Espacios de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
7.2.4 Espacios de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
7.3 Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
7.4 Operaciones en los espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.4.1 Suma directa y producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.4.2 Complementos y proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.5 Reexividad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.6 Operadores en espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.6.1 Operadores acotados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
NDICE GENERAL iii

7.6.2 Operadores no acotados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20


7.7 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

8 Teorema de HahnBanach 22
8.1 El teorema de Hahn-Banach (forma analtica) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
8.2 Consecuencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
8.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

9 Espacio dual 24
9.1 El espacio dual algebraico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
9.1.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
9.1.2 Traspuesta de una transformacin lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
9.1.3 Los productos bilineales y los espacios duales . . . . . . . . . . . . . . . . . . . . . . . . 25
9.1.4 Inyeccin en el doble-dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
9.2 El espacio dual topolgico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
9.2.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
9.2.2 Otras propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
9.3 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

10 Teorema de categoras de Baire 27


10.1 Enunciado del teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
10.2 Relacin con el axioma de eleccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
10.3 Utilizacin del Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
10.4 Demostracin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
10.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
10.6 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

11 Teorema de la funcin abierta 29


11.1 Anlisis funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
11.2 Anlisis complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

12 Teorema de la grca cerrada 30


12.1 Corolario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

13 Operador cerrado 31
13.1 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 32
13.1.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
13.1.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
13.1.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Captulo 1

Espacio mtrico

En matemtica, un espacio mtrico es un conjunto junto con una funcin distancia (porque cumple con unas pro-
piedades concretas atribuidas a las distancias) denida sobre l, de modo que cualquier par de puntos (o elementos)
del conjunto estn a una cierta distancia asignada por dicha funcin.
En particular, cualquier espacio mtrico ser, adems, un espacio topolgico porque cualquier funcin de distancia
denida sobre un conjunto dado induce una topologa sobre dicho conjunto. Se trata de la topologa inducida por las
bolas abiertas asociadas a la funcin distancia del espacio mtrico.

1.1 Deniciones

1.1.1 Denicin de espacio mtrico


Formalmente, un espacio mtrico es un conjunto M (a cuyos elementos se les denomina puntos) con una funcin
distancia asociada (tambin llamada una mtrica) d : M M R (donde R es el conjunto de los nmeros reales).
Decir d es una distancia sobre M es decir que para todo x , y , z en M , esta funcin debe satisfacer las siguientes
condiciones o propiedades de una distancia:

1. d(x, y) 0 (positividad)
2. d(x, y) = 0 x = y (identidad de los indiscernibles)
3. d(x, y) = d(y, x) (simetra)
4. d(x, z) d(x, y) + d(y, z) (desigualdad triangular).

1.1.2 Algunas deniciones asociadas a un espacio mtrico


Sea (M, d) un espacio mtrico, y sean a M y r R+ {0} un punto de M y un nmero real positivo o cero,
respectivamente:

Se llama bola (abierta) centrada en a y de radio r , al subconjunto de M : {x M |d(x, a) < r} , denotado


usualmente como B(a, r) , o como Br (a) .
Se llama bola cerrada centrada en a y de radio r , al subconjunto de M : {x M |d(x, a) r} , denotado
usualmente como Bc (a, r) o como B(a, r) o tambin como B r (a) .
En anlisis funcional la terminologa puede llevar un poco a confusin, pues a la bola abierta de radio r y centro
a se la suele denotar por U (a, r) o por Ur (a) , mientras -y aqu viene la posible confusin- a la bola cerrada
de centro a y radio r se la denota por B(a, r) o por Br (a) .
Algunos autores utilizan la expresin disco en lugar de bola, as es que se puede hablar en trminos de disco
abierto y disco cerrado. En particular, esta terminologa se utiliza en Variable Compleja, y cuando se considera
la distancia eucldea sobre el conjunto R2 .

1
2 CAPTULO 1. ESPACIO MTRICO

Se llama esfera centrada en a y de radio r , al subconjunto de M : {x M |d(x, a) = r}, denotado usualmente


como S(a, r) , o como Sr (a) .

1.2 Topologa de un espacio mtrico


La distancia d del espacio mtrico induce en M una topologa, y por tanto el espacio es, a su vez, un espacio topolgico
al tomar como subconjuntos abiertos para la topologa a todos los subconjuntos U que cumplen

(u U )( R+ |B(u, ) U )

Esto es a todos los subconjuntos U para los cuales cualquier punto en U es el centro de alguna bola de radio positivo
totalmente incluida en U , o lo que es lo mismo: U no tiene puntos en la frontera; no tiene frontera.
Dicha topologa se denomina topologa inducida por d en M .
Podemos entonces interpretar intuitivamente que un conjunto abierto es entonces una parte que tiene un cierto es-
pesor alrededor de cada uno de sus puntos.
Un subespacio mtrico (E, d) de un espacio mtrico (M, d) es subespacio topolgico del espacio topolgico (M, T )
, donde T es la topologa en M inducida por d . Es decir, E hereda de M la topologa inducida por d .
Un entorno V de un punto a de un espacio mtrico M no es ms que un subconjunto V M de forma que exista un
r > 0 tal que la bola abierta B(a, r) V . El conjunto {B(a, r) : a M, r R, r > 0} es base de la topologa
inducida por d , y tambin es base de entornos de dicha topologa. Como Q es denso en R , resulta entonces que
{B(a, r) : a M, r > 0, r Q} tambin es base de entornos de la topologa inducida por d . En consecuencia,
todo espacio mtrico cumple el Primer Axioma de Numerabilidad.
Todo espacio mtrico es espacio de Hausdor. Adems, al igual que ocurre en espacios pseudomtricos, para los
espacios mtricos son equivalentes las siguientes propiedades: ser espacio de Lindelf, cumplir el Primer Axioma de
Numerabilidad y ser separable.

1.3 Sistemas axiomticos alternativos


La propiedad 1 ( d(x, y) 0 ) se sigue de la 4 y la 5. Algunos autores usan la recta real extendida y admiten que
la distancia tome el valor . Cualquier mtrica tal puede ser reescalada a una mtrica nita (usando d (x, y) =
d(x, y)/(1 + d(x, y)) o d (x, y) = min(1, d(x, y)) ) y los dos conceptos de espacio mtrico son equivalentes en
lo que a topologa se reere. Una mtrica es llamada ultramtrica si satisface la siguiente versin, ms fuerte, de la
desigualdad triangular:

x, y, z M, d(x, z) max(d(x, y), d(y, z))

Si se elimina la propiedad 3, se obtiene un espacio pseudomtrico. Sacando, en cambio, la propiedad 4, se obtiene


un espacio quasimtrico. No obstante, perdindose simetra en este caso, se cambia, usualmente, la propiedad 3 tal
que ambas d(x, y) = 0 y d(y, x) = 0 son necesarias para que x e y se identiquen. Todas las combinaciones de lo
anterior son posibles y referidas por sus nomenclaturas respectivas (por ejemplo como quasi-pseudo-ultramtrico).

1.4 Ejemplos
Sea X un conjunto cualquiera no vaco y denamos d
{
0 si x = y
d(x, y) =
1 si x = y

Entonces d es una mtrica en X, llamada mtrica discreta y (X,d) es espacio mtrico; (X, d) se llama espacio
discreto; ver Anlisis real de Haaser y Sullivan.
1.5. UN ANLISIS LGICO 3

Los nmeros reales con la funcin distancia d(x, y) = |y - x| dada por el valor absoluto, y ms generalmente
n-espacio eucldeo con la distancia euclidiana, son espacios mtricos completos. El sistema de los nmeros
complejos C es un espacio mtrico . C como espacio mtrico es igual a RxR.

Ms generalmente aun, cualquier espacio vectorial normado es un espacio mtrico deniendo d(x, y) = ||y - x||.
Si tal espacio es completo, lo llamamos espacio de Banach.

Si X es un conjunto y M es un espacio mtrico, entonces el conjunto de todas las funciones acotadas f : X ->
M (i.e. aquellas funciones cuya imagen es un subconjunto acotado de M) puede ser convertido en un espacio
mtrico deniendo d(f, g) = supx X d(f(x), g(x)) para cualesquiera funciones acotadas f y g. Si M es completo,
entonces este espacio es completo tambin.

Si X es un espacio topolgico y M es un espacio mtrico, entonces el conjunto de todas las funciones continuas
acotadas de X a M forma un espacio mtrico si denimos la mtrica como antes: d(f, g) = supx X d(f(x),
g(x)) para cualesquiera funciones continuas acotadas f y g. Si M es completo, entonces este espacio es completo
tambin.

Si M es un espacio mtrico, podemos convertir al conjunto K(M) de todos los subconjuntos compactos de M
en un espacio mtrico deniendo distancia de Hausdor d(X, Y) = inf{r: para cada x en X existe un y en Y con
d(x, y) < r y para cada y en Y existe un x en X con d(x, y) < r). En este mtrica, dos elementos estn cerca uno
de otro si cada elemento de un conjunto est cerca de un cierto elemento del otro conjunto. Se puede demostrar
que K(M) es completo si M es completo.

1.5 Un anlisis lgico


El concepto mtrico fundamental es el de funcin corta, los morsmos de la categora mtrica (los isomorsmos,
i.e. aplicaciones bi-cortas, son las isometras), pero su expresin usual usa el orden y la suma en los reales
positivos luego,

1) Es obvio que : | x - |x - y | | = y es lo mismo que x = 0 o y x, luego distancia en los reales positivos da orden
dbil all, orden fuerte (y x ssi ... ) es difcil, pero posible, si se acepta una solucin de |x - y | = y i.e. y = x /
2.

2) | d(y, z) - |d(y, z) - d(f(y), f(z)) | | = d(f(y), f(z)) expresa que f es una funcin corta, sin ninguna referencia
a un orden en los reales positivos.

3) La siguiente equivalencia de la desigualdad triangular

| d(x, y) - d(x, z) | d(y, z)

expresa (sin ninguna referencia a una operacin en los reales positivos, |x - y| es la distancia all) el hecho que d(x,
-) es funcin corta (luego uniforme, luego continua). d: x - > d(x,-) es una isometra.

Reuniendo ambas : | d(y, z) - |d(y, z) - | d(x, y) - d(x, z) | | | = | d(x, y) - d(x, z) | expresa desigualdad triangular
directamente.

un leve cambio : | d(y, z) - |d(z, y) - | d(x, y) - d(x, z) | | | = | d(x, y) - d(x, z) | expresa desigualdad triangular y
simetra (hacer z = x y usar | x - d(y, y)| = x).

1.6 Espacios metrizables


Un espacio topolgico (X, T ) se dice que es metrizable cuando existe una distancia d cuya topologa inducida sea
precisamente la topologa T .
Un problema fundamental en Topologa es determinar si un espacio topolgico dado es o no metrizable. Existen
diversos resultados al respecto.
4 CAPTULO 1. ESPACIO MTRICO

1.6.1 Teorema de metrizacin de Urysohn


Todo espacio topolgico regular que cumpla el Segundo Axioma de Numerabilidad es metrizable.

1.6.2 Teorema de metrizacin de Nagata-Smirnov (condicin suciente)


Todo espacio regular con una base numerable localmente nita es metrizable.

1.6.3 Teorema de metrizacin de Nagata-Smirnov (condicin necesaria)


Todo espacio metrizable tiene una base numerable localmente nita.

1.6.4 Teorema de metrizacin de Stone


Todo espacio metrizable es paracompacto.

1.6.5 Teorema de metrizacin de Smirnov


Un espacio topolgico es metrizable si y solo si es paracompacto y localmente metrizable.

1.6.6 Teorema de metrizacin de espacios completamente separables


Un espacio topolgico completamente separable es metrizable si y solo si es regular.

1.7 Vase tambin


topologa

desigualdad triangular
Lipschitz continua

isometra, contraccin y funcin corta

Recta real extendida


Medida de Lebesgue

Funcin distancia con signo


Intervalo

1.8 Referencias
Athanase Papadopoulos, Metric Spaces, Convexity and Nonpositive Curvature, European Mathematical Society,
2004, SBN 978-3-03719-010-4
Captulo 2

Espacio vectorial normado

En matemtica un espacio vectorial se dice que es normado si en l se puede denir una norma vectorial. Podemos
sealar los siguientes hechos que ayudan a comprender la importancia del concepto de espacio normado:

En un espacio eucldeo, la norma coincide precisamente con la longitud del vector.


Todo espacio vectorial normado es un espacio mtrico con la distancia inducida por la norma.
Si el espacio vectorial es adems completo se dice que es un espacio de Banach.

2.1 Denicin
Un espacio vectorial V sobre un cuerpo K en el que se dene un valor absoluto (generalmente R o C ) se dice que es
normado si en l se puede denir una norma, es decir, una aplicacin . : V R , que verica:

1. No negatividad. Para todo x de V su norma ha de ser positiva, y ser cero si y slo si x es el vector cero:
0 < x si x = 0 y x = 0 x = 0 .
2. Homogeneidad. Para todo x de V y para todo k de K se satisface que kx = |k| x donde | | es el mdulo
o valor absoluto.
3. Desigualdad triangular. Para todos x e y de V se cumple que x + y x + y .

Generalmente se denotar a (V, ||) al espacio vectorial normado y cuando la norma sea clara simplemente por V .

2.2 Ejemplos

2.2.1 De dimensin nita


R
Los espacios eucldeos Rn , estudiados en el anlisis clsico.
Las matrices cuadradas de orden n sobre R : Mn (R)

2.2.2 De dimensin innita


El espacio de Hilbert de funciones de cuadrado integrable sobre un intervalo L2 ([a,b]) con la norma dada por el
producto escalar v=v,v1/2 .
El espacio de funciones continuas f :R sobre un espacio topolgico compacto con la norma del supremo:
v=maxx |v(x)|

5
6 CAPTULO 2. ESPACIO VECTORIAL NORMADO

2.3 Distancia inducida


En todo espacio vectorial normado se puede denir la distancia d : V V R :

d(x, y) := x y

con la cual (V,d) es un espacio mtrico.

2.4 Espacios vectoriales normados de dimensin nita


Se cumplen los siguientes resultados (que generalmente no son ciertos para espacios de dimensin innita):

Todas las normas denidas en el espacio son equivalentes, es decir, denen la misma topologa. La convergencia
o divergencia de una sucesin no depende de la norma escogida. El resultado no es cierto para espacios de
dimensin innita siendo siempre posible encontrar dos normas que no son equivalentes.
El espacio es completo, es decir, es un espacio de Banach. Como consecuencia, todo subespacio de dimensin
nita de un espacio vectorial (no necesariamente de dimensin nita) es cerrado.
Un espacio vectorial normado es de dimensin nita si y slo si la bola unidad es compacta.

Todo funcional lineal es continuo. Si el espacio tiene dimensin innita, existen funcionales lineales no conti-
nuos.

Teorema de Heine-Borel o teorema de Borel-Lebesgue. Un subconjunto del espacio vectorial es compacto si


y solo si es cerrado y acotado.

2.5 Espacios normados de dimensin innita


En anlisis funcional, teora de ecuaciones diferenciales e incluso en mecnica cuntica intervienen espacios normados
de dimensin innita, en especial espacios de Banach y espacios de Hilbert. Ambos tipos de espacios son mtricamente
completos, siendo todo espacio de Hilbert trivialmente tambin un espacio de Banach (al revs slo es cierto si la
norma del espacio de Banach satisface la ley del paralelogramo).
Los espacios de Banach son ampliamente usados para discutir ecuaciones de evolucin que involucran ecuaciones
diferenciales ordinarias (en concreto un problema bien denido est denido sobre un espacio de Banach).

2.6 Referencias

2.6.1 Bibliografa
Iribarren, Ignacio L.: Topologa de espacios mtricos (1973) Editorial Limusa Wiley S.A. , primera edicin ,
impreso en Mxico
Cotlar, Mischa und Cignoli, Roberto: Nociones de espacios normados (1967) Editorial Universitaria de Buenos
aires, impreso en La Argentina.
Captulo 3

Desigualdad de Hlder

En anlisis matemtico la desigualdad de Hlder, llamada as debido a Otto Hlder, es una desigualdad fundamental
entre integrales y una herramienta indispensable para el estudio de los espacios Lp .
Sea (S, , ) un espacio de medida y sea 1 p, q con 1/p + 1/q = 1. Entonces, para toda funcin medible de
valores reales o complejos f y g sobre S, se tiene que

f g1 f p gq .
Los nmeros p y q expresados arriba se dice que son conjugados de Hlder uno del otro. El caso especial p = q = 2
se reduce a la conocida desigualdad de Cauchy-Schwarz.
La desigualdad de Hlder se cumple incluso si ||fg ||1 es innita, siendo para el miembro derecho de la desigualdad
innito en ese caso. En particular, si f est en Lp () y g est en Lq (), entonces fg est en L1 ().
Para 1 < p, q < , f Lp () y g Lq (), la desigualdad de Hlder se convertir en una igualdad si y slo si |f |p y |g
|q son linealmente dependientes en L1 (), lo que signica que existen dos nmeros reales , 0, siendo alguno de
ellos distinto de 0, tales que |f |p = |g |q -casi en todas partes.
La desigualdad de Hlder es usada para demostrar la desigualdad de Minkowski, la cual es una generalizacin de la
desigualdad triangular en el espacio Lp (), y tambin para establecer que Lq () es el espacio dual de Lp () para 1
p < .
La desigualdad de Hlder fue descubierta por primera vez por Rogers (1888), y descubierta independientemente por
Hlder (1889).

3.1 Referencias
Hardy, G.H.; Littlewood, J.E.; Plya, G. (1934), Inequalities, Cambridge University Press, ISBN 0521358809
Hlder, O. (1889), Ueber einen Mittelwerthsatz, Nachrichten von der Knigl. Gesellschaft der Wissenschaften
und der Georg-Augusts-Universitt zu Gttingen Band 1889 (2): 3847, http://www.digizeitschriften.de/index.
php?id=166&ID=468392 (en alemn). Disponible en Digi Zeitschriften.
Kuptsov, L.P. (2001), Hlder inequality, en Hazewinkel, Michiel (en ingls), Encyclopaedia of Mathematics,
Springer, ISBN 978-1556080104
Rogers, L J. (1888), An extension of a certain theorem in inequalities, Messenger of Mathematics 17: 145
150.
Kuttler, Kenneth (2007), An introduction to linear algebra, Online e-book en formato PDF, Brigham Young
University, http://www.math.byu.edu/~{}klkuttle/Linearalgebra.pdf

Lohwater, Arthur (1982), Introduction to Inequalities, Online e-book en formato PDF, http://www.mediafire.
com/?1mw1tkgozzu

7
Captulo 4

Desigualdad de Minkowski

En anlisis matemtico, la desigualdad de Minkowski, debida a Hermann Minkowski, establece que los espacios
Lp son espacios vectoriales con una norma vectorial. Sea S un espacio medible, sea 1 p y sea f y g elementos
de Lp (S). Entonces f + g es de Lp (S), y se tiene

f + gp f p + gp

con la igualdad para el caso1 < p < si y slo si f y g son positivamente linealmente dependientes (que signica que
f = g o g = f para algn 0).
La desigualdad de Minkowski es la desigualdad triangular en Lp (S).
Igual que la desigualdad de Hlder, la desigualdad de Minkowski se puede especicar para sucesiones y vectores
haciendo:

( )1/p ( )1/p ( )1/p



n
n
n
|xk + yk |p |xk |p + |yk |p
k=1 k=1 k=1

para todos los nmeros reales (o complejos) x1 , ..., xn, y1 , ..., yn y donde n es el cardinal de S (el nmero de elementos
de S).

4.1 Referencias
Hardy, G., Littlewood J.E., Polya, G. (1999). Inequalities, Cambridge Mathematical Library, Cambridge Uni-
versity Press. ISBN 0-521-05206-8
H. Minkowski, Geometrie der Zahlen , Chelsea, reprint (1953)

M.I. Voitsekhovskii (2001), Minkowski inequality, in Hazewinkel, Michiel, Encyclopaedia of Mathematics,


Kluwer Academic Publishers, ISBN 978-1-55608-010-4

8
Captulo 5

Espacio de Banach

En matemticas, los espacios de Banach, llamados as en honor de Stefan Banach, son uno de los objetos de estudio
ms importantes en anlisis funcional. Los espacios de Banach son tpicamente espacios de funciones de dimensin
innita.

5.1 Denicin
Un espacio de Banach es un espacio vectorial normado completo. Esto quiere decir que un espacio de Banach es
un espacio vectorial V sobre el cuerpo de los nmeros reales o el de los complejos con una norma |||| tal que toda
sucesin de Cauchy (con respecto a la mtrica d(x, y) = ||x - y||) en V tiene un lmite en V.

5.2 Ejemplos
De aqu en adelante, K designar uno de los cuerpos R o C :

Los conocidos espacios euclidianos Kn , donde la norma euclidiana de x = (x1 , ..., xn) est dada por ||x|| = (
|xi|)1/2 , son espacios de Banach.

El espacio de todas las funciones continuas f :[a,b]K denidas sobre un intervalo compacto (cerrado y acotado)
[a, b] tiene la estructura de espacio de Banach si denimos la norma segn f = sup{|f (x)| : x [a, b]}.
Esta es una norma, gracias al hecho de que las funciones continuas denidas sobre un intervalo cerrado estn
acotadas. Este espacio es completo con esta norma, y el espacio de Banach resultante se denota por C[a, b].
Este ejemplo se puede generalizar al espacio C(X) de todas las funciones continuas X K, donde X es un
espacio compacto, o al espacio de todas las funciones continuas acotadas X K, donde X es cualquier espacio
topolgico, y an al espacio B(X) de todas las funciones acotadas X K, donde X es cualquier conjunto. En
todos estos ejemplos podemos multiplicar funciones y quedar en el mismo espacio: todos estos espacios son,
de hecho, lgebras de Banach unitarias.

5.2.1 Espacios de sucesiones lp

Si p 1 es un nmero real, podemos considerar el espacio de todas las sucesiones innitas (x1 , x2 , x3 , ...) de elementos
en K tales que la serie innita |xi|p es nita. Entonces se dene la norma-p de la sucesin como la raz p-sima del
valor de la serie. Este espacio, junto a su norma, es un espacio de Banach; se denota por lp :


p (K) := {(x1 , x2 , . . . , ) K | i=1 |xi |p < }

El espacio de Banach l consiste en todas las sucesiones acotadas de elementos en K; la norma de una de estas
sucesiones se dene como el supremo de los valores absolutos de los miembros de la sucesin.

9
10 CAPTULO 5. ESPACIO DE BANACH

5.2.2 Espacios de funciones Lp


De nuevo, si p 1 es un nmero real, podemos considerar a todas las funciones f :Rn R tales que | f |p es Lebesgue-
integrable, es decir el conjunto

Fp () = {f : Rn |
|f (x)|p dx < }

Se dene la norma de f como la raz p-sima de esta integral. Por s mismo, este espacio no es un espacio de Banach
porque existen funciones no nulas cuya norma es cero. Denimos una relacin de equivalencia como sigue:

f g
|f g|p dn x = 0

Es decir, f y g son equivalentes si y solo si la semi-norma de f - g es cero. El conjunto de las clases de equivalencia
obtiene entonces la estructura de espacio de Banach y es denotado por Lp () :

Lp () = Fp ()/

Es crucial usar la integral de Lebesgue en lugar de la integral de Riemann en este caso, porque la integral de Riemann
no dara un espacio completo. Estos ejemplos se pueden generalizar: ver espacios L p para ms detalles.

5.2.3 Otros ejemplos


Si X e Y son dos espacios de Banach, entonces podemos formar su suma directa X Y, que es un espacio
de Banach tambin. Esta construccin se puede generalizar para la suma directa de una cantidad arbitraria de
espacios de Banach.

Si M es un subespacio vectorial cerrado de un espacio de Banach X, entonces el espacio cociente X/M es un


espacio de Banach tambin.

Finalmente, todo espacio de Hilbert es un espacio de Banach. El recproco no es cierto.

5.3 Relacin con espacios de Hilbert


Como se menciona anteriormente, cada espacio de Hilbert es un espacio de Banach porque, por denicin, un espacio
de Hilbert es completo con respecto a la norma asociada a su producto interior.
No todos los espacios de Banach son espacios de Hilbert. Una condicin necesaria y suciente para que un espacio
de Banach sea tambin un espacio de Hilbert es la identidad del paralelogramo:

u + v2 + u v2 = 2(u2 + v2 )

para todo u y v en nuestro espacio de Banach V, y donde ||*|| es la norma sobre V.


Si la norma de un espacio de Banach satisface esta identidad, entonces el espacio es un espacio de Hilbert, con el
producto interior dado por la identidad de polarizacin. Si V es un espacio de Banach real entonces la identidad de
polarizacin es

1
(u, v) = (u + v2 u v2 )
4
y en el caso que V sea un espacio de Banach complejo la identidad de polarizacin est dada por

1
(u, v) = (u + v2 u v2 + i(u + iv2 u iv2 ))
4
5.4. CONSTRUCCIONES EN ESPACIOS DE BANACH 11

Para demostrar que la identidad del paralelogramo implica que la forma denida por la identidad de polarizacin
es verdaderamente un producto interior, uno verica algebraicamente que esta forma es aditiva, de donde, se sigue
por induccin que la forma es lineal sobre los enteros y racionales. Entonces, como todo real es lmite de alguna
sucesin de Cauchy de racionales, la completitud de la norma extiende la linealidad sobre toda la recta real. En el
caso complejo uno puede probar tambin que la forma bilineal es lineal sobre i en un argumento, y conjugada lineal
en el otro.

5.4 Construcciones en espacios de Banach

5.4.1 Operadores lineales

Si V y W son espacios de Banach sobre el mismo cuerpo K, el conjunto de todas las transformaciones lineales
continuas A : V W se denota por L(V, W). Es de notar que en espacios de innitas dimensiones no todas las
funciones lineales son automticamente continuas. L(V, W) es un espacio vectorial, y deniendo la norma ||A|| = sup
{ ||Ax|| : x en V con ||x|| 1 } se transforma en un espacio de Banach.
El espacio L(V) = L(V, V) forma un lgebra de Banach unitaria, donde la operacin de multiplicacin est dada por
la composicin de funciones lineales.

5.4.2 Espacio dual

Si V es un espacio de Banach y K es el cuerpo subyacente (el de los nmeros reales, o bien, el de los nmeros
complejos), entonces K es un espacio de Banach (usando el valor absoluto como norma) y podemos denir al espacio
dual V por V = L(V, K). Este es, de nuevo, un espacio de Banach. Se puede usar para denir una nueva topologa
para V: la topologa dbil.
Existe un mapeo natural F de V a V'' denido por: F(x)(f) = f(x) para todo x en V y f en V'. como consecuencia del
teorema de Hahn-Banach, este mapeo es inyectivo; si llegara a ser sobreyectivo, entonces el espacio de Banach V se
dice reexivo. Los espacios reexivos tienen muchas propiedades geomtricas importantes. Un espacio es reexivo
si y solo si su espacio dual es reexivo, lo que ocurre si y solo si su bola unitaria es compacta en la topologa dbil.
Por ejemplo, lp es reexivo para 1<p< pero l y l no son reexivos. El dual de lp es lq donde p y q estn relacionados
por la frmula (1/p) + (1/q) = 1. Ver espacios L p para ms detalles.

5.4.3 Derivada de Frchet

Dada una aplicacin (no necesariamente lineal) f : V W entre dos espacios de Banach es posible denir la derivada
de esta funcin generalizando el caso de Rn . Intuitivamente, si x es un elemento de V, la derivada de f en el punto
x es una forma lineal continua que aproxima f cerca de x. Formalmente, se dice que f es diferenciable en x si existe
una forma lineal continua A : V W tal que

f (x+h)f (x)A(h)
limh0 h = 0.

El lmite aqu se toma sobre todas las sucesiones de elementos no nulos de V que converjan al nulo de V. Si el lmite
existe, escribimos Df(x) = A y le llamamos la derivada de f en x.
Esta nocin de derivada es una generalizacin de la derivada ordinaria de funciones R R, pues las funciones lineales
de R a R son las multiplicaciones por nmeros reales.
Si f es diferenciable en todos los puntos x de V, entonces Df : V L(V, W) es otra funcin entre espacios de Banach
(que no es, en general, lineal), que posiblemente, se puede diferenciar de nuevo, deniendo as derivadas ms altas
de f. La n-sima derivada en un punto x se puede ver como una funcin multilineal Vn W.
La diferenciacin es una operacin lineal en el siguiente sentido: si f y g son dos funciones V W que son dife-
renciables en x, y r y s son escalares de K, entonces rf + sg es diferenciable en x con D(rf + sg)(x) = rD(f)(x) +
sD(g)(x).
12 CAPTULO 5. ESPACIO DE BANACH

La regla de la cadena es tambin vlida en este contexto: si f : V W es diferenciable en x que pertenece a V, y


g : W X es diferenciable en f(x), entonces la funcin compuesta g o f es diferenciable en x ya la derivada es la
composicin de las derivadas:

D(g f )(x) = D(g)(f (x)) D(f )(x).

5.5 Generalizaciones
Muchos espacios importantes en anlisis funcional, por ejemplo el espacio de todas las funciones innitamente di-
ferenciables de R en R o el espacio de todas las distribuciones sobre R son espacios vectoriales completos, pero no
normados, no siendo espacios de Banach entonces. En los espacios de Frchet an se tiene una mtrica completa,
mientras que los espacios LF son espacios vectoriales uniformes que surgen como lmites de espacios de Frchet.

5.6 Vase tambin


Espacio (Matemticas)

5.7 Enlaces externos


Weisstein, Eric W. Banach Space. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.
Banach Space en PlanetMath
Captulo 6

Operador lineal acotado

Un operador lineal acotado u operador acotado es una aplicacin lineal denida sobre un espacio vectorial normado
tal que la norma de sus valores puede acotarse. Ms precisamente, la aplicacin lineal B : X Y es un operador
acotado si y slo s:

K R : maxv=1 B(v) K

6.1 Propiedades de los operadores acotados


En un espacio vectorial normado de dimensin nita todo operador lineal es acotado. Por lo que el concepto de
operador acotado slo resulta interesante y no trivial en espacios de dimensin no nita como los que aparecen
en el anlisis funcional o la mecnica cuntica.
Un operador acotado (en un espacio de Banach) es una funcin continua entre espacios vectoriales. Trivialmente
todas las aplicaciones lineales entre espacios vectoriales de dimensin nita son continuas, sin embargo, esto
ltimo no es cierto para espacios de dimensin innita.
El espectro de un operador acotado es un conjunto acotado.

6.2 Jerarqua de operadores acotados


Existen diversos subtipos de operadores acotados, segn se impongan criterios ms restrictivos sobre sus propiedades.
En particular en espacios de dimensin innita puede establecerse la siguiente secuencia de inclusiones propias:[1]

acotado compacto Hilbert-Schmidt Operador con traza degenerado

En dimensin nita si un operador es acotado pertenece a la clase de operadores acotados entonces tambin pertenece
a cualquiera de las otras clases de arriba, por lo que la cadena anterior es trivial.
En lo que sigue consideraremos slo espacios de Banach o de Hilbert.

6.2.1 Operadores compactos


Un operador A se llama compacto o absolutamente continuo si para toda sucesin acotada la imagen de dicha
sucesin contiene una subsucesin convergente. Es decir:
( )
{j }
j=1 : maxj j C ({jk }k=1 : Ajk converge)

Obsrvese que un operador compacto necesariamente es acotado. Si un operador no fuera acotado podramos encon-
trar una secuencia acotada que diverge en norma Aj y por tanto sera imposible encontrar una subsecuencia
convergente, y por tanto tampoco podra ser compacto.

13
14 CAPTULO 6. OPERADOR LINEAL ACOTADO

6.2.2 Operadores Hilbert-Schmidt


Un operador de HilbertSchmidt (llamados as por David Hilbert y Erhard Schmidt) es un operador acotado A
sobre un espacio de Hilbert H cuya norma de HilbertSchmidt es nita, es decir:[2]

A2HS = Tr|A|2 := n0 Aen 2

donde

es la norma del espacio H


{en : n = 0, 1, 2, ...} es una base de Hilbert ortonormal para H

Esta denicin resulta independiente de la eleccin de la base y por tanto:



A2HS = m,n0 |Am,n |2 = A22

para Am,n =em ,Aen y A2 la norma de Schatten de A . En el espacio eucldeo HS se llama tambin norma de
Frobenius.
El producto de dos operadores de HilbertSchmidt tiene una norma de traza nita; por tanto si A y B son dos opera-
dores de Hilbert-Schmidt, se puede denir el producto interno de HilbertSchmidt entre ellos como:

A, BHS = tr(A B) = n0 Aen , Ben .

Los operadores de HilbertSchmidt forman un ideal bilateral *-ideal en el lgebra de Banach formada por los ope-
radores acotados de H. Los operadores de HilbertSchmidt son cerrados en la norma topolgica si y slo si H es
de dimensin nita. Los operadores de Hilbert-Schmidt de un espacio, tambin forman ellos mismos un espacio de
Hilbert y puede demostrarse que existe una transformacin naturalmete isomtrica e isomorfa entre ese espacio y el
producto tensorial de espacios de Hilbert:

H H,

donde H* es el espacio dual topolgico de H.

6.2.3 Operadores con traza


Un operador lineal acotado A denido sobre un espacio de Hilbert separable H se llama de clase traza o de traza
nita si para alguna base ortonormal {ek}k de H la suma de trminos positivos:

A1 = tr |A| := k (A A)
1/2
ek , e k

es nita. En ese caso la suma:



tr A := k Aek , ek

es absolutamente convergente y es independiente de la eleccin de la base ortonormal. Este valor se denomina traza
de A.

6.2.4 Operadores degenerados

6.3 Espectro
El espectro de un operador acotado tiene las siguientes propiedades bsicas:
6.4. REFERENCIAS 15

El espectro (B) de un operador B es siempre un conjunto no vaco. Esto se sigue del teorema de Liouville
aplicado a la funcin compleja f () := (w, (A )1 v) .
El espectro es un conjunto acotado es un conjunto compacto lo cual se sigue de la expansin en serie de
Neumann en . Es ms el espectro (B) est acotado superiormente por ||B||, es decir, un disco cerrado centrado
en el origen y radio ||B|| contiene todos los valores de (B).

Adems puede verse que el espectro (B) es un conjunto cerrado, y al ser un subconjunto del plano complejo
que es cerrado y acotado, se sigue que es tambin un conjunto compacto, por el teorema de Heine-Borel.

La cota superior ||B|| para el radio de la bola centrada que contiene al espectro puede mejorarse, de hecho se
dene el radio espectral como el nmo de dicho radio es decir:

r (B) = sup{|| : (B)}

La frmula del radio espectral para un operador B dice que:

r (B) = limn B n 1/n

Si B es un operador compacto, entonces puede probarse cualquier valor no nulo del espectro pertenece al
espectro puntual, siendo 0 el nico posible valor fuera del espectro no puntual.
Si T es un operador normal en un espacio de Hilbert, entonces un teorema muy notable, conocido como teorema
espectral, asegura que el espectro residual es vaco.

Adems para un operador acotado en un espacio de Hilbert es posible denir siempre su operador adjunto.
Dadas las slimaridades de la aplicacin A A con la conjugacin compleja, no es de extraar que exista una
relacin estrecha entre el espectro de A y el de su adjunto. As si A es un operador acotado se tiene que:[3]

(A )
(A)
p (A ) r (A )
p (A)
p (A )
r (A)
c (A )
c (A)

6.4 Referencias
[1] Ritchmyer, p 241.

[2] Moslehian, M.S. Hilbert-Schmidt Operator (From MathWorld).

[3] L. Abellanas y A. Galindo, 1991, p. 219

6.4.1 Bibliografa
Robert D. Richmyer, Principles of advanced mathematical physics, Springer-Verlag, New York, 1978.
Lorenzo Abellanas y Alberto Galindo, Espacios de Hilbert: Geometra, Operadores, Espectros, Eudema, Madrid,
1991.
Captulo 7

Espacio de Hilbert

En matemticas, el concepto de espacio de Hilbert es una generalizacin del concepto de espacio eucldeo. Esta
generalizacin permite que nociones y tcnicas algebraicas y geomtricas aplicables a espacios de dimensin dos y
tres se extiendan a espacios de dimensin arbitraria, incluyendo a espacios de dimensin innita. Ejemplos de tales
nociones y tcnicas son la de ngulo entre vectores, ortogonalidad de vectores, el teorema de Pitgoras, proyeccin
ortogonal, distancia entre vectores y convergencia de una sucesin. El nombre dado a estos espacios es en honor al
matemtico David Hilbert quien los utiliz en su estudio de las ecuaciones integrales.
Ms formalmente, se dene como un espacio de producto interior que es completo con respecto a la norma vectorial
denida por el producto interior. Los espacios de Hilbert sirven para claricar y para generalizar el concepto de series
de Fourier, ciertas transformaciones lineales tales como la transformacin de Fourier, y son de importancia crucial
en la formulacin matemtica de la mecnica cuntica.
Los espacios de Hilbert y sus propiedades se estudian dentro del anlisis funcional.

7.1 Introduccin
Como se explica en el artculo dedicado a los espacios de producto interior, cada producto interior <.,.> en un espacio
vectorial H, que puede ser real o complejo, da lugar a una norma ||.|| que se dene como sigue:


x = x, x

H es un espacio de Hilbert si es completo con respecto a esta norma. Completo en este contexto signica que
cualquier sucesin de Cauchy de elementos del espacio converge a un elemento en el espacio, en el sentido que
la norma de las diferencias tiende a cero. Cada espacio de Hilbert es as tambin un espacio de Banach (pero no
viceversa).
Todos los espacios nito-dimensionales con producto interior (tales como el espacio eucldeo con el producto escalar
ordinario) son espacios de Hilbert. Esto permite que podamos extrapolar nociones desde los espacios de dimensin
nita a los espacios de Hilbert de dimensin innita (por ejemplo los espacios de funciones). Sin embargo, los ejemplos
innito-dimensionales tienen muchos ms usos. Estos usos incluyen:

La teora de las representaciones del grupo unitarias.

La teora de procesos estocsticos cuadrado integrables.

La teora en espacios de Hilbert de ecuaciones diferenciales parciales, en particular formulaciones del problema
de Dirichlet.

Anlisis espectral de funciones, incluyendo teoras de wavelets.

Formulaciones matemticas de la mecnica cuntica.

16
7.2. EJEMPLOS 17

El producto interior permite que uno adopte una visin geomtrica y que utilice el lenguaje geomtrico familiar de
los espacios de dimensin nita. De todos los espacios vectoriales topolgicos innito-dimensionales, los espacios de
Hilbert son los de mejor comportamiento y los ms cercanos a los espacios nito-dimensionales.
Los elementos de un espacio de Hilbert abstracto a veces se llaman vectores. En las aplicaciones, son tpicamente
sucesiones de nmeros complejos o de funciones. En mecnica cuntica por ejemplo, un conjunto fsico es descrito
por un espacio complejo de Hilbert que contenga las "funciones de ondas" para los estados posibles del conjunto.
Vase formulacin matemtica de la mecnica cuntica.
Una de las metas del anlisis de Fourier es facilitar un mtodo para escribir una funcin dada como la suma (posi-
blemente innita) de mltiplos de funciones bajas dadas. Este problema se puede estudiar de manera abstracta en
los espacios de Hilbert: cada espacio de Hilbert tiene una base ortonormal, y cada elemento del espacio de Hilbert se
puede escribir en una manera nica como suma de mltiplos de estos elementos bajos.
Los espacios de Hilbert fueron nombrados as por David Hilbert, que los estudi en el contexto de las ecuaciones
integrales. El origen de la designacin, aunque es confuso, fue utilizado ya por Hermann Weyl en su famoso libro la
teora de grupos y la mecnica cuntica publicado en 1931. John von Neumann fue quizs el matemtico que ms
claramente reconoci su importancia.

7.2 Ejemplos
En los siguientes ejemplos, asumiremos que el cuerpo subyacente de escalares es C , aunque las deniciones son
similares al caso de que el cuerpo subyacente de escalares sea R .

7.2.1 Espacios eucldeos

El primer ejemplo, que ya haba sido avanzado en la seccin anterior, lo constituyen los espacios de dimensin nita
con el producto escalar ordinario.
En otras palabras, C n con la denicin de producto interior siguiente:

n
x, y = k=1 xk yk

donde la barra sobre un nmero complejo denota su conjugacin compleja.

7.2.2 Espacios de sucesiones

Sin embargo, mucho ms tpico es el espacio de Hilbert innito dimensional.


Si B es un conjunto, denimos 2 (B) sobre B, de la forma:

{ }
2
2 (B) = x : B C : bB |x (b)| <

Este espacio se convierte en un espacio de Hilbert con el producto interior


x, y = bB x(b)y(b)

para todo x e y en 2 (B) .


B no tiene por que ser un conjunto contable en esta denicin, aunque si B no es contable, el espacio de Hilbert que
resulta no es separable.
Expresado de manera ms concreta, cada espacio de Hilbert es isomorfo a uno de la forma 2 (B) para un conjunto
adecuado B. Si B = N, se escribe simplemente 2 .
18 CAPTULO 7. ESPACIO DE HILBERT

7.2.3 Espacios de Lebesgue

stos son espacios funcionales asociados a espacios de medida (X, M, ), donde M es una -lgebra de subconjun-
tos de X y es una medida contablemente aditiva en M. Sea L (X) el espacio de funciones medibles cuadrado-
integrables complejo-valoradas en X, mdulo el subespacio de esas funciones cuya integral cuadrtica sea cero, o
equivalentemente igual a cero casi por todas partes. cuadrado integrable signica que la integral del cuadrado de su
valor absoluto es nita. mdulo igualdad casi por todas partes signica que las funciones son identicadas si y slo si
son iguales salvo un conjunto de medida 0.
El producto interior de las funciones f y g se da como:


f, g = X
f (t)g(t) d(t)

Uno necesita demostrar:

Que esta integral tiene de hecho sentido.

Que el espacio que resulta es completo.

stos son hechos tcnicamente fciles. Obsrvese que al usar la integral de Lebesgue se asegura de que el espacio sea
completo. Vea espacios Lp para discusin adicional de este ejemplo.

7.2.4 Espacios de Sobolev

Los espacios de Sobolev, denotados por W m,p () son otro ejemplo de espacios de Hilbert, que se utilizan muy a
menudo en el marco de las ecuaciones en derivadas parciales denidas sobre un cierto dominio . Los espacios de
Sobolev generalizan los espacios Lp .
Adems de los espacios de Sobolev generales W m,p se usan ciertas notaciones particulares para cierto tipo de espa-
cios:

H m () = W m,2 ()

H0m () = {f H m ()| f | = 0}

7.3 Bases ortonormales


Un concepto importante es el de una base ortonormal de un espacio de Hilbert H: esta es una familia {ek}k B de
H 'satisfaciendo:

Los elementos estn normalizados: Cada elemento de la familia tiene norma 1: ||ek|| = 1 para todo k en B

Los elementos son ortogonales: Dos elementos cualesquiera de B son ortogonales, esto quiere decir: <ek, ej>
= 0 para todos los k, j en B cumpliendo la condicin j k.

Expansin densa: La expansin lineal de B es densa en H.

Tambin utilizamos las expresiones secuencia ortonormal y conjunto ortonormal. Los ejemplos de bases ortonormales
incluyen:

El conjunto {(1,0,0),(0,1,0),(0,0,1)} forma una base ortonormal de R

La secuencia {fn: n Z} con fn(x) = exp(2inx) forma una base ortonormal del espacio complejo L([0, 1])

La familia {eb: b B} con eb(c) = 1 si b = c y 0 en caso contrario, forma una base ortonormal de l(B).
7.4. OPERACIONES EN LOS ESPACIOS DE HILBERT 19

Obsrvese que en el caso innito-dimensional, una base ortonormal no ser una base en el sentido del lgebra lineal;
para distinguir los dos, la ltima base se llama una base de Hamel.
Usando el lema de Zorn, se puede demostrar que cada espacio de Hilbert admite una base ortonormal; adems,
cualesquiera dos bases ortonormales del mismo espacio tienen el mismo cardinal. Un espacio de Hilbert es separable
si y solamente si admite una base ortonormal numerable.
Puesto que todos los espacios separables innito-dimensionales de Hilbert son isomorfos, y puesto que casi todos
los espacios de Hilbert usados en la fsica son separables, cuando los fsicos hablan de espacio de Hilbert quieren
signicar el separable.
Si {ek}k B es una base ortonormal de H, entonces cada elemento x de H se puede escribir como:

x= kB ek , xek

Incluso si B no es numerable, slo contablemente muchos trminos en esta suma sern diferentes a cero, y la expresin
est por lo tanto bien denida. Esta suma tambin se llama la expansin de Fourier de x.
Si {ek}k B es una base ortonormal de H, entonces H es isomorfo a l(B) en el sentido siguiente: existe una funcin
lineal biyectiva : H l(B) tal que

(x) , (y) = x, y

para todo x y y en H.

7.4 Operaciones en los espacios de Hilbert

7.4.1 Suma directa y producto tensorial


Dado dos (o ms) espacios de Hilbert, podemos combinarlos en un espacio ms grande de Hilbert tomando su suma
directa o su producto tensorial. La primera construccin se basa en la unin de conjuntos y la segunda en el producto
cartesiano.
La suma directa requiere que H1 H2 = {0} , y es el mnimo espacio de Hilbert que contiene a la unin de los
dos conjuntos:

H1 H2 , H1 H2 , dim(H1 H2 ) = dim(H1 ) + dim(H2 )

Mientras que el producto tensorial es el mnimo espacio de Hilbert que contiene al producto castesiano:

H1 H2 , H1 H2 , dim(H1 H2 ) = dim(H1 ) dim(H2 )

7.4.2 Complementos y proyecciones ortogonales


Si S es un subconjunto del espacio de Hilbert H, denimos el conjunto de vectores ortogonales a S

S = {x H : x, s = 0 s S}

S es un subespacio cerrado de H y forma, por tanto, un espacio de Hilbert. Si V es un subespacio cerrado de H,


entonces el V se llama el complemento ortogonal de V. De hecho, cada x en H puede entonces escribirse unvoca-
mente como x = v + w con v en V y w en V . Por lo tanto, H es la suma directa interna de Hilbert de Vy V . El
operador lineal PV : H H que mapea x a v se llama la proyeccin ortogonal sobre V.
Teorema. La proyeccin ortogonal PV es un operador lineal auto-adjunto en H con norma 1 con la propiedad PV
= PV. Por otra parte, cualquier operador lineal E auto-adjunto tal que E = E es de la forma PV, donde V es el rango
de E. Para cada x en H, PV(x) es el elemento nico v en V que minimiza la distancia ||x - v||.
Esto proporciona la interpretacin geomtrica de PV(x): es la mejor aproximacin a x por un elemento de V.
20 CAPTULO 7. ESPACIO DE HILBERT

7.5 Reexividad
Una propiedad importante de cualquier espacio de Hilbert es su reexividad, es decir, su espacio bidual (dual del dual)
es isomorfo al propio espacio. De hecho, se tiene todava ms, el propio espacio dual es isomorfo al espacio original.
Se tiene una descripcin completa y conveniente del espacio dual (el espacio de todas las funciones lineales continuas
del espacio H en el cuerpo base), que es en s mismo un espacio de Hilbert. De hecho, el teorema de representacin
de Riesz establece que para cada elemento del H ' dual existe un y solamente un u en H tal que

(x) = u, x

para todo x en H y la asociacin u proporciona un isomorsmo antilineal entre H y H '. Esta correspondencia
es explotada por la notacin bra-ket popular en la fsica pero que hace fruncir el ceo a los matemticos.

7.6 Operadores en espacios de Hilbert

7.6.1 Operadores acotados


Para un espacio H de Hilbert, los operadores lineales continuos A: H H son de inters particular. Un tal operador
continuo es acotado en el sentido que mapea conjuntos acotados a conjuntos acotados. Esto permite denir su norma
como

A = sup { Ax : x 1 } .

La suma y la composicin de dos operadores lineales continuos son a su vez continuos y lineales. Para y en H, la
funcin que enva x a <y, Ax> es lineal y continua, y segn el teorema de representacin de Riesz se puede por lo
tanto representar en la forma

A y, x = y, Ax.

Esto dene otro operador lineal continuo A* : H H, el adjunto de A.


El conjunto L(H) de todos los operadores lineales continuos en H, junto con la adicin y las operaciones de compo-
sicin, la norma y la operacin adjunto, formas una C* -lgebra; de hecho, ste es el origen de la motivacin y el ms
importante ejemplo de una C* -lgebra.
Un elemento A en L(H) se llama auto-adjunto o hermitiano si A* = A. Estos operadores comparten muchas propie-
dades de los nmeros reales y se ven a veces como generalizaciones de ellos.
Un elemento U de L(H) se llama unitario si U es inversible y su inverso viene dado por U * . Esto puede tambin ser
expresado requiriendo que <Ux, Uy> = <x, y> para todos los x, y en H. Los operadores unitarios forman un grupo
bajo composicin, que se puede ver como el grupo de automorsmos de H.

7.6.2 Operadores no acotados


En mecnica cuntica, uno tambin considera operadores lineales, que no necesariamente son continuos y que no
necesariamente estn denidos en todo espacio H. Uno requiere solamente que se denan en un subespacio denso de
H. Es posible denir a operadores no acotados auto-adjuntos, y stos desempean el papel de los observables en la
formulacin matemtica de la mecnica cuntica.
Ejemplos de operadores no acotados auto-adjuntos en el espacio de Hilbert L(R) son:

Una extensin conveniente del operador diferencial

[Af ](x) = i dx
d
f (x),

donde i es la unidad imaginaria y f es una funcin diferenciable de soporte compacto.


7.7. REFERENCIAS 21

El operador de multiplicacin por x:

[Bf ](x) = xf (x).

stos corresponden a los observables de momento y posicin, respectivamente, expresados en unidades atmicas.
Observe que ni A ni B se denen en todo H, puesto que en el caso de A la derivada no necesita existir, y en el caso de
B la funcin del producto no necesita ser cuadrado-integrable. En ambos casos, el conjunto de argumentos posibles
forman subespacios densos de L(R).

7.7 Referencias
Dieudonne, Jean Alexandre (1966). Fundamentos de anlisis moderno. Barcelona: Revert. ISBN 9788429150605.
Captulo 8

Teorema de HahnBanach

En matemticas, el teorema de HahnBanach es una herramienta importante en anlisis funcional. Permite extender
cualquier operador lineal acotado denido en un subespacio vectorial al espacio vectorial que lo contiene. Debe su
nombre a Hans Hahn y Stefan Banach quienes probaron este teorema independientemente en la dcada de 1920.
El teorema aparece en la literatura en formas diversas, tanto analticas como geomtricas.

8.1 El teorema de Hahn-Banach (forma analtica)


Un funcional sublineal en un espacio vectorial V sobre un cuerpo K (que puede ser los nmeros reales R o complejos
C ) es una funcin p:V R que verica:

p(ax + by) |a|p(x) + |b|p(y) x, y V a, b K.


Ejemplos de funcionales sublineales son cualquier norma vectorial y seminorma.
Entonces la forma analtica del teorema de HahnBanach establece que si p:V K es un funcional sublineal, y f :SK
es un funcional lineal denido en un subespacio vectorial S de V que est acotado por p sobre S i.e.

|f (x)| p(x) x S

entonces existe una extensin lineal f : V K de f a todo el espacio V i.e. existe un funcional lineal f tal que

f(x) = f (x) x S
y

|f(x)| p(x) x V.

La extensin f no es en general nica y la demostracin, que utiliza el lema de Zorn, no da ningn mtodo para
encontrar f .

8.2 Consecuencias
El teorema tiene numerosas consecuencias, que a veces se llaman tambin teorema de Hahn-Banach":

Hahn-Banach para espacios normados. Cualquier funcional lineal continuo f denido en un subespacio de
un espacio vectorial normado tiene una extensin continua f a todo el espacio tal que el funcional y su extensin
tienen la misma norma.

22
8.3. REFERENCIAS 23

Hahn-Banach (primera forma geomtrica). Sean A y B dos subconjuntos convexos, no vacos y disjuntos
de un espacio vectorial normado sobre R , siendo al menos uno de los dos subconjuntos abierto. Entonces existe
un hiperplano cerrado que separa A y B en sentido amplio.

Hahn-Banach (segunda forma geomtrica). Sean A y B dos subconjuntos convexos, no vacos y disjuntos de
un espacio vectorial normado sobre R , siendo al menos uno de los dos subconjuntos cerrado y el otro compacto.
Entonces existe un hiperplano cerrado que separa A y B en sentido estricto.

8.3 Referencias
Brzis, Ham (1984). Anlisis funcional: Teora y aplicaciones. Alianza Editorial.
Captulo 9

Espacio dual

En matemticas, la existencia de un espacio vectorial 'dual' reeja de una manera abstracta la relacin entre los vectores
la (1n) y los vectores columna (n1) de una matriz. La construccin puede darse tambin para los espacios innito-
dimensionales y da lugar a modos importantes de ver las medidas, las distribuciones y el espacio de Hilbert. El uso
del espacio dual es as, en una cierta manera, recurso del anlisis funcional. Es tambin inherente a la transformacin
de Fourier.

9.1 El espacio dual algebraico


Dado cualquier espacio vectorial V sobre un cierto cuerpo F, denimos el espacio dual V* como el conjunto de
todas las funcionales lineales en F, es decir, transformaciones lineales en V a valores escalares (en este contexto,
un escalar es un miembro del cuerpo-base F). El propio V* se convierte en un espacio vectorial sobre F bajo la
deniciones siguientes ('punto a punto') de la adicin y de la multiplicacin escalar

{
( + )(x) = (x) + (x)
(a)(x) = a(x)

para todos , en V*, a en F y x en V. En lenguaje del clculo tensorial, los elementos de V a veces se llaman
vectores contravariantes, y los elementos de V* vectores covariantes (y a campos de estos uno-formas).

9.1.1 Ejemplos

Si la dimensin de V es nita, entonces V* tiene la misma dimensin que V; si { e1 ,..., en} es una base para V,
entonces la base dual asociada { e,...,e n } de V* viene dada por:

{
i 1, si i = j
e (ej ) =
0, si i = j

Especcamente, si se interpreta Rn como espacio de columnas de n nmeros reales, su espacio dual se escribe
tpicamente como el espacio de las de n nmeros. Tal la acta en Rn como funcional lineal por la multiplicacin
ordinaria de matrices. Si V consiste en el espacio de los vectores geomtricos (echas) en el plano, entonces los
elementos del dual V* se pueden intuitivamente representar como colecciones de lneas paralelas. Tal coleccin de
lneas se puede aplicar a un vector para dar un nmero de la manera siguiente: se cuenta cuntas de las lneas cruzan
el vector.
Si V es innito-dimensional, entonces la construccin antedicha ej no produce una base para V* y la dimensin de
V* es mayor que la de V. Considrese por ejemplo el espacio R () , cuyos elementos son las secuencias de nmeros
reales que tienen solo una cantidad nita de entradas diferentes de cero. El dual de este espacio es R , el espacio de
todas las secuencias de nmeros reales. Tal secuencia (an) se aplica a un elemento (xn) de R() para dar n xnan.

24
9.2. EL ESPACIO DUAL TOPOLGICO 25

9.1.2 Traspuesta de una transformacin lineal


Si f: V -> W es una funcin lineal, se puede denir su transpuesta f : W V por

f () = f
para cada en W*, la asignacin f 7 f genera un homomorsmo inyectivo entre el espacio de operadores lineales
de V a W y el espacio de operadores lineales de W* a V*; este homomorsmo es un isomorsmo ssi W es nito-
dimensional o V es trivial. Si la funcin lineal f es representada por la matriz A con respecto a dos bases de V y W,
entonces t f es representada por la matriz transpuesta t A con respecto a las bases duales de W* y de V*. Si g: W
X es otra funcin lineal, se tiene t (g o f) = t f o t g. En el lenguaje de la teora de las categoras, tomar el dual de los
espacios vectoriales y la transpuesta de funciones lineales es por lo tanto un funtor contravariante de la categora de
los espacios vectoriales sobre F a s misma.

9.1.3 Los productos bilineales y los espacios duales


Como vimos arriba, si V es nito-dimensional, entonces V es isomorfo a V*, solamente que el isomorsmo no es
natural y depende de la base de V con que comenzamos. De hecho, cualquier isomorsmo de V a V* dene un
producto bilineal no degenerado nico en V por

v, w = ((v))(w)

y cada producto bilineal no degenerado en un espacio nito-dimensional da lugar inversamente a un isomorsmo de


V a V*.

9.1.4 Inyeccin en el doble-dual


Hay un homomorsmo natural de V en el doble dual V**, denido por ((v))(f) = f(v) para todo v en V, f en V*.
Esta funcin es siempre inyectiva; es un isomorsmo si y solamente si V es nito-dimensional.

9.2 El espacio dual topolgico


En el caso de espacios de dimensin nita, el dual topolgico coincide con el dual algebraico y el concepto de dual
topolgico es trivial. Sin embargo, con espacios vectoriales de dimensin innita el dual topolgico generalmente es
estrictamente ms pequeo que el dual algebraico:
Al tratar con un espacio vectorial normado V (e.g., un espacio de Banach o un espacio de Hilbert), tpicamente se est
interesado solamente en los funcionales lineales continuos del espacio en el cuerpo. stos forman un espacio vectorial
normado, llamado el dual continuo o dual topolgico de V, a veces llamado solamente el dual de V. Es denotado
por V' . La norma de una funcional lineal continua en V es denida por:

= sup{|(x)| : x 1}

Donde sup denota el supremo de un conjunto.


La denicin anterior convierte al dual continuo o topolgico en un espacio vectorial normado, de hecho en un espacio
de Banach. Uno puede tambin hablar del continuo de un espacio vectorial topolgico arbitrario. Esto es sin embargo
mucho ms duro de tratar, ya que en general no ser un espacio vectorial normado de ninguna manera natural.
La denicin anterior puede generalizarse un poco, dado un espacio vectorial topolgico V se dene el espacio dual
topolgico como el subespacio del dual algebraico formado por funciones continuas respecto a la topologa de V.

9.2.1 Ejemplos
Para cualquier espacio vectorial normado o espacio vectorial topolgico nito-dimensional, tal como el espacio
euclidiano n-dimensional, el dual continuo y el dual algebraico coinciden.
26 CAPTULO 9. ESPACIO DUAL

Sea 1 < p < un nmero real y considere el espacio de Banach [[''l''<sup>''p''</sup>]] de todas las secuencias
a = (an) para las que

1/p
ap = ( n=0 |an |p )

es nito. Defnase el nmero q por 1/p + 1/q = 1. Entonces el dual continuo lp se identica naturalmente con lq : dado
un elemento de (lp )', el elemento correspondiente de lq es la secuencia ((en)) donde en denota la secuencia cuyo
trmino n-simo es 1 y todos los dems son cero. Inversamente, dado un elemento a = (an ) lq , el funcional lineal
p
continuo correspondiente en lp es denido por (b) = n an bn para toda b = (bn) l (vase la desigualdad de Hlder).

De una manera similar, el dual continuo de l se identica naturalmente con l . Adems, el dual continuo de
los espacios de Banach c (que consisten en todas las series convergentes, con la norma del supremo) y c0 (las
secuencias que convergen a cero) son ambas identicadas naturalmente con l.

Otro ejemplo interesante es el dual topolgico de las funciones suaves de soporte compacto C0 (Rn ) cuyo dual
topolgico son precisamente las distribuciones convencionales o funciones generalizadas.

9.2.2 Otras propiedades


Si V es el espacio de Hilbert, entonces su dual continuo es un espacio de Hilbert que es contra-isomorfo a V. ste
es el contenido del teorema de representacin de Riesz, y da lugar a la notacin bra-ket usada por los fsicos en la
formulacin matemtica de la mecnica cuntica. En analoga con el caso del doble dual algebraico, hay siempre un
operador lineal continuo inyectivo naturalmente denido : V V '' en su doble dual continuo V ''. Esta funcin
es de hecho una isometra, signicando ||(x)||=||x|| para todo x en V. Espacios para los cuales la funcin es una
biyeccin se llaman reexivos. El dual continuo se puede utilizar para denir una nueva topologa en V, llamada la
topologa dbil. Si el dual de V es separable, entonces as es el espacio V mismo. El inverso no es verdad; el espacio
l es separable, pero su dual es l , que no es separable.

9.3 Enlaces externos


Weisstein, Eric W. Dual Space. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.
Dual Space en PlanetMath
Captulo 10

Teorema de categoras de Baire

El teorema de categoras de Baire o simplemente teorema de Baire es una herramienta importante en topologa
general y en anlisis funcional. El teorema tiene dos formas, cada una de las cuales da condiciones sucientes para
que un espacio topolgico sea un espacio de Baire. La versin para espacios metricos completos fue demostrada por
Ren-Louis Baire en su tesis doctoral de 1899.

10.1 Enunciado del teorema


Un espacio de Baire es un espacio topolgico con la propiedad siguiente: para cada coleccin de conjuntos numerables
abiertos densos Un, su interseccin Un es denso.
(BCT1) Todo espacio mtrico completo es un espacio de Baire. En trminos ms generales, cada espacio topolgico
que es homeomorfo a un subconjunto abierto de un espacio pseudomtrico completo es un espacio de Baire. As, cada
espacio topolgico completamente metrizable es un espacio de Baire. (BCT2) Cada espacio de Hausdor localmente
compacto es un espacio de Baire. La prueba es similar a lo anterior, la propiedad de la interseccin nita toma el
papel jugado por la completitud.
Tenga en cuenta que ninguna de estas armaciones implica la otra, ya que hay espacios mtricos completos que no son
localmente compactos (los nmeros irracionales con la mtrica se dene a continuacin; tambin, cualquier espacio de
Banach de dimensin innita), y hay espacio de Hausdor localmente compacto que estn no metrizable (por ejemplo,
cualquier producto incontable de no triviales espacios de Hausdor compactos es tal, tambin, varios espacios de
funcin utilizado en el anlisis funcional, la incontable espacio Fort ). Ver Steen y Seebach en las referencias siguientes.
(BCT3) A no vaco espacio mtrico completo no es la unin contable de la nada-densos conjuntos cerrados.
Esta formulacin es equivalente a BCT1 y a veces es ms til en aplicaciones. Tambin: si un espacio mtrico completo
no vaco es la unin numerable de conjuntos cerrados, entonces uno de estos conjuntos cerrados tiene interior no vaco.

10.2 Relacin con el axioma de eleccin


Las pruebas de BCT1 y BCT2 arbitrarias para espacios mtricos completos requieren alguna forma de axioma de
eleccin , y de hecho BCT1 es equivalente a ms de ZF una forma dbil del axioma de eleccin llamado el axioma
de opciones dependientes.[1]
La forma restringida del teorema de Baire categora en la que tambin est el espacio mtrico completo supone que es
separable es demostrable en ZF sin principios seleccin adicionales.[2] Esta forma restringida se aplica en particular
a la recta real, el espacio de Baire , y el espacio de Cantor 2 .

10.3 Utilizacin del Teorema


BCT1 se utiliza en el anlisis funcional de probar el teorema de la aplicacin abierta , el teorema del grafo cerrado y
el principio de acotacin uniforme .

27
28 CAPTULO 10. TEOREMA DE CATEGORAS DE BAIRE

BCT1 tambin muestra que todo espacio mtrico completo sin puntos aislados es incontable . (Si X es un espacio
mtrico completo numerable sin puntos aislados, a continuacin, cada singleton {x} en la que X es denso en ninguna
parte , y por lo tanto X es de primera categora en s mismo.) En particular, esto demuestra que el conjunto de todos
los nmeros reales es incontables.
BCT1 muestra que cada uno de los siguientes es un espacio de Baire:

El espacio R de los nmeros reales

Los nmeros irracionales, con la mtrica denida por d (x, y) = 1 / (n + 1), donde n es el primer ndice para
que los continuos fraccin ampliaciones de x e y dieren (este es un espacio mtrico completo)

El conjunto de Cantor

Por BCT2, cada Hausdor de dimensin nita colector es un espacio de Baire, ya que es localmente compacto y
Hausdor. Esto es as incluso para los colectores no paracompact (de ah nonmetrizable) como la lnea de tiempo .

10.4 Demostracin
La siguiente es una prueba estndar que un espacio pseudometrico completa X es un espacio de Baire.

10.5 Referencias
[1] Blair 1977

[2] Levy 1979, p. 212

R. Baire. Sur les fonctions de variables relles. Ann. di Mat., 3:1123, 1899.
Blair, Charles E. (1977), The Baire category theorem implies the principle of dependent choices., Bull. Acad.
Polon. Sci. Sr. Sci. Math. Astronom. Phys., v. 25 n. 10, pp. 933934.
Levy, Azriel (1979), Basic Set Theory. Reprinted by Dover, 2002. ISBN 0-486-42079-5

Schechter, Eric, Handbook of Analysis and its Foundations, Academic Press, ISBN 0-12-622760-8
Lynn Arthur Steen and J. Arthur Seebach, Jr., Counterexamples in Topology, Springer-Verlag, New York, 1978.
Reprinted by Dover Publications, New York, 1995. ISBN 0-486-68735-X (Dover edition).

10.6 Enlaces externos


T. Tao, 245B, Notes 9: The Baire category theorem and its Banach space consequences
Captulo 11

Teorema de la funcin abierta

En matemticas, hay dos teoremas con el nombre "Teorema de la funcin abierta".

11.1 Anlisis funcional


En anlisis funcional, el teorema de la funcin abierta, tambin conocido como el teorema de Banach-Schauder,
es un resultado fundamental que establece: si A: X Y es un operador lineal continuo sobreyectivo entre los espacios
de Banach X y Y, entonces A es una funcin abierta (es decir si U es un conjunto abierto en X, entonces A(U) es
abierto en Y).
La prueba utiliza el Teorema de categoras de Baire.
El teorema de la funcin abierta tiene dos consecuencias importantes:

Si A: X Y es un operador lineal continuo biyectivo entre los espacios de Banach X y Y, entonces el operador
inverso A1 : Y X es continuo tambin (esto se llama el teorema de la funcin inversa).

Si A: X Y es un operador lineal entre los espacios de Banach X y Y, y si para cada sucesin (xn) en X con
xn 0 y Axn y se sigue que y = 0, entonces A es continuo (teorema del grafo cerrado).

11.2 Anlisis complejo


En anlisis complejo, el teorema de la funcin abierta establece que si U es un subconjunto abierto conexo del
plano complejo C y f: U C es una funcin holomorfa no-constante, entonces f es una funcin abierta (es decir
enva subconjuntos abiertos de U a los subconjuntos abiertos de C).

29
Captulo 12

Teorema de la grca cerrada

En anlisis funcional, el teorema de la grca cerrada establece lo siguiente:


Este teorema se demuestra usando el teorema de la funcin abierta, y es casi imprescindible para resolver ciertos
problemas de anlisis funcional que no se pueden resolver con tcnicas menos avanzadas.

12.1 Corolario
Tiene un corolario, que es el que se suele usar en la prctica:

30
Captulo 13

Operador cerrado

En matemticas y especcamente en anlisis funcional, los operadores lineales cerrados son un importante tipo de
operadores lineales en los espacios de Banach. Son los ms generales de los operadores acotados y, por tanto, no es
necesario que la funcin sea continua, pero conserva sucientes buenas propiedades que pueden denir el espectro y
partiendo de algn supuesto, el clculo funcional para tales operadores. Muchos operadores lineales importantes no
son acotados ni cerrados, tales como la derivada y sus clases de operadores diferenciales?
Sea B un espacios de Banach. Un operador lineal

A : D(A) B B

es cerrado si para cada sucesin {xn }nN en D(A) que converge a x B tal que Axn y B cuando n
se tiene que x D(A) y Ax = y. Equivalentemente, A es cerrada si su grco es cerrado en la suma directa suma
directa B B.
Dado un operador lineal A , no necesariamente cerrado, si la clausura de su grco es cerrado en B B para a ser
la grca de algn operador, tal operador se llamado clausura de A , y decimos que A is clausurable. Denotamos
la clausura de A por A. Se sigue que A es la restriccin de A a D(A).
A core of a closable operator is a subset C of D(A) such that the closure of the restriction of A to C is A.
Las siguientes propiedades se pueden probar fcilmente:

1. Cualquier operador linear cerrado denido en todo B es acotado. Este es el Teorema del grafo cerrado;

2. Si A es cerrado entonces A I es cerrado, donde es un escalar e I es la funcin identidad;


3. Si A es cerrado e inyectiva, entonces su inversa A1 es tambin cerrada;

4. Un operador A admite su clausura si y slo si para cada par de sucesiones {xn } y {yn } en D(A) convergentes a
x e y , respectivamente, tales que {Axn } y {Ayn } convergen, se cumple que limn Axn = limn Ayn si x = y
.

Como ejemplo, consideramos el operador derivada

Af = f

cuando el espacio de Banach B es el espacio C[a, b] para todas las funciones continuas en el intervalo [a, b]. Si uno
toma su dominio D(A) como el conjunto ms grande posible, esto es, D(A) = C 1 [a, b], entonces A es un operador
cerrado, el cual no es acotado.
Si consideramos D(A) to be en vez del conjunto de todas las funciones con derivadas de todos los rdenes, A no ser
cerrada, pero si clausurable, con la clausura proveniente de su extensin maximal denida sobre C 1 [a, b].
Closed operator en PlanetMath

31
32 CAPTULO 13. OPERADOR CERRADO

13.1 Text and image sources, contributors, and licenses


13.1.1 Text
Espacio mtrico Fuente: http://es.wikipedia.org/wiki/Espacio%20m%C3%A9trico?oldid=81286298 Colaboradores: Joseaperez, Sab-
but, Moriel, Aparejador, Sms, Tano4595, Periku, Renabot, Rembiapo pohyiete (bot), RobotQuistnix, Caiserbot, Yrbot, BOT-Superzerocool,
YurikBot, GermanX, Wewe, KnightRider, Eskimbot, CEM-bot, Marianov, Davius, Ingenioso Hidalgo, Thijs!bot, Lauranrg, JAnDbot,
TXiKiBoT, Gustronico, Xsm34, Rovnet, Brobdingnag, Muro Bot, Roman.astaroth, YonaBot, SieBot, Loveless, Rigenea, Tonyslash60,
Greek, Camiloalcubo2, HUB, PixelBot, Juan Mayordomo, UA31, Diegusjaimes, Andreasmperu, Luckas-bot, Jkbw, EmBOTellado, Hum-
befa, Jorge c2010, GrouchoBot, EmausBot, HRoestBot, Allforrous, Grillitus, Acratta, Addbot, JuanManwell, Lectorina y Annimos: 29
Espacio vectorial normado Fuente: http://es.wikipedia.org/wiki/Espacio%20vectorial%20normado?oldid=79254845 Colaboradores:
Magister Mathematicae, Davius, Thijs!bot, JAnDbot, Synthebot, Jmvgpartner, SieBot, Alexbot, Juan Mayordomo, Raulshc, Louperibot,
Diegusjaimes, DiegoFb, Mcapdevila, Hoenheim, Panderine!, BOTirithel, Alph Bot, Jorge c2010, GrouchoBot, MercurioMT, MerlIwBot,
Acratta, Addbot, Vivars y Annimos: 9
Desigualdad de Hlder Fuente: http://es.wikipedia.org/wiki/Desigualdad%20de%20H%C3%B6lder?oldid=65293479 Colaboradores:
Drinibot, Raulshc, Luckas-bot, EmausBot, Grillitus, WikitanvirBot y Addbot
Desigualdad de Minkowski Fuente: http://es.wikipedia.org/wiki/Desigualdad%20de%20Minkowski?oldid=74059712 Colaboradores:
Sabbut, CEM-bot, Alecs.bot, MastiBot, InaBOT, Luckas-bot, Jorge c2010, Manuel Valadez Snchez, Albert11235, WikitanvirBot,
Addbot y Annimos: 2
Espacio de Banach Fuente: http://es.wikipedia.org/wiki/Espacio%20de%20Banach?oldid=81478371 Colaboradores: Joseaperez, Mo-
riel, Cassilia~eswiki, Sms, Rsg, Vicaram, Mandramas, Vargenau, Renabot, Pati, RobotJcb, Rembiapo pohyiete (bot), Lguero, Robot-
Quistnix, Francosrodriguez, Chobot, Yrbot, YurikBot, KnightRider, Gonhidi, CEM-bot, Javg, Alexav8, Marianov, Mister, Davius, In-
genioso Hidalgo, Thijs!bot, Drake 81, Xan de Menguxo, Cgb, Plux, VolkovBot, Muro Bot, BotMultichill, SieBot, Cw88, Macarrones,
PipepBot, HUB, Alecs.bot, Juan Mayordomo, Raulshc, SilvonenBot, Louperibot, Error de inicio de sesin, Luckas-bot, Xqbot, Jerowiki,
Humbefa, EmausBot, Addbot y Annimos: 13
Operador lineal acotado Fuente: http://es.wikipedia.org/wiki/Operador%20lineal%20acotado?oldid=73051655 Colaboradores: Davius,
PaintBot, Bigsus-bot, BOTarate, Juan Mayordomo, MastiBot, MystBot, Ptbotgourou, FariBOT, Rubinbot, Jerowiki, ZroBot, Monotrema,
KLBot2, Acratta, JacobRodrigues y Annimos: 4
Espacio de Hilbert Fuente: http://es.wikipedia.org/wiki/Espacio%20de%20Hilbert?oldid=79049892 Colaboradores: DefLog, Cassi-
lia~eswiki, Wricardoh, Xenoforme, Mandramas, Rembiapo pohyiete (bot), Orgullobot~eswiki, RobotQuistnix, Akhram, CSTAR, Cai-
serbot, Yrbot, YurikBot, GermanX, Wewe, Gtz, Alexav8, Marianov, Davius, Thijs!bot, Escarbot, JAnDbot, TXiKiBoT, MONIMINO,
Idioma-bot, Info.abstracta, Muro Bot, YonaBot, SieBot, Danielba894, Juan Mayordomo, Lluvia, Agualin, Ginosbot, Luckas-bot, Xqbot,
Rubinbot, Kismalac, AstaBOTh15, D'ohBot, TobeBot, RedBot, Jerowiki, Euclides, Jorge c2010, EmausBot, DanFar, KLBot2, MetroBot,
Addbot, JacobRodrigues, JuanManwell y Annimos: 23
Teorema de HahnBanach Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20Hahn%E2%80%93Banach?oldid=73929036 Co-
laboradores: Surscrd, Gelo71, Alfredobi, VolkovBot, Urdangaray, Synthebot, Muro Bot, PaintBot, Farisori, Alexbot, Juan Mayordomo,
Ptbotgourou, ArthurBot, Rubinbot, D'ohBot, ZroBot y KLBot2
Espacio dual Fuente: http://es.wikipedia.org/wiki/Espacio%20dual?oldid=74331001 Colaboradores: DefLog, Mandramas, Rembiapo
pohyiete (bot), Francosrodriguez, Yrbot, YurikBot, GermanX, KnightRider, Juan Marquez, CEM-bot, Alexav8, Davius, Thijs!bot, DFT-
DER, Juan25, TXiKiBoT, Humberto, Jtico, Muro Bot, SieBot, Gato ocioso, Farisori, Leonpolanco, Juan Mayordomo, Raulshc, AVBOT,
CarsracBot, Luckas-bot, Nallimbot, AttoBot, ArthurBot, Rubinbot, EmBOTellado, Marsal20, NahuelMS, ZroBot, HRoestBot, Grillitus,
ChuispastonBot, Acratta, Johnbot, Elvisor, Rauletemunoz, Addbot, JacobRodrigues, JuanManwell y Annimos: 10
Teorema de categoras de Baire Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20categor%C3%ADas%20de%20Baire?oldid=
77782360 Colaboradores: Ivanpares, Heiricar, KLBot2, Invadibot, Makecat-bot, JacobRodrigues, ErnstGR y Annimos: 1
Teorema de la funcin abierta Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20la%20funci%C3%B3n%20abierta?oldid=66154450
Colaboradores: DefLog, Cookie, Rembiapo pohyiete (bot), RobotQuistnix, YurikBot, Chlewbot, Davius, Thijs!bot, Erzbischof, Belgrano,
AlleborgoBot, Muro Bot, SieBot, Loveless, Louperibot, Xqbot, Addbot y Annimos: 5
Teorema de la grca cerrada Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20la%20gr%C3%A1fica%20cerrada?oldid=64542850
Colaboradores: Tano4595, Muro Bot, Farisori, Juan Mayordomo, DumZiBoT, Xqbot, RedBot, ZroBot, KLBot2 y Annimos: 2
Operador cerrado Fuente: http://es.wikipedia.org/wiki/Operador%20cerrado?oldid=77803287 Colaboradores: CEM-bot, Alonsorgaz,
Fremen, Bigsus-bot, LucienBOT, Ramrebol, RedBot, MerlIwBot, KLBot2 y Addbot

13.1.2 Images
Archivo:Icono_de_traduccin.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/4/40/Icono_de_traducci%C3%B3n.svg Li-
cencia: GFDL Colaboradores: trabajo propio a partir de image:View-refresh.svg y image:Japanese Hiragana kyokashotai A.svg Artista
original: Rastrojo DES
Archivo:Mergefrom.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/0/0f/Mergefrom.svg Licencia: Public domain Cola-
boradores: ? Artista original: ?

13.1.3 Content license


Creative Commons Attribution-Share Alike 3.0
422 - Modelos Estocsticos
ndice general

1 Probabilidad y esperanza condicionadas 1


1.1 Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Interpretacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.4 Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.5 Exclusividad mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.6 La falacia de la probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.7 Problemas de ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Denicin formal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 La distribucin exponencial y el proceso de Poisson 7


2.1 Distribucin exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2 Calcular variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.1.3 Relaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.1.4 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.1.5 Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.1.6 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Proceso de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 Denicin matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Interpretacin intuitiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.3 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.4 Aplicacin en seguros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.5 Procesos de Poisson no homogneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.6 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.7 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3 Teora de la abilidad 12
3.1 Mtodos estocsticos en teora de la abilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

i
ii NDICE GENERAL

3.1.1 Deniciones bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12


3.1.2 Clases de distribuciones relevantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

4 Text and image sources, contributors, and licenses 14


4.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Captulo 1

Probabilidad y esperanza condicionadas

1.1 Probabilidad condicionada


Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que tambin sucede otro evento
B. La probabilidad condicional se escribe P(A|B), y se lee la probabilidad de A dado B.
No tiene por qu haber una relacin causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo
o pueden ocurrir simultneamente. A puede causar B, viceversa o pueden no tener relacin causal. Las relaciones
causales o temporales son nociones que no pertenecen al mbito de la probabilidad. Pueden desempear un papel o
no dependiendo de la interpretacin que se le d a los eventos.
Un ejemplo clsico es el lanzamiento de una moneda para luego lanzar un dado. Cul es la probabilidad de obtener
una cara (moneda) y luego un 6 (dado)? Pues eso se escribira como P (Cara | 6).
El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.

1.1.1 Denicin

Dado un espacio de probabilidad (, F, P) y dos eventos (o sucesos) A, B F con P (B) > 0 , la probabilidad
condicional de A dado B est denida como:

P (A B)
P (A | B) = .
P (B)

1.1.2 Interpretacin

Tomando los mundos en los que B se cumple, P (A | B) se puede interpretar como la fraccin en los que tambin
se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, P (A | B) sera la
probabilidad de tener dolor de cabeza cuando se est enfermo de gripe.
Grcamente, si se interpreta el espacio de la ilustracin como el espacio de todos los mundos posibles, A seran los
mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la interseccin
representara los mundos en los que se tiene gripe y dolor de cabeza P (A B) . En este caso P (A | B) , es decir, la
probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe, sera la proporcin de mundos con gripe
y dolor de cabeza (color verde) de todos los mundos con gripe: El rea verde dividida por el rea de B. Como el rea
verde representa P (A B) y el rea de B representa a P (B) , formalmente se tiene que:

P (A B)
P (A | B) = .
P (B)

1
2 CAPTULO 1. PROBABILIDAD Y ESPERANZA CONDICIONADAS

P (A | B) se puede interpretar como, tomando los mundos en los que B se cumple, la fraccin en los que tambin se cumple A.

1.1.3 Propiedades
1. P (A | B) + P (A | B) = 1

1. B A P (A | B) = 1

Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor de
cabeza dado que tengo gripe es 1.

1. P (A) = P (A | B) P (B) + P (A | B)
P (B)

1.1.4 Independencia de sucesos


Dos sucesos aleatorios A y B son independientes si y slo si:

P (A B) = P (A)P (B).
O sea que si A y B son independientes, su probabilidad conjunta, P (A B) P (A, B).
puede ser expresada como el producto de las probabilidades individuales. Equivalentemente:

P (A|B) = P (A)
P (B|A) = P (B).
En otras palabras, si A y B son independientes, la probabilidad condicional de A dado B es simplemente la probabilidad
de A y viceversa.
1.1. PROBABILIDAD CONDICIONADA 3

A
B

La proporcin de zona verde dentro de B es la misma que la de A en todo el espacio y, de la misma forma, la proporcin de la zona
verde dentro de A es la misma que la de B en todo el espacio. Son sucesos independientes.

1.1.5 Exclusividad mutua


Dos sucesos A y B son mutuamente excluyentes si y slo si A B = . Entonces, P (A B) = 0 .
Adems, si P (B) > 0 entonces P (A | B) es igual a 0.

1.1.6 La falacia de la probabilidad condicional


La falacia de la probabilidad condicional se basa en asumir que P(A|B) es casi igual a P(B|A). El matemtico John
Allen Paulos analiza en su libro El hombre anumrico este error muy comn cometido por personas que desconocen
la probabilidad.
La verdadera relacin entre P(A|B) y P(B|A) es la siguiente:

P (B)
P (B | A) = P (A | B) P (A) (Teorema de Bayes)

1.1.7 Problemas de ejemplo


---La paradoja del falso positivo---
La magnitud del error cometido con esta falacia se entiende mejor en trminos de probabilidades condicionales.
Supongamos un grupo de personas de las que el 1 % sufre una cierta enfermedad, y el resto est bien. Escogiendo un
individuo al azar:
P (enf ermo) = 1% = 0.01 y P (sano) = 99% = 0.99
Supongamos que aplicando una prueba a una persona que no tiene la enfermedad, hay una posibilidad del 1 % de
conseguir un falso positivo, esto es:
4 CAPTULO 1. PROBABILIDAD Y ESPERANZA CONDICIONADAS

A
B

Los conjuntos A y B no intersecan. Son mutuamente excluyentes.

P (positivo|sano) = 1% y P (negativo|sano) = 99%


Finalmente, supongamos que aplicando la prueba a una persona que tiene la enfermedad, hay una posibilidad del 1
% de un falso negativo, esto es:
P (negativo|enf ermo) = 1% y P (positivo|enf ermo) = 99%
Ahora, uno puede calcular lo siguiente:
La fraccin de individuos en el grupo que estn sanos y dan negativo:
P (sano negativo) = P (sano) P (negativo|sano) = 99% 99% = 98.01%
La fraccin de individuos en el grupo que estn enfermos y dan positivo:
P (enf ermo positivo) = P (enf ermo) P (positivo|enf ermo) = 1% 99% = 0.99%
La fraccin de individuos en el grupo que dan falso positivo:
P (sano positivo) = P (sano) P (positivo|sano) = 99% 1% = 0.99%
La fraccin de individuos en el grupo que dan falso negativo:
P (enf ermo negativo) = P (enf ermo) P (negativo|enf ermo) = 1% 1% = 0.01%
Adems, la fraccin de individuos en el grupo que dan positivo:
P (positivo) = P (sano positivo) + P (enf ermo positivo) = 0.99% + 0.99% = 1.98%
Finalmente, la probabilidad de que un individuo realmente tenga la enfermedad, dado un resultado de la prueba
positivo:
P (enf ermopositivo) 0.99%
P (enf ermo|positivo) = P (positivo) = 1.98% = 50%
En este ejemplo, debera ser fcil ver la diferencia entre las probabilidades condicionadas P (positivo | enfermo) (que
es del 99 %) y P (enfermo | positivo) (que es del 50 %): la primera es la probabilidad de que un individuo enfermo d
1.2. ESPERANZA CONDICIONAL 5

positivo en la prueba; la segunda es la probabilidad de que un individuo que da positivo en la prueba tenga realmente
la enfermedad. Con los nmeros escogidos aqu, este ltimo resultado probablemente sera considerado inaceptable:
la mitad de la gente que da positivo en realidad est sana.
La probabilidad de tener una enfermedad rara es de 0,001: P (enf ermo) = 0, 001
La probabilidad de que cuando el paciente est enfermo se acierte en el diagnstico es de 0,99: P (positivo|enf ermo) =
0, 99
La probabilidad de falso positivo es de 0,05: P (positivo|sano) = 0, 05
Pregunta: Me dicen que he dado positivo, Qu probabilidad hay de que tenga la enfermedad?
P (enf ermo)P (positivo|enf ermo) P (positivo|e
P (enf ermo|positivo) = P (positivo) P (enf ermo|positivo) = P (enf ermo) P (enf ermo)P (positivo|enf erm
0,0010,99
P (enf ermo|positivo) = 0,0010,99+0,9990,05 = 0, 019 = 1, 9%

1.2 Esperanza condicional


En teora de la probabilidad, una esperanza condicional (tambin conocido como valor esperado condicional o media
condicional) es el valor esperado de una variable aleatoria verdadera con respecto a una distribucin de probabilidad
condicional.
El concepto de esperanza condicional es extremadamente importante en la Teora de la medida de Andri Kolmogrov
-medida terica denicin de la teora de probabilidades. De hecho, el propio concepto de probabilidad condicional
es en realidad denida en trminos de esperanza condicional.

1.2.1 Introduccin
Sean X e Y dos variables aleatorias discretas, a continuacin, la expectativa condicional de X dado el caso Y = y es
una funcin de y sobre el rango de Y

P(X = x, Y = y)
E(X|Y = y) = x P(X = x|Y = y) = x ,
P(Y = y)
xX xX

donde X es el rango de X.
Si ahora X es una variable aleatoria continua , mientras que Y sigue siendo una variable discreta, la expectativa
condicional es:


E(X|Y = y) = xfX (x|Y = y)dx
X

donde fX ( |Y = y) es la densidad condicional de X dado Y = y .


Un problema surge cuando Y es continua. En este caso, la probabilidad P (Y = y) = 0, y la paradoja de Borel-
Kolmogorov demuestra la ambigedad de intentar denir probabilidad condicional a lo largo de estas lneas.
Sin embargo, la expresin anterior puede ser reorganizada:


E(X|Y = y) P(Y = y) = x P(X = x, Y = y),
xX

y aunque esto es trivial para valores individuales de y (ya que ambos lados son iguales a cero), se debe mantener para
cualquier subconjunto medible B del dominio de Y que:


E(X|Y = y) P(Y = y) d y = x P(X = x, Y = y) d y.
B B xX

De hecho, esta es una condicin suciente para denir tanto la expectativa condicional y probabilidad condicional.
6 CAPTULO 1. PROBABILIDAD Y ESPERANZA CONDICIONADAS

1.2.2 Denicin formal


Sea (,F ,P) un espacio de probabilidad , con una variable aleatoria X:Rn y un sub--algebra HF .
A continuacin, una esperanza condicional de X dado H (Denotado como E[X|H] . Es cualquier H -Funcin medible
( Rn ) Que satisface:

H
E [X|H] () d P() = H
X() d P() each for H H .[1]

Tenga en cuenta que E[X|H] es simplemente el nombre de la funcin esperanza condicional.

Debate

Un par de puntos que vale la pena sealar acerca de la denicin:


Esta no es una denicin constructiva, estamos simplemente da la propiedad necesaria de que una esperanza condicio-
nal debe cumplir. La propiedad requerida tiene la misma forma como la ltima expresin en la seccin Introduccin.
Existencia de una funcin expectativa condicional se determina por el teorema de Radon-Nikodym , una condicin
suciente es que existe la (incondicional) valor esperado para X. Singularidad puede demostrarse que es casi seguro
, es decir, versiones de la misma esperanza condicional slo dieren en un conjunto de probabilidad cero .

La -lgebra H controla la granularidad de los condicionamientos. Una expectativa condicional E[X|H] sobre
una -lgebra de grano no H nos permitir condicionamos en una variedad ms amplia de los acontecimientos.

Para acondicionar libremente en los valores de una variable aleatoria con espacio de estados (Y,) , Es suciente para
denir la expectativa condicional utilizando la imagen previa de con respecto a Y, de manera que E[X|Y ] se dene
como E[X|H] , En donde

H = (Y ) := Y 1 () := {Y 1 (S) : S }

Esto es suciente para asegurar que la expectativa condicional es (Y)-medible. Aunque esperanza condicional se
dene para condicionar los acontecimientos en el subyacente espacio de probabilidad, el requisito de que sea
(Y)-medible nos permite condicionamos sobre Y como en la introduccin.

1.2.3 Referencias
[1] Love (1978), p. 7
Captulo 2

La distribucin exponencial y el proceso de


Poisson

2.1 Distribucin exponencial


En estadstica la distribucin exponencial es una distribucin de probabilidad continua con un parmetro > 0
cuya funcin de densidad es:

{ x
e parax 0
f (x) = P (x) =
0 modo otro de

Su funcin de distribucin acumulada es:


{
0 parax < 0
F (x) = P (X x) =
1 ex parax 0

Donde e representa el nmero e.


El valor esperado y la varianza de una variable aleatoria X con distribucin exponencial son:

E[X] = 1 , V (X) = 1
2

La distribucin exponencial es un caso particular de distribucin gamma con k = 1. Adems la suma de variables
aleatorias que siguen una misma distribucin exponencial es una variable aleatoria expresable en trminos de la
distribucin gamma.

2.1.1 Ejemplo

Ejemplos para la distribucin exponencial es la distribucin de la longitud de los intervalos de una variable continua
que transcurren entre dos sucesos, que se distribuyen segn la distribucin de Poisson.

El tiempo transcurrido en un call center hasta recibir la primer llamada del da se podra modelar como una
exponencial.

El intervalo de tiempo entre terremotos (de una determinada magnitud) sigue una distribucin exponencial.

Supongamos una mquina que produce hilo de alambre, la cantidad de metros de alambre hasta encontrar una
falla en el alambre se podra modelar como una exponencial.

En abilidad de sistemas, un dispositivo con tasa de fallo constante sigue una distribucin exponencial.

7
8 CAPTULO 2. LA DISTRIBUCIN EXPONENCIAL Y EL PROCESO DE POISSON

2.1.2 Calcular variables aleatorias


Se pueden calcular una variable aleatoria de distribucin exponencial x por medio de una variable aleatoria de
distribucin uniforme u = U (0, 1) :

x = 1 ln(1 u)

o, dado que (1 u) es tambin una variable aleatoria con distribucin U (0, 1) , puede utilizarse la versin ms
eciente:

x = 1 ln(u)

2.1.3 Relaciones
La suma de k variables aleatorias independientes de distribucin exponencial con parmetro es una variable aleatoria
de distribucin gamma.

2.1.4 Vase tambin


Proceso de Poisson

Distribucin Poisson

2.1.5 Software
Se puede usar software y un programa de computadora para el ajuste de una distribucin de probabilidad, incluyendo
la exponencial, a una serie de datos:

Easy t, data analysis & simulation

MathWorks Benelux

ModelRisk, risk modelling software

Ricci distributions, tting distrubutions with R , Vito Ricci, 2005

Risksolver, automatically t distributions and parameters to samples

StatSoft distribution tting

CumFreq , libre sin costo, incluye intervalos de conanza a base de la distribucin binomial

2.1.6 Enlaces externos


Calculadora Distribucin exponencial

Calcular la probabilidad de una distribucin exponencial con R (lenguaje de programacin)

2.2 Proceso de Poisson


En estadstica y simulacin, un proceso de Poisson, tambin conocido como ley de los sucesos raros, es un proceso
estocstico de tiempo continuo que consiste en contar eventos raros (de ah el nombre sucesos raros) que ocurren
a lo largo del tiempo. El tiempo entre cada par de eventos consecutivos tiene una distribucin exponencial con el
parmetro , y cada uno de estos tiempos entre llegadas se supone que es independiente de otros tiempos entre
llegadas. Es llamado as por el matemtico Simon Denis Poisson (17811840).
2.2. PROCESO DE POISSON 9

Muestreo de un conteo de proceso de Poisson N(t).

2.2.1 Denicin matemtica


Un proceso Poisson con intensidad (o tasa) 0 es un proceso de contar en tiempo continuo {Nt , t 0} , donde
Nt es una coleccin de variables aleatorias con las siguientes propiedades:
1. N (0) = 0 .
2. Si s t , entonces Ns Nt .
3. Para todo n > 0 y 0 < t1 < t2 < ... < tn , las variables aleatorias Nt1 , Nt2 Nt1 , ..., Ntn Ntn1 son
independientes.
4. Para toda h > 0 y t R + , Nh y Nth Nt tienen la misma distribucin.
5. P {N (h) = 1} = h + o(h) .
6. P {N (h) 2} = o(h) .
Donde o(h) es una funcin tal que:
o(h)
limh0 h =0

2.2.2 Interpretacin intuitiva


Nt es el nmero de eventos que se han producido desde el instante cero hasta el instante t . Como en cualquier proceso
estocstico, en el instante cero es una variable aleatoria; sin embargo, despus del instante t es un dato.

2.2.3 Propiedades
A partir de la denicin, es posible demostrar que:

Las variables aleatorias Nt tienen distribucin Poisson con parmetro t .


Si Tk denota el tiempo transcurrido desde el (k-1)-simo evento hasta el k-simo, entonces Tk es una variable
aleatoria con distribucin exponencial y parmetro .
Si Sn denota el tiempo transcurrido desde el inicio del conteo hasta el n-simo evento, entonces Sn tiene
distribucin Gamma con parmetros (n, ) .

2.2.4 Aplicacin en seguros


Una importante aplicacin del proceso Poisson se encuentra en la probabilidad de ruina de una compaa aseguradora.
El problema fue tratado formalmente por Filip Lundberg en su tesis doctoral en 1903. Posteriormente, Harald Cramr
10 CAPTULO 2. LA DISTRIBUCIN EXPONENCIAL Y EL PROCESO DE POISSON

desarrolla las ideas de Lundberg y da lugar a lo que hoy se conoce como el proceso de ruina o modelo de Crmer-
Lundberg.

2.2.5 Procesos de Poisson no homogneos


A menudo son ms realistas los modelos basados en procesos de Poisson no homogneos, en los que la tasa de llegadas
es una funcin del parmetro de tiempo, (t). Formalmente esto signica que un proceso de Poisson no homogneo
es un proceso de contar que satisface:
1. N (0) = 0
2. Los incrementos en intervalos ajenos son independientes.
3. P (N (t + h) N (t) = 1) = (t)h + o(h)
4. P (N (t + h) N (t) > 1) = o(h)
Los tres mtodos ms conocidos de generacin de un proceso de Poisson no homogneo de este tipo se basan en la
modicacin de la escala de tiempo, en el condicionamiento y en una adaptacin del mtodo de rechazo.
Para procesos homogneos hay una densidad media . Eso signica que la media de los sucesos en un intervalo de
tiempo t es /t .
El tiempo entre dos sucesos de un proceso de Poisson con intensidad media es una variable aleatoria de distribucin
exponencial con parmetro .

2.2.6 Aplicaciones
Se pueden modelar muchos fenmenos como un proceso de Poisson. El nmero de sucesos en un intervalo de tiempo
dado es una variable aleatoria de distribucin de Poisson donde es la media de nmeros de sucesos en este intervalo.
El tiempo hasta que ocurre el suceso nmero k en un proceso de Poisson de intensidad es una variable aleatoria
con distribucin gamma o (lo mismo) con distribucin de Erlang con = 1/ .
El ejemplo clsico de fenmenos muy bien descritos matemticamente a travs de un proceso Poisson fue el de los
fallecimientos a causa de la patada de un caballo en el ejrcito de Prusia, segn lo demostrado por Ladislaus Bort-
kiewicz en 1898. Este economista y estadstico polaco tambin analiz los datos de los suicidios infantiles conforme
a este modelo.[1][2]
El proceso de Poisson tambin se ha aplicado para los siguientes ejemplos:

Nmero de accidentes de trnsito (o heridos/fallecidos) en una zona especca.


Goles anotados en un partido de futbol.[3]
Solicitudes individuales de documentos en un servidor de Internet.[4]
Emisin de partculas debido a decaimiento radiactivo de una sustancia inestable; en este caso el proceso de
Poisson es no homogneo de una manera predecible; la tasa de emisin declina conforme las partculas se
emiten.[5]
Potenciales de accin emitidos por una neurona.[6]
L. F. Richardson demostr que el estallido de la guerra se present como un proceso de Poisson entre 1820 y
1850.[7]
El conteo de fotones que llegan a un fotodiodo, en particular en ambientes con baja luminosidad; este fenmeno
est relacionado con el llamado ruido de disparo.
Las oportunidades para que las empresas ajusten los precios de nmina.[8]
La llegada de innovaciones en investigacin y desarrollo.[9]
La solicitud de llamadas telefnicas en conmutadores.[10]
En la teora de colas (vase Agner Krarup Erlang), el nmero de llamadas entrantes en una central telefnica
puede calcularse como un proceso de Poisson.
2.2. PROCESO DE POISSON 11

La cantidad de clientes que entran a una tienda.

El nmero de coches que pasan por una autopista.


La llegada de personas a una la de espera.

La evolucin de Internet en general (los cambios en las pginas, no las de Wikipedia en particular).[11]

2.2.7 Referencias
[1] Ladislaus von Bortkiewicz, Das Gesetz der kleinen Zahlen [The law of small numbers] (Leipzig, Germany: B.G. Teubner,
1898). En la pgina 1, Bortkiewicz presenta la distribucin de Poisson. En las pginas 23-25, Bortkiewicz presenta su
famoso anlisis de 4. Beispiel: Die durch Schlag eines Pferdes im preussischen Heere Getteten. (4. Ejemplo: Personas
muertas en el ejrcito de Prusia por la patada de un caballo).

[2] Gibbons, Robert D.; Bhaumik, Dulal; Aryal, Subhash (2009). John Wiley and Sons, ed. Statistical Methods for Groundwater
Monitoring. p. 72. ISBN 0-470-16496-4.

[3] Heuer, A.; Mller, C.; Rubner, O. (2010). Soccer: Is scoring goals a predictable Poissonian process?". EPL (Europhysics
Letters), 89(3): 38007. doi:10.1209/0295-5075/89/38007. To a very good approximation scoring goals during a match
can be characterized as independent Poissonian processes with pre-determined expectation values.

[4] Arlitt, M. F.; Williamson, C. L. (1997). Internet Web servers: Workload characterization and performance implications.
IEEE/ACM Transactions on Networking, 5(5): 631.

[5] Cannizzaro, F.; Greco, G.; Rizzo, S.; Sinagra, E. (1978). Results of the measurements carried out in order to verify the
validity of the poisson-exponential distribution in radioactive decay events. The International Journal of Applied Radiation
and Isotopes, 29(11): 649.

[6] Brunel, N. (2000). Phase diagrams of sparsely connected networks of excitatory and inhibitory spiking neurons. Neuro-
computing, 32-33: 307312. doi:10.1016/S0925-2312(00)00179-X

[7] Hayes, B. (2002). Statistics of Deadly Quarrels. American Scientist, 90:1014. doi:10.1511/2002.1.10

[8] Calvo, G. A. (1983). Staggered prices in a utility-maximizing framework. Journal of Monetary Economics, 12(3): 383
398. doi:10.1016/0304-3932(83)90060-0

[9] Aghion, Philippe; Howitt, Peter (1992). A Model of Growth Through Creative Destruction. Econometrica, 60(2): 323
351. JSTOR 2951599

[10] Willkomm, D.; Machiraju, S.; Bolot, J.; Wolisz, A. (2009). Primary user behavior in cellular networks and implications
for dynamic spectrum access. IEEE Communications Magazine, 47(3): 88.

[11] Almeida, R. B.; Mozafari, B., y Cho, J. (2007). On the evolution of Wikipedia. ICWSM (Boulder, Colorado) (Consultado
30 de mayo 2014)
Captulo 3

Teora de la abilidad

3.1 Mtodos estocsticos en teora de la abilidad


Los mtodos estocsticos en teora de la abilidad son una parte de los mtodos de la abilidad de sistemas
caracterizada, que se caracterizan por el uso de herramientas matemticas avanzadas y en particular la teora de la
probabilidad.

3.1.1 Deniciones bsicas

El problema bsico de la teora de la abilidad variables aleatorias que son interpretables como el tiempo de vida de un
elemento, el tiempo entre reparaciones, etc, de un determinado elemento importante en la funcionalidad de un sistema
que se pretende estudiar. El tiempo de vida antes de fallo se dene como el tiempo durante el cual un determinado
elemento de un sistema opera satisfactoriamente, y transcurrido el cual el elemento queda en un estado de fallo (que
puede ser reparable, no reparable pero reemplazable o fatal). Durante su funcionamiento normal un elemento se va
desgastando o va degenerando hasta dejar de ser operativo, el tiempo de vida puede ser tratado mediante mtodos
estocsticos y estadsticos. Una evidencia de este desgaste es que la probabilidad esperada de fallo dado que ha estado
en funcionamiento hasta el tiempo t, sea una funcin decreciente:

d
dt E[Tt ] 0

donde Tt el tiempo de vida dado que el elemento ha subsistido a hasta el tiempo t, la derivada anterior est denida
en el sentido de la teora de distribuciones (y podra no existir en el sentido del clculo clsico).

Tasa de fallo y razn de fallo acumulada

La tasa de fallo, razn de fallo o funcin de riesgo se dene la razn de fallo de la variable aleatoria T > 0 como

Prob{t<T t+h}
r(t) = limh0 h

Si la variable tiene una funcin de distribucin absolutamente continua, hay una expresin para esta funcin en
trminos de funcin de densidad de probabilidad:

f (t)
r(t) = F (t)

donde:

f (t) = dF (t)/dt es la funcin de densidad de probabilidad.


F (t) = 1 F (t) es la funcin de supervivencia.

12
3.1. MTODOS ESTOCSTICOS EN TEORA DE LA FIABILIDAD 13

La razn de fallo acumulada se dene como la integral:


t
(t) = 0
r( )d

Es sencillo ver la funcin de supervivencia est directamente relacionada con la razn de fallo acumulada:
[ ]
t
F (t) = exp 0 r( )d = exp[(t)]

3.1.2 Clases de distribuciones relevantes


Monotona de la tasa de fallo

Una variable aleatoria T tiene una tasa de fallo creciente (TFC o IFR Increasing Failure Rate) si la funcin de tasa de
fallo es mnotona creciente para todo t, en este caso se dice que la variable aleatoria es de tipo TFC. Anlogamente
si la funcin de tasa de falla es montona decreciente la variable es de tipo TFD (Tasa de fallo decreciente o DFR
Decreasing Failure Rate). Puede demostrarse que una variable es de tipo TFC (o TFD) si y solo si el tiempo de vida
residual Tt es estocsticamente decreciente en t.

Ejemplos

La distribucin exponencial F (t) = 1exp(t) tiene una tasa de fallo constante r(t) = , y es la nica distribucin
que pertenece al mismo tiempo a la clase TFC y TFD. Otras clases de distribuciones usadas en abilidad de sistemas
como la distribucin de Weibull que viene dada por:

F (t) = 1 exp[(t) ] , para t 0

tiene una distribucin r(t) = (t)1 esta funcin es estrictamente creciente para > 1 y estrictamente de-
creciente < 1 . Por esa razn la distribucin de Weibull puede ser de la clase TFC y TFD, segn el valor de
.

Clases segn uso

La nocin de desgaste TFC compara estocsticamente la vida residual de un elemento en dos instantes diferentes.
Cuando se compara la vida residual en t> 0 con la vida de un elemento nuevo (t = 0) surge una clase de stribuciones.
Una variable aleatoria T se dice que es nueva mejor que usada (NMU o NBU New Better than Used) si se cumple
que:

F (t + ) F (t) F ( )

Anlogamente revirtiendo el sentido de la desigualdad se dene una variable nueva peor que usada (NPU o NWU
New Worse than Used). Puede demostrarse cualquier variable aleatoria que sea de tipo TFC es necesariamente de
clase NMU (y anlogamente una variable aleatoria de tipo TFD es necesariamente NPU). Adems las clases NMU
y NPU son caracterizables a partir de la tasa de fallo acumulativa. Una variable aleatoria es NMU si su tasa de fallo
acumalativa es superaditiva:

(t + ) (t) + ( )

Anlogamente es NPU si su tasa de fallo acumlativo es subaditiva.

3.1.3 Referencias
Bibliografa

R. Borges (2005) Disponible en PDF Anlisis de sobrevivencia utilizando el Lenguaje R XV Simposio de Es-
tadstica, Paipa, Colombia.
R. Prez Ocn, M. L. Gmiz Prez, J. E. Ruiz Castro (1998) Mtodos estocsticos en teora de la abilidad,
Proyecto Sur, Universidad de Granada. ISBN 84-82554-926-X.
Captulo 4

Text and image sources, contributors, and


licenses

4.1 Text
Probabilidad condicionada Fuente: http://es.wikipedia.org/wiki/Probabilidad%20condicionada?oldid=80261619 Colaboradores: Pino,
Ascnder, Sms, Dianai, Alexv86, Rembiapo pohyiete (bot), RobotQuistnix, GermanX, Eskimbot, Rdaneel, CEM-bot, Alexav8, Ignacio
Icke, Thijs!bot, Rrecillas, Botones, Muro de Aguas, TXiKiBoT, VolkovBot, Lucien leGrey, Muro Bot, Speltzu, Peregring-lk, SieBot,
Drinibot, PipepBot, DragonBot, Farisori, Eduardosalg, Leonpolanco, Fcordero2007, Juan Mayordomo, AVBOT, David0811, Jorghex,
MastiBot, SpBot, Diegusjaimes, Luckas-bot, Ptbotgourou, DirlBot, ArthurBot, Jkbw, Lourman, FreyDreya, PatruBOT, Mister Roboto,
GrouchoBot, Carbosi, Savh, Emiduronte, WikitanvirBot, Pipe9501, KLBot2, Baluza, Obelixm2, Antonio Caminero Garcia, Edured,
Jarould y Annimos: 58
Esperanza condicional Fuente: http://es.wikipedia.org/wiki/Esperanza%20condicional?oldid=78494154 Colaboradores: Urdangaray,
Ivanpares, MetroBot y Annimos: 1
Distribucin exponencial Fuente: http://es.wikipedia.org/wiki/Distribuci%C3%B3n%20exponencial?oldid=76884382 Colaboradores:
JakobVoss~eswiki, Joseaperez, Moriel, Wesisnay, Alberto Salguero, Bermiego, Javier Jelovcan, Schummy, Renabot, Boticario, Peeja-
yem, Taichi, Rembiapo pohyiete (bot), RobotQuistnix, Francosrodriguez, Caiserbot, Yrbot, YurikBot, GermanX, KnightRider, Eskimbot,
CEM-bot, Maucl, Davius, Thijs!bot, Elbarak, Botones, JAnDbot, Kved, TXiKiBoT, Rei-bot, Comosea, Phirosiberia, Aibot, VolkovBot,
Matdrodes, Muro Bot, SieBot, Loveless, Farisori, SilvonenBot, HerculeBot, Luckas-bot, MystBot, FariBOT, Nakp, ArthurBot, Fres-
coBot, BenzolBot, TobeBot, Jerowiki, Boehm, Wilmer32, Dinamik-bot, Paulocuneo, EmausBot, ZroBot, Roberto Pablo CASTILLO,
ConPermiso, Ruos, Ren Vpenk, RosenJax, Addbot y Annimos: 39
Proceso de Poisson Fuente: http://es.wikipedia.org/wiki/Proceso%20de%20Poisson?oldid=78642260 Colaboradores: JakobVoss~eswiki,
Sabbut, Ruiz, Julian Colina, Rembiapo pohyiete (bot), RobotQuistnix, YurikBot, GermanX, Chlewbot, CEM-bot, Thijs!bot, Francis-
co.uribe, VolkovBot, Urdangaray, Ungoliant~eswiki, Technopat, Loveless, Correogsk, Tirithel, PixelBot, Juan Mayordomo, MastiBot,
SpBot, Arjuno3, Luckas-bot, CayoMarcio, Xqbot, Abece, Manuel Valadez Snchez, GrouchoBot, Grillitus, WikitanvirBot, XanaG, Mer-
lIwBot, RosenJax, Legobot, Hans Topo1993, RandyRafael, Dead blank y Annimos: 18
Mtodos estocsticos en teora de la abilidad Fuente: http://es.wikipedia.org/wiki/M%C3%A9todos%20estoc%C3%A1sticos%20en%
20teor%C3%ADa%20de%20la%20fiabilidad?oldid=82088190 Colaboradores: Davius y Annimos: 1

4.2 Images
Archivo:Commons-emblem-question_book_orange.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/1/1f/Commons-emblem-question_
book_orange.svg Licencia: CC BY-SA 3.0 Colaboradores: <a href='//commons.wikimedia.org/wiki/File:Commons-emblem-issue.svg'
class='image'><img alt='Commons-emblem-issue.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/25px-Commons-emblem-issue.svg.png' width='25' height='25' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/38px-Commons-emblem-issue.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.svg/
50px-Commons-emblem-issue.svg.png 2x' data-le-width='48' data-le-height='48' /></a> + <a href='//commons.wikimedia.org/wiki/
File:Question_book.svg' class='image'><img alt='Question book.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/25px-Question_book.svg.png' width='25' height='20' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/38px-Question_book.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/50px-Question_
book.svg.png 2x' data-le-width='252' data-le-height='199' /></a> Artista original: GNOME icon artists, Jorge 2701
Archivo:Exponential_cdf.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/b/ba/Exponential_cdf.svg Licencia: CC BY 3.0
Colaboradores: This graphic was created with matplotlib. Artista original: Skbkekas
Archivo:Exponential_pdf.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/e/ec/Exponential_pdf.svg Licencia: CC BY 3.0
Colaboradores: This graphic was created with matplotlib. Artista original: Skbkekas
Archivo:Icono_de_traduccin.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/4/40/Icono_de_traducci%C3%B3n.svg Li-
cencia: GFDL Colaboradores: trabajo propio a partir de image:View-refresh.svg y image:Japanese Hiragana kyokashotai A.svg Artista
original: Rastrojo DES

14
4.3. CONTENT LICENSE 15

Archivo:Probabilidad_condicionada-exclusividad.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/f/f4/Probabilidad_


condicionada-exclusividad.svg Licencia: GFDL Colaboradores: Trabajo propio Artista original: Chabacano
Archivo:Probabilidad_condicionada-independientes.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/2/2e/Probabilidad_
condicionada-independientes.svg Licencia: GFDL Colaboradores: Trabajo propio Artista original: Chabacano
Archivo:Probabilidad_condicionada.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/7/70/Probabilidad_condicionada.
svg Licencia: GFDL Colaboradores: Trabajo propio Artista original: Chabacano
Archivo:SampleProcess.png Fuente: http://upload.wikimedia.org/wikipedia/commons/d/dc/SampleProcess.png Licencia: CC0 Cola-
boradores: Transferred from Wikipedia. Artista original: Willem
Archivo:Spanish_Language_Wiki.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/2/2a/Spanish_Language_Wiki.svg Li-
cencia: CC BY-SA 3.0 Colaboradores: Derived from Wiki puzzle.svg by user:Kimbar Artista original: James.mcd.nz

4.3 Content license


Creative Commons Attribution-Share Alike 3.0
423 - Ampliacin de Topologa
ndice general

1 Homotopa 1
1.1 Denicin formal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Tipo homotpico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Literatura del caso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.5 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Grupo fundamental 3
2.1 Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.1 Lazo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.2 Clases de homotopa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.3 Grupo fundamental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4 Referencias y notas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.5 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Espacio recubridor 6
3.1 Recubridor universal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

4 Teorema fundamental del lgebra 8


4.1 Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4.2 Enunciado y equivalencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.3 Demostracin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.3.1 Corolarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.5 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

5 Teorema de la bola peluda 11


5.1 Representacin intuitiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.2 Enunciado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.3 Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

i
ii NDICE GENERAL

5.4 Demostracin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.4.1 Demostracin visual por el disco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.4.2 Formalizacin geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.4.3 Formalizacin analtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.5 Generalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.6 Aplicaciones y consecuencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.6.1 Teorema del punto jo de Brouwer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.6.2 Corolario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.6.3 Meteorologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.6.4 Computacin grca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.7 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.8 Notas y referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.9 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.10 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

6 Teorema de Seifert-van Kampen 19


6.1 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.2 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

7 Supercie (matemtica) 20
7.1 Deniciones formales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.2 Propiedades y tipos de supercies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.2.1 Supercies cerradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.2.2 Supercies desarrollables, regladas y alabeadas . . . . . . . . . . . . . . . . . . . . . . . 22
7.2.3 Supercies orientables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
7.3 Teorema de clasicacin de supercies cerradas . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
7.4 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7.5 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

8 Homologa (matemtica) 25
8.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
8.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
8.3 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
8.4 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
8.5 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 27
8.5.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
8.5.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
8.5.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Captulo 1

Homotopa

Los dos caminos en negrita que se muestran arriba son homotpicos en relacin a sus extremos. Las lneas nas marcan isocontornos
de una posible homotopa.

En topologa, y ms precisamente en topologa algebraica, dos aplicaciones continuas de un espacio topolgico en otro
se dicen homotpicas (del griego homos = mismo y topos = lugar) si una de ellas puede deformarse continuamente
en la otra.

1.1 Denicin formal


Dos aplicaciones continuas f, g : X Y se dicen homotpicas si existe otra aplicacin (continua tambin) H :
X [0, 1] Y tal que:

H(x, 0) = f (x)

1
2 CAPTULO 1. HOMOTOPA

H(x, 1) = g(x)
Un ejemplo importante son las diferentes clases (homotpicas) de mapeos del crculo a un espacio X

S1 X

la estructura resultante es el importantsimo grupo fundamental.

Si dos aplicaciones f y g son homotpicas, se escribe f g; lo que signica esta relacin es efectivamente una
relacin de equivalencia sobre el conjunto de aplicaciones continuas de de X en Y, Las clases de equivalencia
se denominan clases de homotopa de aplicaciones. [1]

1.2 Tipo homotpico


f g
Se dice que dos espacios X, Y tienen el mismo tipo homotpico, si existe un par de aplicaciones X Y y Y X
tales que g f y f g son homotpicos a IdX y IdY respectivamente.
Suele ser utilizado el smbolo: f g , para indicar que los objetos f y g son homotpicos.
Como ejemplos, una 1-esfera y un toro slido tienen el mismo tipo homotpico.

1.3 Referencias
[1] Munkres: Topologa

1.4 Literatura del caso


Weisstein, Eric W. Homotopa. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.

Hazewinkel, Michiel, ed. (2001), Homotopa (en ingls), Encyclopaedia of Mathematics, Springer, ISBN
978-1556080104

1.5 Enlaces externos

Wikiversidad alberga proyectos de aprendizaje sobre Homotopa.Wikiversidad


Captulo 2

Grupo fundamental

Mediante lazos con base en un punto jo podemos explorar el espacio topolgico al que pertenece. Las clases de equivalencia de
estos lazos formarn el grupo fundamental.

En topologa, podemos asociar a cada punto p de un espacio topolgico X un grupo que nos informa sobre la estruc-
tura 1-dimensional de la porcin de espacio que rodea a este punto. Los elementos de este grupo, llamado grupo
fundamental de X relativo al punto base p,[1] son clases de equivalencia de lazos (curvas cerradas) con origen en
el punto p.
Existen generalizaciones a dimensin superior de este grupo, que reciben el nombre de grupos de homotopa. El grupo
fundamental recibe tambin el nombre de primer grupo de homotopa. De ah la forma comn de notarlo como
1 (X, p) .

2.1 Deniciones

2.1.1 Lazo
Sea X un espacio topolgico, y p un punto jo de X . Un lazo con base en p es una aplicacin continua : [0, 1] X
que verica (0) = (1) = p .
{
(2t) 0 t 21
El producto de dos lazos y se dene como ( )(t) = Esto es, el lazo
(2t 1) 12 t 1
primero recorre el camino de , pero a doble velocidad y despus el de , tambin a doble velocidad.

3
4 CAPTULO 2. GRUPO FUNDAMENTAL

2.1.2 Clases de homotopa


Las clases de homotopa son las clases de equivalencia debidas a la relacin de ser homotpico. Dos lazos , :
[0, 1] X con base en un punto comn p son homotpicos si existe una aplicacin continua H : [0, 1][0, 1] X
tal que

H(s, 0) = (s)
H(s, 1) = (s)
H(0, t) = p
H(1, t) = p
Intuitivamente una clase de homotopa representa un paquete de curvas que son deformables entre s.

2.1.3 Grupo fundamental


El producto de dos clases de homotopa de lazos [f] y [g] se dene como [f g]. Puede demostrarse que este pro-
ducto est bien denido al ser independiente de la eleccin de representantes. Este producto nos permite obtener una
estructura de grupo: el elemento neutro ser la clase [] del lazo trivial denido como (t) = p para todo t; el inverso
de la clase de un lazo [f] ser la clase del mismo lazo recorrido en sentido contrario (es decir, f 1 (t) = f(1 t))
El grupo fundamental de un espacio topolgico X basado en un punto p X , notado como 1 (X, p) , es el
conjunto de clases de homotopa de curvas cerradas con la operacin yuxtaponer clases.

2.2 Propiedades
Si el espacio es arco-conexo, los diferentes grupos 1 (X, p) y 1 (X, q) para dos puntos p, q X son
isomorfos. Siendo posible hablar de el grupo fundamental del espacio: 1 (X) .
Una aplicacin continua f : X Y entre dos espacios topolgicos induce una aplicacin del conjunto de
lazos de X sobre el de lazos de Y. Esta aplicacin se induce tambin sobre las clases respectivas y se convierte
en un homomorsmo f entre los grupos fundamentales denido de este modo: f [] = [f ] .
La asignacin dada por X 1 (X) que va de la categora de espacios topolgicos a la categora de grupos
es un functor.
Este invariante puede ser calculado mediante la tcnica de grafo de grupos conocida como el Teorema de
Seifert-van Kampen. Con este resultado basta descomponer el espacio en 2 espacios ms simples donde el
grupo fundamental sea conocido.

2.3 Ejemplos
En muchos espacios slo existe una clase de homotopa de lazos, y en consecuencia, el grupo fundamental
es trivial. Un espacio topolgico con grupo fundamental trivial se dice simplemente conexo. Rn , o cualquier
subconjunto convexo de Rn lo son. La esfera de dimensin n con n mayor o igual que 2 tambin lo es.

El espacio topolgico ms simple no simplemente conexo es la circunferencia: su grupo fundamental es iso-


morfo al grupo aditivo de los nmeros enteros Z. El nmero entero asociado a cada lazo de S 1 es el nmero
de vueltas que ese lazo da en torno a ella.

Si X e Y son dos espacios topolgicos arcoconexos, el grupo fundamental del producto X x Y es isomorfo al
producto de los grupos de ambos espacios. Por ejemplo, si para la circunferencia, 1 (S 1 ) = Z . Para el toro,
homeomorfo a un producto de circunferencias, 1 (T 2 ) = Z Z .

El grupo fundamental no tiene por qu ser conmutativo. Por ejemplo, el grupo fundamental del plano privado
de dos puntos R2 {a; b} es isomorfo al grupo libre con dos generadores F2 . Estos dos generadores son las
clases de los lazos que pasando por un punto p rodean a cada uno de los puntos eliminados.
2.4. REFERENCIAS Y NOTAS 5

2.4 Referencias y notas


[1] Munkres: Topologa ISBN 978-84-205-3180-9, printed in spain

2.5 Bibliografa
Masey, W.S. A basic course in algebraic topology. GTM 127. Springer-Verlag. ISBN 0-387-97430-X

Munkres, J., Topology, Prentice Hall (2000) ISBN 0131816292

Wikimedia Commons alberga contenido multimedia sobre Grupo fundamental. Commons


Captulo 3

Espacio recubridor

p, X] donde X,
En topologa, un espacio recubridor o espacio cubriente es una tripleta [X, X son espacios topo-
lgicos y p : X X es una funcin continua y sobreyectiva

Adems se cumple que x X U abierto en X vecindad de x tal que


p1 U = j
U
j

j son disjuntos y para cada U


donde los U j U es un homeomorsmo.
j la aplicacin p| : U
Uj
El concepto de espacio cubriente se utiliza en ciencias tales como la geometra diferencial, los grupos de Lie,
supercies de Riemann, homotopa, teora de nudos.
El ejemplo prototipo es R S 1 dado por t 7 eit .

3.1 Recubridor universal


Entre todos los espacios recubridores de un espacio X se llama recubridor universal al espacio recubridor simple-
mente conexo. Puede probarse que el espacio recubridor universal es nico salvo homeomorsmos. En otras palabras
un espacio cubriente se llama universal si es simplemente conexo, i.e. su primer grupo de homotopa es trivial.

3.2 Vase tambin


Fibrado

Cubierta ramicada

3.3 Referencias
W.S. Massey. Introduccin a la topologa algebraica. Ed. Revert, S.A. 1982. ISBN 84-291-5091-9.

C. Kosniowski. A rst course in algebraic topology. Cambridge Univ. Press. 1980. ISBN 0-521-23195-7.

6
3.3. REFERENCIAS 7

Y es un cubriente de X.
Captulo 4

Teorema fundamental del lgebra

El teorema fundamental del lgebra establece que todo polinomio de grado mayor que cero tiene una raz.[1] El
dominio de la variable es el conjunto de los nmeros complejos, que es un hiperconjunto de los nmeros reales.
Aunque este enunciado, en principio, parece ser una declaracin dbil, implica que todo polinomio de grado n de
una variable con grado mayor que cero con coecientes complejos tiene, contando las multiplicidades, exactamente
n races complejas. La equivalencia de estos dos enunciados se realiza mediante la divisin polinmica sucesiva por
factores lineales.
Hay muchas demostraciones de esta importante proposicin, que requieren bastantes conocimientos matemticos
para formalizarlas.

4.1 Historia
Pedro Rothe (Petrus Roth), en su libro Arithmetica Philosophica (publicado en 1608), escribi que una ecuacin
polinmica de grado n (con coecientes reales) puede tener n soluciones. Alberto Girardo, en su libro L'invention
nouvelle en l'Algebre (publicado en 1629), asever que una ecuacin de grado n tiene n soluciones, pero no menciona
que dichas soluciones deban ser nmeros reales. Ms an, l agrega que su aseveracin es vlida salvo que la ecuacin
sea incompleta, con lo que quiere decir que ninguno de los coecientes del polinomio sea igual a cero. Sin embargo,
cuando explica en detalle a qu se est reriendo, se hace evidente que el autor piensa que la aseveracin siempre es
cierta; en particular, muestra que la ecuacin

x4 = 4 x 3

a pesar de ser incompleta, tiene las siguientes cuatro soluciones (la raz 1 tiene multiplicidad 2):


1, 1, 1 + i 2 y 1 i 2.

Leibniz en 1702 y ms tarde Nikolaus Bernoulli, conjeturaron lo contrario.


Como se mencionar de nuevo ms adelante, se sigue del teorema fundamental del lgebra que todo polinomio con
coecientes reales y de grado mayor que cero se puede escribir como un producto de polinomios con coecientes
reales del cual sus grados son 1 2. De todas formas, en 1702 Leibniz dijo que ningn polinomio de tipo x4 + a4
(con a real y distinto de 0) se puede escribir en tal manera. Luego, Nikolaus Bernoulli hizo la misma armacin
concerniente al polinomio x4 4x3 + 2x2 + 4x + 4 , pero recibi una carta de Euler en 1742 en el que le deca que
su polinomio pasaba a ser igual a:


(x2 (2 + )x + 1 + 7 + )(x2 (2 )x + 1 + 7 )

con igual a raz cuadrada de 4 + 27. Igualmente mencion que:

8
4.2. ENUNCIADO Y EQUIVALENCIAS 9


x4 + a4 = (x2 + a 2x + a2 )(x2 a 2x + a2 ).

El primer intento que se hizo para demostrar el teorema lo hizo d'Alembert en 1746. Su demostracin tena un fallo,
en tanto que asuma implcitamente como cierto un teorema (actualmente conocido como el teorema de Puiseux)
que no sera demostrado hasta un siglo ms tarde. Entre otros Euler (1749), de Foncenex (1759), Lagrange (1772) y
Laplace (1795) intentaron demostrar este teorema.
A nales del siglo XVIII, se presentaron dos nuevas pruebas, una por James Wood y otra por Gauss (1799), pero
ambas igualmente incorrectas. Finalmente, en 1806 Argand public una prueba correcta para el teorema, enun-
ciando el teorema fundamental del lgebra para polinomios con coecientes complejos. Gauss produjo otro par de
demostraciones en 1816 y 1849, siendo esta ltima otra versin de su demostracin original.
El primer libro de texto que contiene la demostracin de este teorema fue escrito por Cauchy. Se trata de Course
d'anlyse de l'cole Royale Polytechnique (1821). La prueba es la debida a Argand, pero sin embargo en el texto no se
le da crdito.
Ninguna de las pruebas mencionadas ms arriba son constructivas. Es Weierstrass quien por primera vez, a mediados
del siglo XIX, menciona el problema de encontrar una prueba constructiva del teorema fundamental del lgebra. En
1891 publica una demostracin de este tipo. En 1940 Hellmuth Knesser consigue otra prueba de este estilo, que luego
sera simplicada por su hijo Marin Kneser en 1981.

4.2 Enunciado y equivalencias


El teorema se enuncia comnmente de la siguiente manera:
Es ampliamente conocido tambin el enunciado: Un polinomio en una variable, no constante y con coecientes
complejos, tiene tantas races[3] como indica su grado, contando las races con sus multiplicidades. En otras palabras,
dado un polinomio complejo p(z) de grado n 1, la ecuacin p(z) = 0 tiene exactamente n soluciones complejas,
contando multiplicidades.
Otras formas equivalentes del teorema son:

El cuerpo de los complejos es cerrado para las operaciones algebraicas.


Todo polinomio complejo de grado n 1 se puede expresar como un producto de n polinomios lineales, es
decir


n
n
p(z) = ak z k = an (z bi ).
k=0 i=1

4.3 Demostracin
Sea p un polinomio de grado n . p es una funcin entera. Para cada constante positiva m , existe un nmero real
positivo r tal que

|p(z)| > m, si |z| > r.

Si p no tiene races, la funcin f = 1/p , es una funcin entera con la propiedad de que para cualquier nmero real
mayor que cero, existe un nmero positvo r tal que

|f (z)| < , si |z| > r.

Concluimos que la funcin f es acotada. Pero el teorema de Liouville dice que si f es una funcin entera y acotada,
entonces, f es constante y esto es una contradiccin.
10 CAPTULO 4. TEOREMA FUNDAMENTAL DEL LGEBRA

De manera que f no es entera y por tanto p tiene al menos una raz. p se puede escribir por tanto como el producto

p(z) = (z 1 )q(z),

donde 1 es una raz de p y q es un polinomio de grado n 1 . Por el argumento anterior, el polinomio q a su vez
tiene al menos una raz y se lo puede factorizar nuevamente.
Repitiendo este proceso n 1 veces,[4] concluimos que el polinomio p puede escribirse como el producto

p(z) = k (z 1 )(z 2 ) (z n )

donde 1 ... n son las races de p (no necesariamente distintas) y k es una constante.

4.3.1 Corolarios
Como el teorema fundamental del lgebra puede ser visto como la declaracin de que el cuerpo de los nmeros com-
plejos es algebraicamente cerrado, se sigue que cualquier teorema concerniente a cuerpos algebraicamente cerrados
aplican al cuerpo de los nmeros complejos. Se muestran aqu algunas consecuencias del teorema, acerca del cuerpo
de los nmeros reales o acerca de las relaciones entre el cuerpo de los reales y el cuerpo de los complejos:

El cuerpo de los nmeros complejos es la clausura algebraica del cuerpo de nmeros reales.

Todo polinomio en una variable x con coecientes reales es el producto de un polinomio constante de la forma
x + a con a real, y polinomios de la forma x2 + ax + b con a y b reales y a2 4b < 0 (que es lo mismo que
decir que el polinomio x2 + ax + b no tiene races reales).

Toda funcin racional en una variable x , con coecientes reales, se puede escribir como la suma de una funcin
polinmica con funciones racionales de la forma a/(xb)n (donde n es un nmero natural, y a y b son nmeros
reales), y funciones racionales de la forma (ax + b)/(x2 + cx + d)n (donde n es un nmero natural, y a , b ,
c , y d son nmeros reales tales que c2 4d < 0 ). Un corolario de esto es que toda funcin racional en una
variable y coecientes reales tiene una primitiva elemental.

Toda extensin algebraica del cuerpo de los reales es isomorfa al cuerpo de los reales o al cuerpo de los com-
plejos.

4.4 Referencias
[1] William R. Derick: Variable Compleja con aplicaciones. ISBN 968-7270-35-5

[2] J. Rey Pastor, P. Pi Calleja, C. A. Trejo. Anlisis matemtico I. Buenos Aires: Kapelusz. 18-1. El texto dice: Toda ecuacin
algebraica en una incgnita z de grado n 1.... La cita fue adaptada al contexto del artculo.

[3] Se dice que el nmero z es una raz de un polinomio p si p(z) = 0 .

[4] En el ltimo paso, lo que queda es un polinomio de grado uno multiplicado por una constante

4.5 Enlaces externos


Fundamental Theorem of Algebra a collection of proofs (en ingls)
D. J. Velleman: The Fundamental Theorem of Algebra: A Visual Approach, PDF (unpublished paper), visua-
lisation of d'Alemberts, Gausss and the winding number proofs (en ingls)
Weisstein, Eric W. Fundamental Theorem of Algebra. En Weisstein, Eric W. MathWorld (en ingls). Wolfram
Research.
Captulo 5

Teorema de la bola peluda

Si un campo vectorial sobre una esfera se simboliza por pelos de longitud constante, el teorema de la bola peluda estipula que la
esfera contiene al menos un rizo. La gura contiene dos, uno en cada polo.

En matemtica, y ms precisamente en topologa diferencial, el teorema de la bola peluda es un resultado que se


aplica a esferas que en cada punto poseen un vector, visualizado como un pelo tangente a la supercie. Arma que
la funcin que asocia a cada punto de la esfera el vector admite al menos un punto de discontinuidad, lo que signica
que el peinado contiene un bucle o rizo, es decir que habr zonas vacas (o calvicie).
De manera ms rigurosa, un campo vectorial continuo denido sobre una esfera de dimensin par, al menos igual a 2,
se anula en al menos un punto. Este resultado se relaciona con los llamados teoremas de punto jo y tiene numerosas
aplicaciones en reas como la meteorologa o la computacin grca.

11
12 CAPTULO 5. TEOREMA DE LA BOLA PELUDA

5.1 Representacin intuitiva


Se representa intuitivamente[1] una esfera recubierta por pelos lisos y no crespos, cada punto de la esfera es la raz
de un pelo. A continuacin, se considera la proyeccin sobre el plano tangente a la esfera en el punto en que el pelo
crece: el conjunto de estas proyecciones da una buena idea de un campo de vectores tangentes a la esfera. Lo que
se busca entonces es peinar estos pelos alisndolos sobre la supercie de la bola, evitando las discontinuidades: el
peinado no tiene raya, no se permite a ningn pelo cambiar bruscamente de direccin con respecto a los otros. El
teorema arma entonces que es imposible obtener este resultado: cualquier intento causar al menos un rizo, es decir
un punto en que un pelo se parar.

5.2 Enunciado
Nota: en dimensin impar, s es posible construir campos vectoriales continuos que no se anulan nunca.

5.3 Historia
Este teorema fue demostrado por primera vez por Luitzen Egbertus Jan Brouwer en 1912.[2] La prueba generaliza
los resultados obtenidos con anterioridad como el teorema de la curva de Jordan[3] o los trabajos de Leopold Kronec-
ker sobre las funciones continuamente diferenciables de la esfera real de dimensin n- 1 en un espacio vectorial de
dimensin n.[4] Estos resultados, aunque de formulacin intuitiva, requieren para su demostracin desarrollos a veces
tcnicos. Un ejemplo arquetpico de resultados de la misma naturaleza es el teorema del punto jo de Brouwer, el
cual enuncia que toda aplicacin continua de una bola cerrada de un espacio vectorial euclidiano de dimensin nita
en l mismo, admite un punto jo.

5.4 Demostracin
Muchas de las demostraciones de este teorema son por reduccin al absurdo. Los formalismos matemticos re-
queridos en algunas de ellas escapan a las pretensiones del presente artculo.[Ver bibliografa]

5.4.1 Demostracin visual por el disco


Es una demostracin que utiliza el argumento del reductio ad absurdum (se pueden construir anlogos tridimensio-
nales: se quiere demostrar que no puede haber campo vectorial tangente y continuo, que no se anule nunca sobre
la esfera ordinaria en el espacio tridimensional). Al razonar por el absurdo, se supone que s existe una aplicacin
continua f del disco unitario en l mismo, tal que f (x) es distinta de x para cualquier x del disco. Lo que se busca
es fabricar una bola peluda sin rizo ni calvicie, y obtener as una contradiccin.
Si se tiene una aplicacin f sin punto jo, entonces cada punto x del disco permite denir un vector no nulo, el
vector f (x) x . Intuitivamente, la idea es plegar una esfera cortada por la mitad, y hacerla coincidir exactamente
con el semi-disco.

Al pegar nuevamente ambos hemisferios de la esfera, los campos tangentes se recomponen continuamente, obtenin-
dose as un peinado continuo y sin calvicie, que es la contradiccin deseada.
5.4. DEMOSTRACIN 13

5.4.2 Formalizacin geomtrica

Se razona nuevamente por el absurdo. Dada una esfera, se eligen un polo norte y un polo sur, as como una orientacin.
De este modo se puede hablar de paralelos de la esfera y orientarlos de manera continua. Adicionalmente, se dene
un sistema referencial mvil tangente a la esfera. Se le puede asociar entonces a cada paralelo un nmero: el nmero
de vueltas del campo vectorial en el sistema mvil a lo largo de ese paralelo. Este nmero est bien denido pues el
campo vectorial no se anula; depende continuamente de la latitud del paralelo -segn los resultados estndares sobre
la continuidad del nmero de vueltas- y es entero. Por lo tanto es constante.
A continuacin, se calcula el nmero de vueltas en la vecindad del polo norte, punto en que el sistema de referencia
mvil cesa de estar denido. Para paliar esta dicultad, se proyectan a la vez el campo vectorial v y es sistema mvil
sobre el plano tangente al polo norte. La orientacin de este plano tangente se deduce de la orientacin de la esfera.
Por continuidad, el nmero de vueltas no cambia y vale m y m vale +1 o 1 segn la eleccin de la orientacin
de los paralelos.
Siguiendo un razonamiento similar en una vecindad del polo sur, el sistema mvil dar una vuelta alrededor del polo
sur en el sentido de los paralelos, mas para mantener una orientacin coherente con la de la esfera, en tanto que
plano en el espacio de tres dimensiones, el plano tangente debe estar orientado en el sentido opuesto, y por lo tanto
el nmero de vueltas ser m , lo cual es una contradiccin.
14 CAPTULO 5. TEOREMA DE LA BOLA PELUDA

5.4.3 Formalizacin analtica

Para el desarrollo algebraico formal de las demostraciones expuestas, se puede tomar, por ejemplo, x como un punto
corriente de la esfera y v(x) el campo de vectores; a continuacin se parametriza la esfera en coordenadas polares
(suponiendo un radio 1):

x1 = cos cos , x2 = sin cos , x3 = sin

con 0 <2 y /2 /2 . El resultado muestra la contadiccin esbozada, al calcular el nmero de vueltas


del campo tangente, con una determinada orientacin, en la vecindad de los polos.

5.5 Generalizacin
La demostracin analtica debida a Milnor generaliza el teorema al caso de cualquier dimensin.[5] Una demostracin
ligeramente diferente es debida a A. Rogers.[6]
Otras pruebas se basan en conceptos de la topologa algebraica; una demostracin clsica utiliza la caracterstica de
Euler; tambin se puede formular como un caso particular del teorema de Poincar-Hopf; otras pruebas se basan
5.6. APLICACIONES Y CONSECUENCIAS 15

En un toro la situacin es diferente.

en propiedades de homotopa matemtica (teorema de Borsuk-Ulam). En el caso de la esfera ordinaria, es posible


deducir una demostracin a partir del lema de Sperner.
Existe un argumento relacionado (en topologa algebraica) que se basa en el nmero de Lefschetz y los nmeros de
Betti: en una 2-esfera, el nmero de componentes conectadas (nmero de Betti) son 1, 0, 1, 0, 0, ... Los nmeros de
Lefschetz (la traza total de homologa) de la funcin identidad es igual a 2; al integrar el campo vectorial, se obtiene
un difeomorsmo de la esfera. Se requiere algo ms de trabajo riguroso para mostrar que, debido a que el nmero de
Lefschetz no se anula, debe haber un punto en el que el campo vectorial sea cero.
La generalizacin del teorema est ntimamente conectada con la caracterstica de Euler : la 2n-esfera no tiene un
campo vectorial que no se anule para n 1. Esto es una consecuencia directa del teorema de PoincarHopf. En el
caso especco de un toro matemtico, por ejemplo, la caracterstica de Euler es 0, por lo que s es posible obtener un
peinado sin bucles ni zonas claras.

5.6 Aplicaciones y consecuencias


Las consecuencias del teorema son numerosas y no se limitan a las matemticas.

5.6.1 Teorema del punto jo de Brouwer


Es posible demostrar el teorema del punto jo de Brouwer a partir del teorema de la bola peluda:

5.6.2 Corolario
Una consecuencia del teorema de la bola peluda es que toda funcin continua que mapee una esfera en s misma
tiene o bien un punto jo o bien un punto que se mapea en su punto antpodo. Esto se puede ver al transformar una
funcin en un campo vectorial tangente y deniendo por ejemplo una proyeccin estereogrca de la funcin sobre
la esfera. El teorema asegura qua habr al menos un punto p para el cual la proyeccin ser 0.
16 CAPTULO 5. TEOREMA DE LA BOLA PELUDA

5.6.3 Meteorologa

Ojo del cicln tropical.

El teorema tiene consecuencias en meteorologa; se considera una modelizacin esquemtica del viento como vector
denido continuamente en cada punto sobre la supercie del planeta con atmsfera. Como una idealizacin, el viento
tiene componentes vectoriales bidimensionales, y su movimiento a lo largo del eje vertical es nulo.
Bajo estas condiciones, la falta absoluta de viento corresponde a una solucin posible: el campo de vectores nulos. Este
escenario no presenta mayor inters desde el punto de vista del teorema, y es fsicamente irrealista (viento siempre
habr). En el caso en que hay algo de viento, el teorema de la bola peluda dice que en todo momento debe haber al
menos un punto en el planeta sin nada de viento.
En un sentido fsico, esta zona de no viento corresponde al ojo de un cicln o anticicln (efecto observable, por
ejemplo, en la vellosidad de un pelota de tenis, de forma espiral alrededor de esta zona). El teorema de la bola
peluda impone la existencia permanente de un punto sobre la tierra en donde el viento se modeliza por un sistema
arremolinado y, en su centro, un ojo.
Esta consecuencia se observa de hecho en la realidad. El teorema no dice nada sin embargo acerca de la talla del
vrtice o la potencia de los vientos que lo rodean.

5.6.4 Computacin grca


Un problema comn en computacin grca es el de generar, en el espacio tridimensional, un vector no nulo que sea
ortogonal a una zona no nula dada. No existe una funcin continua que pueda hacer esto para todos los vectores no
nulos dados. Este es un corolario del teorema de la bola peluda. Para verlo, puede considerarse el vector dado como
el radio de una esfera: encontrar un vector ortogonal no nulo ortogonal a uno dado sera equivalente a encontrar un
vector no nulo que sea tangente a la supercie de esa esfera. El teorema asegura que no existe una funcin continua
que pueda denirse en cada punto de una esfera (i.e. para cada vector dado).

5.7 Vase tambin


Teorema del punto jo de Brouwer
5.8. NOTAS Y REFERENCIAS 17

Campo vectorial continuo tangente sobre una 2-esfera.

Teoremas de punto jo

5.8 Notas y referencias


[1] Benot Rittaud, Le journal de maths des lves, 1 (1994), ENS de Lyon

[2] Luitzen Egbertus Jan Brouwer, ber Abbildung von Mannigfaltigkeiten Mathematische Annalen, 1912

[3] Este teorema enuncia que un bucle simple divide al plano en dos componentes conexas. Fue demostrado rigurosamente en
1905: Oswald Veblen, Theory on plane curves in non-metrical analysis situs, Transactions of the American Mathematical
Society 6 (1905), pp. 8398

[4] Leopold Kronecker ber Systeme von Funktionen mehrerer Variabeln Monatsber. Berlin Akad. 1869 pp. 159193 y 688
698

[5] J. Milnor, Analytic proofs of the hairy ball theorem and the Brouwer xed point, Am. Math. Monthly 85(1978)521-524.

[6] C. A. Rogers, A less strange version of Milnors proof of Brouwer xed point theorem, Amer. Math. Monthly 87(1980)525-
527
18 CAPTULO 5. TEOREMA DE LA BOLA PELUDA

5.9 Bibliografa
J. W. Milnor, Topology from the dierentiable viewpoint Princeton Univ. 1997 ISBN 069104833957. (en ingls)

N. E. Chinn W. G. Steenrod Topologie lmentaire Dunod 1991 ISBN 2040048480. (en francs)
M. Eisenberg, R. Guy, A Proof of the Hairy Ball Theorem The American Mathematical Monthly Vol. 86, No.
7 (Aug. Sep., 1979), pp. 571574. (en ingls)
Murray Eisenberg, Robert Guy, A Proof of the Hairy Ball Theorem, The American Mathematical Monthly,
Vol. 86, No. 7 (Aug. - Sep., 1979), pp. 571574. (en ingls)

5.10 Enlaces externos


Esta obra deriva de la traduccin parcial de Thorme de la boule chevelue de Wikipedia en francs, con-
cretamente de esta versin, publicada por sus editores bajo la Licencia de documentacin libre de GNU y la
Licencia Creative Commons Atribucin-CompartirIgual 3.0 Unported.

Esta obra deriva de la traduccin parcial de Hairy ball theorem de Wikipedia en ingls, concretamente de esta
versin, publicada por sus editores bajo la Licencia de documentacin libre de GNU y la Licencia Creative
Commons Atribucin-CompartirIgual 3.0 Unported.
Captulo 6

Teorema de Seifert-van Kampen

En matemticas, concretamente en topologa algebraica, el teorema de Seifertvan Kampen, a veces conocido


simplemente como el teorema de van Kampen, expresa la estructura del grupo fundamental de un espacio topolgico
X respecto de los grupos fundamentales de dos subespacios abiertos y conexos por caminos U y V que recubren X.
Se puede emplear por tanto para obtener el grupo fundamental de espacios construibles a partir de espacios ms
sencillos.

6.1 Vase tambin


Grupoide

6.2 Enlaces externos


Van Kampens theorem result en PlanetMath

19
Captulo 7

Supercie (matemtica)

Ilustracin de una supercie curvada, inmersa en R3 , orientable y con borde; sobre la que se ha dibujado un conjunto de lneas
coordenadas ortogonales.

Una supercie es de hecho un conjunto de puntos de un espacio eucldeo que forma un espacio topolgico bidimen-
sional que localmente, es decir, visto de cerca se parece al espacio eucldeo bidimensional. As alrededor de cada
punto de una supercie esta se aproxima bien por el plano tangente a la supercie en dicho punto.
Una denicin tradicional de supercie que alude a trminos intuitivos pero con la que resulta fcil trabajar desde un
punto de vista matemtico fue la dada por Euclides:

Una supercie es aquello que slo tiene longitud y anchura.


Euclides, Los Elementos, Libro I, denicin 5.

20
7.1. DEFINICIONES FORMALES 21

7.1 Deniciones formales


Una supercie es una variedad bidimensional, es decir, un objeto topolgico que localmente se parece al plano
eucldeo R2 (tcnicamente localmente homeomorfo al plano). Eso signica que si tomamos un rea muy pequea
de la supercie es parecida al plano eucldeo, al igual que en medio de una llanura la supercie local de la tierra nos
parece plana.
Ms formalmente el homeomorsmo local entre una supercie y el plano eucldeo implica que para cada punto de
una supercie hay una vecindad de P (una pequea regin que la rodea) que es homeomorfa a un disco abierto de R2
. Esta propiedad de ser homeomorfa con el plano permite construir un sistema de coordenadas local bidimensional en
torno a cualquier punto en la supercie. Se puede llamar al homeomorsmo local que va de la supercie a R2 como
carta y al inverso (de este homeomorsmo) parametrizacin. No siempre es posible parametrizar una supercie con
un nico homeomorsmo local.
Una supercie (topolgica) con frontera es un espacio topolgico de tipo Hausdor en que cada punto tiene una
vecindad abierta V para la que existe un homeomorsmo con un conjunto abierto del semiplano superior del plano
eucldeo E2 . El par ordenado (V, ) se llama carta (local) de coordenadas del punto [esta carta no es nica porque
para cada punto existen de hecho muchas posibles elecciones de coordenadas].

7.2 Propiedades y tipos de supercies


Las supercies usuales son versiones curvadas del plano, de hecho son localmente homeomorfas a l. No es extrao por
tanto que varios tipos de supercies interesantes en las aplicaciones, se denan a partir de propiedades de curvatura
respecto al plano eucldeo o en trminos de isometras. Adems otros conceptos topolgicos interesantes como la
orientabilidad permiten expresar formalmente ciertas propiedades de las supercies.

7.2.1 Supercies cerradas

Un ejemplo de una supercie cerrada y mltiplemente conexa es el triple toro.


22 CAPTULO 7. SUPERFICIE (MATEMTICA)

Intuitivamente una superce cerrada en el espacio tridimensional es cualquier superce que encierra un volumen,
dividiendo a dicho espacio en una regin acotada y una regin no acotada. En 4 o ms dimensiones tambin existen
supercies cerradas pero la nocin intuitiva anterior no es vlida, ya que las supercies cerradas en ms dimensiones
no dividen al espacio de esta forma.

Puede comprobarse que en tres dimensiones una supercie sin borde encierra un volumen, como por ejemplo
la esfera y el toro o donut, estas supercies son adems supercies orientables. De hecho todas las super-
cies cerradas inmersas en el espacio tridimensional son orientables, a diferencia de lo que ocurre en ms
dimensiones.
Otras supercies cerradas ms exticas son el plano proyectivo y la botella de Klein (denible en 4 dimensiones).
Un disco (en R2 ), un cilindro de altura nita o la banda de Mbius son ejemplos de supercies con frontera.
Como la imagen de la derecha.

7.2.2 Supercies desarrollables, regladas y alabeadas


Algunas supercies tienen propiedades interesantes que son expresables en trminos de su curvatura, estos tipos son
las supercies desarrollables, regladas y alabeadas:

Intuitivamente una supercie es desarrollable si puede fabricarse a partir de un plano eucldeo mediante do-
blado. El cono y el cilindro son desarrollables, lo cual se maniesta en que se pueden construir modelos
apropiados a partir de una hoja de papel o cartulina plana. Formalmente dada una supercie desarrollable
existe una isometra entre la supercie y el plano eucldeo. Una condicin necesaria y suciente para que una
supercie se desarrollable, se desprende del theorema egregium de Gauss, es que la curvatura gaussiana de dicha
supercie sea idnticamente nula.
Una supercie es reglada cuando el plano tangente para cada punto de la misma contiene una lnea recta
completamente contenida sobre la supercie. Una condicin necesaria es que la segunda forma fundamental
sea en ese punto una forma cuadrtica indenida y por tanto la curvatura gaussiana es negativa.
Una supercie alabeada es una supercie reglada y no-desarrollable.

7.2.3 Supercies orientables


Una ltima propiedad menos intutiva es la de orientabilidad, que permite distinguir entre supercies orientables y no-
orientables. Una supercie orientable puede denirse simplemente como una variedad orientable de dimensin dos,
donde toda curva cerrada simple contenida tiene una vecindad regular homeomorfa a un cilindro abierto. Cualquier
variedad de dimensin dos que no es orientable es una supercie no-orientable. Esto es, existe al menos una curva
cerrada simple contenida que tiene una vecindad regular homeomorfa a una banda de Mbius.
Las supercies orientables cerradas tienen la propiedad de dividir el espacio tridimensional (donde siempre pueden
ser encajadas) en dos regiones diferentes y disjuntas: una acotada por dicha supercie que es de volumen nito y otra
no acotada exterior a dicho volumen.
Este trmino se utiliza para distinguirlas de las supercies que no encierran nada en su interior, como un plano innito
en referencia al espacio tridimensional. Es imposible hablar de que las supercies no orientables dividan el espacio
tridimensional pues estas supercies no pueden ser encajadas en l.

7.3 Teorema de clasicacin de supercies cerradas


Un importante resultado matemtico es el teorema de clasicacin de supercies cerradas, el cual arma que toda
supercie cerrada (es decir, compacta y sin frontera o borde) es homeomorfa a algn miembro de las siguientes tres
familias de supercies:

1. la esfera;
2. la suma conexa de g -toros, siendo g 1 ;
7.4. VASE TAMBIN 23

La banda de Mbius es una supercie no-orientable con una frontera (su frontera es una curva cerrada simple).

3. la suma conexa de k planos proyectivos reales, siendo k 1 .

Dicho de otra manera, las supercies anteriores son todas las supercies cerradas que existen (salvo homeomors-
mo). La supercies de las dos primeras familias son orientables. Es conveniente combinar las dos primeras familias,
considerando la esfera como la suma conexa de cero toros. El nmero g de toros involucrados en la construccin se
denomina gnero de la supercie. Puesto que la esfera y el toro tienen caractersticas de Euler 2 y 0, respectivamente,
se deduce que la caracterstica de Euler de la suma conexa de g toros es precisamente 2 2g .
Las supercies de la tercera familia son no-orientables. La caracterstica de Euler del plano proyectivo real es 1, as
la suma conexa de k de ellos es is 2 k .
De todo esto se sigue, que una supercie cerrada est determinada -salvo homeomorsmo- por dos propiedades: el
valor numrico de su caracterstica de Euler (o su gnero) y si es o no-orientable.
Es posible clasicar tambin las supercies que no son cerradas (es decir, con frontera). Esto se obtiene como el
esquema anterior, aadiendo el nmero de fronteras que tiene la supercie.

7.4 Vase tambin


Variedad diferenciable

Variedad algebraica

Variedad topolgica

Geometra diferencial de supercies

rea
24 CAPTULO 7. SUPERFICIE (MATEMTICA)

Deformando una 2-variedad con frontera.

Cudrica

7.5 Enlaces externos

Wikimedia Commons alberga contenido multimedia sobre Supercie. Commons


Surface en la Enciclopedia en-lnea de la Springer-Verlag

Clasicacin de las supercies, en webdelprofesor.ula.ve


Captulo 8

Homologa (matemtica)

En matemtica (especialmente en topologa algebraica y en lgebra homolgica), la homologa (en Griego homos =
idntico) es un procedimiento general para asociar un objeto matemtico dado (por ejemplo un espacio topolgico o
un grupo) con una sucesin de grupos abelianos, es decir una accin functorial.
Para un espacio topolgico, los grupos de homologa son generalmente mucho ms fciles de computar que los grupos
de homotopa, y consecuentemente, uno habitualmente tendr un trabajo ms simple con homologa para ayudar en
la clasicacin de espacios.
La motivacin original de homologa era denir y clasicar los agujeros de un espacio topolgico. En este caso, los
grupos de homologa describen agujeros del espacio topolgico. Cada generador indica la existencia de un agujero y
las propiedades del grupo indica la estructura del espacio topolgico como dimensin y orientabilidad.

8.1 Denicin
Se dene el n-simo grupo de homologa asociado a un complejo de cadenas

n+1
. . . An+1 An A
n
n1 . . .

donde n n+1 = 0
como el grupo abeliano

ker(n )
H(An ) = .
im(n+1 )
Tambin se utiliza la notacin

Hn (A) , donde A es el complejo de cadenas respectivo.

Se llama ker(n ) los ciclos en An y se llama im(n+1 ) las fronteras de An .


Se dice que la homologa mide la falta de exactitud de un complejo de cadenas en cada uno de sus eslabones. Por
ejemplo si tenemos un complejo de cadenas corto

a a
0 A1 A
1
2 A3 0
2

entonces sus correspondientes grup(os de homologa son:

ker a2 A3
H(A1 ) = ker a1 , H(A2 ) = , H(A3 ) =
im a1 im a2
Es obvio que si la sucesin fuese exacta, entonces estos grupos seran triviales (=0).

25
26 CAPTULO 8. HOMOLOGA (MATEMTICA)

8.2 Vase tambin


lgebra homolgica
Cohomologa

8.3 Referencias
Hatcher, Allen (2002) Algebraic Topology Cambridge University Press

8.4 Enlaces externos


Weisstein, Eric W. Homology. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.
8.5. TEXT AND IMAGE SOURCES, CONTRIBUTORS, AND LICENSES 27

8.5 Text and image sources, contributors, and licenses


8.5.1 Text
Homotopa Fuente: http://es.wikipedia.org/wiki/Homotop%C3%ADa?oldid=81043916 Colaboradores: Richy, Orgullobot~eswiki, We-
we, Eskimbot, Juan Marquez, Alonsorgaz, TXiKiBoT, SieBot, Drinibot, Gato ocioso, DragonBot, Juan Mayordomo, Raulshc, UA31,
Adelpine, Luckas-bot, Yonidebot, SassoBot, D'ohBot, Hprmedina, Jerowiki, Ripchip Bot, ZroBot, WikitanvirBot, KLBot2, Makecat-
bot y Annimos: 6
Grupo fundamental Fuente: http://es.wikipedia.org/wiki/Grupo%20fundamental?oldid=75968595 Colaboradores: Tano4595, Alfon-
soERomero, Eskimbot, Juan Marquez, CEM-bot, Thijs!bot, HiTe, Adrin Cervantes Lomel, Muro Bot, YonaBot, SieBot, Copydays,
Gato ocioso, Luckas-bot, Jkbw, Albertocai, Kizar, Humbefa, Paritto, ZroBot, Grillitus, WikitanvirBot, Legobot y Annimos: 3
Espacio recubridor Fuente: http://es.wikipedia.org/wiki/Espacio%20recubridor?oldid=74140491 Colaboradores: Oblongo, Zwobot, Ali-
man5040, Yrbot, BOTijo, YurikBot, KnightRider, Joseangelmadrid, Juan Marquez, CEM-bot, Davius, Botones, Rei-bot, Muro Bot, Yo-
naBot, PaintBot, Gato ocioso, Alexbot, Luckas-bot, DiegoFb, Banana04131, BenzolBot, RedBot, Paritto, EmausBot, ZroBot, Legobot,
Caf Bene y Annimos: 3
Teorema fundamental del lgebra Fuente: http://es.wikipedia.org/wiki/Teorema%20fundamental%20del%20%C3%A1lgebra?oldid=
79623739 Colaboradores: Youssefsan, Romero Schmidtke, Joseaperez, Sabbut, Moriel, JorgeGG, Head, Ascnder, Sms, Rsg, Josela-
rrucea, Schummy, Digigalos, Petronas, Rembiapo pohyiete (bot), Orgullobot~eswiki, RobotQuistnix, Chobot, Caiserbot, Yrbot, Mpa-
gano, Davidsevilla, .Sergio, YurikBot, GermanX, KnightRider, Tomatejc, CEM-bot, Soteke, Cdomarchi, Eli22, Davius, Luis Corts
Barbado, Ggenellina, Ingenioso Hidalgo, Thijs!bot, Botones, Isha, Jhnieto, Wybot, TXiKiBoT, Humberto, Revenga10V, Rovnet, Jtico,
VolkovBot, Muro Bot, SieBot, Loveless, Tentenpie, Arapajoe, STBot~eswiki, Bermudob, StarBOT, DragonBot, Farisori, Alexbot, Juan
Mayordomo, Raulshc, JacoboCA, VanBot, AVBOT, Ialad, Diegusjaimes, Andreasmperu, Luckas-bot, Markoszarrate, SuperBraulio13,
Jkbw, Sylfred1977, Marsal20, EmausBot, Grillitus, MetroBot, Acratta, Helmy oved, Anstarpo3, Legobot, Soa 0810, DavosMat, Mnrka
y Annimos: 65
Teorema de la bola peluda Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20la%20bola%20peluda?oldid=79865127 Colabora-
dores: RedTony, BOT-Superzerocool, FrescoBot, Jerowiki, ZroBot, KLBot2, MetroBot, Invadibot, JacobRodrigues, Egis57 y Annimos:
2
Teorema de Seifert-van Kampen Fuente: http://es.wikipedia.org/wiki/Teorema%20de%20Seifert-van%20Kampen?oldid=74314447
Colaboradores: Sabbut, Wewe, Davius, TXiKiBoT, Urdangaray, Juan Mayordomo, Rge, Raulshc, Xqbot, Albertocai, Katimpe, Grillitus
y KLBot2
Supercie (matemtica) Fuente: http://es.wikipedia.org/wiki/Superficie%20(matem%C3%A1tica)?oldid=80256739 Colaboradores: As-
troNomo, ILVI, Oblongo, Sabbut, Moriel, Hashar, ManuelGR, Sanbec, Dodo, Patxi Aguado, Triku, Sms, Tano4595, Agguizar, Jsanche-
zes, Cinabrium, Kordas, Digigalos, Xuankar, Rembiapo pohyiete (bot), LeCire, Aliman5040, Mortadelo, Alhen, Superzerocool, Polo
leopoldo, Yrbot, FlaBot, GermanX, Wewe, Equi, Wars, Angel.F, Filipo, Juan Marquez, BOTpolicia, Nethac DIU, CEM-bot, ARHE-
KI, JMCC1, -jem-, Torquemado, Baiji, Davius, FrancoGG, Ggenellina, Ingenioso Hidalgo, Rjelves, Thijs!bot, Isha, JAnDbot, Kved,
Hosg, TXiKiBoT, Linkedark, Humberto, Rei-bot, Jorge C.Al, Aibot, VolkovBot, Nicoguaro, Matdrodes, Synthebot, Muro Bot, SieBot,
PaintBot, BOTarate, Libardo asprilla lara, Yas02, DragonBot, Eduardosalg, Qwertymith, ElMeBot, Eveneg, LordT, AVBOT, MastiBot,
Diegusjaimes, Escorpion008, Arjuno3, Andreasmperu, Luckas-bot, Outisnn, ArthurBot, SuperBraulio13, Obersachsebot, Xqbot, Jkbw,
Botarel, Gusbelluwiki, Halfdrag, RedBot, Jerowiki, GrouchoBot, EmausBot, ZroBot, Waka Waka, Torresaza, MerlIwBot, KLBot2,
AvocatoBot, Acratta, Helmy oved, Emferr, Addbot, JuanManwell, McMetrox y Annimos: 71
Homologa (matemtica) Fuente: http://es.wikipedia.org/wiki/Homolog%C3%ADa%20(matem%C3%A1tica)?oldid=80279354 Cola-
boradores: Sabbut, BOT-Superzerocool, YurikBot, Wewe, Boja, Juan Marquez, CEM-bot, Ingenioso Hidalgo, Thijs!bot, Botones, JAnD-
bot, Fremen, BotMultichill, SieBot, PaintBot, Farisori, Raulshc, David0811, CarsracBot, Luckas-bot, DiegoFb, Aalvaro, SuperBraulio13,
Toorandom, Jerowiki, Humbefa, EmausBot, MerlIwBot, Addbot, Blevyq y Annimos: 13

8.5.2 Images
Archivo:Bas_rond_vect_sym.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/c/c7/Bas_rond_vect_sym.svg Licencia: CC
BY-SA 3.0 Colaboradores: Trabajo propio Artista original: Sylvie Martin
Archivo:Bas_rond_vecteurs.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/e/ef/Bas_rond_vecteurs.svg Licencia: CC
BY-SA 3.0 Colaboradores: Trabajo propio Artista original: Sylvie Martin
Archivo:Commons-emblem-question_book_orange.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/1/1f/Commons-emblem-question_
book_orange.svg Licencia: CC BY-SA 3.0 Colaboradores: <a href='//commons.wikimedia.org/wiki/File:Commons-emblem-issue.svg'
class='image'><img alt='Commons-emblem-issue.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/25px-Commons-emblem-issue.svg.png' width='25' height='25' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/38px-Commons-emblem-issue.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.svg/
50px-Commons-emblem-issue.svg.png 2x' data-le-width='48' data-le-height='48' /></a> + <a href='//commons.wikimedia.org/wiki/
File:Question_book.svg' class='image'><img alt='Question book.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/25px-Question_book.svg.png' width='25' height='20' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/38px-Question_book.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/50px-Question_
book.svg.png 2x' data-le-width='252' data-le-height='199' /></a> Artista original: GNOME icon artists, Jorge 2701
Archivo:Commons-logo.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/4/4a/Commons-logo.svg Licencia: Public do-
main Colaboradores: This version created by Pumbaa, using a proper partial circle and SVG geometry features. (Former versions used to
be slightly warped.) Artista original: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version,
created by Reidab.
Archivo:Covering_map.png Fuente: http://upload.wikimedia.org/wikipedia/commons/5/54/Covering_map.png Licencia: CC-BY-SA-
3.0 Colaboradores: ? Artista original: ?
28 CAPTULO 8. HOMOLOGA (MATEMTICA)

Archivo:Cyclone_Catarina_from_the_ISS_on_March_26_2004.JPG Fuente: http://upload.wikimedia.org/wikipedia/commons/8/89/


Cyclone_Catarina_from_the_ISS_on_March_26_2004.JPG Licencia: Public domain Colaboradores: NASA Artista original: Astronaut
photograph ISS008-E-19646 was taken March 7, 2004, with a Kodak DCS760 digital camera equipped with an 50-mm lens, and is
provided by the Earth Observations Laboratory, Johnson Space Center.
Archivo:Disambig.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/7/72/Disambig.svg Licencia: Public domain Colabo-
radores: Trabajo propio. Original Commons upload as Logo Begrisklrung.png by Baumst on 2005-02-15. Artista original: Stephan
Baum (converted to SVG by dierent users, see below)
Archivo:Freeform1.gif Fuente: http://upload.wikimedia.org/wikipedia/commons/c/c8/Freeform1.gif Licencia: CC-BY-SA-3.0 Cola-
boradores: ? Artista original: ?
Archivo:Fundamental_group_torus1.png Fuente: http://upload.wikimedia.org/wikipedia/commons/2/25/Fundamental_group_torus1.
png Licencia: CC-BY-SA-3.0 Colaboradores: ? Artista original: ?
Archivo:Hairy_ball.png Fuente: http://upload.wikimedia.org/wikipedia/commons/e/ec/Hairy_ball.png Licencia: Public domain Cola-
boradores: Transferred from en.wikipedia Artista original: Original uploader was The Evil Midnight Uploader what Uploads at Midnight
at en.wikipedia
Archivo:Hairy_ball_one_pole.jpg Fuente: http://upload.wikimedia.org/wikipedia/commons/1/14/Hairy_ball_one_pole.jpg Licencia:
CC BY-SA 3.0 Colaboradores: Trabajo propio Artista original: RokerHRO
Archivo:Hairy_doughnut.png Fuente: http://upload.wikimedia.org/wikipedia/commons/c/c6/Hairy_doughnut.png Licencia: Public do-
main Colaboradores: Transferred from en.wikipedia; Transfer was stated to be made by Jean-Luc W. Artista original: Original uploader
was The Evil Midnight Uploader what Uploads at Midnight at en.wikipedia
Archivo:Homotopy_between_two_paths.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/0/00/Homotopy_between_two_
paths.svg Licencia: Public domain Colaboradores: Own work (Inkscape) Artista original: Archibald
Archivo:MobiusStrip-01.png Fuente: http://upload.wikimedia.org/wikipedia/commons/e/e7/MobiusStrip-01.png Licencia: Public do-
main Colaboradores: Trabajo propio Artista original: Fropu
Archivo:Surface_integral_illustration.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/7/72/Surface_integral_illustration.
svg Licencia: CC0 Colaboradores: Own work based on: Surface integral illustration.png & SVG - Export of gures Artista original:
McMetrox
Archivo:Triple_torus_illustration.png Fuente: http://upload.wikimedia.org/wikipedia/commons/f/f0/Triple_torus_illustration.png Li-
cencia: Public domain Colaboradores: This graphic was created with MATLAB. Artista original: Oleg Alexandrov
Archivo:Wikiversity-logo-Snorky.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/1/1b/Wikiversity-logo-en.svg Licen-
cia: CC BY-SA 3.0 Colaboradores: Trabajo propio Artista original: Snorky

8.5.3 Content license


Creative Commons Attribution-Share Alike 3.0
425 - Teora de Muestras
ndice general

1 Muestreo (estadstica) 1
1.1 Tcnicas de muestreo estadstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Muestreo aleatorio simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Muestreo no probabilstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Poblacin estadstica 5
2.1 Poblacin en epidemiologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Muestra estadstica 6
3.1 Otras deniciones relacionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.1 Espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.2 Parmetro o Estadstico muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.3 Estimacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.4 Nivel de conanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.5 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2 Ventajas de la eleccin de una muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.3 Descripcin matemtica de una muestra aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.4 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

4 Estimacin estadstica 9
4.1 Estimador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2 Estimacin puntual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.3 Estimacin por intervalos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.1 Intervalo de conanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.2 Variabilidad del Parmetro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.3 Error de la estimacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.4 Lmite de Conanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.5 Valor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3.6 Valor crtico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3.7 Otros usos del trmino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.4 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

i
ii NDICE GENERAL

4.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

5 Estimador 12
5.1 Propiedades de los estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.1.1 Sesgo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.1.2 Eciencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.1.3 Consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.1.4 Robustez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.1.5 Suciencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.1.6 Invarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

6 Error cuadrtico medio 15


6.1 Denicin y propiedades bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6.2 Demostracin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.3 Regresin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.4.1 Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.4.2 Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

7 Tamao de la muestra 19
7.1 Objetivos de la determinacin del tamao adecuado de una muestra . . . . . . . . . . . . . . . . . 19
7.1.1 Estimacin de parmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.1.2 Contraste de hiptesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.2 Notas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
7.3 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7.3.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7.3.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7.3.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Captulo 1

Muestreo (estadstica)

En estadstica se conoce como muestreo a la tcnica para la seleccin de una muestra a partir de una poblacin.
Al elegir una muestra aleatoria se espera conseguir que sus propiedades sean extrapolables a la poblacin. Este proceso
permite ahorrar recursos, y a la vez obtener resultados parecidos a los que se alcanzaran si se realizase un estudio de
toda la poblacin.
Cabe mencionar que para que el muestreo sea vlido y se pueda realizar un estudio adecuado (que consienta no solo
hacer estimaciones de la poblacin sino estimar tambin los mrgenes de error correspondientes a dichas estimacio-
nes), debe cumplir ciertos requisitos. Nunca podremos estar enteramente seguros de que el resultado sea una muestra
representativa, pero s podemos actuar de manera que esta condicin se alcance con una probabilidad alta.
En el muestreo, si el tamao de la muestra es ms pequeo que el tamao de la poblacin, se puede extraer dos o
ms muestras de la misma poblacin. Al conjunto de muestras que se pueden obtener de la poblacin se denomina
espacio muestral. La variable que asocia a cada muestra su probabilidad de extraccin, sigue la llamada distribucin
muestral.

1.1 Tcnicas de muestreo estadstico


Existen dos mtodos para seleccionar muestras de poblaciones: el muestreo no aleatorio o de juicio y el muestreo
aleatorio (que incorpora el azar como recurso en el proceso de seleccin). Cuando este ltimo cumple con la condicin
de que todos los elementos de la poblacin tienen alguna oportunidad de ser escogidos en la muestra, si la probabilidad
correspondiente a cada sujeto de la poblacin es conocida de antemano, recibe el nombre de muestreo probabilstico.
Una muestra seleccionada por muestreo de juicio puede basarse en la experiencia de alguien con la poblacin. Algunas
veces una muestra de juicio se usa como gua o muestra tentativa para decidir cmo tomar una muestra aleatoria ms
adelante.

1.1.1 Muestreo aleatorio simple

Forman parte de este tipo de muestreo todos aquellos mtodos para los que se puede calcular la probabilidad de
extraccin de cualquiera de las muestras posibles. Este conjunto de tcnicas de muestreo es el ms aconsejable,
aunque en ocasiones no es posible optar por l.

Tipos

Sin reposicin de los elementos : Cada elemento extrado se descarta para la subsiguiente extraccin. Por ejemplo,
si se extrae una muestra de una poblacin de bombillas para estimar la vida media de las bombillas que la integran,
no ser posible medir ms que una vez la bombilla seleccionada.
Con reposicin de los elementos: Las observaciones se realizan con remplazo de los individuos, de forma que la
poblacin es idntica en todas las extracciones. En poblaciones muy grandes, la probabilidad de repetir una extraccin
es tan pequea que el muestreo puede considerarse con reposicin aunque, realmente, no lo sea.

1
2 CAPTULO 1. MUESTREO (ESTADSTICA)

Con reposicin mltiple: En poblaciones muy grandes, la probabilidad de repetir una extraccin es tan pequea que
el muestreo puede considerarse con reposicin.
Para realizar este tipo de muestreo, y en determinadas situaciones, es muy til la extraccin de nmeros aleatorios
mediante ordenadores, calculadoras o tablas construidas al efecto.

Muestreo sistemtico

Se utiliza cuando el universo o poblacin es de gran tamao, o ha de extenderse en el tiempo. Primero hay que
identicar las unidades y relacionarlas con el calendario (cuando proceda). Luego hay que calcular una constante, que
se denomina coeciente de elevacin:
K= N/n
Donde N es el tamao del universo y n el tamao de la muestra.
Para determinar en qu fecha se producir la primera extraccin, hay que elegir al azar un nmero entre 1 y K;
de ah en adelante tomar uno de cada K a intervalos regulares. Ocasionalmente, es conveniente tener en cuenta la
periodicidad del fenmeno.
Esto quiere decir que si tenemos un determinado nmero de personas que es la poblacin (N) y queremos escoger de
esa poblacin un nmero ms pequeo el cual es la muestra (n), dividimos el nmero de la poblacin por el nmero
de la muestra que queremos tomar y el resultado de esta operacin ser el intervalo, entonces escogemos un nmero
al azar desde uno hasta el nmero del intervalo, y a partir de este nmero escogemos los dems siguiendo el orden.

Muestreo estraticado

Consiste en la divisin previa de la poblacin de estudio en grupos o clases que se suponen homogneos con respecto
a alguna caracterstica de las que se van a estudiar. A cada uno de estos estratos se le asignara una cuota que de-
terminara el nmero de miembros del mismo que compondrn la muestra. Dentro de cada estrato se suele usar la
tcnica de muestreo sistemtico, una de las tcnicas de seleccin ms usadas en la prctica.
Segn la cantidad de elementos de la muestra que se han de elegir de cada uno de los estratos, existen dos tcnicas
de muestreo estraticado:

Asignacin proporcional: el tamao de la muestra dentro de cada estrato es proporcional al tamao del estrato
dentro de la poblacin.

Asignacin ptima: la muestra recoger ms individuos de aquellos estratos que tengan ms variabilidad. Para
ello es necesario un conocimiento previo de la poblacin.

Por ejemplo, para un estudio de opinin, puede resultar interesante estudiar por separado las opiniones de hombres y
mujeres pues se estima que, dentro de cada uno de estos grupos, puede haber cierta homogeneidad. En la asignacin
proporcional, si la poblacin est compuesta de un 55% de mujeres y un 45 % de hombres, se tomara una muestra
que contenga tambin esos mismos porcentajes de hombres y mujeres. En la asignacin ptima, si todos los hombres
piensan igual, pero las mujeres son impredecibles, se tomara una muestra con ms del 55% de mujeres.
Para una descripcin general del muestreo estraticado y los mtodos de inferencia asociados con este procedimiento,
suponemos que la poblacin est dividida en h subpoblaciones o estratos de tamaos conocidos N1 , N2 ,..., N tal
que las unidades en cada estrato sean homogneas respecto a la caracterstica en cuestin. La media y la varianza
desconocidas para el i-simo estrato son denotadas por mi y s2 , respectivamente.

Muestreo por etapas mltiples

Esta tcnica es la nica opcin cuando no se dispone de lista completa de la poblacin de referencia o bien cuando
por medio de la tcnica de muestreo simple o estraticado se obtiene una muestra con unidades distribuidas de tal
forma que resultan de difcil acceso. En el muestreo a estadios mltiples se subdivide la poblacin en varios niveles
ordenados que se extraen sucesivamente por medio de un procedimiento de embudo. El muestreo se desarrolla en
varias fases o extracciones sucesivas para cada nivel.
1.1. TCNICAS DE MUESTREO ESTADSTICO 3

Por ejemplo, si tenemos que construir una muestra de profesores de primaria en un pas determinado, stos pueden
subdividirse en unidades primarias representadas por circunscripciones didcticas y unidades secundarias que seran
los propios profesores. En primer lugar extraemos una muestra de las unidades primarias (para lo cual debemos tener
la lista completa de estas unidades) y en segundo lugar extraemos aleatoriamente una muestra de unidades secundarias
de cada una de las primarias seleccionadas en la primera extraccin.

Muestreo por conglomerados

Se utiliza cuando la poblacin se encuentra dividida, de manera natural, en grupos que se supone que contienen
toda la variabilidad de la poblacin, es decir, la representan elmente respecto a la caracterstica a elegir, pueden
seleccionarse slo algunos de estos grupos o conglomerados para la realizacin del estudio.
Dentro de los grupos seleccionados se ubicarn las unidades elementales, por ejemplo, las personas a encuestar, y
podra aplicrsele el instrumento de medicin a todas las unidades, es decir, los miembros del grupo, o slo se le
podra aplicar a algunos de ellos, seleccionados al azar. Este mtodo tiene la ventaja de simplicar la recogida de
informacin muestral.
Cuando, dentro de cada conglomerado seleccionado, se extraen algunos individuos para integrar la muestra, el diseo
se llama muestreo bietpico.
Las ideas de estratos y conglomerados son, en cierto sentido, opuestas. El primer mtodo funciona mejor cuanto ms
homognea es la poblacin respecto del estrato, aunque ms diferentes son stos entre s. En el segundo, ocurre lo
contrario. Los conglomerados deben presentar toda la variabilidad, aunque deben ser muy parecidos entre s.

Homogeneidad de las poblaciones o sus subgrupos

Homogneo signica, en el contexto de la estraticacin, que no hay mucha variabilidad. Los estratos funcionan mejor
cuanto ms homogneos son cada uno de ellos respecto a la caracterstica a medir. Por ejemplo, si se estudia la estatura
de una poblacin, es bueno distinguir entre los estratos mujeres y hombres porque se espera que, dentro de ellos, haya
menos variabilidad, es decir, sean menos heterogneos. Dicho de otro modo, no hay tantas diferencias entre unas
estaturas y otras dentro del estrato que en la poblacin total.
Por el contrario, la heterogeneidad hace intil la divisin en estratos. Si se dan las mismas diferencias dentro del
estrato que en toda la poblacin, no hay por qu usar este mtodo de muestreo. En los casos en los que existan
grupos que contengan toda la variabilidad de la poblacin, lo que se construyen son conglomerados, que ahorran
algo del trabajo que supondra analizar toda la poblacin. En resumen, los estratos y los conglomerados funcionan
bajo principios opuestos: los primeros son mejores cuanto ms homogneo es el grupo respecto a la caracterstica a
estudiar y los conglomerados, si representan elmente a la poblacin, esto es, contienen toda su variabilidad, o sea,
son heterogneos.

1.1.2 Muestreo no probabilstico

Es aqul para el que no se puede calcular la probabilidad de extraccin de una determinada muestra. Por tal motivo,
se busca seleccionar a individuos que tienen un conocimiento profundo del tema bajo estudio y se considera que la
informacin aportada por esas personas es vital para la toma de decisiones.

Muestreo por cuotas

Es la tcnica ms difundida sobre todo en estudios de mercado y sondeos de opinin. En primer lugar es necesario
dividir la poblacin de referencia en varios estratos denidos por algunas variables de distribucin conocida (como
el gnero o la edad). Posteriormente se calcula el peso proporcional de cada estrato, es decir, la parte proporcional
de poblacin que representan. Finalmente se multiplica cada peso por el tamao de n de la muestra para determinar
la cuota precisa en cada estrato. Se diferencia del muestreo estraticado en que una vez determinada la cuota, el
investigador es libre de elegir a los sujetos de la muestra dentro de cada estrato.
4 CAPTULO 1. MUESTREO (ESTADSTICA)

Muestreo de bola de nieve

Indicado para estudios de poblaciones clandestinas, minoritarias o muy dispersas pero en contacto entre s. Consiste
en identicar sujetos que se incluirn en la muestra a partir de los propios entrevistados. Partiendo de una pequea
cantidad de individuos que cumplen los requisitos necesarios, servirn como localizadores de otros con caractersticas
anlogas.

Muestreo subjetivo por decisin razonada

En este caso las unidades de la muestra se eligen en funcin de algunas de sus caractersticas de manera racional y no
casual. Una variante de esta tcnica es el muestreo compensado o equilibrado, en el que se seleccionan las unidades
de tal forma que la media de la muestra para determinadas variables se acerque a la media de la poblacin. La cual
funciona en base a referencias o por recomendacin despus se reconoce por medio de la estadstica.

1.2 Vase tambin


error muestral

estrategias de muestreo
muestra estadstica

tamao de la muestra
Captulo 2

Poblacin estadstica

Poblacin estadstica, en estadstica, tambin llamada universo, es el conjunto de elementos de referencia sobre el
que se realizan las observaciones. Tambin es el conjunto sobre el que estamos interesados en obtener conclusiones
(inferir). Normalmente es demasiado grande para poder abarcarla, motivo por el cual se puede hacer necesaria la
extraccin de una muestra de sta.

2.1 Poblacin en epidemiologa


En epidemiologa una poblacin es un conjunto de sujetos o individuos con determinadas caractersticas demogrcas,
de la que se obtiene la muestra o participantes en un estudio epidemiolgico a la que se quiere extrapolar los resultados
de dicho estudio (inferencia estadstica). La estadstica es comnmente considerada como una coleccin de hechos
numricos expresados en trminos de una relacin sumisa, y que han sido recopilado a partir de otros datos numricos.
Kendall y Buckland (citados por Gini V. Glas / Julian C. Stanley, 1980) denen la estadstica como un valor resumido,
calculado, como base en una muestra de observaciones que generalmente, aunque no por necesidad, se considera como
una estimacin de parmetro de determinada poblacin; es decir, una funcin de valores de muestra.[1]

2.2 Referencias
[1] http://www.monografias.com/trabajos15/estadistica/estadistica.shtml#ixzz2JQRrbdXw Monografa sobre la estadistica

5
Captulo 3

Muestra estadstica

En estadstica, una muestra es un subconjunto de casos o individuos de una poblacin estadstica.


Las muestras se obtienen con la intencin de inferir propiedades de la totalidad de la poblacin, para lo cual deben
ser representativas de la misma. Para cumplir esta caracterstica la inclusin de sujetos en la muestra debe seguir una
tcnica de muestreo. En tales casos, puede obtenerse una informacin similar a la de un estudio exhaustivo con mayor
rapidez y menor coste (vanse las ventajas de la eleccin de una muestra, ms abajo).
Por otra parte, en ocasiones, el muestreo puede ser ms exacto que el estudio de toda la poblacin porque el manejo
de un menor nmero de datos provoca tambin menos errores en su manipulacin. En cualquier caso, el conjunto de
individuos de la muestra son los sujetos realmente estudiados.
El nmero de sujetos que componen la muestra suele ser bastante inferior a la poblacin total, aunque suciente
grande como para que la estimacin de los parmetros determinados tenga un nivel de conanza adecuado. Para que
el tamao de la muestra sea idneo es preciso recurrir a su clculo.

3.1 Otras deniciones relacionadas

3.1.1 Espacio muestral


El espacio muestral del que se toma una muestra concreta est formado por el conjunto de todas las posibles muestras
que se pueden extraer de una poblacin mediante una determinada tcnica de muestreo.

3.1.2 Parmetro o Estadstico muestral


Un parmetro estadstico o simplemente un estadstico muestral es cualquier valor calculado a partir de la muestra,
como por ejemplo la media, varianza o una proporcin, que describe a una poblacin y puede ser estimado a partir
de una muestra. Un estadstico muestral es un tipo de variable aleatoria, y que como tal, tiene una distribucin de
probabilidad concreta, frecuentemente caracterizada por un conjunto nito de parmetros.

3.1.3 Estimacin
Una estimacin es cualquier tcnica para conocer un valor aproximado de un parmetro referido a la poblacin, a
partir de los estadsticos muestrales calculados a partir de los elementos de la muestra. Si se estima el suciente
nmero de parmetros puede aproximarse de manera razonable la distribucin de probabilidad de la poblacin para
ciertas variables aleatorias.

3.1.4 Nivel de conanza


El nivel de conanza de una aseveracin basada en la inferencia estadstica es una medida de la bondad de la estimacin
realizada a partir de estadsticos muestrales. Usualmente se usan niveles de conanza para intervalos de conanza o

6
3.2. VENTAJAS DE LA ELECCIN DE UNA MUESTRA 7

bien p-valores que miden la probabilidad de errores de tipo I (probabilidad de rechazar una cierta hiptesis siendo
que esta era correcta).

3.1.5 Ejemplo
Se tiene una poblacin de 222.222 habitantes y se quiere conocer cuantos de ellos son hombres y cuantos de ellos son
mujeres. Se conjetura que cerca del 50% son mujeres y el resto hombres, pero se quiere seleccionar una muestra para
determinar cuantos hombres y mujeres hay en la muestra y a partir de ah inferior el porcentaje exacto de hombres y
mujeres en la poblacin total. La descripcin de una muestra, y los resultados obtenidos sobre ella, puede ser del tipo
mostrado en el siguiente ejemplo:
La interpretacin de esos datos sera la siguiente:

1. La poblacin a investigar tiene 222.222 habitantes y queremos saber cuntos son hombres o mujeres.
2. Estimamos en un 50% para cada sexo y para el propsito del estudio es suciente un 90% de seguridad con un
nivel entre 90 - 5 y 90 + 5.
3. Generamos una tabla de 280 nmeros al azar entre 1 y 222.222 y en un censo numerado comprobamos el
gnero para los seleccionados.

3.2 Ventajas de la eleccin de una muestra


El estudio de muestras es preferible, en la mayora de los casos, por las siguientes razones:

1. Si la poblacin es muy grande (en ocasiones, innita, como ocurre en determinados experimentos aleatorios)
y, por tanto, imposible de analizar en su totalidad.
2. Las caractersticas de la poblacin varan si el estudio se prolonga demasiado tiempo.
3. Reduccin de costos: al estudiar una pequea parte de la poblacin, los gastos de recogida y tratamiento de
los datos sern menores que si los obtenemos del total de la poblacin.
4. Rapidez: al reducir el tiempo de recogida y tratamiento de los datos, se consigue mayor rapidez.
5. Viabilidad: la eleccin de una muestra permite la realizacin de estudios que seran imposible hacerlo sobre
el total de la poblacin.
6. La poblacin es sucientemente homognea respecto a la caracterstica medida, con lo cual resultara intil
malgastar recursos en un anlisis exhaustivo (por ejemplo, muestras sanguneas).
7. El proceso de estudio es destructivo o es necesario consumir un artculo para extraer la muestra (ejemplos: vida
media de una bombilla, carga soportada por una cuerda, precisin de un proyectil, etc.).

3.3 Descripcin matemtica de una muestra aleatoria


El uso de muestras para deducir ablemente caractersticas de la poblacin requiere que se trate con muestras
aleatorias. Si la muestra estadstica considerada no constituye una muestra aleatoria las conclusiones basadas en
dicha muestra no son ables y en general estarn sesgadas en algn aspecto.
En trminos matemticos, dada una variable aleatoria X con una distribucin de probabilidad F, una muestra aleatoria
de tamao N es un conjunto nito de N variables independientes, con la misma distribucin de probabilidad F.[1]
Otra forma ms intuitiva, de entender una muestra es considerar que una muestra es una sucesin de N experimentos
independientes de una misma cantidad. Es importante diferenciar una muestra de tamao N, o ms exactamente un
muestreo de tamao N, del resultado concreto de los N experimentos (que como conjunto de valores jos, en s mismo,
no es una muestra). El concepto de muestra incluye de alguna manera el procedimiento escogido para obtener los
datos (es decir, si las variables aleatorias consideradas son independientes entre s, y si tienen la misma distribucin).
En general, resulta muy fcil comprobar si una determinada muestra es o no aleatoria, cosa que slo puede hacerse
considerando otro tipo de muestreos aleatorios robustos que permitan decir si la primera muestra era aleatoria o no.
8 CAPTULO 3. MUESTRA ESTADSTICA

3.4 Referencias
[1] Samuel S. Wilks, Mathematical Statistics, John Wiley, 1962, Section 8.1
Captulo 4

Estimacin estadstica

En inferencia estadstica se llama estimacin al conjunto de tcnicas que permiten dar un valor aproximado de un
parmetro de una poblacin a partir de los datos proporcionados por una muestra. Por ejemplo, una estimacin de la
media de una determinada caracterstica de una poblacin de tamao N podra ser la media de esa misma caracterstica
para una muestra de tamao n.[1]
La estimacin se divide en tres grandes bloques, cada uno de los cuales tiene distintos mtodos que se usan en funcin
de las caractersticas y propsitos del estudio:

Estimacin puntual:[2]

Mtodo de los momentos;


Mtodo de la mxima verosimilitud;
Mtodo de los mnimos cuadrados;

Estimacin por intervalos.

Estimacin bayesiana.

4.1 Estimador
Un estimador es una regla que establece cmo calcular una estimacin basada en las mediciones contenidas en una
muestra estadistica.

4.2 Estimacin puntual


Consiste en la estimacin del valor del parmetro mediante un slo valor, obtenido de una frmula determinada. Por
ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra
y ofrecer como estimacin puntual la talla media de los individuos. Lo ms importante de un estimador, es que sea
un estimador eciente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o eciente (varianza
mnima) Estimacin puntual. Sea X una variable poblacional con distribucin F , siendo desconocido. El problema
de estimacin puntual consiste en, seleccionada una muestra X1, ..., Xn, encontrar el estadstico T(X1, ..., Xn) que
mejor estime el parmetro . Una vez observada o realizada la muestra, con valores x1, ..., xn, se obtiene la estimacin
puntual de , T(x1, ..., xn) = .
Vemos a continuacin dos mtodos para obtener la estimacin puntual de un parmetro: mtodo de los momentos y
mtodo de mxima verosimilitud. Mtodo de los momentos: consiste en igualar momentos poblacionales a momentos
muestrales. Deberemos tener tantas igualdades como parmetros a estimar. Momento poblacional de orden r r =
E(Xr) Momento muestral de orden r ar = Xn i=1 Xr i n
Mtodo de mxima verosimilitud: consiste en tomar como valor del parmetro aquel que maximice la probabilidad
de que ocurra la muestra observada. Si X1, ..., Xn es una muestra seleccionada de una poblacin con distribucin F

9
10 CAPTULO 4. ESTIMACIN ESTADSTICA

o densidad f(x), la probabilidad de que ocurra una realizacin x1, ..., xn viene dada por: L(x1, ..., xn) = Yn i=1
f(xi)
A L(x1, ..., xn) se le llama funcin de verosimilitud.(credibilidad de la muestra observada). Buscamos entonces el
valor de que maximice la funcin de verosimilud, y al valor obtenido se le llama estimacin por mxima verosi-
militud de . Nota: si la variable X es discreta, en lugar de f(xi ) consideramos la funcin masa de probabilidad
p(xi).
Ejemplo 7.1: Sea X N(, ), con desconocido. Seleccionada una m.a.s. X1, ..., Xn, con realizacin x1, ..., xn,
estimamos el parmetro por ambos mtodos. Segn el mtodo de los momentos: E(X) = Xn i=1 Xi n = X, y al
ser = E(X) se obtiene que = x. Por el mtodo de mxima verosimilitud: L(x1, ..., xn) = Yn i=1 f(xi ) = =
Yn i=1 1 2 e (xi) 2 2
Estimacin por Intervalos de conanza 109 y maximizamos en tal funcin; en este caso resulta ms fcil maximizar
su logaritmo: lnL(x1, ..., xn) = 1 2 2 Xn i=1 (xi ) 2 n ln( 2) lnL(x1, ..., xn) = 1 2 Xn i=1 (xi
) = n x n 2 = 0 =

4.3 Estimacin por intervalos


Consiste en la obtencin de un intervalo dentro del cual estar el valor del parmetro estimado con una cierta proba-
bilidad. En la estimacin por intervalos se usan los siguientes conceptos:

4.3.1 Intervalo de conanza

El intervalo de conanza es una expresin del tipo [1 , 2 ] 1 2 , donde es el parmetro a estimar. Este
intervalo contiene al parmetro estimado con un determinado nivel de conanza. Pero a veces puede cambiar este
intervalo cuando la muestra no garantiza un axioma o un equivalente circunstancial.

4.3.2 Variabilidad del Parmetro

Si no se conoce, puede obtenerse una aproximacin en los datos aportados por la literatura cientca o en un estudio
piloto. Tambin hay mtodos para calcular el tamao de la muestra que prescinden de este aspecto. Habitualmente
se usa como medida de esta variabilidad la desviacin tpica poblacional y se denota .

4.3.3 Error de la estimacin

Es una medida de su precisin que se corresponde con la amplitud del intervalo de conanza. Cuanta ms precisin
se desee en la estimacin de un parmetro, ms estrecho deber ser el intervalo de conanza y, si se quiere mantener
o disminuir el error, ms observaciones debern incluirse en la muestra estudiada. En caso de no incluir nuevas
observaciones para la muestra, ms error se comete al aumentar la precisin. Se suele llamar E, segn la frmula E
= (2 - 1 )/2.

4.3.4 Lmite de Conanza

Es la probabilidad de que el verdadero valor del parmetro estimado en la poblacin se site en el intervalo de conanza
obtenido. El nivel de conanza se denota por (1-), aunque habitualmente suele expresarse con un porcentaje ((1-
)100%). Es habitual tomar como nivel de conanza un 95% o un 99%, que se corresponden con valores de 0,05
y 0,01 respectivamente.

4.3.5 Valor

Tambin llamado nivel de signicacin. Es la probabilidad (en tanto por uno) de fallar en nuestra estimacin, esto
es, la diferencia entre la certeza (1) y el nivel de conanza (1-). Por ejemplo, en una estimacin con un nivel de
conanza del 95%, el valor es (100-95)/100 = 0,05
4.4. VASE TAMBIN 11

4.3.6 Valor crtico


Se representa por Z/. Es el valor de la abscisa en una determinada distribucin que deja a su derecha un rea igual a
/2, siendo 1- el nivel de conanza. Normalmente los valores crticos estn tabulados o pueden calcularse en funcin
de la distribucin de la poblacin. Por ejemplo, para una distribucin normal, de media 0 y desviacin tpica 1, el
valor crtico para = 0,1 se calculara del siguiente modo: se busca en la tabla de la distribucin ese valor (o el ms
aproximado), bajo la columna "rea"; se observa que se corresponde con 1,28. Entonces Z/ = 1,64. Si la media
o desviacin tpica de la distribucin normal no coinciden con las de la tabla, se puede realizar el cambio de variable
t =(X-)/ para su clculo.
Con estas deniciones, si tras la extraccin de una muestra se dice que 3 es una estimacin de la media con un
margen de error de 0,6 y un nivel de conanza del 99%", podemos interpretar que el verdadero valor de la media
se encuentra entre 2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando,
respectivamente, la mitad del error, para obtener el intervalo de conanza segn las deniciones dadas.
Para un tamao jo de la muestra, los conceptos de error y nivel de conanza van relacionados. Si admitimos un error
mayor, esto es, aumentamos el tamao del intervalo de conanza, tenemos tambin una mayor probabilidad de xito
en nuestra estimacin, es decir, un mayor nivel de conanza.

4.3.7 Otros usos del trmino


El trmino estimacin tambin se utiliza en ciencias aplicadas para hacer referencia a un clculo aproximado, que
normalmente se apoya en la herramienta estadstica aunque puede no hacerlo. En este sentido, un ejemplo clsico son
los poco conocidos pero tiles en economa problemas de Fermi.

4.4 Vase tambin


Aproximacin

Intervalo de conanza.
Muestra estadstica.

Muestreo estadstico.
Tamao de la muestra.

Teorema del Lmite Central.


Estadstico muestral

4.5 Referencias
[1] Wackerly, Dennis D; Mendenhall, William; Scheaer, Richard L. (2002). 8. Estimacin. Estadstica matemtica con
aplicaciones (6 edicin). Cengage Learning Editores. p. 364. ISBN 9706861947.

[2] Caldern C., Bernardo A. Mtodos de estimacin. Estadstica Matemtica I. Universidad de Antioquia. Consultado el 21
de abril de 2009.

'Introduccin a la Estadstica Econmica y Empresarial. Teora y Prctica.' de Fco. Javier Martn-Pliego Lpez,
Editorial Thomson, 2007 (Madrid).

'Manual de Estadstica Empresarial con ejercicios resueltos de Eva Ropero, Mara Eleftheriou, Luana Gava y
Eva Romero. Editorial Delta Publicaciones. 2008 (Madrid).
Captulo 5

Estimador

En estadstica, un estimador es un estadstico (esto es, una funcin de la muestra) usado para estimar un parmetro
desconocido de la poblacin. Por ejemplo, si se desea conocer el precio medio de un artculo (el parmetro desco-
nocido) se recogern observaciones del precio de dicho artculo en diversos establecimientos (la muestra) y la media
aritmtica de las observaciones puede utilizarse como estimador del precio medio.
Para cada parmetro pueden existir varios estimadores diferentes. En general, escogeremos el estimador que posea
mejores propiedades que los restantes, como insesgadez, eciencia, convergencia y robustez (consistencia).
El valor de un estimador proporciona lo que se denomina en estadstica una estimacin puntual del valor del par-
metro en estudio. En general, se suele preferir realizar una estimacin mediante un intervalo, esto es, obtener un
intervalo [a,b] dentro del cual se espera est el valor real del parmetro con un cierto nivel de conanza. Utilizar un
intervalo resulta ms informativo, al proporcionar informacin sobre el posible error de estimacin, asociado con la
amplitud de dicho intervalo. El nivel de conanza es la probabilidad de que a priori el verdadero valor del parmetro
quede contenido en el intervalo.
En la prctica, los intervalos de estimadores con distribuciones simtricas suelen indicarse dando el valor del estimador
puntual utilizado como centro del intervalo y un valor que debe sumarse y restarse para obtener el lmite superior e
inferior; por ejemplo:

3, 5 2, 03 equivale a [3, 5 2, 03 ; 3, 5 + 2, 03] = [1, 47 ; 5, 53]

5.1 Propiedades de los estimadores

5.1.1 Sesgo
Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado) del estimador y el verdadero
valor del parmetro a estimar. Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea
nulo por ser su esperanza igual al parmetro que se desea estimar.
Por ejemplo, si se desea estimar la media de una poblacin, la media aritmtica de la muestra es un estimador insesgado
de la misma, ya que su esperanza (valor esperado) es igual a la media de la poblacin.
En efecto, si una muestra X=(X1 ,X2 ,...,Xn)t procede de una poblacin de media , quiere decir que:

E[Xi ] = para cualquier i=1...n

La media aritmtica o media presupuestal,


= 1 n Xi , con lo que, al aplicar las propiedades de linealidad de la esperanza matemtica se tiene que:
X n i=1

[ ]
= E 1 n Xi =
E[X] n i=1
n n
= n1 E [ i=1 Xi ] = n1 i=1 E [Xi ] =
n
= n1 i=1 = n1 n =

12
5.1. PROPIEDADES DE LOS ESTIMADORES 13

5.1.2 Eciencia

Diremos que un estimador es ms eciente o ms preciso que otro estimador, si la varianza del primero es menor que
la del segundo. Por ejemplo, si 1 y 2 son ambos estimadores de y

Var(1 ) < Var(2 )

diremos que 1 es ms eciente que 2 . Un estimador es ms eciente (ms preciso), por tanto, cuanto menor es su
varianza.
La eciencia de los estimadores est limitada por las caractersticas de la distribucin de probabilidad de la muestra de
la que proceden. El teorema de Cramr-Rao determina que la varianza de un estimador insesgado de un parmetro
es, como mnimo,

( )
var b [ 1
2
]
E [

log f (X;)]

donde f (X; ) es la funcin de densidad de probabilidad de la muestra X = (X1 , X2 , , Xn )t en funcin del


parmetro , (denominada funcin de verosimilitud). Si un estimador insesgado alcanza esta cota mnima, entonces
se dice que el estimador es de mnima varianza dentro de los estimadores insesgados, pudiendo existir estimadores
sesgados con varianza menor.

5.1.3 Consistencia

Si no es posible emplear estimadores de mnima varianza, el requisito mnimo deseable para un estimador es que a
medida que el tamao de la muestra crece, el valor del estimador tienda a ser el valor del parmetro, propiedad que se
denomina consistencia. Existen diversas deniciones de consistencia, ms o menos restrictivas, pero la ms utilizada
es la denominada consistencia en media cuadrtica que exige que:

cuando n
1. E[]
0 cuando n
2. V ar()

5.1.4 Robustez

El estimador ser un estimador robusto del parmetro si la violacin de los supuestos de partida en los que se basa
la estimacin (normalmente, atribuir a la poblacin un determinado tipo de funcin de distribucin que, en realidad,
no es la correcta), no altera de manera signicativa los resultados que ste proporciona.

5.1.5 Suciencia

Se dice que un estimador es suciente cuando resume toda la informacin relevante contenida en la muestra, de forma
que ningn otro estimador pueda proporcionar informacin adicional sobre el parmetro desconocido de la poblacin.
Por ejemplo, la media muestral sera un estimador suciente de la media poblacional, mientras que la moda no lo
sera.

5.1.6 Invarianza

Se dice que un estimador es invariante cuando el estimador de la funcin del parmetro coincide con la funcin del

estimador del parmetro, [f ()] = f ( ).
Ejemplo.- Si para estimar la varianza poblacional utilizamos la varianza muestral, entonces para estimar la desviacin
tpica poblacional ser razonable utilizar la desviacin tpica muestral.
14 CAPTULO 5. ESTIMADOR

5.2 Vase tambin

Portal:Matemtica. Contenido relacionado con Matemtica.

Sensibilidad y especicidad (estadstica)


Captulo 6

Error cuadrtico medio

En estadstica, el error cuadrtico medio (ECM) de un estimador mide el promedio de los errores al cuadrado, es
decir, la diferencia entre el estimador y lo que se estima. El ECM es una funcin de riesgo, correspondiente al valor
esperado de la prdida del error al cuadrado o prdida cuadrtica. La diferencia se produce debido a la aleatoriedad
o porque el estimador no tiene en cuenta la informacin que podra producir una estimacin ms precisa.[1]
El MSE es el segundo momento (sobre el origen) del error, y por lo tanto incorpora tanto la varianza del estimador as
como su sesgo. Para un estimador insesgado, el ECM es la varianza del estimador. Al igual que la varianza, el EMC
tiene las mismas unidades de medida que el cuadrado de la cantidad que se estima. En una analoga con la desviacin
estndar, tomando la raz cuadrada del EMC produce el error de la raz cuadrada de la media o la desviacin de la raz
cuadrada media (RMSE o RMSD), que tiene las mismas unidades que la cantidad que se estima; para un estimador
insesgado, el RMSE es la raz cuadrada de la varianza, conocida como la desviacin estndar.

6.1 Denicin y propiedades bsicas

Si Y es un vector de n predicciones y Y es el vector de los verdaderos valores, entonces el (estimado) ECM del
predictor es:
n
ECM = n1 i=1 (Yi Yi )2 .
Esta es una cantidad conocida, calculado dada una muestra particular (y por lo tanto es dependiente de la muestra).
El MSE de un estimador con respecto al parmetro desconocido se dene como

[ ]
= E ( )2 .
ECM()

Esta denicin depende del parmetro desconocido, y el MSE en este sentido es una propiedad de un estimador (de
un mtodo de obtencin de una estimacin).
El MSE es igual a la suma de la varianza y el cuadrado sesgo del estimador o de las predicciones. En el caso de la
MSE de un estimador, [2]

( )2
= Var()
ECM() + Bias(,
) .

As pues, el ECM evala la calidad de un estimador o conjunto de predicciones en cuanto a su variacin y el grado
de sesgo.
Desde MSE es una expectativa, no es tcnicamente una variable aleatoria, pero va a estar sujeto a error de estima-
cin cuando se calcula para un estimador particular de con valor verdadero desconocido. Por lo tanto, cualquier
estimacin de la MSE sobre la base de un parmetro estimado es de hecho una variable aleatoria.

15
16 CAPTULO 6. ERROR CUADRTICO MEDIO

6.2 Demostracin
[( )2 ]
E(( )2 ) = E
MSE() E()
+ E()

[( )2 ( ) ( )2 ]

= E E() + 2 ( E())(E() ) + E()
[( )2 ] [ ] [( )2 ]

= E E()
+ 2E ( E())(E() ) + E E()

=E()E(
)=0
[( )2 ] z }| { [( )2 ]

= E E()
+ 2(E() ) E( E()) +E E()
[( )2 ] [( )2 ]

= E E()
+ E E()

+ Bias(,
= Var() )2

6.3 Regresin
En el anlisis de regresin, el trmino de error cuadrtico medio se utiliza a veces para referirse a la estimacin
insesgada de la varianza del error: la suma residual de cuadrados, dividida por el nmero de grados de libertad. Esta
denicin para una cantidad calculada conocida, diere de la denicin anterior para el ECM calculado para un
predictor en que se utiliza un denominador diferente. El denominador es el tamao reducido de la muestra por el
nmero de parmetros del modelo estimado a partir de los mismos datos, (np) para p regresores o (np-1) si se utiliza
una intercepcin.[3] Para ms detalles, ver los errores y los residuos en las estadsticas. Tenga en cuenta que, aunque
el ECM no es un estimador insesgado de la varianza del error, es coherente, dada la consistencia del predictor.
Tambin en el anlisis de regresin, error cuadrtico medio, se reere a menudo al error medio de prediccin
cuadrado o fuera de la media muestral de error al cuadrado, puede referirse a la media de las desviaciones al
cuadrado de las predicciones de los verdaderos valores, a lo largo un espacio fuera de la muestra de ensayo, generado
por un modelo estimado durante un espacio de muestra particular. Esto tambin es una, cantidad calculada conocida,
y vara por muestra y por espacio de ensayo fuera de la muestra.

6.4 Ejemplos

6.4.1 Media

Supongamos que tenemos una muestra aleatoria de tamao n de una poblacin, X1 , . . . , Xn . Supongamos que las
unidades de muestra se eligieron con el reemplazo. Es decir, las n unidades se seleccionan uno a la vez, y las unidades
previamente seleccionadas siguen siendo elegibles para ser seleccionados para todo n empates. El estimador usual de
la media es el promedio de la muestra

1
n
X= Xi
n i=1

el cual tiene un valor esperado igual a la media real (por lo que es imparcial) y un error cuadrtico medio de

( )2
2
ECM(X) = E((X )2 ) = =
n n

donde 2 es la varianza de la poblacin.


Para una distribucin gaussiana este es el mejor estimador insesgado (es decir, que tiene el MSE ms bajo entre todos
los estimadores insesgados), pero no, por ejemplo, para una distribucin uniforme .
6.5. REFERENCIAS 17

6.4.2 Varianza
El estimador usual para la varianza es la corregida varianza de la muestra :

( )
1 ( )2
n n
1 2
2
Sn1 = Xi X = Xi2 nX .
n 1 i=1 n1 i=1

Esto es imparcial (su valor esperado es 2 ), Por lo tanto, tambin llamada la varianza de la muestra no sesgada, y su
ECM es [4]

( )
1 n3 4
2
ECM(Sn1 )= 4
n n1
( )
1 2n
= 2 + 4 ,
n n1

donde 4 es el cuarto momento central de la distribucin o de la poblacin y 2 = 4 / 4 3 es el exceso de curtosis.


Sin embargo, se puede utilizar otros estimadores de 2 que son proporcionales a Sn1
2
, Y una eleccin adecuada
siempre puede dar un error cuadrtico medio menor. Si denimos

n1 2
Sa2 = Sn1
a
1 ( )2
n
= Xi X
a i=1

a continuacin, el MSE es

(( )2 )
n1 2
MSE(Sa2 ) =E Sn1 2
a
n1 2(n 1) 4
= [(n 1)2 + n2 + n] 4 + 4
na2 a
Esto se minimiza cuando

(n 1)2 + n2 + n n1
a= =n+1+ 2 .
n n
Para una distribucin gaussiana, donde 2 = 0 . Esto signica que el MSE se minimiza cuando dividiendo la suma por
a = n + 1 . El exceso de curtosis es mnimo 2 = 2 , [a] que se consigue mediante una distribucin de Bernoulli
con p = 1/2 (un tirn de la moneda), y el MSE se reduce al mnimo para a = n 1 + 2/n . As que no importa lo
que la curtosis, obtenemos una estimacin mejor (en el sentido de tener un MSE inferior) reduciendo el tamao de
la perito imparcial un poco; este es un ejemplo sencillo de un estimador de la contraccin : uno encoge el estimador
hacia cero (escalas por el estimador no sesgado).
Adems, mientras que la varianza muestral corregida es el mejor estimador insesgado (error cuadrtico medio mnimo
entre los estimadores no sesgados) de la varianza para distribuciones gaussianas, si la distribucin no es gaussiana
2
entonces incluso entre estimadores no sesgados, el mejor estimador insesgado de la varianza puede no ser Sn1 .

6.5 Referencias
[1] Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd edicin). New York: Springer. ISBN 0-387-
98502-6. MR 1639875.
18 CAPTULO 6. ERROR CUADRTICO MEDIO

[2] Wackerly, Dennis; Scheaer, William (2008). Mathematical Statistics with Applications (7 edicin). Belmont, CA, USA:
Thomson Higher Education. ISBN 0-495-38508-5.

[3] Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences.,
McGraw Hill, 1960, page 288.

[4] Mood, A.; Graybill, F.; Boes, D. (1974). Introduction to the Theory of Statistics (3rd edicin). McGraw-Hill. p. 229.
Captulo 7

Tamao de la muestra

En estadstica el tamao de la muestra es el nmero de sujetos que componen la muestra extrada de una poblacin,
necesarios para que los datos obtenidos sean representativos de la poblacin.

7.1 Objetivos de la determinacin del tamao adecuado de una muestra


1. Estimar un parmetro determinado con el nivel de conanza deseado.

2. Detectar una determinada diferencia, si realmente existe, entre los grupos de estudio con un mnimo de garanta.

3. Reducir costes o aumentar la rapidez del estudio.

Por ejemplo, en un estudio de investigacin epidemiolgico la determinacin de un tamao adecuado de la muestra


tendra como objetivo su factibilidad. As:

1. Si el nmero de sujetos es insuciente habra que modicar los criterios de seleccin, solicitar la colaboracin
de otros centros o ampliar el perodo de reclutamiento. Los estudios con tamaos muestrales insucientes, no
son capaces de detectar diferencias entre grupos, llegando a la conclusin errnea de que no existe tal diferencia.

2. Si el nmero de sujetos es excesivo, el estudio se encarece desde el punto de vista econmico y humano. Adems
es poco tico al someter a ms individuos a una intervencin que puede ser menos ecaz o incluso perjudicial.

El tamao de una muestra es el nmero de individuos que contiene.


Una frmula muy extendida que orienta sobre el clculo del tamao de la muestra para datos globales es la siguiente:[1]

k 2 N pq
e2 (N 1) + k 2 pq

N: es el tamao de la poblacin o universo (nmero total de posibles encuestados).


k: es una constante que depende del nivel de conanza que asignemos. El nivel de conanza indica la probabilidad
de que los resultados de nuestra investigacin sean ciertos: un 95,5 % de conanza es lo mismo que decir que nos
podemos equivocar con una probabilidad del 4,5%. Los valores de k se obtienen de la tabla de la distribucin normal
estndar N(0,1).

Los valores de k ms utilizados y sus niveles de conanza son:

19
20 CAPTULO 7. TAMAO DE LA MUESTRA

(Por tanto si pretendemos obtener un nivel de conanza del 95% necesitamos poner en la frmula k=1,96)
e: es el error muestral deseado, en tanto por uno. El error muestral es la diferencia que puede haber entre el resultado
que obtenemos preguntando a una muestra de la poblacin y el que obtendramos si preguntramos al total de ella.
Ejemplos:

Ejemplo 1: si los resultados de una encuesta dicen que 100 personas compraran un producto y tenemos
un error muestral del 5% comprarn entre 95 y 105 personas.

Ejemplo 2: si hacemos una encuesta de satisfaccin a los empleados con un error muestral del 3% y el
60% de los encuestados se muestran satisfechos signica que entre el 57% y el 63% (60% +/- 3%) del
total de los empleados de la empresa lo estarn.

Ejemplo 3: si los resultados de una encuesta electoral indicaran que un partido iba a obtener el 55% de
los votos y el error estimado fuera del 3%, se estima que el porcentaje real de votos estar en el intervalo
52-58% (55% +/- 3%).

p: proporcin de individuos que poseen en la poblacin la caracterstica de estudio. Este dato es generalmente des-
conocido y se suele suponer que p=q=0.5 que es la opcin ms segura.
q: proporcin de individuos que no poseen esa caracterstica, es decir, es 1-p.
n: tamao de la muestra (nmero de encuestas que vamos a hacer).
Altos niveles de conanza y bajo margen de error no signican que la encuesta sea de mayor conanza o est ms
libre de error necesariamente; antes es preciso minimizar la principal fuente de error que tiene lugar en la recogida
de datos.
Otra frmula para calcular el tamao de la muestra es:
n=(N^2 Z^2)/((N-1) e^2+^2 Z^2 )
Donde: n = el tamao de la muestra.
N = tamao de la poblacin.
= Desviacin estndar de la poblacin, que generalmente cuando no se tiene su valor, suele utilizarse un valor
constante de 0,5.
Z = Valor obtenido mediante niveles de conanza. Es un valor constante que, si no se tiene su valor, se lo toma en
relacin al 95% de conanza equivale a 1,96 (como ms usual) o en relacin al 99% de conanza equivale 2,58, valor
que queda a criterio del encuestador.
e = Lmite aceptable de error muestral que, generalmente cuando no se tiene su valor, suele utilizarse un valor que
vara entre el 1% (0,01) y 9% (0,09), valor que queda a criterio del encuestador.
La frmula anterior se obtiene de la frmula para calcular la estimacin del intervalo de conanza para la media:
X -Z /n ((N-n)/(N-1))X +Z /n ((N-n)/(N-1))
En donde el error es:
e=Z /n ((N-n)/(N-1))
Elevando al cuadrado el error se tiene: (e) ^2=(Z /n ((N-n)/(N-1)))^2 e^2=Z^2 ^2/n (N-n)/(N-1)
Multiplicando fracciones: e^2=( Z^2 ^2 (N-n))/n(N-1)
Eliminando denominadores: e^2 n(N-1)= Z^2 ^2 (N-n)
Eliminando parntesis: e^2 nN-e^2 n= Z^2 ^2 N- Z^2 ^2 n
Transponiendo n a la izquierda: e^2 nN-e^2 n+ Z^2 ^2 n= Z^2 ^2 N
Factor comn de n:
n(e^2 N-e^2+Z^2 ^2 )= Z^2 ^2 N
Despejando n:
n=( Z^2 ^2 N)/(e^2 N-e^2+Z^2 ^2 )
Ordenando se obtiene la frmula para calcular el tamao de la muestra:
7.1. OBJETIVOS DE LA DETERMINACIN DEL TAMAO ADECUADO DE UNA MUESTRA 21

n=(N^2 Z^2)/((N-1) e^2+^2 Z^2 )


Ejemplo ilustrativo: Calcular el tamao de la muestra de una poblacin de 500 elementos con un nivel de conanza
del 99%
Solucin: Se tiene N=500, para el 99% de conanza Z = 2,58, y como no se tiene los dems valores se tomar =0,5,
y e = 0,05.
Reemplazando valores en la frmula se obtiene:
n=(N^2 Z^2)/((N-1) e^2+^2 Z^2 )
n=(500 0,5 ^2 2,58 ^2)/((500-1) (0,05) ^2+ 0,5 ^2 2,58 ^2 )=832,05/2,9116=285,77=286

7.1.1 Estimacin de parmetros

La estimacin de parmetros consiste en el clculo aproximado del valor de un parmetro en la poblacin, utilizando
la inferencia estadstica, a partir de los valores observados en la muestra estudiada. Para el clculo del tamao de
la muestra en una estimacin de parmetros son necesarios los conceptos de Intervalo de conanza, variabilidad del
parmetro, error, nivel de conanza, valor crtico y valor (vase estimacin por intervalos).

Estimacin de una proporcin

Los datos que tenemos que incluir en la frmula para calcular el nmero de sujetos necesarios de la muestra (N) son:

1. Z/: valor de Z correspondiente al riesgo jado. El riesgo jado suele ser 0,05 y Z/ de 1,96.

2. P: Valor de la proporcin que se supone existe en la poblacin.

3. i: Precisin con que se desea estimar el parmetro ( 2i es la amplitud del intervalo de conanza).

Estimacin de una media

Los datos que tenemos que incluir en la frmula para calcular el nmero de sujetos necesarios en la muestra (N) son:

1. Z/: valor de Z correspondiente al riesgo jado. El riesgo jado suele ser 0,05 y Z/ de 1,96.

2. s2 : Varianza de la distribucin de la variable cuantitativa que se supone que existe en la poblacin.

3. i : Precisin con que se desea estimar el parmetro ( 2i es la amplitud del intervalo de conanza).

7.1.2 Contraste de hiptesis

Para conocer el tamao de la muestra en un estudio de investigacin en el que queremos conocer las diferencias
existentes entre dos hiptesis, debemos conocer previamente:

error tipo I y tipo II: Hay que establecer el riesgo de cometer un error de tipo I que se est dispuesto a aceptar.
Normalmente de forma arbitraria se acepta un riesgo del 5%. Adems hay que establecer el riesgo que se acepta
de cometer un error tipo II, que suele ser entre el 5 y el 20%.

Si la hiptesis es unilateral o bilateral: El planteamiento de una hiptesis bilateral o de dos colas requiere
mayor tamao muestral.

Denir la Magnitud de la diferencia efecto o asociacin que se desea detectar: A mayores diferencias prees-
tablecidas en el planteamiento de la hiptesis, menor tamao muestral, y a menor diferencia, mayor espacio
muestral.

Conocer la variabilidad del criterio de evaluacin en la poblacin.


22 CAPTULO 7. TAMAO DE LA MUESTRA

Comparacin de dos proporciones

Para calcular el nmero de sujetos necesarios en cada una de las muestras (n), debemos prejar:

1,96 = Valor Z correspondiente al riesgo deseado

1,96 = Valor Z correspondiente al riesgo deseado, si es de dos colas.


0,13 = Valor de la proporcin en el grupo de referencia, placebo, control o tratamiento habitual.

0,44 = Valor de la proporcin en el grupo del nuevo tratamiento, intervencin o tcnica.


0,29 = Media de las dos proporciones p1 y p2 .

Coeciente de correlacin

La asociacin entre dos variables cuantitativas necesita normalmente la utilizacin del coeciente de correlacin r de
Pearson.

Equivalencia de dos intervenciones

Portal:Matemtica. Contenido relacionado con Matemtica.

7.2 Notas
[1] Tamao de una muestra para una investigacin de mercado Trabajo de dos profesoras de la Universidad Rafael Landvar.
7.3. TEXT AND IMAGE SOURCES, CONTRIBUTORS, AND LICENSES 23

7.3 Text and image sources, contributors, and licenses


7.3.1 Text
Muestreo (estadstica) Fuente: http://es.wikipedia.org/wiki/Muestreo%20(estad%C3%ADstica)?oldid=81244951 Colaboradores: Pino,
Joseaperez, Sabbut, Pabloes, JorgeGG, Tartaglia, Dodo, Tano4595, Niqueco, Magister Mathematicae, RobotQuistnix, Yrbot, BOTijo, Yu-
rikBot, Icvav, The Photographer, Fernando Surez, Sheket, Baneld, Maldoror, BOTpolicia, CEM-bot, Laura Fiorucci, Karshan, Rastrojo,
Antur, VARGUX, Isha, Hanjin, Dogor, Kved, Fargok, Segedano, Leptictidium, Iulius1973, Gsrdzl, TXiKiBoT, Esteban521, Humberto,
Netito777, Ale ashero, Ronald2308, Plux, VolkovBot, Snakeyes, Technopat, Queninosta, Matdrodes, Nuvem, Esperanza Larramendi,
Luis Carlos Silva, Rauleeddoo, BlackBeast, Muro Bot, Bucho, Racso, Mauricio Sadinle, SieBot, Mushii, Loveless, CASF, Marcelo, Man-
w, Ugly, Pascow, Correogsk, Greek, Tirithel, Jdateo, Eduardosalg, Leonpolanco, Petruss, Poco a poco, Juan Mayordomo, Aipni-Lovrij,
Camilo, UA31, AVBOT, Miltonpatio, David0811, Tenebra, J.delanoy, MastiBot, MarcoAurelio, Diegusjaimes, Davidgutierrezalvarez,
MelancholieBot, CarsracBot, Javu61, Andreasmperu, BOTrany, Miguel A. Ortiz Arjona, Nixn, ArthurBot, SuperBraulio13, ChristianH,
Jkbw, ChenzwBot, Botarel, DrVino, Dark Bane, Foundling, Axvolution, Alieito, AVIADOR, J. A. Glvez, Grillitus, Emiduronte, An-
tonorsi, LlamaAl, Helmy oved, Addbot, Balles2601, JacobRodrigues, IsraelMR, MrCharro, Mr verga, Anonimush y Annimos: 387
Poblacin estadstica Fuente: http://es.wikipedia.org/wiki/Poblaci%C3%B3n%20estad%C3%ADstica?oldid=82186608 Colaborado-
res: Suisui, JakobVoss~eswiki, Pabloes, JorgeGG, Sms, Julian Colina, Rembiapo pohyiete (bot), Chobot, Vitamine, YurikBot, Lobillo,
Baneld, BOTpolicia, CEM-bot, Rosarinagazo, Montgomery, Escarbot, IrwinSantos, Gngora, Pepelopex, Gsrdzl, TXiKiBoT, Netito777,
Rei-bot, VolkovBot, Matdrodes, Muro Bot, SieBot, Loveless, Manw, Greek, Jarisleif, Nicop, McMalamute, Eduardosalg, Leonpolanco,
Gallowolf, Juan Mayordomo, Raulshc, UA31, AVBOT, MastiBot, Diegusjaimes, DumZiBoT, Arjuno3, Roinpa, SuperBraulio13, Jkbw,
Marvinn, Ricardogpn, Torrente, Botarel, D'ohBot, Hprmedina, RedBot, Dark Bane, Jorge c2010, Miss Manzana, EmausBot, AVIADOR,
Sergio Andres Segovia, Rubpe19, Elas, UnRar, Any Rand, Lcampospousa, Antonorsi, MerlIwBot, Franco68, KLBot2, RollbackerBOT,
Carliitaeliza, Harpagornis, LlamaAl, Elvisor, Helmy oved, Akdkiller, Dofusyee, Syum90, Liro jou, Balles2601, Prolactino, MrCharro,
Pabloarcadio, JuanCalamidad, Volei3223 y Annimos: 176
Muestra estadstica Fuente: http://es.wikipedia.org/wiki/Muestra%20estad%C3%ADstica?oldid=82285944 Colaboradores: Joseape-
rez, Tartaglia, Julian Colina, Soulreaper, Airunp, Natrix, Magister Mathematicae, RobotQuistnix, Yrbot, YurikBot, Filipo, Javicivil,
BOTpolicia, CEM-bot, Marianov, Davius, Gafotas, FrancoGG, Resped, Thijs!bot, Srengel, Roberto Fiadone, Carlosgs83, Dogor, JAnD-
bot, VanKleinen, Kved, TXiKiBoT, Esteban521, Humberto, Plux, Technopat, Matdrodes, Edmenb, SieBot, Loveless, CASF, Mel 23,
Manw, Mafores, Xqno, Tirithel, Javierito92, DragonBot, Farisori, Eduardosalg, Leonpolanco, Petruss, Poco a poco, Juan Mayordo-
mo, Raulshc, Aipni-Lovrij, UA31, AVBOT, Dermot, LucienBOT, Diegusjaimes, Arjuno3, Spirit-Black-Wikipedista, Nallimbot, Vic
Fede, Rickynoram, SuperBraulio13, Xqbot, Jkbw, Dreitmen, Ricardogpn, Torrente, Botarel, MauritsBot, Panderine!, Hprmedina, Gon-
zalo.cruz.ruiz, Jorge c2010, Sergio Andres Segovia, ChuispastonBot, MadriCR, Waka Waka, MerlIwBot, Fredy2396, Gusama Romero,
Mega-buses, Helmy oved, Robert Laymont, Syum90, Liro jou, Jean70000, Addbot, Balles2601, Prolactino, MrCharro, Joyaso123, Andy
XD 1804 y Annimos: 191
Estimacin estadstica Fuente: http://es.wikipedia.org/wiki/Estimaci%C3%B3n%20estad%C3%ADstica?oldid=82196404 Colabora-
dores: 4lex, Tartaglia, Elwikipedista, Tano4595, Superzerocool, Chobot, .Sergio, Mortadelo2005, Er Komandante, Lmendo, CEM-bot,
F.A.A, Arcibel, Gusgus, Mmmarquez, Plux, VolkovBot, Technopat, Matdrodes, Galatei, Tirithel, StarBOT, Eduardosalg, Leonpolanco,
Juan Mayordomo, Camilo, AVBOT, Ellinik, David0811, LucienBOT, MarcoAurelio, Diegusjaimes, Arjuno3, Eva R M, Jkbw, Dreitmen,
EeX2, Botarel, Alph Bot, Chrisyagami, ZroBot, Grillitus, Jcaraballo, Acratta, Legobot, JacobRodrigues y Annimos: 93
Estimador Fuente: http://es.wikipedia.org/wiki/Estimador?oldid=76554267 Colaboradores: Julian Colina, Yrbot, Chlewbot, Fenicio,
Gcddcf, Cgb, TXiKiBoT, Ignacioerrico, Drever, Muro Bot, Galatei, Juan Mayordomo, Diegusjaimes, Luckas-bot, Hatorresmantilla,
Evaromero, ArthurBot, SuperBraulio13, Xqbot, Marsal20, PatruBOT, Angelito7, Humbefa, MerlIwBot, Addbot, Bullboy~eswiki y An-
nimos: 23
Error cuadrtico medio Fuente: http://es.wikipedia.org/wiki/Error%20cuadr%C3%A1tico%20medio?oldid=80653734 Colaboradores:
Ivanpares, Invadibot, VictorPines y Annimos: 1
Tamao de la muestra Fuente: http://es.wikipedia.org/wiki/Tama%C3%B1o%20de%20la%20muestra?oldid=79366448 Colaborado-
res: Zuirdj, Joseaperez, Sabbut, Pabloes, SpeedyGonzalez, ManuelGR, Tartaglia, Dianai, Niqueco, Richy, FAR, Airunp, CarlosHoyos,
Platonides, Yrbot, Amads, Vitamine, Aiax, Chlewbot, Gizmo II, CEM-bot, Laura Fiorucci, Pinar~eswiki, Abelgrc, FrancoGG, Gge-
nellina, Aeris17, Dianayopli, Idioma-bot, BL, Technopat, Muro Bot, Ctrl Z, Belb, Jarisleif, HUB, Antn Francho, Eduardosalg, Juan
Mayordomo, SilvonenBot, UA31, AVBOT, Diegusjaimes, Polo162, ArthurBot, Xqbot, Hspitia, RedBot, H4x0r, Humbefa, Africanus,
Ricardo M.M. vlc, Grillitus, Mgsmariosuarez, Xos Antonio, Johnbot, LlamaAl, Elvisor, Addbot, Ted00PSS, Jarould y Annimos: 104

7.3.2 Images
Archivo:Commons-emblem-issue.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/b/bc/Commons-emblem-issue.svg Li-
cencia: GPL Colaboradores: File:Gnome-emblem-important.svg Artista original: GNOME icon artists and User:ViperSnake151
Archivo:Commons-emblem-question_book_orange.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/1/1f/Commons-emblem-question_
book_orange.svg Licencia: CC BY-SA 3.0 Colaboradores: <a href='//commons.wikimedia.org/wiki/File:Commons-emblem-issue.svg'
class='image'><img alt='Commons-emblem-issue.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/25px-Commons-emblem-issue.svg.png' width='25' height='25' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.
svg/38px-Commons-emblem-issue.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/b/bc/Commons-emblem-issue.svg/
50px-Commons-emblem-issue.svg.png 2x' data-le-width='48' data-le-height='48' /></a> + <a href='//commons.wikimedia.org/wiki/
File:Question_book.svg' class='image'><img alt='Question book.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/25px-Question_book.svg.png' width='25' height='20' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_
book.svg/38px-Question_book.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/50px-Question_
book.svg.png 2x' data-le-width='252' data-le-height='199' /></a> Artista original: GNOME icon artists, Jorge 2701
Archivo:Commons-emblem-question_book_yellow.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/d/dd/Commons-emblem-question_
book_yellow.svg Licencia: CC BY-SA 3.0 Colaboradores: <a href='//commons.wikimedia.org/wiki/File:Commons-emblem-query.svg'
class='image'><img alt='Commons-emblem-query.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/c/c5/Commons-emblem-query.
24 CAPTULO 7. TAMAO DE LA MUESTRA

svg/25px-Commons-emblem-query.svg.png' width='25' height='25' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/c/c5/Commons-emblem-query


svg/38px-Commons-emblem-query.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/c/c5/Commons-emblem-query.
svg/50px-Commons-emblem-query.svg.png 2x' data-le-width='48' data-le-height='48' /></a> + <a href='//commons.wikimedia.org/
wiki/File:Question_book.svg' class='image'><img alt='Question book.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/
Question_book.svg/25px-Question_book.svg.png' width='25' height='20' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/9/
97/Question_book.svg/38px-Question_book.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/
50px-Question_book.svg.png 2x' data-le-width='252' data-le-height='199' /></a> Artista original: GNOME icon artists, Linfocito B
Archivo:Nuvola_apps_edu_mathematics-p.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/c/c2/Nuvola_apps_edu_mathematics-p.
svg Licencia: GPL Colaboradores: Derivative of Image:Nuvola apps edu mathematics.png created by self Artista original: David Vignoni
(original icon); Flamurai (SVG convertion)

7.3.3 Content license


Creative Commons Attribution-Share Alike 3.0
428 - Anlisis Multivariante
ndice general

1 Estadstica multivariante 1
1.1 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Vector aleatorio 3
2.1 La distribucin de un vector aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

3 Prueba t de Student 4
3.1 Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.2 Usos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.3 Estadsticos T y Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.4 Pruebas t para dos muestras apareadas y desapareadas . . . . . . . . . . . . . . . . . . . . . . . . 5
3.4.1 Desapareada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.4.2 Apareada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5 Clculos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.1 Prueba t para muestra nica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.2 Pendiente de una regresin lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.3 Prueba t para dos muestras independientes . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.5.4 Prueba t dependiente para muestras apareadas . . . . . . . . . . . . . . . . . . . . . . . . 8
3.6 Ejemplos desarrollados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.6.1 Varianzas desiguales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.6.2 Varianzas iguales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.7 Alternativas a la prueba t para problemas de locacin . . . . . . . . . . . . . . . . . . . . . . . . 9
3.8 Pruebas multivariadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.8.1 Prueba T 2 monomuestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2
3.8.2 Prueba T bimuestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.9 Implementaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.10 Lecturas adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.11 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.12 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.12.1 Calculadores en lnea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

i
ii NDICE GENERAL

4 Distribucin normal multivariante 12


4.1 Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.1.1 Funcin de distribucin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.1.2 Un contraejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.1.3 Normalmente distribuidas e independencia . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2 Caso bivariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.3 Transformacin afn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4 Interpretacin geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.5 Correlaciones e independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.6 Momentos ms altos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.7 Distribuciones condicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.7.1 Esperanza condicional bivariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.8 Matriz de informacin de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.9 Divergencia de Kullback-Leibler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.10 Estimacin de parmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.11 Entropa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.12 Tests de normalidad multivariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.13 Simulando valores de la distribucin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.14 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5 Hotellings T-squared distribution 19


5.1 La distribucin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.2 Estadstica T-cuadrado de Hotelling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.3 Estadstica T-cuadrado de Hotelling para dos muestras . . . . . . . . . . . . . . . . . . . . . . . . 21
5.4 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.5 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.6 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

6 Anlisis multivariante 23
6.1 Tcnicas Multivariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.2 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.3 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

7 Anlisis multivariante de la varianza 25

8 Anlisis de correspondencias 26
8.1 Implementaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
8.2 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

9 Anlisis de componentes principales 27


9.1 Fundamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
9.2 Matemticas del ACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
9.2.1 Mtodo basado en correlaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
NDICE GENERAL iii

9.2.2 Mtodo basado en las covarianzas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


9.2.3 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
9.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
9.4 Referencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
9.4.1 Enlaces externos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

10 Anlisis discriminante 31
10.1 Vase tambin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
10.2 Text and image sources, contributors, and licenses . . . . . . . . . . . . . . . . . . . . . . . . . . 32
10.2.1 Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
10.2.2 Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
10.2.3 Content license . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Captulo 1

Estadstica multivariante

Un vector aleatorio es un vector formado por una o ms variables aleatorias escalares. La estadstica multivariante se
ocupa de los vectores aleatorios que tienen aplicaciones en muchas ciencias y tcnicas. Podemos destacar entre ellas
la econometra y la taxonoma. Un modelo explicativo para una variable aleatoria se basa en explicar esta recurriendo
a otras. Los vectores aleatorios nos sirven para construir este tipo de modelos. Incluso en fsica, donde parece que los
modelos determinan claramente el valor de las variables, estas padecen errores producidos por variables no incluidos
en el modelo o procesos puramente aleatorios, lo que hace necesario recurrir a modelos estadsticos para estimar sus
parmetros.
Los mtodos estadsticos multivariantes y el anlisis multivariante son herramientas estadsticas que estudian el
comportamiento de tres o ms variables al mismo tiempo. Se usan principalmente para buscar las variables menos
representativas para poder eliminarlas, simplicando as modelos estadsticos en los que el nmero de variables sea
un problema y para comprender la relacin entre varios grupos de variables. Algunos de los mtodos ms conocidos
y utilizados son la Regresin lineal y el Anlisis discriminante.
Se pueden sintetizar dos objetivos claros:

1. Proporcionar mtodos cuya nalidad es el estudio conjunto de datos multivariantes que el anlisis estadstico
uni y bidimensional es incapaz de conseguir.
2. Ayudar al analista o investigador a tomar decisiones ptimas en el contexto en el que se encuentre teniendo en
cuenta la informacin disponible por el conjunto de datos analizado.

Existen diferentes modelos y mtodos, cada uno con su tipo de anlisis:

1. Mtodos de Dependencia:
(a) Un estudio de la regresin nos permite averiguar hasta que punto una variable puede ser prevista co-
nociendo otra. Se utiliza para intentar predecir el comportamiento de ciertas variables a partir de otras,
como por ejemplo los benecios de una pelcula a partir del gasto en mrketing y del gasto en produccin.
(b) El anlisis de la correlacin cannica intenta analizar la posible existencia de relacin entre dos grupos
de variables.
(c) Un anlisis discriminante nos puede dar una funcin discriminante que puede ser utilizada para distinguir
entre dos o ms grupos, y de este modo tomar decisiones.
(d) Un anlisis multivariante de la varianza (MANOVA), extendiendo el anlisis de la varianza (ANOVA),
cubre los casos en los que se conozca la existencia de ms de una variable dependiente sin poderse sim-
plicar ms el modelo.
(e) La regresin logstica permite la elaboracin de un anlisis de regresin para estimar y probar la inuencia
de una variable sobre otra, cuando la variable dependiente o de respuesta es de tipo dicotmico.
2. Mtodos de Interdependencia:
(a) El anlisis de los componentes principales procura determinar un sistema ms pequeo de variables que
sinteticen el sistema original.

1
2 CAPTULO 1. ESTADSTICA MULTIVARIANTE

(b) El anlisis clster clasica una muestra de entidades (individuos o variables) en un nmero pequeo de
grupos de forma que las observaciones pertenecientes a un grupo sean muy similares entre s y muy
disimilares del resto. A diferencia del Anlisis discriminante se desconoce el nmero y la composicin
de dichos grupos.
(c) La Iconografa de las correlaciones.
3. Mtodos Estructurales:

Los modelos de ecuaciones estructurales analizan las relaciones existentes entre


un grupo de variables representadas por sistemas de ecuaciones simultneas en las
que se suponen que algunas de ellas (denominadas constructos) se miden con error
a partir de otras variables observables denominadas indicadores. Los modelos utili-
zados constan, por lo tanto, de dos partes: un modelo estructural que especica las
relaciones de dependencia existente entre las constructos latentes y un modelo de
medida que especica como los indicadores se relacionan con sus correspondientes
constructos.

1.1 Enlaces externos


Espaol:

Anlisis de modelos de regresin logstica, en la web de la Sociedad Andaluza de Enfermedades Infecciosas

1.2 Vase tambin


Anlisis multivariante

1.3 Bibliografa
Abraira Santos, Vctor. Mtodos Multivariantes en bioestadstica.

Cuadras, Carles (2008). Nuevos mtodos de anlisis multivariante. CMC Editions.


Captulo 2

Vector aleatorio

Un vector aleatorio es un vector formado por una o ms variables aleatorias escalares. Por variable aleatoria escalar
nos referimos a una variable que toma valores en un cuerpo. Normalmente, este cuerpo es el de los nmeros reales o
el de los nmeros complejos.

2.1 La distribucin de un vector aleatorio


Asociada al vector aleatorio est la distribucin del vector aleatorio que es una distribucin de probabilidad asociada
al vector aleatorio que nos permite calcular la probabilidad de que el valor del vector aleatorio, que es un vector, est
dentro de un conjunto. Las distribuciones de probabilidad que puede tomar un vector aleatorio son las distribuciones
vectoriales. Entre ellas podemos destacar la distribucin normal vectorial. La distribucin del vector aleatorio deter-
mina la distribucin de las variables aleatorias escalares que lo forman. Cada una de estas distribuciones escalares se
llama distribucin marginal.
Otros ejemplos de distribuciones vectoriales son la distribucin de Dirichlet y la distribucin multivariante de Student.

3
Captulo 3

Prueba t de Student

En estadstica, una prueba t de Student, prueba t-Student, o Test-T es cualquier prueba en la que el estadstico
utilizado tiene una distribucin t de Student si la hiptesis nula es cierta. Se aplica cuando la poblacin estudiada
sigue una distribucin normal pero el tamao muestral es demasiado pequeo como para que el estadstico en el que
est basada la inferencia est normalmente distribuido, utilizndose una estimacin de la desviacin tpica en lugar
del valor real. Es utilizado en anlisis discriminante.

3.1 Historia
El estadstico t fue introducido por William Sealy Gosset en 1908, un qumico que trabajaba para la cervecera
Guinness de Dubln. Student era su seudnimo de escritor.[1][2][3] Gosset haba sido contratado gracias a la poltica
de Claude Guiness de reclutar a los mejores graduados de Oxford y Cambridge, y con el objetivo de aplicar los nuevos
avances en bioqumica y estadstica al proceso industrial de Guiness.[2] Gosset desarroll el test t como una forma
sencilla de monitorizar la calidad de la famosa cerveza stout. Public su test en la revista inglesa Biometrika en el ao
1908, pero fue forzado a utilizar un seudnimo por su empleador, para mantener en secreto los procesos industriales
que se estaban utilizando en la produccin. Aunque de hecho, la identidad de Gosset era conocida por varios de sus
compaeros estadsticos.[4]

3.2 Usos
Entre los usos ms frecuentes de las pruebas t se encuentran:

El test de locacin de muestra nica por el cual se comprueba si la media de una poblacin distribuida nor-
malmente tiene un valor especicado en una hiptesis nula.

El test de locacin para dos muestras, por el cual se comprueba si las medias de dos poblaciones distribuidas
en forma normal son iguales. Todos estos test son usualmente llamados test t de Student, a pesar de que es-
trictamente hablando, tal nombre slo debera ser utilizado si las varianzas de las dos poblaciones estudiadas
pueden ser asumidas como iguales; la forma de los ensayos que se utilizan cuando esta asuncin se deja de lado
suelen ser llamados a veces como Prueba t de Welch. Estas pruebas suelen ser comnmente nombradas como
pruebas t desapareadas o de muestras independientes, debido a que tienen su aplicacin ms tpica cuando las
unidades estadsticas que denen a ambas muestras que estn siendo comparadas no se superponen.[5]

El test de hiptesis nula por el cual se demuestra que la diferencia entre dos respuestas medidas en las mismas
unidades estadsticas es cero. Por ejemplo, supngase que se mide el tamao del tumor de un paciente con
cncer. Si el tratamiento resulta efectivo, lo esperable seria que el tumor de muchos pacientes disminuyera de
tamao luego de seguir el tratamiento. Esto con frecuencia es referido como prueba t de mediciones apareadas
o repetidas.[5][6]

El test para comprobar si la pendiente de una regresin lineal diere estadsticamente de cero.

4
3.3. ESTADSTICOS T Y Z 5

3.3 Estadsticos T y Z
La mayor parte de las pruebas estadsticas t tienen la forma T = Zs , donde Z y s son funciones de los datos estudiados.
Tpicamente, Z se disea de forma tal que resulte sensible a la hiptesis alternativa (p.ej. que su magnitud tienda a
ser mayor cuando la hiptesis alternativa es verdadera), mientras que s es un parmetro de escala que permite que la
distribucin de T pueda ser determinada.
es la media muestral de los datos, n es el tamao
Por ejemplo, en una prueba t de muestra nica, Z = X , donde X
n
muestral, y es la desviacin estndar de la poblacin de datos; s en una prueba de muestra nica es
/ , donde

es la desviacin estndar muestral.
Las asunciones subyacentes en una prueba t son:

Que Z sigue una distribucin normal bajo la hiptesis nula.


ps2 sigue una distribucin 2 con p grados de libertad bajo la hiptesis nula, y donde p es una constante positiva.
Z y s son estadsticamente independientes.

En una prueba t especca, estas condiciones son consecuencias de la poblacin que est siendo estudiada, y de la
forma en que los datos han sido muestreados. Por ejemplo, en la prueba t de comparacin de medias de dos muestras
independientes, deberamos realizar las siguientes asunciones:

Cada una de las dos poblaciones que estn siendo comparadas sigue una distribucin normal. Esto puede
ser demostrado utilizando una prueba de normalidad, tales como una prueba Shapiro-Wilk o Kolmogrov-
Smirnov, o puede ser determinado grcamente por medio de un grco de cuantiles normales Q-Q plot.

Si se est utilizando la denicin original de Student sobre su prueba t, las dos poblaciones a ser comparadas
deben poseer las mismas varianzas, (esto se puede comprobar utilizando una prueba F de igualdad de varianzas,
una prueba de Levene, una prueba de Bartlett, o una prueba de Brown-Forsythe, o estimarla grcamente por
medio de un grco Q-Q plot). Si los tamaos muestrales de los dos grupos comparados son iguales, la prueba
original de Student es altamente resistente a la presencia de varianzas desiguales.[7] la Prueba de Welch es
insensible a la igualdad de las varianzas, independientemente de si los tamaos de muestra son similares.

Los datos usados para llevar a cabo la prueba deben ser muestreados independientemente para cada una de
las dos poblaciones que se comparan. Esto en general no es posible determinarlo a partir de los datos, pero si
se conoce que los datos han sido muestreados de manera dependiente (por ejemplo si fueron muestreados por
grupos), entonces la prueba t clsica que aqu se analiza, puede conducir a resultados errneos.

3.4 Pruebas t para dos muestras apareadas y desapareadas


Las pruebas-t de dos muestras para probar la diferencia en las medias pueden ser desapareadas o en parejas. Las
pruebas t pareadas son una forma de bloqueo estadstico, y poseen un mayor poder estadstico que las pruebas no
apareadas cuando las unidades apareadas son similares con respecto a los factores de ruido que son independientes
de la pertenencia a los dos grupos que se comparan [cita requerida] . En un contexto diferente, las pruebas-t apareadas
pueden utilizarse para reducir los efectos de los factores de confusin en un estudio observacional.

3.4.1 Desapareada
Las pruebas t desapareadas o de muestras independientes, se utilizan cuando se obtienen dos grupos de muestras
aleatorias, independientes e idnticamente distribuidas a partir de las dos poblaciones a ser comparadas. Por ejemplo,
supngase que estamos evaluando el efecto de un tratamiento mdico, y reclutamos a 100 sujetos para el estudio.
Luego elegimos aleatoriamente 50 sujetos para el grupo en tratamiento y 50 sujetos para el grupo de control. En este
caso, obtenemos dos muestras independientes y podramos utilizar la forma desapareada de la prueba t. La eleccin
aleatoria no es esencial en este caso, si contactamos a 100 personas por telfono y obtenemos la edad y gnero de
cada una, y luego se utiliza una prueba t bimuestral para ver en que forma la media de edades diere por gnero, esto
tambin sera una prueba t de muestras independientes, a pesar de que los datos son observacionales.
6 CAPTULO 3. PRUEBA T DE STUDENT

3.4.2 Apareada
Las pruebas t de muestras dependientes o apareadas, consisten tpicamente en una muestra de pares de valores con
similares unidades estadsticas, o un grupo de unidades que han sido evaluadas en dos ocasiones diferentes (una
prueba t de mediciones repetitivas). Un ejemplo tpico de prueba t para mediciones repetitivas sera por ejemplo que
los sujetos sean evaluados antes y despus de un tratamiento.
Una prueba 't basada en la coincidencia de pares muestrales se obtiene de una muestra desapareada que luego es utili-
zada para formar una muestra apareada, utilizando para ello variables adicionales que fueron medidas conjuntamente
con la variable de inters.[8]
La valoracin de la coincidencia se lleva a cabo mediante la identicacin de pares de valores que consisten en
una observacin de cada una de las dos muestras, donde las observaciones del par son similares en trminos de otras
variables medidas. Este enfoque se utiliza a menudo en los estudios observacionales para reducir o eliminar los efectos
de los factores de confusin.

3.5 Clculos
Las expresiones explcitas que pueden ser utilizadas para obtener varias pruebas t se dan a continuacin. En cada
caso, se muestra la frmula para una prueba estadstica que o bien siga exactamente o aproxime a una distribucin t
de Student bajo la hiptesis nula. Adems, se dan los apropiados grados de libertad en cada caso. Cada una de estas
estadsticas se pueden utilizar para llevar a cabo ya sea un prueba de una cola o prueba de dos colas.
Una vez que se ha determinado un valor t, es posible encontrar un valor p asociado utilizando para ello una tabla
de valores de distribucin t de Student. Si el valor p calulado es menor al lmite elegido por signicancia estadstica
(usualmente a niveles de signicancia 0,10; 0,05 o 0,01), entonces la hiptesis nula se rechaza en favor de la hiptesis
alternativa.

3.5.1 Prueba t para muestra nica


En esta prueba se evala la hiptesis nula de que la media de la poblacin estudiada es igual a un valor especicado
0 , se hace uso del estadstico:
x
0 ,
t= s/ n

donde x es la media muestral, s es la desviacin estndar muestral y n es el tamao de la muestra. Los grados de
libertad utilizados en esta prueba se corresponden al valor n 1.

3.5.2 Pendiente de una regresin lineal


Supngase que se est ajustando el modelo:
Yi = + xi + i ,

donde xi, i = 1, ..., n son conocidos, y son desconocidos, y i es el error aleatorio en los residuales que se
encuentra normalmente distribuido, con un valor esperado 0 y una varianza desconocida 2 , e Yi, i = 1, ..., n son las
observaciones.
Se desea probar la hiptesis nula de que la pendiente es igual a algn valor especicado 0 (a menudo toma el valor
0, en cuyo caso la hiptesis es que x e y no estn relacionados).
sea
b, b = mnimos cuadrados de estimadores,

SEb , SEb = mnimos cuadrados de estimadores los de estndar error.
Luego
b 0

tvalor = SEb
3.5. CLCULOS 7

tiene una distribucin t con n 2 grados de libertad si la hiptesis nula es verdadera. El error estndar de la pendiente:
1 n
(Y by )2
SEb = n2 n i=1 i 2i
i=1 (xi x)

puede ser reescrito en trminos de los residuales:


bi = Yi ybi = Yi (b + xb i ) = residuales = estimados errores,
n
SSE = bi2 = residuales los de cuadrados los de suma.
i=1

Luego tvalor se encuentra dado por:



b 0 ) n2
tvalor = (
n .
SSE/ i=1 (xi x)2

3.5.3 Prueba t para dos muestras independientes


Iguales tamaos muestrales, iguales varianzas

Esta prueba se utiliza solamente cuando:

los dos tamaos muestrales (esto es, el nmero, n, de participantes en cada grupo) son iguales;
se puede asumir que las dos distribuciones poseen la misma varianza.

Las violaciones a estos presupuestos se discuten ms abajo.


El estadstico t a probar si las medias son diferentes se puede calcular como sigue:
1 X2
t= X 2
SX1 X2 n

Donde

1 2 2 )
SX1 X2 = 2 (SX1 + SX2

Aqu SX1 X2 es la desviacin estndar combinada, 1 = grupo uno, 2 = grupo 2. El denominador de t es el error estndar
de la diferencia entre las dos medias.
Por prueba de signicancia, los grados de libertad de esta prueba se obtienen como 2n 2 donde n es el nmero de
participantes en cada grupo.

Diferentes tamaos muestrales, iguales varianzas

Esta prueba se puede utilizar nicamente si se puede asumir que las dos distribuciones poseen la misma varianza.
(Cuando este presupuesto se viola, mirar ms abajo). El estadstico t si las medias son diferentes puede ser calculado
como sigue:
1 X
X
t= 2
SX1 X2 n1 + n1
1 2

Donde

(n1 1)SX
2 +(n 1)S 2
2 X2
SX1 X2 = 1
n1 +n2 2 .

Ntese que las frmulas de arriba, son generalizaciones del caso que se da cuando ambas muestras poseen igual
tamao (sustituyendo n por n1 y n2 ).
SX1 X2 es un estimador de la desviacin estndar comn de ambas muestras: esto se dene as para que su cuadrado sea
un estimador sin sesgo de la varianza comn sea o no la media iguales. En esta frmula, n = nmero de participantes,
8 CAPTULO 3. PRUEBA T DE STUDENT

1 = grupo uno, 2 = grupo dos. n 1 es el nmero de grados de libertad para cada grupo, y el tamao muestral total
menos dos (esto es, n1 + n2 2) es el nmero de grados de libertad utilizados para la prueba de signicancia.

Diferentes tamaos muestrales, diferentes varianzas

Esta prueba es tambin conocida como prueba t de Welch y es utilizada nicamente cuando se puede asumir que las
dos varianzas poblacionales son diferentes (los tamaos muestrales pueden o no ser iguales) y por lo tanto deben ser
estimadas por separado. El estadstico t a probar cuando las medias poblacionales son distintas puede ser calculado
como sigue:
X 1 X 2
t= sX X
1 2

donde

s21 s22
sX 1 X 2 = n1 + n2 .

Aqu s2 es el estimador sin sesgo de la varianza de las dos muestras, n = nmero de participantes, 1 = grupo uno,
2 = grupo dos. Ntese que en este caso, sX 1 X 2 2 no es la varianza combinada. Para su utilizacin en pruebas de
signicancia, la distribucin de este estadstico es aproximadamente igual a una distribucin t ordinaria con los grados
de libertad calculados segn:
(s21 /n1 +s22 /n2 )2
g.l. = (s21 /n1 )2 /(n1 1)+(s22 /n2 )2 /(n2 1)
.

Esta ecuacin es llamada la ecuacin WelchSatterthwaite. Ntese que la verdadera distribucin de este estadstico
de hecho depende (ligeramente) de dos varianzas desconocidas.

3.5.4 Prueba t dependiente para muestras apareadas

Esta prueba se utiliza cuando las muestras son dependientes; esto es, cuando se trata de una nica muestra que ha
sido evaluada dos veces (muestras repetidas) o cuando las dos muestras han sido emparejadas o apareadas. Este es un
ejemplo de un test de diferencia apareada.
X D
0.
t= sD / n

Para esta ecuacin, la diferencia entre todos los pares tiene que ser calculada. Los pares se han formado ya sea
con resultados de una persona antes y despus de la evaluacin o entre pares de personas emparejadas en grupos
de signicancia (por ejemplo, tomados de la misma familia o grupo de edad: vase la tabla). La media (XD) y la
desviacin estndar (sD) de tales diferencias se han utilizado en la ecuacin. La constante 0 es diferente de cero si
se desea probar si la media de las diferencias es signicativamente diferente de 0 . Los grados de libertad utilizados
son n 1.

3.6 Ejemplos desarrollados


Sea A1 denotando un grupo obtenido tomando 6 muestras aleatorias a partir de un grupo mayor:
A1 = {30, 02; 29, 99; 30, 11; 29, 97; 30, 01; 29.99}

y sea A2 denotando un segundo grupo obtenido de manera similar:


A2 = {29, 89; 29, 93; 29, 72; 29, 98; 30, 02; 29, 98}

Estos podran ser, por ejemplo, los pesos de tornillos elegidos de un montn.
Vamos a llevar a cabo la prueba de hiptesis contando como hiptesis nula de que la media de las poblaciones de las
cuales hemos tomado las muestras son iguales.
3.7. ALTERNATIVAS A LA PRUEBA T PARA PROBLEMAS DE LOCACIN 9

La diferencia entre las dos medias de muestras, cada uno denotado por X i , la cual aparece en el numerador en todos
los enfoques de dos muestras discutidas anteriormente, es
X 1 X 2 = 0, 095.

La desviaciones estndar muestrales para las dos muestras son aproximadamente 0,05 y 0,11 respectivamente. Para
muestras tan pequeas, una prueba de igualdad entre las varianzas de las dos poblaciones no es muy poderoso. Pero
ya que los tamaos muestrales son iguales, las dos formas de las dos pruebas t se pueden desarrollar en forma similar
en este ejemplo.

3.6.1 Varianzas desiguales

Si se decide continuar con el enfoque para varianzas desiguales (discutido anteriormente), los resultados son
2
s1 s22
n1 + n2 0, 0485

y
gl 7, 03

El resultado de la prueba estadstica es aproximadamente 1,959. El valor p para la prueba de dos colas da un valor
aproximado de 0,091 y el valor p para la prueba de una cola es aproximadamente 0,045.

3.6.2 Varianzas iguales

Si se sigue el enfoque para varianzas iguales (discutido anteriormente), los resultados son
SX1 X2 0, 084

y
gl = 10

Ya que el tamao de las muestras es igual (ambas tienen 6 elementos), el resultado de la prueba estadstica es nue-
vamente un valor que se aproxima a 1.959. Debido a que los grados de libertad son diferentes de la prueba para
varianzas desiguales, los valores P dieren ligeramente de los obtenidos un poco ms arriba. Aqu el valor p para la
prueba de dos colas es aproximadamente 0,078, y el valor p para una cola es aproximadamente 0,039. As, si hubiera
una buena razn para creer que las varianzas poblacionales son iguales, los resultados seran algo ms sugerentes de
una diferencia en los pesos medios de las dos poblaciones de tornillos.

3.7 Alternativas a la prueba t para problemas de locacin


La prueba t provee un mecanismo exacto para evaluar la igualdad entre las medias de dos poblaciones que tengan
varianzas iguales, aunque el valor exacto de las mismas sea desconocido. El test de Welch es una prueba aproxima-
damente exacta para el caso en que los datos poseen una distribucin normal, pero las varianzas son diferentes. Para
muestras moderadamente grandes y pruebas de una cola, el estadstico t es moderadamente robusto a las violaciones
de la asuncin de normalidad.[9]
Para ser exactos tanto las pruebas t como las z requiere que las medias de las muestras sigan una distribucin normal,
y la prueba t adicionalmente requiere que la varianza de las muestras siga una distribucin Chi-cuadrado (2 ), y
que la media muestral y la varianza muestral sean estadsticamente independientes. La normalidad de los valores
individuales de los datos no es un requisito para que estas condiciones se cumplan. Por el teorema del lmite central,
las medias muestrales de muestras moderadamente grandes tambin aproximan una distribucin normal, incluso si los
datos individuales no estn normalmente distribuidos. Para datos no normales, la distribucin de la varianza muestral
puede desviarse sustancialmente de una distribucin 2 . Sin embargo, si el tamao muestral es grande, el teorema de
Slutsky indica que la distribucin de las varianzas muestrales ejerce un efecto muy pequeo en la distribucin de la
10 CAPTULO 3. PRUEBA T DE STUDENT

prueba estadstica. Si los datos son substancialmente no normales, y el tamao muestral es pequeo, la prueba t puede
entregar resultados equivocados.
Cuando la asuncin de normalidad no se sostiene, una alternativa no paramtrica a la prueba t puede ofrecer un mejor
poder estadstico. Por ejemplo, para dos muestras independientes cuando la distribucin de datos es asimtrica (esto
es, que la distribucin est sesgada) o la distribucin tiene colas muy grandes, entonces el test de suma de posiciones
(ranks) de Wilcoxon (conocido tambin como prueba U de Mann-Whitney) puede tener de tres a cuatro veces mayor
poder estadstico que una prueba t.[9][10][11]
La contraparte no paramtrica a la prueba t de muestras apareadas es la prueba Wilcoxon de suma de posiciones
con signo para muestras pareadas. Para una discusin sobre cuando hacer una eleccin entre las alternativas t y no
paramtricos, consulte a Sawilowsky.[12]
El anlisis de varianza one-way generaliza la prueba t de dos muestras para casos donde los datos pertenecen a ms
que dos grupos.

3.8 Pruebas multivariadas


Una generalizacin del estadstico t de Student llamada estadstico t cuadrado de Hotelling, permite la comprobacin
de hiptesis en mltiples (y a menudo correlacionadas) mediciones de la misma muestra. Por ejemplo, un investigador
puede presentar un nmero de sujetos a un test de mltiples escalas de personalidad (p.ej el de cinco grandes rasgos de
personalidad). Debido a que las medidas de este tipo suelen estar muy correlacionadas, no es aconsejable llevar a cabo
varias pruebas univariadas, ya que esto supondra descuidar la covarianza entre las medidas e inar la probabilidad
de rechazar falsamente al menos una hiptesis (error de tipo I). En este caso una nica prueba mltiple es preferible
para llevar a cabo las pruebas de hiptesis. El estadstico t de Hosteling sigue una distribucin T 2 , sin embargo en la
prctica, esta distribucin se utiliza muy raramente, y en cambio se suele convertir en una distribucin de tipo F.

3.8.1 Prueba T 2 monomuestral

Para una prueba multivariable de nica muestra, la hiptesis es que el vector medio ( ) es igual a un vector ( 0 )
dado. La prueba estadstica se dene como:
T 2 = n(x 0 ) S1 (x 0 )

Donde n es el tamao muestral, x es el vector de columnas medio y S una matriz de covarianza muestral m m .

3.8.2 Prueba T 2 bimuestral

Para un test multivariable de dos muestras, la hiptesis es que los vectores medios ( 1 , 2 ) de las dos muestras son
iguales. La prueba estadstica se dene como:
T2 = n1 n2
n1 +n2 (x1 x2 ) Spooled 1 (x1 x2 ).

3.9 Implementaciones
La mayora de los programas tipo hoja de clculo y paquetes estadsticos de lenguajes de programacin, tales como
QtiPlot, OpenOce.org Calc, LibreOce Calc, Microsoft Excel, SAS, SPSS, Stata, DAP, gretl, R, Python (), PSPP,
Infostat y Minitab, incluyen implementaciones del test t de Student.

3.10 Lecturas adicionales


Boneau, C. Alan (1960). The eects of violations of assumptions underlying the t test. Psychological Bulletin
57 (1): 4964. doi:10.1037/h0041412.
3.11. REFERENCIAS 11

Edgell, Stephen E., & Noon, Sheila M (1984). Eect of violation of normality on the t test of the correlation
coecient. Psychological Bulletin 95 (3): 576583. doi:10.1037/0033-2909.95.3.576.

3.11 Referencias
[1] Richard Mankiewicz, The Story of Mathematics (Princeton University Press), p.158.
[2] O'Connor, John J.; Robertson, Edmund F., Biografa de Prueba t de Student (en ingls), MacTutor History of Mathematics
archive, Universidad de Saint Andrews, http://www-history.mcs.st-andrews.ac.uk/Biographies/Gosset.html.
[3] Fisher Box, Joan (1987). Guinness, Gosset, Fisher, and Small Samples. Statistical Science 2 (1): 4552. doi:10.1214/ss/1177013437.
JSTOR 2245613.
[4] Raju TN (2005). William Sealy Gosset and William A. Silverman: two students of science. Pediatrics 116 (3): 7325.
doi:10.1542/peds.2005-1134. PMID 16140715.
[5] Fadem, Barbara (2008). High-Yield Behavioral Science (High-Yield Series). Hagerstwon, MD: Lippincott Williams & Wil-
kins. ISBN 0-7817-8258-9.
[6] Zimmerman, Donald W. (1997). A Note on Interpretation of the Paired-Samples t Test. Journal of Educational and
Behavioral Statistics 22 (3): 349360. JSTOR 1165289.
[7] Markowski, Carol A; Markowski, Edward P. (1990). Conditions for the Eectiveness of a Preliminary Test of Variance.
The American Statistician 44 (4): 322326. doi:10.2307/2684360. JSTOR 2684360.
[8] David, HA; Gunnink, Jason L (1997). The Paired t Test Under Articial Pairing. The American Statistician 51 (1): 912.
doi:10.2307/2684684. JSTOR 2684684.
[9] Sawilowsky S., Blair R. C. (1992). A more realistic look at the robustness and type II error properties of the t test to
departures from population normality. Psychological Bulletin 111 (2): 353360. doi:10.1037/0033-2909.111.2.352.
[10] Blair, R. C.; Higgins, J.J. (1980). A comparison of the power of Wilcoxons rank-sum statistic to that of Students t statistic
under various nonnormal distributions.. Journal of Educational Statistics 5 (4): 309334. doi:10.2307/1164905. JSTOR
1164905.
[11] Fay, MP; Proschan, MA (2010). Wilcoxon-Mann-Whitney or t-test? On assumptions for hypothesis tests and multiple
interpretations of decision rules. Statistics Surveys 4: 139. doi:10.1214/09-SS051. PMC 2857732. PMID 20414472.
[12] Sawilowsky S (2005). Misconceptions leading to choosing the t test over the Wilcoxon Mann-Whitney U test for shift in
location parameter. Journal of Modern Applied Statistical Methods 4 (2): 598600.

O'Mahony, Michael (1986). Sensory Evaluation of Food: Statistical Methods and Procedures. CRC Press. p.
487. ISBN 0-824-77337-3.
Press, William H.; Saul A. Teukolsky, William T. Vetterling, Brian P. Flannery (1992). Numerical Recipes in
C: The Art of Scientic Computing. Cambridge University Press. pp. p. 616. ISBN 0-521-43108-5.

3.12 Enlaces externos


Wikiversidad alberga proyectos de aprendizaje sobre Prueba t de Student.Wikiversidad
Un artculo conceptual sobre el test t de Student
Tabla de distribuciones t de Student

3.12.1 Calculadores en lnea


Realizar un test-T online: test-T
Online T-Test Calculator
2 Sample T-Test Calculator
GraphPads Paired/Unpaired/Welch T-Test Calculator
Captulo 4

Distribucin normal multivariante

En probabilidad y estadstica, una distribucin normal multivariante, tambin llamada distribucin gaussiana
multivariante, es una generalizacin de la distribucin normal unidimensional a dimensiones superiores.

4.1 Caso general


Un vector aleatorio X = [X1 , . . . , Xn ]T sigue una distribucin normal multivariante si satisface las siguientes
condiciones equivalentes:

Toda combinacin lineal Y = a1 X1 + + an Xn est normalmente distribuida.


Hay un vector aleatorio Z = [Z1 , . . . , Zm ]T , cuyas componentes son variables aleatorias independientes
distribuidas segn la normal estndar, un vector = [1 , . . . , n ]T y una matriz nm A tal que X = AZ+
.
Hay un vector y una matriz semidenida positiva simtrica tal que la funcin caracterstica de X es

( )
1

X (u; , ) = exp i u u u .
2

Si es una matriz no singular, entonces la distribucin puede describirse por la siguiente funcin de densidad:
( )
fX (x1 , . . . , xn ) = (2)n/21 ||1/2 exp 21 (x ) 1 (x )

donde || es el determinante de . Ntese como la ecuacin de arriba se reduce a la distribucin normal si es


un escalar (es decir, una matriz 1x1).
El vector en estas circunstancias es la esperanza de X y la matriz = AAT es la matriz de covarianza de las
componentes Xi.
Es importante comprender que la matriz de covarianza puede ser singular (aunque no est as descrita por la frmula
de arriba, para la cual 1 est denida).
Este caso aparece con frecuencia en estadstica; por ejemplo, en la distribucin del vector de residuos en problemas
ordinarios de regresin lineal. Ntese tambin que los Xi son en general no independientes; pueden verse como el
resultado de aplicar la transformacin lineal A a una coleccin de variables normales Z.
Esta distribucin de un vector aleatorio X que sigue una distribucin normal multivariante puede ser descrita con la
siguiente notacin:

X N (, ),

o hacer explcito que X es n-dimensional,

X NN (, ).

12
4.2. CASO BIVARIANTE 13

4.1.1 Funcin de distribucin


La funcin de distribucin F (x) se dene como la probabilidad de que todos los valores de un vector aleatorio X
sean menores o iguales que los valores correspondientes de un vector x . Aunque F no tenga una frmula, hay una
serie de algoritmos que permiten estimarla numricamente.[1]

4.1.2 Un contraejemplo
El hecho de que dos variables aleatorias X e Y sigan una distribucin normal, cada una, no implica que el par (X, Y)
siga una distribucin normal conjunta. Un ejemplo simple se da con X Normal(0,1), Y = X si |X| > 1 e Y = X si |X|
< 1. Esto tambin es cierto para ms de dos variables aleatorias.[2]

4.1.3 Normalmente distribuidas e independencia


Si X e Y estn normalmente distribuidas y son independientes, su distribucin conjunta tambin est normalmente
distribuida, es decir, el par (X, Y) debe tener una distribucin normal bivariante. En cualquier caso, un par de variables
aleatorias normalmente distribuidas no tienen por qu ser independientes al ser consideradas de forma conjunta.

4.2 Caso bivariante


En el caso particular de dos dimensiones, la funcin de densidad (con media (0, 0) es

( ( 2 ))
1 1 x y2 2xy
f (x, y) = exp +
2x y 1 2 2(1 2 ) x2 y2 (x y )
donde es el coeciente de correlacion entre X e Y . En este caso,

[ ]
x2 x y
= .
x y y2

4.3 Transformacin afn


Si Y = c + BX es una transformacin afn de X N (, ), donde c es un M 1 vector de constantes y B una
M N matriz, (entonces Y tiene )una distribucin normal multivariante con esperanza c + B y varianza BB T
esto es, Y N c + B, BB T . En particular, cualquier subconjunto de las Xi tiene una distribucin marginal
que es tambin una normal multivariante.
Para ver esto, considrese el siguiente ejemplo: para extraer el subconjunto (X1 , X2 , X4 )T , sese


1 0 0 0 0 ... 0
B = 0 1 0 0 0 ... 0
0 0 0 1 0 ... 0
lo que extrae directamente los elementos deseados.
Otro corolario sera que la distribucin de Z = b X , donde b es un vector de la misma longitud
( que )X y el
punto indica un producto vectorial, sera una distribucin gaussiana unidimensional con Z N b , bT b . Este
resultado se obtiene usando


b1 b2 ... bn
0 0 ... 0

B=. .. .. ..
.. . . .
0 0 ... 0
14 CAPTULO 4. DISTRIBUCIN NORMAL MULTIVARIANTE

y considerando slo la primera componente del producto (la primera la de B es el vector b ). Obsrvese cmo la
denicin positiva de implica que la varianza del producto vectorial debera ser positiva.

4.4 Interpretacin geomtrica


Las curvas de equidensidad de una distribucin normal multivariante son elipsoides (es decir, transformaciones li-
neales de hiperesferas) centrados en la media.[3] Las direcciones de los ejes principales de los elipsoides vienen dados
por los vectores propios de la matriz de covarianza . Las longitudes relativas de los cuadrados de los ejes principales
vienen dados por los correspondientes vectores propios.
Si = U U T = U 1/2 (U 1/2 )T es una descomposicin espectral donde las columnas de U son vectores propios
unitarios y es una matriz diagonal de valores propios, entonces tenemos

X N (, ) X + U 1/2 N (0, I) X + U N (0, ).

Adems, U puede elegirse de tal modo que sea una matriz de rotacin, tal que invirtiendo un eje no tenga ningn
efecto en N (0, ) , pero invirtiendo una columna, cambie el signo del determinante de U'. La distribucin N (, )
es en efecto N (0, I) escalada por 1/2 , rotada por U y trasladada por .
Recprocamente, cualquier eleccin de , matriz de rango completo U, y valores diagonales positivos i cede el paso
a una distribucin normal no singular multivariante. Si cualquier i es cero y U es cuadrada, la matriz de covarianza
U U T es una singular. Geomtricamente esto signica que cada curva elipsoide es innitamente delgada y tiene
volumen cero en un espacio n-dimensional, as como, al menos, uno de los principales ejes tiene longitud cero.

4.5 Correlaciones e independencia


En general, las variables aleatorias pueden ser incorreladas, pero altamente dependientes. Pero si un vector alea-
torio tiene una distribucin normal multivariante, entonces cualesquiera dos o ms de sus componentes que sean
incorreladas, son independientes.
Pero no es cierto que dos variables aleatorias que estn (separadamente, marginalmente) normalmente distribui-
das e incorreladas sean independientes. Dos variables aleatorias que estn normalmente distribuidas pueden que no
lo estn conjuntamente. Para un ejemplo de dos variables normalmente distribuidas que sean incorreladas pero no
independientes, vase normalmente distribuidas e incorreladas no implica independencia.

4.6 Momentos ms altos


El momento estndar de k-simo orden de X se dene como



N
1,...,N (X) = r1 ,...,rN (X) = E Xj j
def def r

j=1

donde r1 + r2 + + rN = k.
Los momentos centrales de orden k viene dados como sigue:
(a) Si k es impar, 1,...,N (X ) = 0 .
(b) Si k es par, con k = 2 , entonces


1,...,2 (X ) = (ij k XZ )
4.7. DISTRIBUCIONES CONDICIONALES 15

donde la suma se toma sobre todas las disposiciones de conjuntos {1, . . . , 2} en parejas (no ordenadas). Esto es,
si se tiene un k-simo ( = 2 = 6 ) momento central, se estarn sumando los productos de = 3 covarianzas (la
notacin - se ha despreciado para facilitar la lectura):

E[X1 X2 X3 X4 X5 X6 ]
= E[X1 X2 ]E[X3 X4 ]E[X5 X6 ] + E[X1 X2 ]E[X3 X5 ]E[X4 X6 ] + E[X1 X2 ]E[X3 X6 ]E[X4 X5 ]
+ E[X1 X3 ]E[X2 X4 ]E[X5 X6 ] + E[X1 X3 ]E[X2 X5 ]E[X4 X6 ] + E[X1 X3 ]E[X2 X6 ]E[X4 X5 ]
+ E[X1 X4 ]E[X2 X3 ]E[X5 X6 ] + E[X1 X4 ]E[X2 X5 ]E[X3 X6 ] + E[X1 X4 ]E[X2 X6 ]E[X3 X5 ]
+ E[X1 X5 ]E[X2 X3 ]E[X4 X6 ] + E[X1 X5 ]E[X2 X4 ]E[X3 X6 ] + E[X1 X5 ]E[X2 X6 ]E[X3 X4 ]
+ E[X1 X6 ]E[X2 X3 ]E[X4 X5 ] + E[X1 X6 ]E[X2 X4 ]E[X3 X5 ] + E[X1 X6 ]E[X2 X5 ]E[X3 X4 ].

Esto da lugar a (21)!/(21 (1)!) trminos en la suma (15 en el caso de arriba), cada uno siendo el producto de
(3 en este caso) covarianzas. Para momentos de cuarto orden (cuatro variables) hay tres trminos. Para momentos
de sexto orden hay 3 5 = 15 trminos, y para momentos de octavo orden hay 3 5 7 = 105 trminos.
Las covarianzas son entonces determinadas mediante el reemplazo de los trminos de la lista [1, . . . , 2] por los
trminos correspondientes de la lista que consiste en r1 unos, entonces r2 doses, etc... Para ilustrar esto, examnese
el siguiente caso de momento central de cuarto orden:

[ ]
E Xi4 = 3ii2

[ ]
E Xi3 Xj = 3ii ij
[ ] 2
E Xi2 Xj2 = ii jj + 2 (ij )
[ ]
E Xi2 Xj Xk = ii jk + 2ij ik
E [Xi Xj Xk Xn ] = ij kn + ik jn + in jk .
donde ij es la covarianza de Xi y Xj . La idea del mtodo de arriba es que primero se encuentra el caso general para
el momento k -simo, donde se [ tiene k diferentes
] variables X - E [Xi Xj Xk Xn ] y entonces se pueden simplicar
apropiadamente. Si se tiene E Xi2 Xk Xn entonces, simplemente sea Xi = Xj y se sigue que ii = i2 .

4.7 Distribuciones condicionales


Si y son divididas como sigue:
[ ] [ ]
q1
= 1 con tamaos
2 (N q) 1
[ ] [ ]
11 12 qq q (N q)
= con tamaos
21 22 (N q) q (N q) (N q)

entonces la distribucin de x1 condicionada a x2 = a es una normal multivariante (X1 |X2 = a) N (


, ) donde

= 1 + 12 1
22 (a 2 )

y matriz de covarianza

= 11 12 1
22 21 .

Esta matriz es el complemento de Schur de 22 en . Esto signica que para calcular la matriz condicional de
covarianza, se invierte la matriz global de covarianza, se desprecian las las y columnas correspondientes a las variables
bajo las cuales est condicionada y entonces se invierte de nuevo para conseguir la matriz condicional de covarianza.
16 CAPTULO 4. DISTRIBUCIN NORMAL MULTIVARIANTE

Ntese que se sabe que x2 = a altera la varianza, aunque la nueva varianza no dependa del valor especco de a ;
quizs ms sorprendentemente, la media se cambia por 12 1 22 (a 2 ) ; comprese esto con la situacin en la que
no se conoce el valor de a , en cuyo caso x1 tendra como distribucin
Nq (1 , 11 ) .
La matriz 12 1
22 se conoce como la matriz de coecientes de regresin.

4.7.1 Esperanza condicional bivariante

En el caso
( ) (( ) ( ))
X1 0 1
N ,
X2 0 1
entonces
(z)
E(X1 |X2 > z) = (z)
donde esta ltima razn se llama a menudo razn inversa de Mills.

4.8 Matriz de informacin de Fisher


La matriz de informacin de Fisher (MIF) para una distribucin normal toma una formulacin especial. El elemento
(m, n) de la MIF para X N ((), ()) es

( )
1 1 1
Im,n = + tr 1
m n 2 m n

donde
[ ]

m = 1
m
2
m N
m

1

m

2
m
( )


.
m

= = .
.
m



N

m

1,1 1,2 1,N



m m m


2,1 2,2 2,N
m
m m

m =
.


. .. .. ..
. . . .


N,1 N,2 N,N
m m m

tr es la funcin traza de una matriz.

4.9 Divergencia de Kullback-Leibler


La divergencia de Kullback-Leibler de N 0N (0 , 0 ) a N 1N (1 , 1 ) es:
4.10. ESTIMACIN DE PARMETROS 17

( ( ) )
1 det 1 ( ) 1
DKL (N 0N 1) = loge + tr 1
1 0 + (1 0 ) 1 (1 0 ) N .
2 det 0
El logaritmo debe tomarse con base e en los dos trminos (logaritmos neperianos), siguiendo el logaritmo estn los
logaritmos neperianos de las expresiones que son ambos factores de la funcin de densidad o si no, surgen natu-
ralmente. La divergencia de arriba se mide en nats. Dividiendo la expresin de arriba por loge 2 se da paso a la
divergencia en bits.

4.10 Estimacin de parmetros


La derivacin del estimador de mxima verosimilitud de la matriz de covarianza de una distribucin normal multi-
variante es, quizs sorprendentemente, sutil y elegante. Vase estimacin de matrices de covarianza.
En pocas palabras, la funcin de densidad de probabilidad de una normal multivariante N-dimensional es

( )
N /2 1/2 1
f (x) = (2) det() exp (x )T 1 (x )
2
y el estimador MV de la matriz de covarianza para una muestra de n observaciones es

n
b= 1
(Xi X)(Xi X)T
n i=1

lo cual es, simplemente, la matriz muestral de covarianza. Este es un estimador sesgado cuya esperanza es

b = n1
E[] .
n
Una covarianza muestral insesgada es

1
n
b=
(Xi X)(Xi X)T .
n 1 i=1

4.11 Entropa
La entropa diferencial de la distribucin normal multivariante es[4]


h (f ) = f (x) ln f (x) dx

1
= (N + N ln (2) + ln ||)
2
1
= ln{(2e)N ||}
2
donde || es el determinante de la matriz de covarianza .

4.12 Tests de normalidad multivariante


Los tests de normalidad multivariante comprueban la similitud de un conjunto dado de datos con la distribucin
normal multivariante. La hiptesis nula es que el conjunto de datos es similar a la distribucin normal, por consiguiente
un p-valor sucientemente pequeo indica datos no normales. Los tests de normalidad multivariante incluyen el test
de Cox-Small[5] y la adaptacin de Smith y Jain [6] del test de Friedman-Rafsky.
18 CAPTULO 4. DISTRIBUCIN NORMAL MULTIVARIANTE

4.13 Simulando valores de la distribucin


Un mtodo ampliamente usado para simular un vector aleatorio X de la distribucin normal multivariada N -
dimensional con vector de medias y matriz de covarianza (requerida para ser simtrica y denida positiva)
funciona como sigue:

1. Se calcula la descomposicin de Cholesky de , esto es, se encuentra la nica matriz triangular inferior A
tal que A AT = . Ntese que cualquier otra matriz A que satisfaga esta condicin, o sea, que es uno la
raz cuadrada de , podra usarse, pero a menudo encontrar tal matriz, distinta de la de la descomposicin de
Cholesky, sera bastante ms costoso en trminos de computacin.

2. Sea Z = (z1 , . . . , zN )T un vector cuyas componentes N normales e independientes varan (lo cual puede
generarse, por ejemplo, usando el mtodo de Box-Muller.

3. Sea X = + AZ .

4.14 Referencias
[1] Vase MVNDST en (incluye cdigo FORTRAN) o (incluye cdigo MATLAB).

[2] Vase tambin normalmente distribuidas e incorreladas no implica independencia

[3] Nikolaus Hansen. The CMA Evolution Strategy: A Tutorial (PDF).

[4] Gokhale, DV; NA Ahmed, BC Res, NJ Piscataway (May de 1989). Entropy Expressions and Their Estimators for Mul-
tivariate Distributions. Information Theory, IEEE Transactions on 35 (3): 688692. doi:10.1109/18.30996.

[5] Cox, D. R.; N. J. H. Small (August de 1978). Testing multivariate normality. Biometrika 65 (2): 263272. doi:10.1093/biomet/65.2.263.

[6] Smith, Stephen P.; Anil K. Jain (September de 1988). A test to determine the multivariate normality of a dataset. IEEE
Transactions on Pattern Analysis and Machine Intelligence 10 (5): 757761. doi:10.1109/34.6789.
Captulo 5

Hotellings T-squared distribution

En estadstica la distribucin T (T-cuadrado) de Hotelling es importante porque se presenta como la distribucin


de un conjunto de estadsticas que son una generalizacin natural de las estadsticas subayacentes distribucin t de
Student. En particular, la distribucin se presenta en estadsticas multivariadas en pruebas de diferencias entre las
medias (multivariadas) de diferentes poblaciones, donde las pruebas para problemas univariados usaran la Prueba t.
Es proporcional a la distribucin F.
La distribucin recibe su nombre de Harold Hotelling, quien la desarrollo[1] como una generalizacin de la distribucin
t de Student.

5.1 La distribucin
2
Si la notacin Tp,m es usada para denotar una variable aleatoria distribucin T-cuadrado de Hotelling con parmetros
p ym, entonces, si una variable aleatoria X distribucin T-cuadrado de Hotelling,

X Tp,m
2

entonces[1]

mp+1
X Fp,mp+1
pm
donde Fp,mp+1 es una distribucin F con parmetros p y mp+1.

5.2 Estadstica T-cuadrado de Hotelling


La estadstica T-cuadrado de Hotelling es una generalizacin de la estadstica t de Student que se usa en las pruebas
de hiptesis multivariadas, y se dene como sigue:[1]
Sea Np (, ) , que denota una distribucin normal p-variada con vector de medias y covarianza . Sean

x1 , . . . , xn Np (, )

n variables aletorias independientes, las cuales pueden representarse como un vector columna de orden p 1 de
nmeros reales. Defnase

x1 + + xn
x=
n

19
20 CAPTULO 5. HOTELLINGS T-SQUARED DISTRIBUTION

como la media muestral. Puede demostrarse que

n(x ) 1
(x ) 2p ,

donde 2p es una distribucin ji-cuadrado con p grados de liberatd. Para demostrar eso se usa el hecho que x
Np (, /n) y entonces, al derivar la funcin caracterstica de la variable aletoria y = n(x ) 1 (x ) . Esto
se hizo bajo,

y () = E eiy ,

1
= E ein(x) (x)


1 p 1
(2) 2 |/n| 2 e 2 n(x)
1 1
= ein(x) (x) (x)
dx1 ...dxp


1
p
2i1 )(x)
(2) 2 |/n| 2 e 2 n(x) (
1 1
= dx1 ...dxp ,


1
1 1 1 2i1 )(x)
(2) 2 |(1 2i1 )1 /n| 2 e 2 n(x) (
p
1
12 1 1
= |( 2i ) /n| |/n|
2 dx1 ...dxp ,

= |(Ip 2iIp )| 2 ,
1

p
= (1 2i) 2 .

Sin embargo, es por lo general desconocida y se busca hacer una prueba de hiptesis sobre el vector de medias .
Defnase

1
n
W= (xi x)(xi x)
n 1 i=1

como la covarianza muestral. La traspuesta se ha denotado con un apstrofo. Se demuestra que W es una matriz
denida positiva y (n 1)W sigue una distribucin Wishart p-variada con n1 grados de libertad.[2] La estadstica
T-cudrado de Hotelling se dene entonces como

t2 = n(x ) W1 (x )

porque se demuestra que [cita requerida]

t2 Tp,n1
2

es decir

np 2
t Fp,np ,
p(n 1)

donde Fp,np es una distribucin F con parmetros p y np. Para calcular un p-valor, multiplique la estadstica t 2 y
la constante anterior y use la distribucin F.
5.3. ESTADSTICA T-CUADRADO DE HOTELLING PARA DOS MUESTRAS 21

5.3 Estadstica T-cuadrado de Hotelling para dos muestras


Si x1 , . . . , xnx Np (, V) y y1 , . . . , yny Np (, V) , con the samples independently drawn from two independent
multivariate normal distributions con la misma media y covarianza, y denimos

1 1
nx ny
x= xi y= yi
nx i=1 ny i=1

como las medias muestrales, y

nx ny
i=1 (xi x)(xi x) + i=1 (yi y)(yi y)
W=
nx + ny 2
como el estinador de la matriz de covarianza pooled insesgado the unbiased pooled covariance matrix estimate, then
Hotellings two-sample T-squared statistic is

nx ny
t2 = (x y) W1 (x y) T 2 (p, nx + ny 2)
nx + ny
and it can be related to the F-distribution by[2]

nx + ny p 1 2
t F (p, nx + ny 1 p).
(nx + ny 2)p
The non-null distribution of this statistic is the noncentral F-distribution (the ratio of a non-central Chi-squared
random variable and an independent central Chi-squared random variable)

nx + ny p 1 2
t F (p, nx + ny 1 p; ),
(nx + ny 2)p
with

nx ny 1
= V ,
nx + ny
where is the dierence vector between the population means.

5.4 Vase tambin


Students t-test in univariate statistics
Students t-distribution in univariate probability theory
Multivariate Student distribution.
F-distribution (commonly tabulated or available in software libraries, and hence used for testing the T-squared
statistic using the relationship given above)
Wilks lambda distribution (in multivariate statistics Wilkss is to Hotellings T 2 as Snedecors F is to Students
t in univariate statistics).

5.5 Referencias
[1] Hotelling, H. (1931). The generalization of Students ratio. Annals of Mathematical Statistics 2 (3): 360378. doi:10.1214/aoms/1177732979.
[2] K.V. Mardia, J.T. Kent, and J.M. Bibby (1979) Multivariate Analysis, Academic Press.
22 CAPTULO 5. HOTELLINGS T-SQUARED DISTRIBUTION

5.6 Enlaces externos


Plantilla:SpringerEOM

Plantilla:ProbDistributions Plantilla:Common univariate probability distributions


Captulo 6

Anlisis multivariante

El anlisis multivariante es un mtodo estadstico utilizado para determinar la contribucin de varios factores en
un simple evento o resultado.

Los factores de estudio son los llamados factores de riesgo (bioestadstica), variables independientes o variables
explicativas.

El resultado estudiado es el evento, la variable dependiente o la variable respuesta.

El anlisis multivariante mediante tcnicas de proyeccin sobre variables latentes tiene muchas ventajas sobre los
mtodos de regresin tradicionales:

se puede utilizar la informacin de mltiples variables de entrada, aunque stas no sean linealmente indepen-
dientes

puede trabajar con matrices que contengan ms variables que observaciones

puede trabajar con matrices incompletas, siempre que los valores faltantes estn aleatoriamente distribuidos y
no superen un 10%

puesto que se basan en la extraccin secuencial de los factores, que extraen la mayor variabilidad posible de la
matriz de las X (variables explicativas, tienen que ser dependientes) pueden separar la informacin del ruido.
Se asume que las X se miden con ruido.

6.1 Tcnicas Multivariantes


Anlisis de Componentes principales

Anlisis factorial

Anlisis discriminante

Anlisis de Correlacin Cannica

Anlisis Cluster

Anlisis de Escalamiento Dimensional

Anlisis de correspondencias

Anlisis factorial conrmatorio

Modelo de Ecuaciones Estructurales (SEM), anlisis causal.

Anlisis conjunto

23
24 CAPTULO 6. ANLISIS MULTIVARIANTE

Escalamiento ptimo

Regresin Lineal Multiple

Regresin Logit y Probit


Anlisis Manova

6.2 Vase tambin


Distribucin normal multivariante.
Estadstica multivariante.

Iconografa de las correlaciones.

6.3 Enlaces externos


Equipo de anlisis multivariado y reconocimiento de patrones o http://www.mvapr.co.nr/index2.html
Software recomendado para anlisis multivariado y reconocimiento de patrones o http://www.mvapr.co.nr/
techniques2.html
Libros de texto recomendados sobre anlisis multivariado y reconocimiento de patrones o http://www.mvapr.
co.nr/education2.html

Estadstica multivariante
Captulo 7

Anlisis multivariante de la varianza

En estadstica el anlisis multivariante de la varianza o MANOVA (por su nombre en ingls, Multivariate analysis
of variance) es una extensin del anlisis de la varianza o ANOVA para cubrir los casos donde hay ms de una variable
dependiente que no pueden ser combinadas de manera simple. Adems de identicar si los cambios en las variables
independientes tienen efectos signicativos en las variables dependientes, la tcnica tambin intenta identicar las
interacciones entre las variables independientes y su grado de asociacin con las dependientes.
Cuando aparece la suma de cuadrados en el anlisis univariante de la varianza, en el anlisis multivariante de la
varianza aparecen ciertas matrices denidas positivas. Los elementos diagonales son del mismo tipo de sumas de
cuadrados que aparecen en el ANOVA univariante. Los elementos fuera de la diagonal se corresponden con sumas de
productos. Asumiendo condiciones de normalidad sobre distribuciones de error, el homlogo de la suma de cuadrados
debido al error tendr una distribucin de Wishart.
Anlogamente a ANOVA, MANOVA est basado en el producto del modelo de la matriz de varianza y el inverso de
la matriz de varianza del error. Las consideraciones de invarianza implican que las estadsticas de MANOVA deberan
ser una medida de magnitud de la descomposicin del valor singular de esta matriz producto, pero no hay una nica
eleccin pendiente de la naturaleza multi-dimensional de la hiptesis alternativa.
Las distribuciones estadsticas ms comunes son la lambda () de Samuel Stanley Wilks, la traza de Pillai-M. S.
Bartlett (ver traza de una matriz), la traza de Lawley-Hotelling y la raz mayor de Roy. La discusin contina sobre
los mritos de cada una, aunque la raz ms grande que conduce slo a una cota de signicancia no es de inters
prctico. Una complicacin ms es que la distribucin de estas estadsticas bajo la hiptesis nula no es sencilla y slo
puede ser aproximada, excepto en unos casos de pocas dimensiones. La mejor aproximacin de la lambda de Wilks
fue hallada por C. R. Rao.
En el caso de dos grupos, todas las estadsticas son equivalentes y las pruebas se reducen a la distribucin T cuadrada
de Hotelling.

25
Captulo 8

Anlisis de correspondencias

En estadstica multivariante, el anlisis de correspondencias es una tcnica descriptiva desarrollada por Jean-Paul
Benzcri.[1] Suele aplicarse al estudio de tablas de contingencia y es conceptualmente similar al anlisis de compo-
nentes principales con la diferencia de que en el anlisis de correspondencias los datos se escalan de modo que las
y columnas se tratan de modo equivalente.
El anlisis de correspondencias descompone el estadstico del test de la ji-cuadrado asociado a una tabla de con-
tingencia en componentes ortogonales.[2] Dado que se trata de una tcnica descriptiva, puede aplicarse incluso en
circunstancias en las que la prueba anterior no es apropiada.
Existen distintas versiones de esta tcnica, incluyendo:

Detrended correspondence analysis


Anlisis de correspondencias cannico

Anlisis de correspondencias mltiple, una extensin a tablas de contingencia multidimensionales


Anlisis de correspondencias baricntrico, que se aplica a problemas de discriminacin basado en variables
cualitativas

8.1 Implementaciones
Orange posee un mdulo especco, orngCA
R dispone de paquetes tales como ade4, ca y FactoMineR que implementan este tipo de anlisis

8.2 Referencias
[1] Benzcri, J.-P. (1973). L'Analyse des Donnes. Volume II. L'Analyse des Correspondances. Paris, France: Dunod.

[2] Greenacre, Michael (1983). Theory and Applications of Correspondence Analysis. Londres: Academic Press. ISBN 0-12-
299050-1.

26
Captulo 9

Anlisis de componentes principales

ACP de una distribucin normal multivariante centrada en (1,3) con desviacin estndar 3 en la direccin aproximada (0,878,
0,478) y desviacin estndar 1 en la direccin perpendicular a la anterior. Los vectores muestran los autovectores de la matriz de
correlacin escalados mediante la raz cuadrada del correspondiente autovalor, y desplazados para que su origen coincidan con la
media estadstica.

En estadstica, el anlisis de componentes principales (en espaol ACP, en ingls, PCA) es una tcnica utilizada
para reducir la dimensionalidad de un conjunto de datos. Intuitivamente la tcnica sirve para hallar las causas de la
variabilidad de un conjunto de datos y ordenarlas por importancia.

27
28 CAPTULO 9. ANLISIS DE COMPONENTES PRINCIPALES

Tcnicamente, el ACP busca la proyeccin segn la cual los datos queden mejor representados en trminos de mni-
mos cuadrados. El ACP se emplea sobre todo en anlisis exploratorio de datos y para construir modelos predictivos.
El ACP comporta el clculo de la descomposicin en autovalores de la matriz de covarianza, normalmente tras centrar
los datos en la media de cada atributo.

9.1 Fundamento
El ACP construye una transformacin lineal que escoge un nuevo sistema de coordenadas para el conjunto original de
datos en el cual la varianza de mayor tamao del conjunto de datos es capturada en el primer eje (llamado el Primer
Componente Principal), la segunda varianza ms grande es el segundo eje, y as sucesivamente. Para construir esta
transformacin lineal debe construirse primero la matriz de covarianza o matriz de coecientes de correlacin. Debido
a la simetra de esta matriz existe una base completa de vectores propios de la misma. La transformacin que lleva
de las antiguas coordenadas a las coordenadas de la nueva base es precisamente la transformacin lineal necesaria
para reducir la dimensionalidad de datos. Adems las coordenadas en la nueva base dan la composicin en factores
subyacentes de los datos iniciales.
Una de las ventajas del ACP para reducir la dimensionalidad de un grupo de datos, es que retiene aquellas caractersti-
cas del conjunto de datos que contribuyen ms a su varianza, manteniendo un orden de bajo nivel de los componentes
principales e ignorando los de alto nivel. El objetivo es que esos componentes de bajo orden a veces contienen el
aspecto ms importante de esa informacin.

9.2 Matemticas del ACP


Supongamos que existe una muestra con n individuos para cada uno de los cuales se han medido m variables (alea-
torias) Fj . El ACP permite encontrar un nmero de factores subyacentes p < m que explican aproximadamente el
valor de las m variables para cada individuo. El hecho de que existan estos p factores subyacentes puede interpretarse
como una reduccin de la dimensionalidad de los datos: donde antes necesitabamos m valores para caracterizar a
cada individuo ahora nos bastan p valores. Cada uno de los p encontrados se llama componente principal, de ah el
nombre del mtodo.
Existen dos formas bsicas de aplicar el ACP:

1. Mtodo basado en la matriz de correlacin, cuando los datos no son dimensionalmente homogneos o el orden
de magnitud de las variables aleatorias medidas no es el mismo.
2. Mtodo basado en la matriz de covarianzas, que se usa cuando los datos son dimensionalmente homogneos y
presentan valores medios similares.

9.2.1 Mtodo basado en correlaciones


El mtodo parte de la matriz de correlaciones, consideremos el valor de cada una de las m variables aleatorias Fj .
Para cada uno de los n individuos tomemos el valor de estas variables y escribamos el conjunto de datos en forma de
matriz:

(Fj )=1,...,n
j=1,...,m

Obsrvese que cada conjunto

Mj = {Fj | = 1, ..., n}

puede considerarse una muestra aleatoria para la variable Fj . A partir de los m n datos correspondientes a las m
variables aleatorias, puede construirse la matriz de correlacin muestral, que viene denida por:

cov(Fi ,Fj )
R = [rij ] Mmm donde rij =
var(Fi )var(Fj )
9.2. MATEMTICAS DEL ACP 29

Puesto que la matriz de correlaciones es simtrica entonces resulta diagonalizable y sus valores propios i verican:

m
i=1 i = 1

Debido a la propiedad anterior estos m valores propios reciben el nombre de pesos de cada uno de los m componentes
principales. Los factores principales identicados matemticamente se representan por la base de vectores propios
de la matriz R . Est claro que cada una de las variables puede ser expresada como combinacin lineal de los vectores
propios o componentes principales.

9.2.2 Mtodo basado en las covarianzas


El objetivo es transformar un conjunto dado de datos X de dimensin n x m a otro conjunto de datos Y de menor
dimensin n x l con la menor perdida de informacin til posible utilizando para ello la matriz de covarianza.
Se parte de un conjunto n de muestras cada una de las cuales tiene m variables que las describen y el objetivo es
que, cada una de esas muestras, se describa con solo I variables, donde l < m. Adems, el nmero de componentes
principales l tiene que ser inferior a la menor de las dimensiones de X.

l min{n, m}

Los datos para el anlisis tienen que estar centrados a media 0 (restndoles la media de cada columna) y/o autoesca-
lados(centrados a media 0 y dividiendo cada columna por su desviacin estndar).

l T
X= a=1 ta pa +E

Los vectores ta son conocidos como scores y contienen la informacin de cmo las muestras estn relacionadas unas
con otras adems, tienen la propiedad de ser ortogonales. Los vectores pa se llaman loadings e informan de la relacin
existente entre las variables y tienen la cualidad de ser ortonormales. Al coger menos componentes principales que
variables y debido al error de ajuste del modelo con los datos, se produce un error que se acumula en la matriz E .
El PCA se basa en la descomposicin en vectores propios de la matriz de covarianza. La cual se calcula con la siguiente
ecuacin:

T
cov(X) = Xn1X
cov(X)
m pa = a pa
a=1 a = 1

Donde a es el valor propio asociado al vector propio pa . Por ltimo,

t a = X pa

Esta ecuacin la podemos entender como que ta son las proyecciones de X en pa , donde los valores propios a miden
la cantidad de varianza capturada, es decir, la informacin que representan cada uno de los componentes principales.
La cantidad de informacin que captura cada componente principal va disminuyendo segn su nmero es decir, el
componente principal nmero uno representa ms informacin que el dos y as sucesivamente.

9.2.3 Limitaciones
La aplicacin del ACP est limitada por varios supuestos[1]

Asuncin de linealidad: Se asume que los datos observados son combinacin lineal de una cierta base.

Importancia estadstica de la media y la covarianza: el ACP utiliza los vectores propios de la matriz de co-
varianzas y slo encuentra las direcciones de ejes en el espacio de variables considerando que los datos se
distribuyen de manera gaussiana.
30 CAPTULO 9. ANLISIS DE COMPONENTES PRINCIPALES

9.3 Ejemplos
Un anlisis consider las calicaciones escolares n = 15 estudiantes en m = materias (lengua, matemticas,
fsica, ingls, losofa, historia, qumica, gimnasia). Los dos primeros componentes principales explicaban
juntos el 82,1% de la varianza. El primer de ellos pareca fuertemente correlacionado con las materias de hu-
manidades (lengua, ingls, losofa, historia) mientras que el segundo apareca relacionado con las materias
de ciencias (matemticas, fsica, qumica). As parece que existe un conjunto de habilidades cognitivas rela-
cionadas con las humanidades y un segundo relacionado con las ciencias, estos dos conjuntos de habilidades
son estadsticamente independientes por lo que un alumno puede puntuar alto en slo uno de ellos, en los dos
o en ninguno.[2]

Un anlisis de metodologa docente, consider las calicaciones de n = 54 estudiantes de la facultad de Biologa


de la ULA y m = 8 tipos de habilidades. El primer factor principal que explicaba las calicaciones era la
inteligencia del estudiante y en segundo lugar la metodologa de aprendizaje usada.[3]
Una anlisis de 11 indicadores socieconmicos de 96 pases, revel que los resultados podan explicarse en alto
grado a partir de slo dos componentes principales, el primero de ellos tena que ver con el nivel de PIB total
del pas y el segundo con el ndice de ruralidad.[4]

9.4 Referencia
[1] Jonathon Shlens.A Tutorial on Principal Component Analysis.

[2] Ejemplos de PCA (www.uoc.edu)

[3] Anlisis de dos metodologas mediante ACP

[4] Universidad Carlos III de Madrid

9.4.1 Enlaces externos


Matemticas del ACP y ejemplos (Universidad Carlos III de Madrid)
Captulo 10

Anlisis discriminante

El anlisis discriminante es una tcnica estadstica multivariante cuya nalidad es describir (si existen) las diferen-
cias signicativas entre g grupos de objetos (g > 1) sobre los que se observan p variables (variables discriminantes).
Ms concretamente, se comparan y describen las medias de las p variables clasicadoras a travs de los g grupos.
En caso de que estas diferencias existan, intentar explicar en qu sentido se dan y proporcionar procedimientos de
asignacin sistemtica de nuevas observaciones con grupo desconocido a uno de los grupos analizados, utilizando
para ello sus valores en las p variables clasicadoras (stos s, conocidos).
Podemos ver este procedimiento como un modelo de prediccin de una variable respuesta categrica (variable gru-
po) a partir de p variables explicativas generalmente continuas (variables clasicatorias). Por poner algn ejemplo,
podemos hablar del reconocimiento de formas, de texto, o del diagnstico automtico.

10.1 Vase tambin


Intervalo de conanza
Test de Student

Signicancia estadstica

31
32 CAPTULO 10. ANLISIS DISCRIMINANTE

10.2 Text and image sources, contributors, and licenses


10.2.1 Text
Estadstica multivariante Fuente: http://es.wikipedia.org/wiki/Estad%C3%ADstica%20multivariante?oldid=67504198 Colaborado-
res: Joseaperez, Kronoss, Lcgarcia, Bermiego, Renabot, Taragui, Boticario, RobotQuistnix, Yrbot, JAGT, Aiax, Chlewbot, Wissons,
CEM-bot, Thijs!bot, Cgb, TXiKiBoT, Fjcaba, SieBot, Juan Mayordomo, LucienBOT, Luckas-bot, El Quinche, CayoMarcio, Xqbot,
BenzolBot, Humbefa, ZroBot, Allforrous, Addbot y Annimos: 2
Vector aleatorio Fuente: http://es.wikipedia.org/wiki/Vector%20aleatorio?oldid=70165167 Colaboradores: VolkovBot, Leonpolanco,
CayoMarcio, Wikielwikingo, ZroBot y Addbot
Prueba t de Student Fuente: http://es.wikipedia.org/wiki/Prueba%20t%20de%20Student?oldid=80349098 Colaboradores: Sabbut, LP,
CEM-bot, Davius, Resped, Biolitos, Loveless, Bigsus-bot, BOTarate, Manw, Alberto2087, J3D3, Aleatorio, Juan Mayordomo, Luckas-
bot, MystBot, DiegoFb, ArthurBot, Xqbot, Botarel, Marsal20, PatruBOT, Humbefa, EmausBot, ChessBOT, MerlIwBot, KLBot2, Inva-
dibot, Acratta, MahdiBot, Addbot y Annimos: 21
Distribucin normal multivariante Fuente: http://es.wikipedia.org/wiki/Distribuci%C3%B3n%20normal%20multivariante?oldid=80118785
Colaboradores: Tartaglia, Davius, Cgb, Muro de Aguas, TXiKiBoT, Muro Bot, Bigsus-bot, Farisori, Poco a poco, Juan Mayordomo,
Luckas-bot, Amirobot, Diegotorquemada, Locobot, Ricardogpn, AstaBOTh15, MAfotBOT, KurtSchwitters, ZroBot, Sergio Andres
Segovia, Jvalerag, Elvisor, Addbot, Vgaribay, Tom deluxe y Annimos: 9
Distribucin T de Hotelling Fuente: http://es.wikipedia.org/wiki/Distribuci%C3%B3n%20T%C2%B2%20de%20Hotelling?oldid=
74592276 Colaboradores: BOT-Superzerocool, Urdangaray, KLBot2, Invadibot y Annimos: 3
Anlisis multivariante Fuente: http://es.wikipedia.org/wiki/An%C3%A1lisis%20multivariante?oldid=64530711 Colaboradores: Josea-
perez, Juan Manuel, Javier Carro, Tartaglia, Tano4595, LarA, BOT-Superzerocool, Chlewbot, CEM-bot, Botones, Cgb, Plux, Muro Bot,
PaintBot, Botito777, Juan Mayordomo, El Quinche, Mcapdevila, MerlIwBot, Addbot y Annimos: 6
Anlisis multivariante de la varianza Fuente: http://es.wikipedia.org/wiki/An%C3%A1lisis%20multivariante%20de%20la%20varianza?
oldid=64558063 Colaboradores: RobotQuistnix, Aiax, CEM-bot, Botones, Pk, Dpeinador, PaintBot, Alexbot, Juan Mayordomo, Boto a
Boto, DiegoFb, Enrique Cordero, EmausBot, Pokbot, KLBot2 y Annimos: 4
Anlisis de correspondencias Fuente: http://es.wikipedia.org/wiki/An%C3%A1lisis%20de%20correspondencias?oldid=82203030 Co-
laboradores: Cgb, TXiKiBoT, Muro Bot, Alexbot, LucienBOT, MastiBot, Luckas-bot, Xqbot, KLBot2 y Invadibot
Anlisis de componentes principales Fuente: http://es.wikipedia.org/wiki/An%C3%A1lisis%20de%20componentes%20principales?
oldid=79663563 Colaboradores: Ricardo Oliveros Ramos, Tano4595, RobotQuistnix, Pertile, BOT-Superzerocool, YurikBot, KnightRi-
der, Nihilo, CEM-bot, Jovandavid, Ignacio Icke, Davius, Elrayo~eswiki, Thijs!bot, JAnDbot, Netito777, Nicoguaro, AlleborgoBot, Muro
Bot, SieBot, Sebastian.roman.h, DragonBot, Eduardosalg, Juan Mayordomo, MastiBot, Luckas-bot, Ptbotgourou, Xqbot, Ricardogpn,
Botarel, BenzolBot, AstaBOTh15, Euivmar, KamikazeBot, Humbefa, Fran jo, ZroBot, Jorjial, KLBot2, Elvisor y Annimos: 15
Anlisis discriminante Fuente: http://es.wikipedia.org/wiki/An%C3%A1lisis%20discriminante?oldid=79857421 Colaboradores: BOT-
Superzerocool, Davius, Poromiami, AlleborgoBot, Muro Bot, Ensada, Wilfreddehelm, Juan Mayordomo, DiegoFb, Gabby cervantes,
KLBot2, Acratta, Addbot y Annimos: 6

10.2.2 Images
Archivo:GaussianScatterPCA.png Fuente: http://upload.wikimedia.org/wikipedia/commons/1/15/GaussianScatterPCA.png Licencia:
CC-BY-SA-3.0 Colaboradores:
PNG version of gigantic SVG
Trabajo propio (Descripcin original: I created this work entirely by myself. (Originally uploaded on en.wikipedia) -)
Artista original: Ben FrantzDale (talk) (Transferred by ILCyborg)
Archivo:Merge-arrow.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/a/aa/Merge-arrow.svg Licencia: Public domain Co-
laboradores: ? Artista original: ?
Archivo:Mergefrom.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/0/0f/Mergefrom.svg Licencia: Public domain Cola-
boradores: ? Artista original: ?
Archivo:Wikiversity-logo-Snorky.svg Fuente: http://upload.wikimedia.org/wikipedia/commons/1/1b/Wikiversity-logo-en.svg Licen-
cia: CC BY-SA 3.0 Colaboradores: Trabajo propio Artista original: Snorky

10.2.3 Content license


Creative Commons Attribution-Share Alike 3.0

Вам также может понравиться