Вы находитесь на странице: 1из 5

PARTE UNO:

REPRESENTAR EN UN MAPA CONCEPTUAL LAS SIGUIENTES


DEFINICIONES:

1. Tuvimos grandes personajes históricos que aportaron a la teoría de


Juegos, y a la cadena de Markov, como herramientas indispensables
en la toma de decisiones; representar mediante un mapa conceptual la
línea de tiempo sus grandes aportes.

2. Representar mediante un mapa conceptual la definición de TEORIA


DE JUEGOS Y CADENAS DE MARKOV, y su relación con la toma de
decisiones, su estructura o modelo matemático sus elementos que
participan y su representación gráfica.

3. En la teoría de juegos defina; lo más gráficamentea.

a. Juego:
b. Jugador:
c. Juego con suma Cero:
d. Estrategia;
e. Estrategia pura;
f. Estrategia mixta;
g. Punto de Silla;
h Representación del modelo de programación Lineal con la teoría de
juegos

4. En la Cadena de Markov defina; lo más gráficamente:


a. Proceso estocástico
b. Variable Aleatoria
c. Variables aleatorias con relación con la variable tiempo (ejemplos
gráficos mínimo 2)
d. Representación del modelo gráficamente
e. Matriz de transición
f. Estado de Transito
g. Estado Absorbente
h. Explique las dos conclusiones que se obtiene con el desarrollo del
análisis de Markov.
PARTE DOS: RESPONDER
TEORIA DE JUGOS
1. Asociado con cada estrategia mixta del jugador renglón, hay una
estrategia pura para el jugador columna que máxima su resultado
Verdadero (X) Falso ( )

2. Un pago negativo indica una pérdida por el parte del jugador


renglón.
Verdadero (X) Falso ( )

3. El renglón [−1,10,20] domina al renglón [0,0,0]


Verdadero (X) Falso ( )

4. Según lo principios de la teoría de juegos, su contrincante siempre


puede anticipar sus acciones.
Verdadero ( ) Falso (X)

5. Una estrategia óptima es una que minimiza el daño máximo que


puede hacer el contrincante.
Verdadero () Falso (X)

6. Distintos puntos de silla en una matriz de pagos siempre tienen lo


mismo pago.
Verdadero (X) Falso ( )

7. El renglón [0,1,2] domina al renglón [0,1,1]


Verdadero (X) Falso ( )

8. Saber que estás usando tu estrategia óptima no benéficaa tu


contrincante ni en lo más mínimo.
Verdadero (X) Falso ( )

9. Si un juego tiene valor esperado de 2, entonces el jugador renglón


ganará dos puntos por jugar su estrategia óptima.
Verdadero () Falso (X)

10. Una estrategia óptima es una que maximiza su ganancia potencial.


Verdadero () Falso (X)

11. La matriz de pagos es siempre una matriz cuadrada.


Verdadero ( ) Falso (X)

12. Algunos juegos estrictamente determinados no tienen puntos de


silla.
Verdadero ( ) Falso (X)
13. La columna [−1,−10,−20]domina a la columna [−2,0,0]
Verdadero ( ) Falso (X)
14. Si un juego tiene valor esperado de 2, entonces el jugador renglón
ganará dos puntos cada vez suponiendo que ambos jugadoresusan
sus estrategias óptimas.
Verdadero ( ) Falso (X)

15. La columna [0,−1,−2]domina a la columna [0,−1,−1]


Verdadero (X) Falso ( )

16. El renglón [0,0,0] domina al renglón [−1,−1,−1]


Verdadero (X) Falso ( )

17. Si juegas contra un jugador quien escoge sus acciones


completamente al azar, entonces tu estrategia mixta es lo mejor que
puedes hacer.
Verdadero ( ) Falso (X)

18.
Saber que estás usando cualquiera estrategia no óptima no
Benéfica a tu contrincante ni en lo más mínimo.
Verdadero ( ) Falso (X)

19. Hay estrategias mixtas para las que el mejor respuesta no es un


una estrategia pura.
Verdadero ( ) Falso (X)

20. Si el jugador renglón sabe la estrategia mixta del jugador columna,


puede responder con una estrategia pura para el mejor resultado.
Verdadero ( ) Falso (X)

CADENAS DE MARKOV

1. Si los estados de un sistema o proceso son tales que el sistema tan


solo puede estar en un estado a la vez, entonces los estados

a) son colectivamente exhaustivos.


b) son mutuamente excluyentes.
c) son absorbentes.
d) desaparecen.
2. El producto de un vector de probabilidades de estado y la matriz de
probabilidades de transición dan:

a) otro vector de probabilidades de estado.


b) un desorden sin significado.
c) la inversa de la matriz de estado en equilibrio.
d) todas las anteriores.
e) ninguna de las anteriores.

3. A largo plazo, las probabilidades de estado serán 0 y 1

a) en ningún caso.
b) en todos los casos.
c) en algunos casos.

4. Para encontrar las condiciones de equilibrio,

a) debe conocerse el primer vector de probabilidades de estado.


b) la matriz de probabilidades de transición no es necesaria
c) los términos generales en el vector de probabilidades de estado se
usan en dos ocasiones.
d) la matriz de probabilidades de transición debe ser cuadrada antes
de invertirla.
e) ninguna de las anteriores.

5. ¿Cuál de las siguientes no es una de las suposiciones del análisis


de Markov?

a) Hay un número limitado de estados posibles.


b) Hay un número limitado de periodos futuros posibles.
c) Un estado futuro se puede predecir a partir del estado anterior y de
la matriz de probabilidades de transición.
d) El tamaño y la composición del sistema no cambia durante el
análisis.
e) Todas las anteriores son suposiciones del análisis de Markov.

6. En el análisis de Markov, las probabilidades de estado deben

a) sumar 1.
b) ser menores que 0.
c) ser menores que 0.01.
d) ser mayores que 1.
e) ser mayores que 0.01.
7. Si las probabilidades de estado no cambian de un periodo al
siguiente, entonces,
a) el sistema está en equilibrio.
b) cada probabilidad de estado debe ser igual a 0.
c) cada probabilidad de estado debe ser igual a 1.
d) el sistema está en su estado fundamental.

8. En la matriz de probabilidades de transición,

a) la suma de las probabilidades en cada renglón debe ser igual a 1.


b) la suma de las probabilidades en cada columna debe ser igual a 1.
c) debe haber al menos un 0 en cada renglón.
d) debe haber al menos un 0 en cada columna.

Вам также может понравиться