Академический Документы
Профессиональный Документы
Культура Документы
Abstract
In recent years internet has grown significantly and that has led to the
necessity to create systems that can easily navigate all the information
it contains. However, the obvious logistical concerns that make creating
a comprehensive system that can efficiently organize this information is
extremely difficult. It is for this reason that the innovative techniques mo-
tivated by SEO experts that are continuosly trying to implement Markov
Chains and other altorithms to bring predictive theory to the web and
add value to a SEO team are so fundamental.
1 Introduction
Markov chains are used throughout information processing and can take pre-
dictive theory to a new level, with a wide variety of applications for digital
marketing. From social media network modeling to user profiling, site scoring
and recommended pages, Markov chains can quantify, rank, and return likely
outcomes on the web. In other words, they can demystify demographics. SEOs
can use Markov Chains to predict what content users are likely want to see, and
specifically what content their users or their competitors’ users will want to see.
2 Marco Teórico
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas
de este tipo tienen memoria, ”Recuerdan” el último evento y esto condiciona
las posibilidades de los eventos futuros. Esta dependencia del evento anterior
distingue a las cadenas de Markov de las series de eventos independientes, como
tirar una moneda al aire o un dado. En los negocios, las cadenas de Markov se
han utilizado para analizar los patrones de compra,los deudores morosos, para
planear las necesidades de personal y para analizar el reemplazo de equipo. El
análisis de Markov, llamado ası́ en honor de un matemático ruso que desarrollo
el método en 1907, permite encontrar la probabilidad de que un sistema se en-
cuentre en un estado en particular en un momento dado. Algo más importante
aún, es que permite encontrar el promedio a la larga o las probabilidades de
estado estable para cada estado. Con esta información se puede predecir el
1
comportamiento del sistema a través del tiempo. La tarea más difı́cil es re-
conocer cuándo puede aplicarse. La caracteristica más importante que hay que
buscar en la memoria de un evento a otro.[1]
2.2 Aplicaciones
Los modelos de Markov te permiten hacer muchas cosas geniales:
Registro completo de usuarios: cambia el co-dominio de una palabra clave de
búsqueda a la página de su sitio que está analizando, o el comportamiento.
Luego construye dos funciones. La primera describe lo que sucede antes de que
los usuarios lleguen allı́ (ya que el co-dominio aquı́ puede ser un punto de datos
demográficos, no la página de destino), una función muy útil para los equipos
de marca. El segundo describe lo que sucede cuando los usuarios llegan a la
página. Luego, utilizando la página de destino como el co-dominio principal,
conecte los valores de probabilidad resultantes en una nueva función.[h!]
Comportamiento del usuario: la segunda ecuación de la primera mitad del
ejemplo anterior, por ejemplo, la función que describe lo que sucede después de
que el usuario llega al sitio. Modelado de redes sociales: el co-dominio es una
publicación que todos los usuarios ven. El estado que estás identificando es la
autoridad, que luego se puede usar como co-dominio de otra función.
Cabe señalar que Google ya puede estar usando cadenas de Markov de cuatro
maneras:
2
Figure 2: Google, utilización markov
3
Figure 3: Ejemplo
4
sumimos la información de la red en la siguiente matriz P, donde cada columna
representa la página de salida y cada fila es la página de destino.[3]
Notar que la suma de todas los valores de una misma columna de P es igual
a 1 y que todas las entradas de la matriz son mayores o iguales que cero. Una
matriz que satisface estas dos propiedades es de un tipo muy especial: es la
matriz de un proceso de cadena de Markov, también conocida como matriz de
transición del proceso de Markov. Este tipo de matrices tienen siempre como
valor propio 1 y existe un vector propio de valor propio 1 cuyas componentes
son todas menores o iguales que 1 y mayores o iguales que 0 y cuya suma es 1.
References
[1] Markov Algorithm
Wikipedia.
https://en.wikipedia.org/wiki/Markova lgorithm
[2] Markov Chains PageRank
Distributed Computing.
https://disco.ethz.ch/courses/fs16/ti2/lecture/chapter11.pdf