Академический Документы
Профессиональный Документы
Культура Документы
MARKOV
Dónde,
Como en el caso de que exista una relación recursiva que se puede usar
para calcular de manera eficiente.
Dónde,
Eqn. 1.7 es muy útil, especialmente al derivar las fórmulas requeridas para el
entrenamiento basado en gradiente.
2. El problema de decodificación y el algoritmo de Viterbi
En este caso, queremos encontrar la secuencia de estado más probable para una
secuencia dada de observaciones, y un modelo,
dónde,
• Paso 2:
ν2(s1) = b1 (o2) · max{a11 · ν1 (s1), a21 · ν1 (s2)}
= 0.2 · max{0.7 · 0.32, 0.4 · 0.02}
= 0.2 · max{0.224, 0.008} = 0.0448
pr2(s1) = s1
ν2 (s2) = b2 (o2) · max{a12 · ν1 (s1), a22 · ν1 (s2)}
= 0.5 · max{0.3 · 0.32, 0.6 · 0.02}
= 0.5 · max{0.096, 0.012} = 0.048
pr2(s2) = s1
• Paso 3:
ν3(s1) = b1 (o3) · max{a11 · ν2 (s1), a21 · ν2 (s2)}
= 0.4 · max{0.7 · 0.0448, 0.4 · 0.048}
= 0.4 · max{0.03136, 0.0192} = 0.012544
pr3(s1) = s1
ν3 (s2) = b2 (o3) · max{ a12 · ν2 (s1), a22 · ν2 (s2)}
= 0.1 · max{0.3 · 0.0448, 0.6 · 0.048}
= 0.1 · max{0.01344, 0.0288} = 0.00288
pr3(s2) = s2
• Paso 4:
ν4(s1) = b1 (o4) · max{ a11 · ν3 (s1), a21 · ν3 (s2)}
= 0.4 · max{0.7 · 0.012544, 0.4 · 0.00288}
= 0.4 · max{0.0087808, 0.001152} = 0.00351232
Pr4 (s1) = s1
ν4 (s2) = b2(o4) · max{ a12 · ν3 (s1), a22 · ν3 (s2)}
= 0.4 · max{0.3 · 0.012544, 0.6 · 0.00288}
= 0.4 · max{0.0037632, 0.001728} = 0.00150528
Pr4 (s2) = s1
• Paso final:
- El estado que da la probabilidad máxima en t = 4 es s 1, con probabilidad
0.00351232
- Reconstruimos el camino hasta s1: pr4(s1) = s1, pr3(s1) = s1, pr2(s1) = s1
- Luego la secuencia de estados más probable es (s1, s1, s1, s1) (es decir, cuatro
días seguidos de calor)
3. El problema de aprendizaje
En general, el problema de aprendizaje es cómo ajustar los parámetros de HMM,
de modo que el conjunto de observaciones dado (denominado conjunto de
entrenamiento) esté representado por el modelo de la mejor manera para la
aplicación prevista. Por lo tanto, sería claro que la ``cantidad'' que deseamos
optimizar durante el proceso de aprendizaje puede ser diferente de la aplicación a
la aplicación. En otras palabras, puede haber varios criterios de optimización para
el aprendizaje, de los cuales se selecciona uno adecuado según la aplicación.
Hay dos principales criterios de optimización encontrados en la literatura de ASR;
Máxima verosimilitud (ML) e información mutua máxima (MMI). Las soluciones al
problema de aprendizaje bajo cada uno de esos criterios se describen a
continuación.
Sin embargo, dado que consideramos solo una clase w a la vez, podemos
descartar el subíndice y el superíndice ' w ' s. Entonces el criterio ML puede darse
como,
Algoritmo Baum-Welch
Este método se puede derivar usando argumentos simples de “conteo de
ocurrencias'' o usando cálculo para maximizar la cantidad auxiliar