...

Introdução aos Modelos Escondidos de Markov (HMM) Luiz

by user

on
Category: Documents
1

views

Report

Comments

Transcript

Introdução aos Modelos Escondidos de Markov (HMM) Luiz
Introdução aos Modelos Escondidos de Markov (HMM)
Luiz Eduardo Soares de Oliveira, Marisa Emika Morita
Pontifícia Universidade Católica do Paraná – PUC-Pr.
PPGIA – Programa de Pós-Graduação em Informática Aplicada
Rua Imaculada Conceição, 1155 – 80215-901 – Curitiba, Pr. Brasil
{soares,marisa}@ppgia.pucpr.br
• Um modelo de sinal pode prover a base
Resumo
para uma descrição teórica de um
sistema de processamento de sinal, o
Esse artigo apresenta uma introdução aos
Modelos Escondidos de Markov (HMM). Uma
apresentação formal de todos os elementos do
HMM é mostrada, bem como os três problemas
básicos do HMM que devem ser resolvidos para
que o modelo possa ser utilizado em aplicações
do mundo real, bem como a solução para os
mesmos.
Algumas
limitações
e
vantagens
também são apresentadas.
qual pode ser usado para processar o
sinal, bem como prover uma saída
desejada;
• Os modelos de sinais são capazes de nos
levar a aprender bastante sobre a fonte
do sinal (possibilidade de simular a
fonte);
• Os
modelos
Introdução
processos
no
mundo
real
geralmente produzem sinais (seqüência de
observações). Os sinais podem ser discretos
(caracteres de um alfabeto finito, vetores
quantizados de um alfabeto ou codebook) ou
contínuo (exemplo de vozes, medidas de
temperatura, música, etc). A fonte do sinal pode
ser estacionária (propriedades estatísticas não
variam com o tempo) ou não estacionária
(propriedades
estatísticas
realizar importantes sistemas
variam
sobre
o
(vem somente de uma fonte restrita) ou não
puro (ruído, outras fontes de sinais) [13].
O objetivo nesse caso é caracterizar os
sinais do mundo real em termos de modelos de
sinais
utilizando-se
as
estatísticas.
Os
podem
classes
ser
modelados
deterministas
modelos
ou
deterministas
geralmente exploram algumas propriedades
específicas do sinal. Tudo que é requerido é
determinar (estimar) valores dos parâmetros do
modelo do sinal (amplitude, freqüência ...). Os
modelos
estatísticos
tentam
caracterizar
somente propriedades estatísticas dos sinais
(processos de Gauss, Poison, Markov, HMM
entre outros).
tempo). Além disso, os sinais podem ser puro
sinais, pois:
trabalham
práticos. Ex: sistema de reconhecimento.
Os
Os
sinais
extremamente bem na prática, e nos
permite
1.
de
O principal interesse nesse artigo é
descrever
sobre
os
modelos
estatísticos,
especificamente sobre HMM (Hidden Markov
Model).
HMM tem se tornado recentemente, a
HMM foi descrito pela primeira vez ao
final dos anos 60 e início dos anos 70 [2] [3]
abordagem
[5].
reconhecimento
A
aplicação
desses
modelos
em
predominante
da
fala.
para
Esses
o
modelos
reconhecimento de palavras começou a ser
estocásticos tem sido mostrados particularmente
utilizada em meados dos anos 70 [1].
bem adaptados para caracterizar a variabilidade
Durante os últimos 15 anos, HMM tem
envolvida em sinais que variam no tempo. A
sido largamente aplicado em várias áreas,
maior vantagem do HMM situa-se na sua
incluindo reconhecimento de voz [11] [14],
natureza probabilística, apropriada para sinais
modelagem de linguagens [9], reconhecimento
corrompidos por ruídos tal como a fala ou
de
[18],
escrita, e na sua fundação teórica devido a
[19],
existência de algoritmos poderosos para ajustar
aprendizado de ações humanas [20], detecção
automaticamente os parâmetros do modelo
de falhas em sistemas dinâmicos [16] e
através de procedimentos iterativos [18].
palavras manuscritas
verificação
on-line
de
[10]
[17]
assinatura
Na seção 2 serão apresentados os
reconhecimento de moving light displays [7].
HMM é um processo duplamente
elementos do HMM, na seção 3 as suas
estocástico, com um processo estocástico não
principais arquiteturas, na 4 serão discutidos os
visível, o qual não é observável (daí o nome de
três problemas básicos do HMM, na seção 5 o
escondido), mas que pode ser observado através
problema de reconhecimento, na seção 6
de outro processo estocástico que produz a
algumas limitações e vantagens do HMM.
seqüência de observações [13].
Os processos escondidos consistem de
um
conjunto de estados
conectados
2.
Elementos de um HMM
por
transições com probabilidades (autômato finito),
Um HMM para as observações de
enquanto que os processos observáveis (não
símbolos discretos é caracterizado por:
escondidos) consistem de um conjunto de saídas
•
N, o número de estados no modelo. Os
ou observações, cada qual podem ser emitido
estados individuais são rotulados como {1,
por cada estado de acordo com alguma saída da
2, ...N} e o estado no tempo t como qt .
função de densidade de probabilidade (fdp).
•
Dependendo de sua fdp, várias classes
distintos por estado, por exemplo, o
de HMM’s podem ser distinguidas, a seguir:
tamanho do alfabeto discreto. Os símbolos
• Discreta – observação discreta por
natureza
quantizado
ou
discretizada
produzindo
por
assim
M, o número de símbolos de observações
individuais
vetor
um
alfabeto ou codebook.
• Contínuo – observação contínua, com
sua fdp contínua usualmente aproximada
são
denotados
como
V = {v1 , v 2 ,..., v M ) .
•
A
distribuição
de
probabilidade
da
transição do estado A = {aij } onde:
aij = P[qt +1 = j | qt = i ] , 1 ≤ i, j ≤ N
(1)
para uma mistura de distribuição normal.
• Semi-contínuo – entre o discreto e o
contínuo (híbrido).
Para o caso especial onde qualquer estado
pode alcançar qualquer outro estado em
uma simples etapa, tem-se aij > 0 para
cadeia são autorizados. Isto é possível se não
todo i, j. Para outros tipos de HMM,
restringir-se nenhum dos valores de aij em ser
podem-se ter aij = 0 para um ou mais pares
nulo.
Os modelos sequenciais e paralelos
(i , j ) .
•
A
distribuição
de
probabilidade
símbolos de observações,
de
B = {b j (k )}
esses modelos, a matriz de transição entre
estados é triangular superior. Os modelos
define a distribuição de símbolos no estado
sequenciais (Figura 1(b)) funcionam segundo
j, j = 1, 2, ..., N, onde:
uma evolução em série do modelo através de
b j (k ) = P[Ot = v k | qt = j ] , 1 ≤ i ≤ M
•
fazem parte dos modelos esquerda-direita. Para
(2)
A distribuição do estado inicial π = {π i } ,
seus estados, mesmo que qualquer um desses
estados possam ser saltados no curso do
processo. Para os modelos paralelos (Figura
onde:
π i = P[q1 = i ] , 1 ≤ i ≤ N
(3)
Pode-se observar que uma completa
especificação de um HMM requer especificação
de dois parâmetros do modelo, N e M,
1(c)) muitos caminhos através da rede de
Markov são permitidos, sabendo que cada um
desses caminhos salte um ou vários estados do
modelo.
especificação da observação de símbolos, e a
especificação de três conjuntos de medidas de
probabilidade A, B e π . Por conveniência será
utilizada a notação compacta λ = ( A, B, π ) para
indicar o completo conjunto de parâmetros do
modelo.
Este
conjunto
de
parâmetros,
naturalmente, define a medida de probabilidade
para O, por exemplo, P (O | λ ) , o qual será
discutido nas seções seguintes.
3.
Principais arquiteturas de HMM
A estrutura do modelo e o número de
estados escolhidos são fatores fundamentais
para a determinação do HMM ótimo [17].
Em geral existem dois tipos de
Figura 1: Estrutura dos modelos de Markov: (a)
modelo sem restrições, (b) modelo sequencial,
(c) modelo paralelo.
estruturas para os HMM, a seguir:
• Modelos sem restrições ou ergóticos;
• Modelos esquerda-direita;
Nos modelos ergóticos (Figura 1(a))
todas as transições possíveis entre os estados da
Cada uma das estruturas dos modelos
apresentadas
na
Figura
1,
podem
ser
generalizadas por incluir um número de estados
arbitrário. Entretanto, o número de parâmetros a
serem estimados em um modelo de Markov é da
ordem N 2 para a matriz A, mais NM para a
produzida pelo modelo ? Este problema pode
matriz B. Assim, se N é muito grande, uma
ser visto como um dado modelo corresponde a
determinação coerente e precisa das matrizes A
uma dada seqüência de observações. Isso é
e B ótimas vem a ser muito difícil de realizar
extremamente útil. Por exemplo, considerando o
por uma base de aprendizagem de tamanho
caso no qual deve-se tentar escolher um modelo
fixado.
entre vários, a solução desse problema permite
Não
existe
meios
teóricos
para
determinar de maneira precisa o número de
escolher o modelo que melhor corresponde as
observações.
estados necessários no modelo devido ao
A maneira mais direta de calcular a
estados não estarem sempre fisicamente ligados
probabilidade de uma seqüência de observações
aos fenômenos observáveis.
O = (o1 , o 2 ,..., oT ) ,
dado
o
modelo
λ = ( A, B, π ) é através da enumeração de todas
4.
Os três problemas básicos do HMM
as possíveis seqüências de estados de tamanho T
(o número de observações), pela seguinte
Existem três problemas básicos que
expressão:
devem ser resolvidos para que modelo possa ser
utilizado em aplicações do mundo real [15].
P (O | λ ) =
∑
q1 , q2 ,..., qT
Esses problemas são os seguintes:
π q1 bq2 (o1 )a q1q 2
(4)
bq2 (o 2 )...a qT −1qT bqT (oT )
Problema 1 (problema de avaliação): Dado a
seqüência de observação O = (o1 , o2 ,..., oT ) , e
λ = ( A, B, π ) ,
A expressão acima envolve uma ordem
calcular
de 2T − N T cálculos, para cada t = 1, 2, ..., T,
eficientemente P (O | λ ) , a probabilidade da
existem N possíveis estados que podem ser
seqüência de observações, dado o modelo ?
alcançados, ou seja, existem
Problema 2 (problema da busca da melhor
seqüências de estados, e para cada qual 2T
seqüência de estados): Dado a seqüência de
cálculos são necessários (para ser preciso é
observações O = (o1 , o 2 ,..., oT ) , e o modelo λ ,
necessário (2T − 1) N T + N T − 1 ). Este cálculo é
como escolher uma seqüência de estados
computacionalmente
correspondente Q = (q1 , q 2 ,..., qT ) ?
pequenos valores de N e T, por exemplo, para N
Problema 3 (problema de treinamento): Como
= 5 (estados), T = 100 (observações) existem na
ajustar os parâmetros do modelo λ = ( A, B, π )
ordem de 10 72 cálculos. Esse problema pode ser
para maximizar P (O | λ ) ?
resolvido de maneira mais eficiente utilizando-
o
4.1.
modelo
como
Solução do problema de avaliação
O problema 1 é o problema de
N T possíveis
inviável mesmo para
se dos procedimentos forward-backward [3] [4].
4.1.1.
Procedimento Forward- Backward
avaliação, isto é, dado um modelo e uma
seqüência de observações, como calcular a
probabilidade que a seqüência observada seja
A
variável
forward α t (i ) é
a
probabilidade da seqüência de observações
N
parciais o1 , o2 ,..., ot (até o tempo t) e estado i
βt (i ) =
no tempo t, dado o λ , onde:
α t (i ) = P(o1 , o 2 ,..., ot , q t = i | λ )
α t (i )
pode
recursivamente
,
ser
utilizando
t +1 ) βt +1 (
j) ,
(11)
resolvido
as
3.
seguintes
Terminação
(12)
N
P (O| λ ) =
Inicialização
∑ π b (o )β (i )
i i
1
1
i =1
α 1 (i ) = π i bi (o1 ) , 1 ≤ i ≤ N
2.
ij j
j =1
t = T − 1, T − 2,...,1 1 ≤ i ≤ N
(5)
expressões:
1.
∑ a b (o
(6)
Somente uma das duas variáveis α ou
Indução
 N

α t +1 ( j ) =  α t (i )a ij  b j (ot +1 ) ,
 i =1

∑
β é necessária para o problema de avaliação.
(7)
Entretanto, ambas foram introduzidas aqui, pois
as mesmas são utilizadas no problema do
1 ≤ t ≤ T −1 e 1 ≤ j ≤ N
treinamento (Problema 3).
3.
Terminação
P (O | λ ) =
(8)
N
∑α
T
4.2.
Solução do problema da busca da
melhor seqüência de estados
(i )
i =1
O problema 2 procura descobrir a parte
Para o mesmo exemplo citado acima,
escondida do modelo, ou seja, encontrar a
N=5 (estados), T = 100 (observações) são
seqüência de estados correta.
necessários 3.000 cálculos através do método
problema geralmente é resolvido usando um
forward , contra 10
72
do cálculo direto [15].
Este
procedimento próximo ao ótimo, o algoritmo de
De maneira similar , a variável β t (i ) é
Viterbi [8] [12], que procura a melhor seqüência
definida como a probabilidade da seqüência de
de estados Q = (q1 , q2 ,..., qT ) para uma dada
observações parciais de t+1 para o final, dado
seqüência de observações O = (o1 , o2 ,..., oT ) .
estado i no tempo t e o modelo λ , onde:
βt (i ) = P (ot +1 , ot + 2 ,..., oT | q t = i , λ )
(9)
4.2.1.
βt (i ) pode ser resolvido recursivamente ,
Algoritmo de Viterbi
Para encontrar a melhor seqüência de
estados, Q = (q1 , q 2 ,..., q T ) , para uma dada
utilizando as seguintes expressões:
seqüência de observações O = (o1 , o2 ,..., oT )
1.
Inicialização
β T (i ) = 1 , 1 ≤ i ≤ N
2.
Indução
define-se a quantidade:
(10)
δ t (i ) =
max
q1 ,q2 ,...,qt −1
P[q1 q 2 ...q t −1 ,
(13)
q t = i , o1 o 2 ...ot | λ ]
na qual, δ t (i ) é o melhor resultado
(probabilidade mais alta) ao longo de um
caminho simples no tempo t, o qual leva em
trocado pela maximização no algoritmo de
consideração as t primeiras observações e
Viterbi.
termina no estado i. Por indução tem-se:
δt +1 ( j ) = [max δ t (i )a ij ] b j (ot +1 )
(14)
4.3.
Solução do problema de treinamento
i
Para recuperar a seqüência de estados,
é necessário manter
os
argumentos
O terceiro e mais difícil, é determinar
que
maximizam a expressão anterior, para cada t e i
através do array ψ t ( j ) . O procedimento
completo para encontrar a melhor seqüência de
um método para ajustar os parâmetros do
modelo λ = ( A, B, π ) para satisfazer um certo
critério
de
otimização.
A
seqüência
de
observações utilizada para ajustar os parâmetros
estados é a seguinte:
do modelo é chamada de seqüência de
1.
treinamento porque é utilizada para treinar o
Inicialização
δt (i ) = π i bi (o1 ) , 1 ≤ i ≤ N
(15a)
ψ 1 (i ) = 0
(15b)
HMM. Não existe uma maneira conhecida de
resolver
analiticamente
parâmetros
do
modelo
o
conjunto
que
de
maximiza
a
probabilidade da seqüência de observações de
2.
Recursão
uma maneira fechada. Entretanto, pode-se
δt ( j ) = max [δt −1 (i )a ij ]b j (ot ) ,
(16a)
1≤i≤N
2 ≤ t ≤ T e 1≤ j ≤ N
λ = ( A, B, π )
probabilidade,
max [δ t −1 (i )aij ] ,
ψ t ( j ) = arg
escolher
(16b)
1 ≤ i ≤N
P (O | λ ) ,
tal
é
que
sua
localmente
maximizada usando um procedimento iterativo
tal como o método de Baum-Welch (também
2 ≤ t ≤ T e 1≤ j ≤ N
conhecido como o método EM (expectationmaximization) ), ou técnicas de gradiente [13].
3.
Terminação
Nesta seção será apresentado um procedimento
P * = max [δ T (i)]
(17a)
q T* = arg max [δ T (i)]
(17b)
1 ≤ i ≤N
1≤i≤N
iterativo, baseado primeiramente no trabalho
clássico de Baum, para escolher a probabilidade
máxima dos parâmetros do modelo.
Para descrever o procedimento de
4.
qt*
Caminho (seqüência de estados)
reestimação (atualização iterativa e melhorias)
backtracking
dos parâmetros do HMM, é primeiro definido
= ψ t +1 (qt*+1 ) ,
t = T-1, T-2, ..., 1. (18)
ξ t (i , j ) , a probabilidade de estando no estado i
no tempo j, e estado j no tempo t+1, dado o
Com exceção da etapa de backtracking
modelo e a seqüência de observações, onde:
, o algoritmo de Viterbi e o procedimento de
forward
tem
basicamente
a
mesma
implementação. A única diferença entre eles é
que o somatório do procedimento forward é
ξ t (i, j ) = P (q t = i, q t +1 = j | O, λ )
(19)
Através das definições das variáveis de
forward e backward , pode-se escrever ξ tu (i, j )
Se um modelo é definido como
λ = ( A, B, π )
definido
na forma:
e seu modelo reestimado é
λ = ( A, B, π )
como
através
das
expressões acima, Baum provou que se o
ξ tu (i, j ) =
α tu (i )aij b j (ot +1 ) β tu+1 ( j )
N N
α tu (i )aij b j (ot +1 ) β tu+1 (
i =1 j =1
∑∑
(20)
modelo inicial λ está no ponto crítico de função
de probabilidade, neste caso λ = λ ou o modelo
j)
λ é mais promissor que o modelo λ no sentido
onde u refere-se a imagem. γ t (i ) pode
P (O | λ ) > P (O | λ ) , ou seja, foi encontrado um
modelo λ na
ser definida como a probabilidade de estando no
novo
estado i no tempo t, dado toda a seqüência de
observações é mais provável para ter sido
observações e o modelo.
produzida.
γ t (i ) = P (qt = i | O, λ )
(21)
u
Da mesma forma γ t (i ) pode ser escrita
em função das variáveis forward e backward na
forma:
Baseado
qual
nesse
a
seqüência
procedimento
de
é
utilizado iterativamente λ no lugar de λ e
repetido o cálculo de reestimação, assim podese melhorar a probabilidade de O sendo
observado do modelo até que algum ponto de
limitação seja alcançado. O resultado final deste
β tu (i ) α tu (i )
λut (i ) =
(22)
P u (O | λ )
procedimento
de
reestimação
é
uma
probabilidade máxima estimada do HMM. O
Portanto, os parâmetros π , A e B do
algoritmo de forward-backward leva para o
HMM de reestimação utilizando-se U imagens
local máximo somente, e que em muitos
no treinamento são escritas na seguinte maneira:
problemas
de
interesse,
a
função
de
probabilidade é muito complexa e tem muitos
U
∑γ
locais máximos.
(i )
(23)
u =1
πi =
U
5.
T −1
U
aij =
u
1
∑ ∑ξ
u =1
U
∑ ∑γ
u =1
Dado uma seqüência de observações
u
t (i ,
t =1
T −1
u
t
Problema de Reconhecimento
j)
(24)
(i )
O = (o1 , o2 ,..., oT ) extraída de uma palavra
desconhecida,
t =1
o
problema
consiste
em
encontrar a classe (palavra) que corresponde a
melhor probabilidade de produzir a seqüência
U
b j (k ) =
u =1
(
T
∑ ∑γ
t =1
U
t(
j ) δ Otu , v k
T
∑ ∑γ
t =1
t =1
u
t
( j)
)
de
(25)
observações
O = (o1 , o2 ,..., oT ) .
Para
resolver esse problema, existem duas soluções:
Modelo Discriminante e Modelo de Caminho
Discriminante [6].
O primeiro, conhecido como Modelo
Quanto as vantagens na utilização de
Discriminante, consiste na construção de um
HMM, são muitas, em relação as suas
modelo para cada classe ou palavra afim de
limitações, a seguir:
HMM
escolher a classe do modelo que leva a melhor
probabilidade de produzir a seqüência de
apresenta
uma
rica
representação, ou seja, as probabilidades de
A
saída ( B = {b j (k )}) representam a variabilidade
probabilidade pode ser calculada através dos
dos frames ou segmentos (distorções de
algoritmos de Viterbi ou Forward.
caracteres na escrita) e as probabilidades de
O = (o1 , o2 ,..., oT ) .
observações
O segundo, conhecido como Modelo
de
Caminho
Discriminante,
consiste
na
construção de um único modelo no qual cada
a seqüência de letras (palavra) que leva a
melhor probabilidade de produzir a seqüência
de observações O = (o1 , o2 ,..., oT ) .
representam
o
relacionamento temporal entre os frames ou
segmentos.
caminho corresponde a uma seqüência de letras.
Então o algoritmo de Viterbi permite encontrar
( A = {aij })
transição
HMM possui uma base matemática
sólida, devido a garantia de convergência para
um
ótimo
ponto.
A
existência
de
um
treinamento eficiente que automaticamente
otimiza
os
parâmetros
dos
dados
e
a
decodificação de técnicas que descrevem uma
6.
Limitações e principais vantagens do
HMM
string de entrada em termos da melhor
seqüência de estados.
HMM requer supervisão mínima, pois
Embora o uso da tecnologia de HMM
tem contribuído grandemente para avanços
não necessita de segmentação preliminar em
unidades básicas.
recentes no reconhecimento da fala, há algumas
limitações
herdadas
do
tipo
de
HMM permite a integração de vários
modelo
níveis de conhecimento em um framework
estatístico para a fala. A maior limitação é a
unificado, ou seja, toda fonte de conhecimento
hipótese que as observações sucessivas (frames
(lingüístico, sintático, semântico ...) participa
da fala) são independentes, e entretanto a
simultaneamente em cada decisão.
probabilidade da seqüência de observações
P (o1 , o 2 ,..., oT ) pode
produto da
ser
escrita
como
de
observações
probabilidade
o
7.
individuais [13], por exemplo:
T
P (o1 , o 2 ,..., oT ) = ∏ P (Oi )
Conclusão
Neste artigo foi apresentado uma
(26)
introdução ao HMM. Primeiramente foram
i =1
citadas alguns linhas de pesquisa onde o HMM
Além disso, os processos sequenciais
tem sido largamente utilizado. HMM foi
reais são não como os Markovianos. Esta
primeiramente aplicado no reconhecimento de
limitação é de todos os processos e não somente
voz, porém atualmente tem sido bastante
de Markov.
utilizado
no
manuscritas.
reconhecimento
de
palavras
Todos os elementos que compõem um
[4] Baum L. E, Sell G. R., “Grown Functions
HMM para a observação de símbolos discretos
for Transformations on Manifolds”, Pac. J.
foram descritos. Foram mostradas as principais
Math., Vol. 27, n. 2, pp. 211-227, 1968.
arquiteturas de HMM, e que a estrutura do
modelo e o número de estados escolhidos são
[5] Baum L. E, “An Inequality and Associated
fatores fundamentais para a determinação de um
Maximisation Technique in Statistical
HMM ótimo.
Estimation for Probabilistic Functions of a
Foram abordadas os três problemas
básicos do HMM que devem ser resolvidos para
Markov Process”, Inequalities III, pp.1-8,
1972.
que o modelo possa ser utilizado em aplicações
do mundo real, bem como a solução para os
[6] Casey R. G. , Lecolinet E., “A Survey of
mesmos. Também mostrou-se que existem duas
Methods and Strategies in Character
soluções para o problema do reconhecimento,
Segmentation”, IEEE Transactions on
conhecidas como Modelo Discriminante e
Pattern Analysis and Machine Intelligence,
Modelo de Caminho Discriminante.
Vol. 18, n. 7, Jul. 1996, pp. 690-706.
Por ultimo, foram colocadas algumas
limitações, bem como algumas vantagens no
uso do HMM.
[7] Fielding K. H., Ruck D. W. “Recognition
of Moving Light Displays using Hidden
Markov Models”, Pattern Recognition,
8.
Referências Bibliográficas
[1] Baker J. K., “Stochastic Modeling as a
Vol. 28, n. 9, pp. 1415-1421, 1995.
[8] Forney G.D. “The Viterbi Algorithm”,
Means of Automatic Speech Recognition”,
Procs of the IEEE, Vol. 61, n. 3 pp. 268-
PhD.
278, 1973.
Dissertation,
Carriegie-Mellon
University, 1975.
[9] Jelinek F., Mercer R. L., Roukos S.
[2] Baum L. E, Petrie T., “Statistical Inference
“Principles of Lexical Language Modeling
for Probabilistic Functions of Finite State
for Speech Recognition”, Advances in
Markov Chains”, Ann Math. Stat. 37, pp.
Speech Signal Processing, Edited by
1554-1563, 1966.
Sadaoki Furui and M. Mohan Sondhi., pp.
651-699. 1992
[3] Baum L. E, Eagon J. A., “An Inequality with
Applications to Statistical Estimation for
[10] Kundu A., He Y., Bahl P. “Recognition of
Probabilistic Functions of a Markov
Handwritten Word: First and Second
Process and to a Model for Ecology”,
Order Hidden Markov Model Based
Bull. Amer. Math. Soc. 73, pp. 360-363,
Approach”, Pattern Recogniton, Vol 22, n.
1967.
3, pp. 283-297, 1989.
[11] Lee K.F, Hon H.W., Hwang M.Y., Huang
Modesl”,
Knowledge
Techniques
in
X. “Speech Recognition Using Hidden
Character Recognition, CRC Press LLC, to
Markov Models: A CMU Perspective”,
appear by April 1.999.
Speech
Communication
9,
Elsevier
Science Publishers B. V., North Holland,
pp. 497-508, 1990.
[19] Yang L., Widjaja B. K., Prasad R.
“Application of Hidden Markov Models
for
[12] Lou H.L. “Implementing the
IEEE
Algorithm”,
Signal
Viterbi
Processing
Signature
Verification”,
Pattern
Recognition, Vol. 28, n. 2, pp. 161-171,
1995.
Magazine, pp. 42-52, 1995.
[20] Yang J., Xu Y., Chen S. “Human Action
[13] Rabiner L. R., “A Tutorial on Hidden
Learnig via Hidden Markov Models”,
Markov Models and Selected Applications
IEEE Transactions on Systems, Man, and
in Speech Recognition”, Procedings of the
Cybernetics-Part A: Systems and Humans,
IEEE, Vol. 77, n. 2, Feb. 1989.
Vol. 27, n. 1, pp. 34-44, 1997.
[14] Rabiner
L.
Connected
R.
Digit
“High
Performace
Recognition
Using
Markov Models”, IEEE Transactions on
Acoustic, Speech and Signal Processing,
Vol. 37, n. 8, pp. 1214-1224, 1989.
[15] Rabiner L., Juang B-H. “Fundamentals of
Speech Recognition”, Prentice Hall Signal
Processing Series, 1993.
[16] Smyth
P. “Hidden Markov Models for
Fault Detection in Dynamic Systems”,
Pattern Recognition, Vol. 27, n. 1, pp. 149167, 1994.
[17] Yacoubi A., “Modélisation Markovienne
de L’écriture Manuscrite Application à la
Reconnaissance des Adresses Postales”,
Thèse de doctorat, Université de Rennes 1,
Sep. 1996.
[18] Yacoubi
A., Sabourin R., Gilloux M.,
Suen C. Y, “Off-line Handwritten Word
Recognition
using
Hidden
Markov
1.
Exemplo
Seja o modelo λ = ( A, B, π ) compreendido por três estados 1, 2 e 3, e permitindo a observação de
dois símbolos a e b e dado a seqüência “aabb”. Determinar:
1.
Cálculo da variável forward α .
2.
Cálculo de P (O | λ ) .
3.
Cálculo da variável backward β .
4.
Calcular a melhor seqüência de estados utilizando o algoritmo de Viterbi.
0
0.6
1
0.3 0.5 0.2




A =  0 0.3 0.7 , B = 0.5 0.5 e π = 0.4
 0 
 0
 0
1 
0
1 
1.
Cálculo de α
Inicialização (Equação 6)
α1 (1) = 0.6 × 1 = 0.6 , α1 (2) = 0.4 × 0.5 = 0.2 , α1 (3) = 0 × 0 = 0
Indução (Equação 7)
 3

α 2 (2) =  α1 (i )ai 2  b2 (O2 ) = [ 0.6 × 0.5 + 0.2 × 0.3 + 0 × 0 ] × 0.5 = 0.18
 i=1

∑
 3

α 2 (3) =  α1 (i )ai 3  b3 (O2 ) = [ 0.6 × 0.2 + 0.2 × 0.7 + 0 × 1 ] × 0 = 0
 i =1

∑
 3

α 3 (1) =  α 2 (i )ai1  b1 (O3 ) = [ 0.18 × 0.3 + 0.18 × 0 + 0 × 0 ] × 0 = 0
 i =1

∑
 3

α 3 (2) =  α 2 (i )ai 2  b2 (O3 ) = [ 0.18 × 0.5 + 0.18 × 0.3 + 0 × 0 ] × 0.5 = 0.072
 i =1

∑
 3

α 3 (3) =  α 2 (i)ai 3  b3 (O3 ) = [ 0.18 × 0.2 + 0.18 × 0.7 + 0 × 1 ] × 1 = 0.162
 i =1

∑
 3

α 4 (1) =  α 3 (i )ai1  b1 (O4 ) = [ 0 × 0.3 + 0.072 × 0 + 0.162 × 0 ] × 0 = 0
 i =1

∑
 3

α 4 (2) =  α 3 (i )ai 2  b2 (O4 ) = [ 0 × 0.5 + 0.072 × 0.3 + 0.162 × 0 ] × 0.5 = 0.0108
 i =1

∑
 3

α 4 (3) =  α 3 (i )ai3  b3 (O4 ) = [ 0 × 0.2 + 0.072 × 0.7 + 0.162 × 1 ] × 1 = 0.2124
 i =1

∑
2.
Cálculo de P (O | λ )
Terminação (Equação 8)
P (O | λ ) =
3
∑α
i =1
4 (i )
= α 4 (1) + α 4 (2) + α 4 (3) =0 + 0.0108 + 0.2124 = 0.2232
3.
Cálculo de β
Inicialização (Equação 10)
β 4 (1) = 1 , β 4 (2) = 1 , β 4 (3) = 1
Indução (Equação 11)
3
∑a
β 3 (1) =
1 j b j (O4 ) β 4 ( j )
= [ 0.3 × 0 × 1 + 0.5 × 0.5 × 1 + 0.2 × 1× 1] = 0.45
j =1
β 3 ( 2) =
3
∑a
2 j b j (O4 ) β 4 (
j ) = [ 0 × 0 × 1 + 0.3 × 0.5 × 1 + 0.7 × 1 × 1] = 0.85
j =1
3
∑a
β 3 (3) =
3 j b j (O4 ) β 4 ( j )
= [ 0 × 0 × 1 + 0 × 0.5 × 1 + 1 × 1× 1] = 1
j =1
3
∑a
β 2 (1) =
1 j b j (O3 ) β 3 (
j ) = [ 0.3 × 0 × 0.45 + 0.5 × 0.5 × 0.85 + 0.2 × 1 × 1] = 0.4125
j =1
β 2 ( 2) =
3
∑a
2 j b j (O3 ) β 3 (
j ) = [ 0 × 0 × 0.45 + 0.3 × 0.5 × 0.85 + 0.7 × 1 × 1] = 0.8275
j =1
β 2 (3) =
3
∑a
3 j b j (O3 ) β 3 ( j )
= [ 0 × 0 × 0.45 + 0 × 0.5 × 0.85 + 1 × 1 × 1] = 1
j =1
β1 (1) =
3
∑a
1 j b j (O2 ) β 2 (
j ) = [ 0.3 × 1 × 0.4125 + 0.5 × 0.5 × 0.8275 + 0.2 × 0 × 1] = 0.330625
j =1
β 1 ( 2) =
3
∑a
2 j b j (O2 ) β 2 (
j ) = [ 0 × 1 × 0.4125 + 0.3 × 0.5 × 0.8275 + 0.7 × 0 × 1] = 0.124125
j =1
β1 (3) =
3
∑a
3 j b j (O2 ) β 2 ( j )
= [ 0 × 1 × 0.4125 + 0 × 0.5 × 0.8275 + 1 × 0 × 1] = 1
j =1
β 0 (1) =
3
∑a
1 j b j (O1 ) β 1 (
j ) = [ 0.3 × 1 × 0.330625 + 0.5 × 0.5 × 0.124125 + 0.2 × 0 × 1] = 0.13021875
j =1
β 0 (2) =
3
∑a
2 j b j (O1 ) β1 (
j ) = [ 0 × 1 × 0.330625 + 0.3 × 0.5 × 0.124125 + 0.7 × 0 × 1] = 0.01861875
3 j b j (O1 ) β 1 (
j ) = [ 0 × 1 × 0.330625 + 0 × 0.5 × 0.124125 + 1 × 0 × 1] = 0
j =1
β 0 (3) =
3
∑a
j =1
Terminação (Equação 12)
P (O / λ ) =
N
∑π b (o )β (i) = 0.6 ×1× 0.33025 + 0.4 × 0.5 × 0.124125 + 0 × 0 × 0 = 0.2232
i i
i =1
1
1
Obs: Pode-se observar que o resultado da P (O | λ ) é o mesmo para as variáveis forward-backward, ou
seja, para a resolução desse problema basta que somente uma variável seja calculada (forward ou
backward).
4.
Calcular a melhor seqüência de estados utilizando o algoritmo de Viterbi
Inicialização (Equações 15a e 15b)
δ 1 (1) = 0.6 × 1 = 0.6 ,
ψ 1 (1) = 0
δ 1 (2) = 0.4 × 0.5 = 0.2 ,
ψ 1 (2) = 0
δ 1 (3) = 0 × 0 = 0 ,
ψ 1 (3) = 0
Recursão (Equações 16a e 16b)
δ 1 (1)a11 = 0.6 × 0.3
δ 2 (1) = max [δ 1 (i )ai1 ]b1 (O2 ) = max  δ 1 (2)a21 = 0.2 × 0  × 1 = 0.18
1≤ i ≤ 3
 δ 1 (3)a31 = 0 × 0 
δ 1 (1)a11 = 0.6 × 0.3
ψ 2 (1) = arg max [δ 1 (i )ai1 ] = arg max  δ 1 (2)a 21 = 0.2 × 0  = 1
1≤ i ≤ 3
 δ 1 (3)a31 = 0 × 0 
 δ 1 (1)a12 = 0.6 × 0.5 
δ 2 (2) = max [δ 1 (i )ai 2 ]b2 (O2 ) = max δ 1 (2)a 22 = 0.2 × 0.3 × 0.5 = 0.15
1≤ i ≤ 3
 δ 1 (3)a32 = 0 × 0 
 δ 1 (1)a12 = 0.6 × 0.5 
ψ 2 (2) = arg max [δ 1 (i)ai 2 ] = arg max δ 1 (2)a 22 = 0.2 × 0.3 = 1
1≤ i ≤ 3
 δ 1 (3)a32 = 0 × 0 
 δ 1 (1)a13 = 0.6 × 0.2 
δ 2 (3) = max [δ 1 (i )ai3 ]b3 (O2 ) = max δ 1 (2)a 23 = 0.2 × 0.7 × 0 = 0
1≤ i ≤ 3
 δ 1 (3)a33 = 0 × 1 
 δ 1 (1)a13 = 0.6 × 0.2 
ψ 2 (3) = arg max [δ 1 (i )ai 3 ] = arg max δ 1 (2)a23 = 0.2 × 0.7  = 2
1≤ i ≤ 3
 δ 1 (3)a33 = 0 × 1 
δ 2 (1)a11 = 0.18 × 0.3
δ 3 (1) = max [δ 2 (i )ai1 ]b1 (O3 ) = max  δ 2 (2)a 21 = 0.15 × 0  × 0 = 0
1≤ i ≤ 3
 δ 2 (3)a31 = 0 × 0 
δ 2 (1)a11 = 0.18 × 0.3
ψ 3 (1) = arg max [δ 2 (i )ai1 ] = arg max  δ 2 (2)a 21 = 0.15 × 0  = 1
1≤ i ≤ 3
 δ 2 (3)a31 = 0 × 0 
 δ 2 (1)a12 = 0.18 × 0.5 
δ 3 (2) = max [δ 2 (i )ai 2 ]b2 (O3 ) = max δ 2 (2)a 22 = 0.15 × 0.3 × 0.5 = 0.045
1≤ i ≤ 3
 δ 2 (3)a32 = 0 × 0 
 δ 2 (1)a12 = 0.18 × 0.5 
ψ 3 (2) = arg max [δ 2 (i )ai 2 ] = arg max δ 2 (2)a 22 = 0.15 × 0.3 = 1
1≤ i ≤ 3
 δ 2 (3)a32 = 0 × 0 
 δ 2 (1)a13 = 0.18 × 0.2 
δ 3 (3) = max [δ 2 (i )ai3 ]b3 (O3 ) = max δ 2 (2)a 23 = 0.15 × 0.7 × 1 = 0.105
1≤ i ≤ 3
 δ 2 (3)a33 = 0 × 1 
 δ 2 (1)a13 = 0.18 × 0.2 
ψ 3 (2) = arg max [δ 2 (i )ai3 ] = arg max δ 2 (2)a 23 = 0.15 × 0.7  = 1
1≤ i ≤ 3
 δ 2 (3)a33 = 0 × 1 
 δ 3 (1)a11 = 0 × 0.3 
δ 4 (1) = max [δ 3 (i )ai1 ]b1 (O4 ) = max δ 3 (2)a21 = 0.045 × 0 × 0 = 0
1≤ i ≤ 3
δ 3 (3)a31 = 0.105 × 0 
 δ 3 (1)a11 = 0 × 0.3 
ψ 4 (1) = arg max [δ 3 (i )ai1 ] = arg max δ 3 (2)a 21 = 0.045 × 0 = 1
1≤ i ≤ 3
 δ 3 (3)a31 = 0.105 × 0 
 δ 3 (1)a12 = 0 × 0.5 
δ 4 (2) = max [δ 3 (i )ai 2 ]b2 (O4 ) = max δ 3 (2)a 22 = 0.045 × 0.3 × 0.5 = 0.0135
1≤ i ≤ 3
 δ 3 (3)a32 = 0.105 × 0 
 δ 3 (1)a12 = 0 × 0.5 
ψ 4 (2) = arg max [δ 3 (i )ai 2 ] = arg max δ 3 (2)a 22 = 0.045 × 0.3 = 1
1≤ i ≤ 3
 δ 3 (3)a32 = 0.105 × 0 
 δ 3 (1)a13 = 0 × 0.2 
δ 4 (3) = max [δ 3 (i )ai 3 ]b3 (O4 ) = max δ 3 (2)a23 = 0.045 × 0.7  × 1 = 0.105
1≤ i ≤ 3
 δ 3 (3)a33 = 0.105 × 1 
 δ 3 (1)a13 = 0 × 0.2 
ψ 4 (3) = arg max [δ 3 (i)ai 3 ] = arg max δ 3 (2)a 23 = 0.045 × 0.7 = 3
1≤ i ≤ 3
 δ 3 (3)a33 = 0.105 × 1 
Terminação (Equações 17a e 17b)
 δ 4 (1) = 0 
 δ 4 (1) = 0 
P * = max [δ 4 (i )] = δ 4 (2) = 0.0135 = 0.105 , qT* = arg max δ 4 (2) = 0.0135 = 3
1≤ i≤ 3
 δ 4 (3) = 0.105 
 δ 4 (3) = 0.105 
Backtracking (Equação 18)
q3* = ψ 4 (q *4 ) = 3 , q2* = ψ 3 (q3* ) = 2 , q1* = ψ 2 (q2* ) = 1
Assim, a melhor seqüência de estados obtida é 1, 2, 3 e 3.
Fly UP