HMM-Forward/Backward算法实现

  • M 个隐状态 - S^M
  • 长度为T的观测序列 - V^T
  • 转移矩阵 - A
  • 发射矩阵 - B
  • 初始概率分布 - \pi

Evaluation Problem

给定 \theta, V_M \to 估计 p(V_T|\theta), 其中 \theta \to s, v, a_{ij}, b_{jk}

方法:

  • 找出所有的隐状态,S^M, M是隐状态的数目
  • 从所有的隐状态序列S^M中,找到生成观测序列V^T的概率

数学表达:

p(V^T|\theta) = \sum_{r=1}^{R}p(V^T|S_{r}^{T})p(S_{r}^{T}) \\ where \quad S_{r}^{T} = \{s_1(1), s_2(2)... s_r(T)\}

上面的R=最大数目的关于隐状态的可能序列
因此可以得到,1-T的时间位置上,每个时刻t都可能是上述M个隐状态的任意一个取值,那么这个R的数目等于R = M^T

为了计算序列长度为T的可观测序列V^T的生成概率, 我们应该采用每个可能的隐藏状态序列,计算它们产生V^T的概率,然后将这些概率相加。

以一个具体的示例讲解

Forward-and-Backward-Algorithm-in-Hidden-Markov-Model-adeveloperdiary.com_.jpg

上述通过隐状态生成的观测序列:(sun, sun, rain) \to (happy, sad, happy)可以计算生成概率

p(happy, sad, happy | sun, sun, rain ) = p(happy|sun) * p(sad|sun) * p(happy|rain)

数学上:

p(V^T|S_{r}^{T}) = \prod_{t=1}^{T}p(v(t)|s(t))

但是不幸的是,我们真的不知道隐藏状态的具体顺序,这些顺序会生成可观测变量happy, sad, happy

我们可以计算V^T和与之对应的S^T的联合概率

Forward-and-Backward-Algorithm-in-Hidden-Markov-Model-adeveloperdiary.com-2.jpg

p(happy,sad,happy,sun,sun,rain) = p(sun|initial state) * p(sun|sun) * p(rain|sun) * p(happy|sun) * p(sad|sun) * p(happy|rain)

p(S^T) = p(sun|initial state) * p(sun|sun) * p(rain|sun) = \prod_{t=1}^{T}p(s(t)|s(t-1))
p(V^T|S^T) = p(happy|sun) * p(sad|sun) * p(happy|rain) = \prod_{t=1}^{T}p(v(t)|s(t))

p(V^T, S^T) = p(V^T|S^T)p(S^T) = \prod_{t=1}^{T}p(v(t)|s(t)) \prod_{t=1}^{T}p(s(t)|s(t-1))

上述只是特定的一个隐状态序列生成观测序列的例子,那么还有别的观测序列生成这个可观测序列,那么对所有的序列进行上述的计算然后求和

假设只有两种隐状态sun, rain, 那么一共有三个时刻,所以隐状态序列的大小一共有2^3=8

p(happy,sad,happy|model) = p(happy,sad,happy,sun,sun,sun) + p(happy,sad,happy,sun,sun,rain) + p(happy,sad,happy,sun,rain,rain)+ . . .

数学上,假设共有R种可能的序列R=M^T

\begin{equation} \label{eq1} \begin{split} p(V^T|\theta) & = \sum_{All Seq of S}p(V^T, S^T) \\ & = \sum_{All Seq of S}p(V^T|S^T)p(S^T) \\ & = \sum_{r=1}^{R}\prod_{t=1}^{T}p(v(t)|s(t)) \prod_{t=1}^{T}p(s(t)|s(t-1)) \\ & = \sum_{r=1}^{R}\prod_{t=1}^{T}p(v(t)|s(t))p(s(t)|s(t-1)) \end{split} \end{equation}

但是计算复杂度很高,O(M^T\cdot T)需要优化, 我们将采用动态规划来克服上述解决方案中的指数计算。 有两种这样的算法,Forward算法,backward算法,可以指数级复杂度降到多项式复杂度O(M^2\cdot T)

Forward算法

给定一系列可见状态V^T,则隐马尔可夫模型在特定时间步长t处在特定隐藏状态s的概率是多少。

\alpha(t) = p(v(1)...v(t), s(t)=j) = p(v_{1:t}, s(t)=j)

当t=1时:
\begin{equation} \label{eq222} \begin{split} \alpha_{j}(1) & = p(v_{k}(1), s(1)=j) \\ & = p(v_{k}(1)|s(1)=j)p(s(1)=j) \\ & = \pi_{j}p(v_{k}(1)|s(1)=j)\\ & = \pi_{j}b_{jk} \end{split} \end{equation}

  • 其中\pi=初始状态分布
  • 上式中的b_{jk}表示t=1时刻的发射概率

如果通过向量的方式计算取不同的隐状态j,可以通过向量乘积计算,即\mathrm{\alpha(1)} = \mathrm{\pi}\mathrm{B_{:,k}}

当t=2时:

获得t=1的结果后, t=2的计算公式中的一部分需要借助t=1的计算结果
\begin{equation} \label{eq333} \begin{split} \alpha_{j}(2) & = p(v_{k}(1),v_{k}(2), s(2)=j) \\ & = \sum_{i=1}^{M} p(v_{k}(1), v_{k}(2), s(1)=i, s(2)=j) \\ & = \sum_{i=1}^{M} p(v_{k}(2)|s(2)=j, v_{k}(1), s(1)=i)p(s(2)=j, v_{k}(1), s(1)=i) \\ & = \sum_{i=1}^{M} p(v_{k}(2)|s(2)=j, v_{k}(1), s(1)=i)p(s(2)=j|s(1)=i, v_{k}(1))p(v_{k}(1), s(1)=i) \\ & = \sum_{i=1}^{M} p(v_{k}(2)|s(2)=j)p(s(2)=j|s(1)=i)p(v_{k}(1), s(1)=i) \\ & = p(v_{k}(2)|s(2)=j)\sum_{i=1}^{M} p(s(2)=j|s(1)=i)p(v_{k}(1), s(1)=i) \\ & = b_{jkv(2)}\sum_{i=1}^{M} a_{i2}\alpha_{i}(1) \end{split} \end{equation}

如果通过向量的方式计算取不同的隐状态j,可以通过向量乘积计算,即\mathrm{\alpha(2)} = \mathrm{B_{:, k}} \times (\mathrm{\alpha_{:,1}} \cdot \mathrm{a_{:, 2}})

  • 其中 a_{i2} = 转移概率
  • b_{jkv(2)} = 发射概率 在t=2时刻
  • \alpha_{i}(1) = 前向概率在t=1时刻

解释: 因为在t=1时刻的,s(1)有M个状态,所以从s(1)到s(2)需要把M种状态都要考虑进来,在第二步的时候,加了sum符号

进一步得到通用公式

generalized-Equation.jpg

当然也可以通过图示的方式

Forward-and-Backward-Algorithm-in-Hidden-Markov-Model-adeveloperdiary.com-4.jpg

上图如果用通用公式可以得到
\alpha_{2}(t) = b_{2k}\sum_{i=1}^{M}\alpha_{i}(t-1)a_{i2}
如果把其他的也写出来
\alpha_{1}(t) = b_{1k}\sum_{i=1}^{M}\alpha_{i}(t-1)a_{i1}
\alpha_{3}(t) = b_{3k}\sum_{i=1}^{M}\alpha_{i}(t-1)a_{i3}

总结:前向算法的递推关系如下

recursive-forward-equation.jpg

Forward算法代码实现

假设做出如下定义:

  • 隐状态共两个,分别是AAA,BBB
  • 观测状态取值为三个,分别是0, 1, 2
  • 假设已经知道转移矩阵A,和发射矩阵B
init_matrix.jpg
import pandas as pd
import numpy as np

data = pd.read_csv('data/data_python.csv')
 
V = data['Visible'].values

# Transition Probabilities
A = np.array(((0.54, 0.46), (0.49, 0.51)))
 
# Emission Probabilities
B = np.array(((0.16, 0.26, 0.58), (0.25, 0.28, 0.47)))
 
# Equal Probabilities for the initial distribution
π = np.array((0.5, 0.5))
def forward(V, A, B, π):
    alpha = np.zeros((a.shape[0], V.shape[0]))
    alpha[:, 0] = π*B[:, V[0]]
    T = len(V)
    M = A.shape[0]
    for t in range(1, T):
        for j in range(M):
            alpha[j, t] = B[j, V[t]]*alpha[:, t-1]@A[:, j]
    return alpha
alpha = forward(V, A, B, π)

Backward算法

\begin{equation} \label{eq6} \begin{split} \beta_{i}(t) & = p(v_{k}(t+1),v_{k}(T)|s(t)=i) \\ & = \sum_{j=0}^{M} p(v_{k}(t+1)... v_{k}(T), s(t+1)=j|s(t)=i) \\ & = \sum_{j=0}^{M} p(v_{k}(t+2)... v_{k}(T)|v_{k}(t+1), s(t+1)=j, s(t)=i)p(v_{k}(t+1),s(t+1)=j|s(t)=i)\\ & = \sum_{j=0}^{M} p(v_{k}(t+2)... v_{k}(T)|v_{k}(t+1), s(t+1)=j, s(t)=i)p(v_{k}(t+1)|s(t+1)=j,s(t)=i)p(s(t+1)=j|s(t)=i)\\ & = \sum_{j=0}^{M} p(v_{k}(t+2)... v_{k}(T)|s(t+1)=j)p(v_{k}(t+1)|s(t+1)=j)p(s(t+1)=j|s(t)=i)\\ & = \sum_{j=0}^{M} \beta_{j}(t+1)b_{jk}(t+1)a_{ij} \end{split} \end{equation}

  • 其中a_{ij}表示t时刻到t+1时刻的转移概率
  • b_{jk}(t+1)表示t+1时刻,单词为k的发射概率
  • \beta_{j}(t+1)表示t+1时刻的后向概率

当然也可以通过图示的方式

Forward-and-Backward-Algorithm-in-Hidden-Markov-Model-adeveloperdiary.com-5.jpg
generialized-equation2.jpg
def backward(V, A, B):
    M = A.shape[0]
    T = len(V)
    beta = np.zeros((M, T))
    
    beta[:, -1] = np.ones(M)
    
    for t in range(T-2, 0, -1):
        for j in range(M):
            beta[j, t] = (B[:, V[t+1]]*beta[:, t+1])@A[j, :]
    return beta
beta = backward(V, A, B)
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 193,812评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,626评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,144评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,052评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,925评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,035评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,461评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,150评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,413评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,501评论 2 307
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,277评论 1 325
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,159评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,528评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,868评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,143评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,407评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,615评论 2 335

推荐阅读更多精彩内容