第9章-隐马尔可夫模型课件

上传人:91274****mpsvz 文档编号:243136905 上传时间:2024-09-16 格式:PPT 页数:52 大小:1.39MB
返回 下载 相关 举报
第9章-隐马尔可夫模型课件_第1页
第1页 / 共52页
第9章-隐马尔可夫模型课件_第2页
第2页 / 共52页
第9章-隐马尔可夫模型课件_第3页
第3页 / 共52页
点击查看更多>>
资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,第,9,章 隐马尔可夫模型,(HMM),一、马尔可夫模型的定义,二、隐马尔可夫模型的定义,三、隐马尔可夫模型的参数,四、隐马尔可夫模型在语音识别中的应用,五、,隐马尔可夫模型的基本算法,1870,年,俄国有机化学家,Vladimir V.,Markovnikov,第一次提出马尔可夫模型,HMM,的由来,马尔可夫性,如果一个过程的“,将来,”仅依赖“,现在,”而不依赖“过去”,则此过程具有,马尔可夫性,或称此过程为,马尔可夫过程,X(t+1) = f(,X(t,) ),X(n+1) = f(,X(n,) ),马尔科夫链,时间,和,状态,都离散的马尔科夫过程称为马尔科夫链,记作,S,n,=,S(n,), n = 0,1,2,在时间集,T,1,= 0,1,2,上对离散状态的过程相继观察的结果,链的状态空间记做,I = S,1, S,2,S,i,R,.,条件概率,PS,j,|S,i,为马氏链在时刻,m,处于状态,S,i,条件下,在时刻,m+1,转移到状态,S,j,的,转移概率,。,一,个关于天气的,3,状态马尔可夫模型,雨,S1,多云,S2,晴,S3,0.4,0.3,0.3,0.6,0.8,0.2,0.2,0.1,0.1,一、马尔可夫模型,(MM),的定义,MM,是一个输出符号序列的统计模型,具有,N,个,状态,S,1,S,2,S,N,它按一定的周期从一个状态转移到另外一个状态,每次转移时,输出一个符号。,S,1,S,2,S,3,起始状态,终止状态,a/b,输出符号,转移到哪一个状态,转移时输出什么符号,分别由状态转移概率和转移时的输出概率来决定。即每一条弧上有一个状态转移概率以及输出概率。,a,ij,表示从状态,S,i,转移到状态,S,j,的概率。,S,1,S,2,S,3,S,1,S,2,S,3,从一个状态转移出去,的概率之和为,1,。,每次转移时输出符号,a,和,b,的概率之和为,1,。,一,个关于天气的,3,状态马尔可夫模型,雨,S1,多云,S2,晴,S3,0.4,0.3,0.3,0.6,0.8,0.2,0.2,0.1,0.1,已知一天,(t=1),的天气是晴(,S3,),问:其后,7,天的天气为,“,晴,晴,雨,雨,晴,多云,晴,”,的概率是多少?,观察序列,O=S3,,,S3,,,S3,,,S1,,,S1,,,S3,,,S2,,,S3,对应时间,t=1,2,3,4,5,6,7,8,一般情况下,只能观察到输出符号序列,(,ab,),,,而不能观测到状态之间如何转移(,状态转移概率,)和状态的分布(,状态的概率,),所以称为隐藏的马尔可夫模型。,二、隐马尔可夫模型的定义,球和缸,S,1,S,N,S,2,P(red,)=b,1,(1),P(yellow,)=b,1,(2),P(bule,)=b,1,(3),P(green,)=b,1,(4),P(black,)=b,1,(M),P(red,)=b,2,(1),P(yellow,)=b,2,(2),P(bule,)=b,2,(3),P(green,)=b,2,(4),P(black,)=b,2,(M),P(red,)=b,N,(1),P(yellow,)=,b,N,(2),P(bule,)=b,N,(3),P(green,)=b,N,(4),P(black,)=,b,N,(M,),观察序列,O=,绿,绿,蓝,红,红,黄,,.,蓝,设有,N,个缸,每个缸中装有很多彩色的球,不同颜色的球,(,M,),的多少由一组概率分布来描述,,根据某个初始概率分布,随机选择一个缸,例如第,i,个缸,再根据这个缸中彩色球颜色的概率分布,随机选择一个球,记,O,1,再把球放回缸中。,根据缸的转移概率,选择下一个缸,例如第,j,个缸。再根据这个缸中彩色球颜色的概率分布,随机选择一个球,记,O,2,再把球放回缸中。,最后得到描述球颜色的序列,O,1,O,2,,成为观察值序列,但每次选取的缸和缸之间的转移并不能直接观察,被隐藏。,一个硬币,正面,反面,二个硬币,S1,S2,状态,1 2,从,S,1,到,S,3,并且输出,aab,,,可能的路径有三种,:,S,1,S,1,S,2,S,3,S,1,S,2,S,2,S,3,S,1,S,1,S,1,S,3,0.30.80.510.60.5=0.036,0.510.40.30.60.5=0.018,0.30.80.30.80.20=0,S,1,S,2,S,3,设观察到的输出符号序列是,aab,。,试求,aab,的输出概率?,由于是隐,HMM,模型,不知输出,aab,时,到底是经过了哪一条不同状态组成的路径,因此,求,aab,的输出概率时,将每一种可能路径的的输出概率相加得到的总的概率值作为,aab,的输出概率值,:,0.036+0.018+0=0.054,1.,HMM,包含两个随机过程,:,(,1,),马尔可夫链:,一个随机过程描述的状态(,S,1,S,2,S,3,)和状态转移序列(,状态转移序列,S,1,S,1,S,2,S,3,、,S,1,S,2,S,2,S,3,和,S,1,S,1,S,1,S,3,等,);,(,2,)一个随机过程描述状态和观察值之间的统计对应关系(,每次转移时输出的符号组成的符号序列,如,,aab,)。,总结,转移中输出符号的概率,P3,2.HMM,包含三个概率矩阵,:,每个状态存在的概率矩阵,P1,状态之间转移,的概率矩阵,P2,3.,一个输出概率,:,将每一种可能路径的的输出概率相加得到的总的概率值作为输出概率。,三、隐马尔可夫模型的参数,模型中状态的数目。状态的集合,每个状态对应的观测符号数。观测符号集合,观测符号序列的长度,观测符号序列,状态转移概率分布,状态的观测符号概率分布,初始状态的概率分布,HMM,的基本要素,参数,含义,实例,N,状态数目,缸的,数目,M,每个状态可能的观察值数目,彩球颜色数目,A,与,时间无关的状态转移概率矩阵,在,选定某个缸的情况下,选择另一个缸的概率,B,给定状态下,观察值概率分布,每个缸中的颜色分布,p,初始状态空间的概率分布,初始时选择某口缸的概率,HMM,的应用领域,语音识别,机器视觉,人脸检测,机器人足球,图像处理,图像去噪,图像识别,生物医学分析,DNA/,蛋白质序列分析,四、隐马尔可夫模型在语音识别中的应用,1.,利用,HMM,进行孤立字语音识别,每一字必须有一个,HMM,模型 来描述,通过学习和训练来完成,。,字库,语,文,学,音,语,S,1,S,2,S,3,2.,现对一个要识别的未知字语音,首先通过分帧、参数分析和特征参数提取,取得一组向量序列,X,1,X,2,.X,N,N,为帧长。,wen,X,1,X,2,.X,N,发音,3.,通过矢量量化把,X,1,X,2,.X,N,转化成一组符号序列(码字),O=o,1,o,2,.o,N,o,i,为码本中的码字,这个码本是所有字的一个共同的码本。,X,1,X,2,.X,N,y,1,y,2,y,J,o,1,o,2,.o,N,码本,4.,用这组符号,o,1,o,2,.o,N,计算在每个,HMM,上的输出概率,输出概率最大的,HMM,对应的孤立字,就是识别结果。,o,1,o,2,.o,N,字库,语,文,学,音,S,1,S,2,S,3,S,1,S,2,S,3,S,1,S,2,S,3,S,1,S,2,S,3,无声,段,鼻音,段,声母,辅音段,元音,段,送气,段,前过,渡段,后,过,渡段,(,1),发音的各个段(稳定段,用一个全极点的滤波器来描述)构成相应的状态。,(2),声学变化(,LPC,倒谱)对应输出序列,概率分布成混合高斯密度函数。,(3),基本单元发音速率(停留时间和转移时间)对应状态转移概率,(0.5),。,五、隐马尔可夫模型的基本算法,识别问题:给定观测符号序列 和模型 ,如何快速有效地计算输出概率,估计模型产生观测符号序列的最有可能经过的路径。所有可能的路径中,概率最大的路径。,模型训练问题:调整模型参数,使得输出概率最大。,1,、前向后向算法,Forward-Backward,给定一个观测序列 以及一个模型 ,由模型产生出的概率,直接方法,列举所有可能的路径,计算输出概率,然后求和。计算量为,2TN,T,。如状态数,N=5,观测值序列长度,T=100,,计算量为,10,72,。,前向后向算法,前向算法,一个前向变量,给定模型下,产生,t,以前的部分观测符号序列(包含,t,在内) ,且,t,时刻又处于状态 的概率。,迭代算法,初始化:,迭代计算:,最后计算:,初始状态 和初始观测 的联合概率。,无论,t,时刻处于哪个状态,它都会以一定概率在,t+1,时刻转移到,t+1,t,表示,t,时刻的观测的符号序列 ,并由,t,时刻 转移到,t+1,时刻的状态 发生的概率。,观测到的符号序列 且在,t+1,时刻的处于状态 发生的概率。,给定模型下,产生,t,1,以前的部分观测符号序列(包含,t,1,在内) ,且时刻又处于状态 的概率。,将所有 的对,i,求和,所需总乘数为:,N(N+1)(T-1),总加数为:,N(N-1)(T-1),S,1,S,2,S,3,后向算法,一个后向变量,给定模型下,,t,时刻处于状态,产生观测符号,序列 的概率。,迭代算法,初始化:,迭代计算:,最后计算:,S,1,S,2,S,3,2.,维特比(,viterbi,)算法,一个前向变量,给定模型下,产生,t,以前的部分观测符号序列(包含,t,在内) ,且时刻又处于状态 的最大概率。,迭代算法,(,1,)初始化:,(,2,)迭代计算:,(,3,)最后计算:,S,1,S,1,S,2,S,3,0.30.80.510.60.5=0.036,S,1,S,2,S,3,3.Baum-Welch,算法(模型训练算法),目的:给定观察值序列,O,,,通过计算确定一个模型,,使得 最大。,算法步骤:,1.,初始模型(待训练模型),2.,基于,以及观察值序列,O,,训练新模型,;,3.,如果,,,说明训练已经达到预期效果,算法结束。,4.,否则,令,,,继续第2步工作,给定模型和观测序列条件下,在时间,t,处于状态,i,,而在,t+1,处于状态,j,的概率。,t+1,t,给定模型和观测序列条件下,在时间,t,处于状态,i,的概率。,在时间,T,内,,从状态,i,进行转移的次数。,在时间,T,内,,从状态,i,转移到,j,的次数。,Baum-Welch,算法,重估:,表示在时刻,T,内,状态,i,转移到状态,j,的总次数,除以在时间,T,内,状态,i,被经过的总次数;,表示在时刻,T,内,经过状态,j,,,并且状态,j,对应的观测事件为,v,k,的总数除以时间,T,内,经过状态,j,的总数。,表示在,t=1,处于状态,i,的次数,几种典型形状的马尔可夫链,a.,A,矩阵没有零值的,Markov,链,b. A,矩阵有零值的,Markov,链,c./d.,左右形式的,Markov,链,1.,前向后向算法计算,P(O|,),;,2.,Baum-Welch,算法,求出最优解,*=,argmaxP(O|,),;,3.,Viterbi,算法解出最佳状态转移序列;,4.,根据最佳状态序列对应的,给出候选音节或声韵母,;,5.,通过语言模型形成词和句子。,经典,HMM,语音识别一般过程,Baum-Welch,Re-estimation,Speech,database,Feature,Extraction,Converged?,l,1,l,2,l,7,HMM,waveform,feature,Yes,No,end,经典,HMM,语音识别训练过程,Select,maximum,Recognized,word,Speech,Feature,extraction,Likelihood,computation,1,Likelihood,computation,V,.,.,.,P(,O,|,1,),P(,O,|,V,),HMM,1,HMM,V,经典,HMM,语音识别识别过程,语音信号预处理与特征提取,声学模型与模式匹配,语言模型与语言处理,HMM,语音识别系统的实现,语音信号预处理与特征提取,参数初始化:,起始状态概率,(),状态转移概率,(A),观测序列概率,(B),根据观测序列概率表示方法的不同:,离散的,HMM,(,DHMM,),连续的,HMM,(,CHMM,),半连续的,HMM,(,SCHMM,),声学模型与模式匹配,DHMM,:,离散的符号作为观测量,b,j,(x,),b,j,(k,),b,j,(x,),CHMM,:,观测量为连续概率密度函数,每个状态有不同的一组概率密度函数,SCHMM,:,观测量为连续概率密度函数,所有状态共享一组概率密度函数,声学模型与模式匹配,采用统计语法的语言模型,基本原理:采用大量的文本资料,统计各个词的出现概率及相互关联的条件概率,并将这些知识与声学模型结合进行结果判决,减小误识。,设,W=w,1,w,2,w,Q,其概率表示为:,P(W)=P(w,1,w,2,w,Q,),=P(w,1,)P(w,2,|w,1,)P(W,Q,|W,1,W,2,W,Q-1,),语言模型与语言处理,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学培训


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!