《信息论与编码》PPT课件.ppt

上传人:xin****828 文档编号:15447929 上传时间:2020-08-10 格式:PPT 页数:74 大小:1.16MB
返回 下载 相关 举报
《信息论与编码》PPT课件.ppt_第1页
第1页 / 共74页
《信息论与编码》PPT课件.ppt_第2页
第2页 / 共74页
《信息论与编码》PPT课件.ppt_第3页
第3页 / 共74页
点击查看更多>>
资源描述
1,第二章 信源及信源熵,第一节 信源的描述和分类,第二节 离散信源熵和互信息,第三节 连续信源的熵和互信息,第四节 离散序列信源的熵,第五节 冗余度,2,本章重点,离散/连续信源熵和互信息,第二章 信源及信源熵,本章难点,离散序列有记忆信源的熵,3,信源 产生消息(符号)、消息序列和连续消息的来源 产生随机变量、随机序列和随机过程的源。 在通信系统中收信者在未收到消息以前对信源发出什么消息是不确定的,是随机的,所以可用随机变量、随机序列或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度概率空间来描述信源 信源的基本特性:具有随机不确定性。,2.1 信源的描述和分类,4,2.1 信源的描述和分类,一、香农信息论的基本点,用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息。,二、信源的分类,按照信源发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源两大类,信源,离散信源,连续信源,5,2.1 信源的描述和分类,连续信源 连续信源是指发出在时间或幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息。,离散信源 离散信源是指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。,离散信源,离散无记忆信源,离散有记忆信源,发出单个符号的无记忆信源,发出符号序列的无记忆信源,发出符号序列的有记忆信源,发出符号序列的马尔可夫信源,6,三、先验概率及概率空间的形式,一个离散信源发出的各个符号消息的集合为:,它们的概率分别为,p(xi)为符号xi的先验概率,单符号离散信源的数学模型概率空间,a,b,c,z,显然有,,7,2.1.1 无记忆信源,离散无记忆信源 所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。,例如扔骰子,每次试验结果必然是16点中的某一个面朝上。,用一个离散型随机变量X来描述这个信源输出的消息。,8,发出单个符号的信源 指信源每次只发出一个符号代表一个消息; 发出符号序列的信源 指信源每次发出一组含二个以上符号的符号序列代表一个消息,离散无记忆信源,9,连续无记忆信源: 输出在时间和幅度上都是连续分布的消息 单符号连续无记忆信源的概率空间,随机取一节干电池测其电压值作为输出符号,符号取值为0,1.5之间的所有实数。 该信源就是发出单符号的连续无记忆信源,10,发出符号序列的信源,设信源输出的随机序列为 X =(X1X2XlXL) 序列中的变量Xlx1,x2, xn 这种由信源X输出的L长随机序列X所描述的信源称为离散无记忆信源X的L次扩展信源,11,随机序列的概率,当信源无记忆时,12,一般情况下,信源在不同时刻发出的符号之间是相互依赖的,也就是信源输出的平稳随机序列X中,各随机变量Xl之间是有依赖的。 如在汉字序列中前后文字的出现是有依赖的,不能认为是彼此不相关的。 表述有记忆信源要比表述无记忆信源困难得多 离散有记忆信源 所发出的各个符号的概率是有关联的。 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源,2.1.2 有记忆信源,用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征,一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,13,此时需要引入条件概率来反映信源发出符号序列内各个符号之间的记忆特征,表述的复杂度将随着序列长度的增加而增加。,实际上信源发出的符号往往只与前若干个符号有较强的依赖关系,随着长度的增加依赖关系越来越弱,因此可以根据信源的特性和处理时的需要限制记忆的长度,使分析和处理简化。,14,离散信源的统计特性,离散消息是从有限个符号组成的符号集中选择排列组成的随机序列(组成离散消息的信息源的符号个数是有限的) 在形成消息时,从符号集中选择各个符号的概率不同 。 组成消息的基本符号之间有一定的统计相关特性 。,15,2.1.3 马尔可夫信源,马尔可夫信源 一类相对简单的离散平稳信源 该信源在某一时刻发出字母的概率除与该字母有关外,只与此前发出的有限个字母有关 m阶马尔可夫信源: 信源输出某一符号的概率仅与以前的m个符号有关,而与更前面的符号无关。 用概率意义表达为,16,2.2 离散信源熵和互信息,问题: 什么叫不确定度? 什么叫自信息量? 什么叫平均不确定度? 什么叫信源熵? 什么叫平均自信息量? 什么叫条件熵? 什么叫联合熵? 联合熵、条件熵和熵的关系是什么?,17,什么叫后验概率? 什么叫互信息量? 什么叫平均互信息量? 什么叫疑义度? 什么叫噪声熵(或散布度)? 数据处理定理是如何描述的? 熵的性质有哪些?,2.2 离散信源熵和互信息,18,定义:一个随机事件的自信息量定义为其出现概率对数的负值。即:,2.2.1 自信息量,自信息量,说明: 因为概率 越小, 的出现就越稀罕,一旦出现,所获得的信息量也就较大。由于 是随机出现的,它是X的一个样值,所以是一个随机量。而 是 的函数,它必须也是一个随机量。,19,自信息量的单位的确定 在信息论中常用的对数底是2,信息量的单位为比特(bit); 若取自然对数,则信息量的单位为奈特(nat); 若以10为对数底,则信息量的单位为笛特(det)。 这三个信息量单位之间的转换关系如下: 1 natlog2e l.433 bit, l detlog210 3.322 bit,2.2.1 自信息量,20,二进制码元0,1,当符号概率为p(0)=1/4, p(1)=3/4,则这两个符号的自信息量为: I(0) =log2 (1/4)=log24= 2bit I(1) =log2 (3/4) =0.4151 bit,一个以等概率出现的二进制码元(0,1)所包含的自信息量为: I(0)= I(1)= log2 (1/2)=log22=1 bit,一个m位的二进制数,有2m个等概率的可能组合 I=log2(1/2m)=m bit,2.2.1 自信息量,几个例子,21,定义:随机事件的不确定度在数量上等于它的自信息量 说明: 两者的单位相同,但含义却不相同。 具有某种概率分布的随机事件不管发生与否,都存在不确定度,不确定度表征了该事件的特性,而自信息量是在该事件发生后给予观察者的信息量。,不确定度,2.2.1 自信息量,22,一个出现概率接近于1的随机事件,发生的可能性很大,所以它包含的不确定度就很小; 反之,一个出现概率很小的随机事件,很难猜测在某个时刻它能否发生,所以它包含的不确定度就很大; 若是确定性事件,出现概率为1,则它包含的不确定度为0。,2.2.1 自信息量,23,I(xi)的特性: I (xi)是非负值 当p(xi) = 1时,I(xi) = 0 当p(xi) = 0时,I(xi) = I(xi)是先验概率p(xi)的单调递减函数,即 当p(x1)p(x2)时,I (x1)I (x2) 两个独立事件的联合信息量等于它们分别的信息量之和。 即统计独立信源的信息量等于它们分别的信息量之和。,24,两个消息xi,yj同时出现的联合自信息量,注意: 当xi,yj相互独立时,有P(xiyj)=P(xi)P(yj),那么就有 I(xiyj)=I(xi)+I(yj)。 xiyj所包含的不确定度在数值上也等于它们的自信息量。,2.2.1 自信息量,联合自信息量,25,定义:在事件yj出现的条件下,随机事件xi发生的条件概率为 ,则它的条件自信息量定义为条件概率对数的负值:,注意: 在给定yj条件下,随机事件xi所包含的不确定度在数值上与条件自信息量相同,但两者含义不同。,2.2.1 自信息量,4.条件自信息量,26,例221,英文字母中“e” 出现的概率为0.105,“c”出现的概率为0.023,“o”出现的概率为0.001。分别计算它们的自信息量。 解:“e”的自信息量 I(e)= - log2 0.105=3.25 bit “c”的自信息量 I(c)= -log2 0.023=5.44 bit “o”的自信息量 I(o)= -log2 0.0019.97 bit,2.2.1 自信息量,27,一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量。 解: 依据题意 这一随机事件的概率空间为,2.2.2 离散信源熵,例2-2-2,28,其中:x1表示摸出的球为红球事件,x2表示摸出的 球是白球事件 . 如果摸出的是红球,则获得的信息量是 I(x1)= -log2p(x1)= - log20.8 bit 如果摸出的是白球,则获得的信息量是 I(x2)= -log2p(x2)= -log20.2 bit,如果每次摸出一个球后又放回袋中,再进行 下一次摸取。则如此摸取n次,红球出现的 次数为np(x1)次,白球出现的次数为 np(x2)次。随机摸取n次后总共所获得的 信息量为 np(x1)I(x1)+np(x2)I(x2),29,则平均随机摸取一次所获得的信息量为 H(X)= 1/nnp(x1)I(x1)+np(x2)I(x2) = -p(x1)log2p(x1)+p(x2)log2p(x2),= 0.72比特/次,说明:,自信息量I(x1)和I(x2)只是表征信源中各个符号的不确定度,一个信源总是包含着多个符号消息,各个符号消息又按概率空间的先验概率分布,因而各个符号的自信息量就不同。所以自信息量不能作为信源总体的信息量。,30,因为X中各符号xi的不确定度I(xi)为非负值,p(xi)也是非负值,且0 p(xi)1,故信源的平均不确定度H(X)也是非负量。 平均不确定度H(X)的定义公式与热力学中熵的表示形式相同,所以又把H(X)称为信源X的熵。熵是在平均意义上来表征信源的总体特性的,可以表征信源的平均不确定度。,31,定义:离散信源熵H(X)(平均不确定度/平均信 息量/平均自信息量) 定义信源的平均不确定度H(X)为信源中各个符号不 确定度的数学期望,即:,单位为比特/符号或比特/符号序列,信源熵具有以下三种物理含意: 信源熵H(X)表示信源输出后,每个离散消息所提供的平均信息量。 信源熵H(X)表示信源输出前,信源的平均不确定度。 信源熵H(X)反映了变量X的随机性,32,某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,必有信源的熵值;这熵值是在总体平均上才有意义,因而是一个确定值,一般写成H(X),X是指随机变量的整体(包括概率分布)。 信息量则只有当信源输出符号而被接收者收到后,才有意义,这就是给予接收者的信息度量,这值本身也可以是随机量,也可以与接收者的情况有关。 当某一符号 的概率 为零时, 在熵公式中无意义,为此规定这时的 也为零。当信源X中只含一个符号 时,必定有 ,此时信源熵H(X)为零。,33,例:甲地天气预报,甲地提供的平均信息量大于乙地,乙地天气预报,求:两地天气预报各自提供的平均信息量,34,甲、乙地天气预报为两极端情况:,信源是一确定信源,所以不存在不确定性,信息熵等于零。,35,甲、乙地天气预报为两极端情况:,这种情况下,信源的不确定性最大,信源熵最大。 甲地比乙地提供更多的信息量。因为甲地可能出现的消息数多于乙地可能出现的消息数。,36,例26 电视屏上约有 500 600= 3105个格点,按每点有 10个不同的灰度等级考虑,则共能组成 个不同的画面。按等概率 计算,平均每个画面可提供的信息量为,3 105 3.32 比特/画面,37,有一篇千字文章,假定每字可从万字表中任选,则共有不同的千字文 N=100001000=104000 篇 仍按等概率1/100001000计算,平均每篇千字文可提供的信息量为 H(X)log2N 4 103 332 13 104 比特千字文,比较:,“一个电视画面”平均提供的信息量远远超过“一篇千字文”提供的信息量。,38,例224,设信源符号集X=x1,x2,x3,每个符号发生的概率分别为p(x1)=1/2,p(x2)l4,p(x3)14。 则信源熵为 H(X)=1/2log22+1/4log24+1/4log24 =1.5 比特/符号,39,例225,该信源X输出符号只有两个,设为0和1。输出符号发生的概率分别为p和q,pq=l。即信源的概率空间为,则二元信源熵为 H(X)= -plogp-qlogq = -plogp-(1-p)log(1-p) =H(p),40,信源信息熵H(X)是概率p的函数,通常用H(p)表示p取值于0,1区间。 H(p)函数曲线如图所示。,如果二元信源的输出符号是确定的,即p=1或q=1,则该信源不提供任何信息。当二元信源符号0和1以等概率发生时,信源熵达到极大值,等于1比特信息量。,41,几个概念,定义:在给定yj条件下,xi的条件自信息量为I(xi/yj),X 集合的条件熵H(X/yj)为 H(X/yj)= 在给定Y(即各个yj)条件下,X集合的条件熵 H(X/Y)定义为 H(X/Y)= =,条件熵,42,相应地,在给定X(即各个xi)的条件下,Y集合的条件 熵H(Y/X)定义为 H(Y/X)=,联合熵,定义:联合熵是联合符号集合 XY上的每个元素对xiyj的自信息量的概率加权统计平均值。定义为: H(XY)= 说明: 联合熵H(XY)表示X和Y同时发生的不确定度。,43,联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在下列关系,H(XY)H(X)H(YX) H(XY)H(Y)H(XY),证明: 由,44,所以,45,证明: 由,所以,46,例2-9二进制通信系统用符号“0”和“1”,由于存在失真,传输时会产生误码,用符号表示下列事件: u0:一个“0”发出:u1:一个“1”发出 v0:一个“0”收到;v1:一个“1”收到。 给定下列概率: p(u0)1/2, p(v0 |u0)3/4,p(v0 |u1)=1/2 求: 已知发出一个“0”,求收到符号后得到的信息量; 已知发出的符号,求收到符号后得到的信息量 知道发出的和收到的符号,求能得到的信息量; 已知收到的符号,求被告知发出的符号得到的信息量。,47,解: p(v1 |u0) =1p(v0 |u0) =1/4 联合概率: p(u0v0) = p(v0 |u0) p(u0) = 3/41/2 = 3/8 p(u0v1) = p(v1 |u0) p(u0) = 1/41/2 = 1/8 p(u1v0) = p(v0 |u1) p(u1) = 1/21/2 = 1/4 p(u1v1) = p(v1 |u1) p(u1) = 1p(v0 |u1) =1/21/2 = 1/4,48,解法1: 解法2 H(UV) = H(U) + H(V|U) = 1+0.91 = 1.91比特/符号,49, 解法1 解法2:利用贝叶斯公式: 同理: p(u1|v0)=2/5,p(u0|v1)=1/3 ,p(u1|v1)=2/3,50,例2-8:一个二进信源X发出符号集0,1,经过离散无记忆信道传输,信道输出用Y表示.由于信道中存在噪声,接收端除收到0和1的符号外,还有不确定符号“2” 已知X的先验概率: p(x0)=2/3, p(x1)= 1/3, 符号转移概率: p(y0|x0)=3/4, p(y2|x0)=1/4 p(y1|x1)=1/2, p(y2|x1)=1/2,,X,Y,0,1,0,1,2,3/4,1/2,1/2,1/4,信源熵,51,得联合概率: p(x0y0) = p(x0) p(y0 |x0) = 2/33/4 = 1/2 p(x0y1) = p(x0) p(y1 |x0) = 0 p(x0y2) = p(x0) p(y2 |x0) = 2/31/4 = 1/6 p(x1y0) = p(x1) p(y0 |x1) = 0 p(x1y1) = p(x1) p(y1 |x1) = 1/31/2=1/6 p(x1y2) = p(x1) p(y2 |x1) = 1/31/2=1/6 条件熵,由,52,联合熵 H(X,Y)H(X)H(Y|X)=1.8bit/符号,得 p(y0) = p(xiy0) = p(x0y0) +p(x1y0) =1/2+0 = 1/2 p(y1) = p(xiy1) = p(x0y1) +p(x1y1) = 0+1/6 =1/6 p(y2) = p(xiy2) = p(x0y2) +p(x1y2) =1/6+1/6=1/3,由,53,由,得,同理 p(x0 |y1)=0 ; p(x1 |y1)=1 p(x0 |y2)=1/2; p(x1 |y2)=1/2,54,2.2.3 互信息,55,什么叫信源X的先验概率p(xi)? 由于信宿事先不知道信源在某一时刻发出的是哪一个符号, 所以每个符号消息是一个随机事件。信源发出符号通过有干扰的信道传递给信宿。通常信宿可以预先知道信息X发出的各个符号消息的集合, 以及它们的概率分布,即预知信源X的先验概率p(xi)。,几个概念,什么叫后验概率? 当信宿收到一个符号消息yj后,信宿可以计算信源各消息的条件概率p(xi/yj), i=1,2,N, 这种条件概率称为后验概率。,56,互信息量为后验概率与先验概率比值的对数 :,I(xi;yj)=log,什么叫平均互信息量?,什么叫互信息量?,互信息量I(xi;yj)在X集合上的统计平均值为: I(X;yj)= 平均互信息量I(X;Y)为上述I(X;yj)在Y集合上的概率加权统计平均值: I(X;Y),57,说明:,在通信系统中,若发端的符号是X,而收端的符号是Y,I(X;Y)就是在接收端收到Y后所能获得的关于X的信息。 若干扰很大,Y基本上与X无关,或说X与Y相互独立,那时就收不到任何关于X的信息. 若没有干扰,Y是X的确知一一对应函数,那就能完全收到X的信息H(X)。,性质:,I(X;Y)= H(X)一H(XY ) I(Y;X)= H(Y)一 H(YX) = I(X;Y),58,I(X;Y)H(X)一H(XY ),证明:,59,什么叫疑义度?,信道上的干扰和噪声所造成的对信源符号X的平均不确定度H(XY) ,故称为疑义度。 说明: H(X)是符号集合X的熵或不确定度. H(XY)是当Y已知时X的不确定度. “Y已知”这件事使X的不确定度减少了 I(X;Y).,信宿收到的平均信息量等于信宿对信源符号不确定度的平均减少量。 I(X;Y)是有扰离散信道上能传输的平均信息量,而H(XY)是在Y条件下要唯一地确定信源发出符号所需要的平均信息量。,60,收、发两端的熵关系,61,什么叫噪声熵或散布度 ?,条件熵H(YX)唯一地确定信道噪声所需要的平均信息量,故又称噪声熵或散布度。 说明: 平均互信息量可看作在有扰离散信道上传递消息时,唯一地确定接收符号y所需要的平均信息量H(Y),减去当信源发出符号为已知时需要确定接收符号 y所需要的平均信息量H(YX)。,62,什么叫全损离散信道?,信源发出的信息量在信道上全部损失掉了,故称为全损离散信道。 分析: 对于 I(X;Y)H(X)-H(XY) 而言, 如果X与Y是相互独立的,那么Y已知时X的条件概率等于X的无条件概率,由于熵就是这概率的对数的数学期望,X的条件熵就等于X的无条件熵,此时I(X;Y)=0。,63,这可理解为既然X与Y相互独立,无法从Y中去提取关于X的信息。这可看成信道上噪声相当大,以致有H(XY)=H(X)。在这种情况下,能传输的平均信息量为零。这说明信宿收到符号y后不能提供有关信源发出符号X的任何信息量。,64,什么叫无扰离散信道?,由于没有噪声,所以信道不损失信息量,疑义度H(XY)为零,噪声熵也为零。这时的信道叫无扰离散信道。 说明: 如果Y是X的确定的一一对应函数,那么Y已知时X的条件概率非“1”即“0”,因为当X与Y有一一对应关系时,当X和Y满足该确定函数时,条件概率必为1,而不满足确定函数时条件概率必为零。也就是说, I(X;Y)=H(X)。,65,符号xi与符号对yjzk之间的互信息量定义为: I(xi;yjzk)=log,定义,定义,条件互信息量是在给定zk条件下,xi与yj之间的互信息量,定义为: I(xi;yj/zk)=log,66,I(xi;yjzk)I(xi; zk)I(xi;yj /zk),证明:,67,说明: 一个联合事件yjzk出现后所提供的有关xi的信息量I(xi;yjzk)等于zk事件出现后提供的有关xi的信息量I(xi;zk),加上在给定zk条件下再出现yj事件后所提供的有关xi的信息量 I(xi;yj/zk)。,68,I(xi;yjzk)I(xi; yj)I(xi;zk /yj),证明:,69,I(xi;yjzk)= I(xi;zkyj),证明: 因为 所以 I(xi;yjzk)= I(xi;zkyj),70,三维联合集XYZ上的平均互信息量,I(X;YZ)I(X;Y)I(X;ZY) 证明:,71,I(X;Y)I(X;Z/Y),72,I(X;YZ)I(X;Z)I(X;Y/Z),证明:,73,I(X;Z)I(X;Y/Z),74,I(YZ;X)I(Y;X)I(Z;X/Y),证明(思考题),
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸专区 > 课件教案


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!