信息论与编码实验指导书 本文关键词:信息论,指导书,编码,实验
信息论与编码实验指导书 本文简介:《信息论与编码》实验指导书信息与通信工程学院信息工程系2012年11月目录实验一绘制信源熵函数曲线4实验二哈夫曼编解码7实验三离散信道容量131实验一绘制信源熵函数曲线一、实验目的1.掌握离散信源熵的原理和计算方法。2.熟悉matlab软件的基本操作,练习应用matlab软件进行信源熵函数曲线的绘制
信息论与编码实验指导书 本文内容:
《信息论与编码》实验指导书
信息与通信工程学院
信息工程系
2012年11月
目
录
实验一
绘制信源熵函数曲线4
实验二
哈夫曼编解码7
实验三
离散信道容量13
1
实验一
绘制信源熵函数曲线
一、实验目的
1.
掌握离散信源熵的原理和计算方法。
2.
熟悉matlab软件的基本操作,练习应用matlab软件进行信源熵函数曲线的绘制。
3.
理解信源熵的物理意义,并能从信源熵函数曲线图上进行解释其物理意义。
二、实验原理
1.
离散信源相关的基本概念、原理和计算公式
产生离散信息的信源称为离散信源。离散信源只能产生有限种符号。
假定X是一个离散随机变量,即它的取值范围R={x1,x2,x3,…}是有限或可数的。设第i个变量xi发生的概率为pi=P{X=xi}。则:
定义一个随机事件的自信息量I(xi)为其对应的随机变量xi出现概率对数的负值。即:
I(xi)=
-log2
p(xi)
定义随机事件X的平均不确定度H(X)为离散随机变量xi出现概率的数学期望,即:
单位为
比特/符号
或
比特/符号序列。
平均不确定度H(X)的定义公式与热力学中熵的表示形式相同,所以又把平均不确定度H(X)称为信源X的信源熵。
必须注意一下几点:
a)
某一信源,不管它是否输出符号,只有这些符号具有某些概率特性,必有信源的熵值;这熵值是在总体平均上才有意义,因而是个确定值,一般写成H(X),X是指随机变量的整体(包括概率分布)。
b)
信息量则只有当信源输出符号而被接收者收到后,才有意义,这就是给与信息者的信息度量,这值本身也可以是随机量,也可以与接收者的情况有关。
c)
熵是在平均意义上来表征信源的总体特征的,信源熵是表征信源的平均不确定度,平均自信息量是消除信源不确定度时所需要的信息的量度,即收到一个信源符号,全部解除了这个符号的不确定度。或者说获得这么大的信息量后,信源不确定度就被消除了。信源熵和平均自信息量两者在数值上相等,但含义不同。
d)
当某一符号xi的概率p(xi)为零时,p(xi)log
p(xi)
在熵公式中无意义,为此规定这时的
p(xi)log
p(xi)
也为零。当信源X中只含有一个符号x时,必有p(x)=1,此时信源熵H(X)为零。
例1-1,设信源符号集X={0,1},每个符号发生的概率分别为p(0)=p,p(1)=q,p+
q=1,即信源的概率空间为
则该二元信源的信源熵为:
H(X)
=
-
p
log
p
–
q
log
q
=
-
p
log
p
–
(1-
p)
log
(1-
p)
即:H
(p)
=
-
p
log
p
–
(1-
p)
log
(1-
p)
其中0
≤
p
≤1
P=0时,H(0)
=
0
P=1时,H(1)
=
0
2.
MATLAB二维绘图
例对函数y=
f(x)进行绘图,则用matlab中的命令plot(x,y)就可以自动绘制出二维图来。如果打开过图形窗口,则在最近打开的图形窗口上绘制此图;如果未打开图形窗口,则开一个新的图形窗口绘图。
例1-2,在matlab上绘制余弦曲线图,y
=
cos
x,其中0
≤
x
≤
2p。
>>x=0:0.1:2*pi;
%生成横坐标向量,使其为0,0.1,0.2,…,6.2
>>y=cos(x);
%计算余弦向量
>>plot(x,y)
%绘制图形
三、实验内容
用matlab软件绘制二源信源熵函数曲线。根据曲线说明信源熵的物理意义。
四、实验要求
1.
提前预习实验,认真阅读实验原理以及相应的参考书。
2.
认真高效的完成实验,实验中服从实验室管理人员以及实验指导老师的管理。
3.
认真填写实验报告。
2
实验二
哈夫曼编码
一、实验目的
1.
掌握哈夫曼编码的原理及编码步骤
2.
练习matlab中哈夫曼编码函数的调用及通信工具箱的使用
二、实验原理
通信的根本问题是如何将信源输出的信息在接收端的信宿精确或近似的复制出来。为了有效地复制信号,就通过对信源进行编码,使通信系统与信源的统计特性相匹配。
若接收端要求无失真地精确地复制信源输出的信息,这样的信源编码即为无失真编码。即使对于一个小的时间段内,连续信源输出的信息量也可以是无限大的,所以对其是无法实现无失真编码的;而离散信源输出的信息量却可以看成是有限的,所以只有离散信源才可能实现无失真编码。
凡是能载荷一定的信息量,且码字的平均长度最短,可分离的变长码的码字集合都可以称为最佳码。为此必须将概率大的信息符号编以短的码字,概率小的符号编以长的码字,使得平均码字长度最短。
变字长编码的最佳编码定理:在变字长码中,对于概率大的信息符号编以短字长的码;对于概率小的信息符号编以长字长的码。如果码字长度严格按照符号概率的大小顺序排列,则平均码字长度一定小于俺任何顺序排列方式得到的码字长度。
哈夫曼编码就是利用了这个定理,讲等长分组的信源符号,根据其概率分布采用不等长编码。概率大的分组,使用短的码字编码;概率小的分组,使用长的码字编码。哈夫曼编码把信源按概率大小顺序排列,并设法按逆次序分配码字的长度。在分配码字的长度时,首先将出现概率最小的两个符号相加,合成一个概率;第二步把这个合成的概率看成是一个新组合符号的概率,重复上述做法,直到最后只剩下两个符号的概率为止。完成以上概率相加顺序排列后,再反过来逐步向前进行编码。每一步有两个分支,各赋予一个二进制码,可以对概率大的编为0码,概率小的编为1码。反之亦然。
哈夫曼编码的具体步骤归纳如下:
1.
统计n个信源消息符号,得到n个不同概率的信息符号。
2.
将这n个信源信息符号按其概率大小依次排序:
p(x1)
≥
p(x2)≥
…≥
p(xn)
3.
取两个概率最小的信息符号分别配以0和1两个码元,并将这两个概率相加作为一个新的信息符号的概率,和未分配的信息符号构成新的信息符号序列。
4.
将剩余的信息符号,按概率大小重新进行排序。
5.
重复步骤3,将排序后的最后两个小概论相加,相加和与其他概率再排序。
6.
如此反复重复n-2次,最后只剩下两个概率。
7.
从最后一级开始,向前返回得到各个信源符号所对应的码元序列,即相应的码字,构成霍夫曼编码字。编码结束。
哈夫曼编码产生最佳整数前缀码,即没有一个码字是另一个码字的前缀,因此哈夫曼编码是唯一码。
编码之后,哈夫曼编码的平均码长为:
哈夫曼编码的效率为:
例2-1
设信源共7个符号消息,其概率如下表所示
信源消息符号xi
x1
x2
x3
x4
x5
x6
x7
符号概率P(
xi
)
0.20
0.19
0.18
0.17
0.15
0.10
0.01
其编码过程如下所示:
该哈夫曼码的平均码长为
编码效率为:
三、实验内容
为某一信源进行哈夫曼编码。该信源的字符集为X={x1,x2,…
x6
},相应的概率矢量为:P=(0.30,0.25,0.21,0.10,0.09,0.05),即X,P的概率空间为:
根据哈夫曼编码算法对该信源进行哈夫曼编码。并计算其平均码长和编码效率。
调用matlab哈夫曼编码函数进行哈夫曼编码,与人工编码结果做比较。
1.
huffmandict函数:
为已知概率分布的信源模型生成哈夫曼编解码索引表。
调用方法如下:
[dict,avglen]
=
huffmandict
(symbols,p)
[dict,avglen]
=
huffmandict
(symbols,p,N)
[dict,avglen]
=
huffmandict
(symbols,p,N,variance)
四、实验要求
1.
提前预习实验,认真阅读实验原理以及相应的参考书。
2.
认真高效的完成实验,实验中服从实验室管理人员以及实验指导老师的管理。
3.
认真填写实验报告。
3
实验三
离散信道容量
一、实验目的
1.
掌握离散信道容量的计算。
2.
理解离散信道容量的物理意义。
3.
练习应用matlab软件进行二元对称离散信道容量的函数曲线的绘制,并从曲线上理解其物理意义。
二、实验原理
信道是传送信息的载体—信号所通过的通道。
信息是抽象的,而信道则是具体的。比如二人对话,二人间的空气就是信道;打电话,电话线就是信道;看电视,听收音机,收、发间的空间就是信道。
研究信道的目的:在通信系统中研究信道,主要是为了描述、度量、分析不同类型信道,计算其容量,即极限传输能力,并分析其特性。
二元对称信道BSC(Binary
Symmetric
Channel)
二进制离散信道模型有一个允许输入值的集合X={0,1}和可能输出值的集合Y={0,1},以及一组表示输入和输出关系的条件概率(转移概率)组成。如果信道噪声和其他干扰导致传输的二进序列发生统计独立的差错,且条件概率对称,即
这种对称的二进制输入、二进制输出信道称做二元对称信道(或二进制对称信道,简称BSC信道),如下图所示:
信道容量公式:
三、实验内容
BSC信道是DMC信道对称信道的特例,对于转移概率为P(0/1)=P(1/0)=p,P(0/0)=P(1/01)=1-p,求出其信道容量公式,并在matlab上绘制信道容量C与p的曲线。
根据曲线说明其物理意义。
四、实验要求
1.
提前预习实验,认真阅读实验原理以及相应的参考书。
2.
认真高效的完成实验,实验中服从实验室管理人员以及实验指导老师的管理。
3.
认真填写实验报告
篇2:《信息论与编码技术》复习提纲复习题
《信息论与编码技术》复习提纲复习题 本文关键词:信息论,复习题,提纲,复习,编码
《信息论与编码技术》复习提纲复习题 本文简介:《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素
《信息论与编码技术》复习提纲复习题 本文内容:
《信息论与编码技术》复习提纲
复习题纲
第0章
绪论
题纲:
I.
什么是信息?
II.
什么是信息论?
III.
什么是信息的通信模型?
IV.
什么是信息的测度?
V.
自信息量的定义、含义、性质
需掌握的问题:
1.
信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)
2.
Shannon信息论中信息的三要素是什么?
3.
通信系统模型图是什么?每一部分的作用的是什么?
4.
什么是信息测度?
5.
什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?
6.
自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?
第1章
信息论基础
㈠《离散信源》题纲:
I.
信源的定义、分类
II.
离散信源的数学模型
III.
熵的定义、含义、性质,联合熵、条件熵
IV.
离散无记忆信源的特性、熵
V.
离散有记忆信源的熵、平均符号熵、极限熵
VI.
马尔科夫信源的定义、状态转移图
VII.
信源的相对信息率和冗余度
需掌握的问题:
1.
信源的定义、分类是什么?
2.
离散信源的数学模型是什么?
3.
信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?
4.
单符号离散信源最大熵是多少?信源概率如何分布时能达到?
5.
信源的码率和信息率是什么,如何计算?
6.
什么是离散无记忆信源?什么是离散有记忆信源?
7.
离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?
8.
离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?
9.
什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?
10.
马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?
11.
马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?
12.
信源的相对信息率和冗余度是什么?如何计算?
㈡《离散信道》题纲:
I.
信道的数学模型及分类
II.
典型离散信道的数学模型
III.
先验熵和后验熵
IV.
互信息的定义、性质
V.
平均互信息的定义、含义、性质、维拉图
VI.
信道容量的定义
VII.
特殊离散信道的信道容量
需掌握的问题:
1.
信道的定义是什么?信道如何分类?信道的数学模型是什么?
2.
二元对称信道和二元删除信道的信道传输概率矩阵是什么?
3.
对称信道的信道传输概率矩阵有什么特点?
4.
根据信道的转移特性图,写出信道传输概率矩阵。
5.
先验熵、后验熵的区别?
6.
联合熵、条件熵和信息熵的关系。
7.
互信息的大小如何计算?互信息的性质是什么?
8.
联合互信息、条件互信息、互信息之间的关系是什么?
9.
平均互信息的定义是什么?平均互信息的含义?平均互信息的性质?
10.
联合平均互信息、条件平均互信息和平均互信息的关系?
11.
损失熵和噪声熵的含义是什么?维拉图表示了哪些关系式?
12.
信道的传码率和传信率(信息率)的计算方法是什么?
13.
信道容量的定义是什么?信道容量的含义如何理解?
14.
无噪无损信道、有噪无损信道、无噪有损信道、对称信道的信道容量如何计算?
㈢《连续信源和波形信道》
题纲:
I.
连续信源的定义、数学模型、绝对熵、相对熵
II.
给定条件下,连续信源的最大熵
III.
熵功率
IV.
连续信道和波形信道的信道容量
需掌握的问题:
1.
连续信源定义、数学模型是什么?
2.
连续信源熵的表达式是什么?相对熵和绝对熵的区别是什么?
3.
如何计算均匀分布、正态分布连续信源的最大熵?
4.
什么是波形信道?了解波形信道互信息、信道容量的求解思路。
5.
香农公式是什么?物理意义是什么?
第2章
无失真信源编码
题纲:
I.
基本概念
1.
编码
2.
二元码
3.
等长码
4.
变长码
5.
码的N次扩展码
6.
唯一可译码
II.
等长码
III.
变长码
IV.
无失真信源编码定理
V.
编码方法
1.
香农编码
2.
费诺编码
3.
霍夫曼编码
需掌握的问题:
1.
编码的定义及编码相关术语。
2.
信源编码的定义及目的是什么?
3.
解释二元码、等长码、变长码、唯一可译码。
4.
变长码和定长码的区别是什么?用码树描述二者的差异,能够说明变长码和定长码各自的优劣。
5.
描述香农第一定理及意义。
6.
掌握香农编码、费诺编码、霍夫曼编码的步骤及特点,会计算编码效率。
7.
了解游程编码和算术编码的思路。
第3章
信道编码
题纲:
I.
检错、纠错原理及方法、能力
II.
差错控制理论
1.
译码规则
2.
2种准则下的错误概率
III.
信道编码定理
IV.
编码方法
1.
简单的检错、纠错码
2.
线性分组码
3.
循环码
需掌握的问题:
1.
信道编码的定义及目的是什么?
2.
检错原理是什么?
3.
差错控制方法有哪些?
4.
如何确定一种编码的检错、纠错能力?
5.
汉明距离是什么?汉明重量是什么?最小码距是什么?
6.
信道编码的效率如何确定?
7.
奇偶校验码的编码规则是什么?检错、纠错能力如何?
8.
译码规则的定义是什么?
9.
最大后验准则是什么?极大似然准则是什么?这两种准则下如何计算错误概率?
10.
错误概率与损失熵之间的关系是什么?
11.
描述香农第二定理及意义。
12.
线性分组码的编码原理和校验原理是什么?
13.
循环码的编码原理和校验原理是什么?
14.
了解循环冗余校验码和卷积码的编码思路。
第4章
信息率失真函数
题纲:
V.
失真度
VI.
平均失真度
VII.
信息率失真函数
VIII.
信息率失真函数的性质
IX.
限失真信源编码定理
需掌握的问题:
1.
失真度如何表示?
2.
四种常见失真度的形式分别是什么?分别用于什么场合?
3.
平均失真度如何计算?
4.
什么是保真度准则?
5.
什么是试验信道?
6.
信息率失真函数的定义是什么?
7.
信息率失真函数和信道容量的区别和联系是什么?
8.
信息率失真函数的性质是什么?
9.
定义域Dmin,Dmax,以及相应的R(Dmin),R(Dmax)如何计算?
10.
描述香农第三定理及意义。
11.
了解预测编码和变换编码的思路。
1、
填空题
1.
设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为___1/4___时,信源熵达到最大值,为__2__,此时各个消息的自信息量为__2
__。
2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3____个随机错,最多能
纠正__1____个随机错。
3.克劳夫特不等式是唯一可译码___存在___的充要条件。
4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是___(X;Y)=H(X)-H(X/Y)___。
5.
_信源___提高通信的有效性,_信道____目的是提高通信的可靠性,_加密__编码的目的是保证通信的安全性。
6.信源编码的目的是提高通信的
有效性
,信道编码的目的是提高通信的
可靠性
,加密编码的目的是保证通信的
安全性
。
7.设信源X包含8个不同离散消息,当且仅当X中各个消息出现的概率为__1/8__时,信
源熵达到最大值,为___3____。
8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越_小___。
9.信源的冗余度来自两个方面,一是信源符号之间的__相关性__,二是信源符号分布的
__不均匀性__。
10.最大后验概率译码指的是
译码器要在已知r的条件下找出可能性最大的发码
作为译码估值
,即令
=maxP(
|r)_
__。
11.常用的检纠错方法有__前向纠错___、反馈重发和混合纠错三种。
2、
单项选择题
1.下面表达式中正确的是(A
)。
A.
B.
C.
D.
2.彩色电视显像管的屏幕上有5×105
个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立。每秒传送25帧图像所需要的信道容量(C
)。
A.
50′106
B.
75′106
C.
125′106
D.
250′106
3.已知某无记忆三符号信源a,b,c等概分布,接收端为二符号集,其失真矩阵为d=,则信源的最大平均失真度为(
D
)。
A.
1/3
B.
2/3
C.
3/3
D.
4/3
4.线性分组码不具有的性质是(
C
)。
A.任意多个码字的线性组合仍是码字
B.最小汉明距离等于最小非0重量
C.最小汉明距离为3
D.任一码字和其校验矩阵的乘积cmHT=0
5.率失真函数的下限为(
B)。
A
.H(U)
B.0
C.I(U;
V)
D.没有下限
6.纠错编码中,下列哪种措施不能减小差错概率(
D
)。
A.
增大信道容量
B.
增大码长
C.
减小码率
D.
减小带宽
7.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗。一人随手取出3颗,经测量恰好找出了假珠,不巧假珠又滑落进去,那人找了许久却未找到,但另一人说他用天平最多6次能找出,结果确是如此,这一事件给出的信息量(
A
)。
A.
0bit
B.
log6bit
C.
6bit
D.
log240bit
8.下列陈述中,不正确的是(
D
)。
A.离散无记忆信道中,H(Y)是输入概率向量的凸函数
B.满足格拉夫特不等式的码字为惟一可译码
C.一般地说,线性码的最小距离越大,意味着任意码字间的差别越大,则码的检错、
纠错能力越强
D.满足格拉夫特不等式的信源是惟一可译码
9.一个随即变量x的概率密度函数P(x)=
x
/2,,则信源的相对熵为(
C
)。
A
.
0.5bit
B.
0.72bit
C.
1bit
D.
1.44bit
10.下列离散信源,熵最大的是(
D
)。
A.
H(1/3,1/3,1/3);
B.
H(1/2,1/2);
C.
H(0.9,0.1);
D.
H(1/2,1/4,1/8,1/8)
11.下列不属于消息的是(
B
)。
A.文字
B.信号
C.图像
D.语言
12.为提高通信系统传输消息有效性,信源编码采用的方法是(
A
)。
A.压缩信源的冗余度
B.在信息比特中适当加入冗余比特
C.研究码的生成矩阵
D.对多组信息进行交织处理
13.最大似然译码等价于最大后验概率译码的条件是(
D
)。
A.离散无记忆信道
B.无错编码
C.无扰信道
D.消息先验等概
14.下列说法正确的是(
C
)。
A.等重码是线性码
B.码的生成矩阵唯一
C.码的最小汉明距离等于码的最小非0重量
D.线性分组码中包含一个全0码字
15.二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,u0:一个0发出
u1:一个1发出
v0
:一个0收到
v1:一个1收到
则已知收到的符号,被告知发出的符号能得到的信息量是(
A
)。
A.
H(U/V)
B.
H(V/U)
C.
H(U,V)
D.
H(UV)
16.
同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为(
B
)。
A.
-log36bit
B.
log36bit
C.
-log
(11/36)bit
D.
log
(11/36)bit
17.下列组合中不属于即时码的是(
A
)。
A.
{
0,01,011}
B.
{0,10,110}
C.
{00,10,11}
D.
{1,01,00}
18.已知某(6,3)线性分组码的生成矩阵,则不用计算就可判断出下列码中不是该码集里的码是(
D
)。
A.
000000
B.
110001
C.
011101
D.
111111
19.一个随即变量x的概率密度函数P(x)=
x
/2,,则信源的相对熵为(
C
)。
A.
0.5bit/符号
B.
0.72bit/符号
C.
1bit/符号
D.
1.44bit/符号
20.设有一个无记忆信源发出符号A和B,已知,发出二重符号序列消息的信源,无记忆信源熵
为(
A
)。
A.0.81bit/二重符号
B.1.62bit/二重符号
C.0.93
bit/二重符号
D
.1.86
bit/二重符号
3、
判断题
1.确定性信源的熵H(0,0,0,1)=1。
(
错
)
2.信源X的概率分布为P(X)={1/2,1/3,1/6},对其进行哈夫曼编码得到的码是唯一的。
(
错
)
3.
离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。
(
对
)
4.非奇异的定长码一定是唯一可译码。
(
错
)
5.信息率失真函数R(D)是在平均失真不超过给定失真限度D的条件下,信息率容许压缩的最小值。
(
对
)
6.信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则
信源X和Y的熵相等。
(
对
)
7.互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。
(
对
)
8.对信源符号X={a1,a2,a3,a4}进行二元信源编码,4个信源符号对应码字的码长分别为K1=1,K2=2,K3=3,K3=3,满足这种码长组合的码一定是唯一可译码。
(
错
)
9.DMC信道转移概率矩阵为,则此信道在其输入端的信源分布为P(X)={1/2,1/2}时传输的信息量达到最大值。
(
错
)
10.设C
=
{000000,001011,010110,011101,100111,101100,110001,111010}是一个二元线性分组码,则该码最多能检测出3个随机错误。
(错
)
四、名词解释
1.极限熵:
2.信道容量:
3.平均自信息量:
五、计算题
1.设离散无记忆信源
其发生的消息为(202120130213001203210110321010020320011223210),
(1)
根据“离散无记忆信源发出的消息序列的自信息等于消息中各个符号的自信息之
和”,求此消息的自信息量;
(2)在此消息中平均每个符号携带的信息量是多少?
2.已知一个二元信源连接一个二元信道,如图所示。其中,。
试求:I(X,Y),H(X,Y),H(X/Y),和H(Y/X)。
3.
设输入信号的概率分布为P=(1/2,1/2),失真矩阵为。试求Dmin,Dmax,R(Dmin),R(Dmax)。
4.信源共有6个符号消息,其概率分布为={0.37,0.25,0.18,0.10,0.07,0.03}。
(1)对这6个符号进行二进制哈夫曼编码(给出编码过程),写出相应码字,并求出平均码长和编码效率。
(2)哈夫曼编码的结果是否唯一?如果不唯一,请给出原因。
5.二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件。
x0:一个0发出;x1:一个1发出
y0:一个0收到;y1:一个1收到
给定下列概率:p(x0)=1/2,p(y0/x0)=3/4,p(y0/x1)=1/2。
(1)求信源的熵H(X);
(2)已知发出的符号,求收到符号后得到的信息量H(Y/X);
(3)已知发出和收到的符号,求能得到的信息量H(X,Y)。
6.设DMC信道的传输情况如下图所示。
(1)试写出该信道的转移概率矩阵;
(2)求该信道的信道容量。
7.设输入信号的概率分布为P=(1/2,1/2),失真矩阵为。试求,,,。
8.设有离散无记忆信源共有5个符号消息,其概率分布为={0.4,0.2,0.2,0.1,0.1}。
(1)对这5个符号进行二进制哈夫曼编码(给出编码过程),写出相应码字,并求出平均码长和编码效率;
(2)哈夫曼编码的结果是否唯一?如果不唯一,请给出原因。
复习-15
篇3:信息论与编码基础知识点20XX下
信息论与编码基础知识点2015下 本文关键词:信息论,知识点,编码,基础
信息论与编码基础知识点2015下 本文简介:信息论与编码基础知识点(仅供复习参考,不作为出卷依据)1.当代文明的三大科学支柱2.信息论发展的过程3.信息论的奠基人,代表作?4.信息理论中度量信息的基本观点5.一个通信系统中常用的编码有哪些?其目标是什么?6.信源符号自信息量的含义与计算7.信源符号间互信息量与平均互信息量的三个含义(对应公式)
信息论与编码基础知识点2015下 本文内容:
信息论与编码基础知识点
(仅供复习参考,不作为出卷依据)
1.
当代文明的三大科学支柱
2.
信息论发展的过程
3.
信息论的奠基人,代表作?
4.
信息理论中度量信息的基本观点
5.
一个通信系统中常用的编码有哪些?其目标是什么?
6.
信源符号自信息量的含义与计算
7.
信源符号间互信息量与平均互信息量的三个含义(对应公式)
8.
信源熵的三种物理含义。
9.
离散信源的联合熵、条件熵、平均互信息量的含义及相互之间的关系。
10.
平均互信息量的三种物理含义、性质及相应的公式,与信道容量、信息率失真函数的关系
11.
信源的平稳性和无记忆性的含义
12.
离散无记忆信源的信源熵、N次扩展的信源熵计算。
13.
N阶马尔科夫信源的定义
14.
低阶(1、2)马尔科夫信源的状态转移图、各状态的稳态分布概率(状态极限概率)、极限熵H∞=Hn+1
15.
信道容量的含义
16.
常见信道(无噪信道、强对称、对称、准对称)容量的计算,达到信道容量时对应信源的概率分布情况。
17.
二进制香农编码、费诺编码、哈夫曼编码方法及步骤,其编码效率的计算
18.
信息率失真函数的含义
19.
Dmax的含义
20.
二、三元离散信源的Rmax
Rmin
Dmin、Dmax计算,及等概率信源分布信息率失真函数R(D)的计算
21.
在信道编码中检错与纠错的含意是什么?
22.
最小码距?最小码距与检错、纠错的能力关系
理解相关基本概念(定理、性质)多练习课后习题(作业和讲解)