最新范文 方案 计划 总结 报告 体会 事迹 讲话 倡议书 反思 制度 入党

信息论习题集(陈运)

日期:2020-12-11  类别:最新范文  编辑:一流范文网  【下载本文Word版

信息论习题集(陈运) 本文关键词:信息论,习题集,陈运

信息论习题集(陈运) 本文简介:信息论习题集一、名词解释(25道)1、“本体论”的信息(P2)2、“认识论”信息(P2)3、离散信源(P7)4、自信息量(P9)5、离散平稳无记忆信源(P39)6、马尔可夫信源(P46)7、信源冗余度(P51)8、连续信源(P52)9、信道容量(P73)10、强对称信道(P75-76)11、对称信道

信息论习题集(陈运) 本文内容:

信息论习题集

一、名词解释(25道)

1、“本体论”的信息(P2)

2、“认识论”信息(P2)

3、离散信源(P7)

4、自信息量(P9)

5、离散平稳无记忆信源(P39)

6、马尔可夫信源(P46)

7、信源冗余度

(P51)

8、连续信源

(P52)

9、信道容量

(P73)

10、强对称信道

(P75-76)

11、对称信道

(P78)12、多符号离散信道(P83)

13、连续信道

(P95)

14、平均失真度

(P105)

15、实验信道

(P107)

16、率失真函数

(P107)

17、信息价值率

(P127)

18、游程序列

(P143)

19、游程变换

(P143)

20、L-D编码(P146)、

21、冗余变换

(P146)

22、BSC信道

(P171)

23、码的最小距离

(P174)24、线性分组码

(P175)

25、循环码

(P188)

二、填空(100道)

1、

在认识论层次上研究信息的时候,必须同时考虑到

形式、含义和效用

三个方面的因素。

2、

1948年,美国数学家

香农

发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、

按照信息的性质,可以把信息分成

语法信息、语义信息和语用信息

4、

按照信息的地位,可以把信息分成

客观信息和主观信息

5、

人们研究信息论的目的是为了

高效、可靠、安全

地交换和利用各种各样的信息。

6、

信息的

可度量性

是建立信息论的基础。

7、

统计度量

是信息度量最常用的方法。

8、

是香农信息论最基本最重要的概念。

9、

事物的不确定度是用时间统计发生

概率的对数

来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用

随机矢量

描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为

其发生概率对数的负值

12、自信息量的单位一般有

比特、奈特和哈特

13、必然事件的自信息是

0

14、不可能事件的自信息量是

15、两个相互独立的随机变量的联合自信息量等于

两个自信息量之和

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量

趋于变小

17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的

N倍

18、离散平稳有记忆信源的极限熵,。

19、对于n元m阶马尔可夫信源,其状态空间共有

nm

个不同的状态。

20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为

log2(b-a)

21、平均功率为P的高斯分布的连续信源,其信源熵,Hc(X)=。

22、对于限峰值功率的N维连续信源,当概率密度

均匀分布

时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度

高斯分布

时,信源熵有最大值。

24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率

之比

25、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为

3

26、m元长度为ki,i=1,2,···n的异前置码存在的充要条件是:。

27、若把掷骰子的结果作为一离散信源,则其信源熵为

log26

28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是

log218(1+2

log23)。

29、若一维随即变量X的取值区间是[0,∞],其概率密度函数为,其中:,m是X的数学期望,则X的信源熵。

30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为

31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续

信道。

32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为

无记忆

信道。

33、具有一一对应关系的无噪信道的信道容量C=

log2n

34、强对称信道的信道容量C=

log2n-Hni

35、对称信道的信道容量C=

log2m-Hmi

36、对于离散无记忆信道和信源的N次扩展,其信道容量CN=

NC

37、对于N个对立并联信道,其信道容量

CN

=

38*、多用户信道的信道容量用

多维空间的一个区域的界限

来表示。

39*、多用户信道可以分成几种最基本的类型:

多址接入信道、广播信道

和相关信源信道。

40*、广播信道是只有

一个输入端和多个输出端

的信道。

41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为

加性连续信道

42、高斯加性信道的信道容量C=。

43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是

信息率小于信道容量

44、信道矩阵代表的信道的信道容量C=

1

45、信道矩阵代表的信道的信道容量C=

1

46、高斯加性噪声信道中,信道带宽3kHz,信噪比为7,则该信道的最大信息传输速率Ct=

9

kHz

47、对于具有归并性能的无燥信道,达到信道容量的条件是

p(yj)=1/m)

48、信道矩阵代表的信道,若每分钟可以传递6*105个符号,则该信道的最大信息传输速率Ct=

10kHz

49、信息率失真理论是量化、数模转换、频带压缩和

数据压缩

的理论基础。

50、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的

极小值

51、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就

越大

,获得的信息量就越小。

52、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率

也越小

53、单符号的失真度或失真函数d(xi,yj)表示信源发出一个符号xi,信宿再现yj所引起的

误差或失真

54、汉明失真函数

d(xi,yj)=

55、平方误差失真函数d(xi,yj)=(yj-

xi)2。

56、平均失真度定义为失真函数的数学期望,即d(xi,yj)在X和Y的

联合概率空间P(XY)中

的统计平均值。

57、如果信源和失真度一定,则平均失真度是

信道统计特性

的函数。

58、如果规定平均失真度不能超过某一限定的值D,即:。我们把称为

保真度准则

59、离散无记忆N次扩展信源通过离散无记忆N次扩展信道的平均失真度是单符号信源通过单符号信道的平均失真度的

N

倍。

60、试验信道的集合用PD来表示,则PD=

61、信息率失真函数,简称为率失真函数,即:试验信道中的平均互信息量的

最小值

62、平均失真度的下限取0的条件是失真矩阵的

每一行至少有一个零元素

63、平均失真度的上限Dmax取{Dj:j=1,2,···,m}中的

最小值

64、率失真函数对允许的平均失真度是

单调递减和连续的

65、对于离散无记忆信源的率失真函数的最大值是

log2n

66、当失真度大于平均失真度的上限时Dmax时,率失真函数R(D)=

0

67、连续信源X的率失真函数R(D)=

68、当时,高斯信源在均方差失真度下的信息率失真函数为

69、保真度准则下的信源编码定理的条件是

信源的信息率R大于率失真函数R(D)

70、某二元信源其失真矩阵D=,则该信源的Dmax=

a/2

71、某二元信源其失真矩阵D=,则该信源的Dmin=

0

72、某二元信源其失真矩阵D=,则该信源的R(D)=

1-H(D/a)

73、按照不同的编码目的,编码可以分为三类:分别是

信源编码、信道编码和安全编码

74、信源编码的目的是:

提高通信的有效性

75、一般情况下,信源编码可以分为

离散信源编码、连续信源编码和相关信源编码

76、连续信源或模拟信号的信源编码的理论基础是

限失真信源编码定理

77、在香农编码中,第i个码字的长度ki和p(xi)之间有

关系。

78、对信源进行二进制费诺编码,其编码效率为

1

79、对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加

2

个概率为0的消息。

80、对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是

香农编码

81、对于二元序列0011100000011111001111000001111111,其相应的游程序列是

23652457

82、设无记忆二元序列中,“0”和“1”的概率分别是p0和p1,则“0”游程长度L(0)的概率为

83、游程序列的熵

等于

原二元序列的熵。

84、若“0”游程的哈夫吗编码效率为η0,“1”游程的哈夫吗编码效率为η1,且η0>η1对应的二元序列的编码效率为η,则三者的关系是

η0>η>η1

85、在实际的游程编码过程中,对长码一般采取

截断

处理的方法。

86、“0”游程和“1”游程可以分别进行哈夫曼编码,两个码表中的码字可以重复,但

C码

必须不同。

87、在多符号的消息序列中,大量的重复出现的,只起占时作用的符号称为

冗余位

88、“冗余变换”即:将一个冗余序列转换成一个二元序列和一个

缩短了的多元序列

89、L-D编码是一种

分帧传送冗余位序列

的方法。

90、L-D编码适合于冗余位

较多或较少

的情况。

91、信道编码的最终目的是

提高信号传输的可靠性

92、狭义的信道编码即:检、纠错编码

93、BSC信道即:无记忆二进制对称信道

94、n位重复码的编码效率是

1/n

95、等重码可以检验

全部的奇数位错和部分的偶数位错

96、任意两个码字之间的最小汉明距离有称为码的最小距dmin,则dmin=。

97、若纠错码的最小距离为dmin,则可以纠正任意小于等于t=

个差错。

98、若检错码的最小距离为dmin,则可以检测出任意小于等于l=

dmin-1

个差错。

99、线性分组码是同时具有

分组特性和线性特性

的纠错码。

100、循环码即是采用

循环移位特性界定

的一类线性分组码。

三、判断(50道)

1、

必然事件和不可能事件的自信息量都是0

。错

2、

自信息量是的单调递减函数。对

3、

单符号离散信源的自信息和信源熵都具有非负性。对

4、

单符号离散信源的自信息和信源熵都是一个确定值。错

5、

单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。对

6、

自信息量、条件自信息量和联合自信息量之间有如下关系:

7、

自信息量、条件自信息量和互信息量之间有如下关系:

8、

当随即变量X和Y相互独立时,条件熵等于信源熵。对

9、

当随即变量X和Y相互独立时,I(X;Y)=H(X)

。错

10、信源熵具有严格的下凸性。错

11、平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。

12、m阶马尔可夫信源和消息长度为m的有记忆信源,其所含符号的依赖关系相同。

13、利用状态极限概率和状态一步转移概率来求m阶马尔可夫信源的极限熵。

14、N维统计独立均匀分布连续信源的熵是N维区域体积的对数。

15、一维高斯分布的连续信源,其信源熵只与其均值和方差有关。

16、连续信源和离散信源的熵都具有非负性。

17、连续信源和离散信源都具有可加性。

18、连续信源和离散信源的平均互信息都具有非负性。

19、定长编码的效率一般小于不定长编码的效率。

20、若对一离散信源(熵为H(X))进行二进制无失真编码,设定长码子长度为K,变长码子平均长度为,一般>K。

21、信道容量C是I(X;Y)关于p(xi)的条件极大值。

22、离散无噪信道的信道容量等于log2n,其中n是信源X的消息个数。

23、对于准对称信道,当时,可达到信道容量C。错

24、多用户信道的信道容量不能用一个数来代表。

25、多用户信道的信道容量不能用一个数来代表,但信道的信息率可以用一个数来表示。错

26、高斯加性信道的信道容量只与信道的信噪有关。

27、信道无失真传递信息的条件是信息率小于信道容量。对

28、最大信息传输速率,即:选择某一信源的概率分布(p(xi)),使信道所能传送的信息率的最大值。

29、对于具有归并性能的无燥信道,当信源等概率分布时(p(xi)=1/n),达到信道容量。

30、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的极小值。对

31、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。

32、当p(xi)、p(yj/xi)和d(xi,yj)给定后,平均失真度是一个随即变量。

33、率失真函数对允许的平均失真度具有上凸性。对

34、率失真函数没有最大值。

35、率失真函数的最小值是0

。对

36、率失真函数的值与信源的输入概率无关。错

37、信源编码是提高通信有效性为目的的编码。

38、信源编码通常是通过压缩信源的冗余度来实现的。

39、离散信源或数字信号的信源编码的理论基础是限失真信源编码定理。

40、一般情况下,哈夫曼编码的效率大于香农编码和费诺编码。

41、在编m(m>2)进制的哈夫曼码时,要考虑是否需要增加概率为0的码字,以使平均码长最短。

42、游程序列的熵(“0”游程序列的熵与“1”游程序列的熵的和)大于等于原二元序列的熵。

43、在游程编码过程中,“0”游程和“1”游程应分别编码,因此,它们的码字不能重复。

44、L-D编码适合于冗余位较多和较少的情况,否则,不但不能压缩码率,反而使其扩张。

45、狭义的信道编码既是指:信道的检、纠错编码。

46、对于BSC信道,信道编码应当是一对一的编码,因此,消息m的长度等于码字c的长度。

47、等重码和奇(偶)校验码都可以检出全部的奇数位错。

48、汉明码是一种线性分组码。对

49、循环码也是一种线性分组码。

50、卷积码是一种特殊的线性分组码。

四、简答(20道)

1、

信息的主要特征有哪些?(P3)

2、

信息的重要性质有哪些?(P3)

3、

简述几种信息分类的准则和方法。(P4)

4、

信息论研究的内容主要有哪些?(P6)

5、

简述自信息的性质。(P9-10)

6、

简述信源熵的基本性质。(P17-20)

7、

简述信源熵、条件熵、联合熵和交互熵之间的关系。(P38-39)

8、

信道的分类方法有哪些?(P71)

9、

简述一般离散信道容量的计算步骤。(P82)

10、简述多用户信道的分类。(P88)

11、简述信道编码定理。(P98)

12、简述率失真函数的性质。(P108-111)

13、简述求解一般离散信源率失真函数的步骤。(P112-114)

14、试比较信道容量与信息率失真函数。(P128)

15、简述编码的分类及各种编码的目的。(P131)

16、简述费诺编码的编码步骤。(P135)

17、简述二元哈夫曼编码的编码步骤。(P136-137)

18、简述广义的信道编码的分类及各类编码的作用。(P170)

19、简述线性分组码的主要结构参数。(P181)

20、简述循环码的系统码构造过程。(P195)

五、证明(10道)

1、

最大离散熵定理:信源X中n个不同离散消息时,信源熵H(X)有

当且仅当X中各个消息出现的概率全相等时,上式取等号。

2、

证明平均互信息量的极值性,即:,并说明等式成立的条件。

3、

证明条件熵小于信源熵,即:,并说明等式成立的条件。

4、

设X=X1,X2,···,XN是平稳离散有记忆信源,试证明:

H(X1X2···XN)=H(X1)+H(X2/X1)+···+H(XN/X1X2···XN-1)

5、

若X,Y,Z是三个随即变量,试证明:

I(X;YZ)=I(X;Y)+I(X;Z/Y)=I(X;Z)+X;Y/Z)

6、试证明:当信道每输入一个X值,相应有几个Y值输出,且不同的X值所对应的Y值不相互重合时,有H(Y)-H(X)=H(Y/X)

7、设X是X的N次扩展信源,若信道为无记忆信道时,试证明:

I(X;Y)=N*I(X;Y)

8、试证明对于离散无记忆N次扩展信源,有RN(D)=NR(D)。其中N为任意正整数,D。

9、试证明离散二元无记忆信源的熵等于对应的游程序列的熵。

10、试证明:线性分组码的最小码距为dmin=d,当且仅当其一致效验矩阵H中任意d-1列线性无关,某d列线性相关。

六、计算(20道)

1、设有一个信源,它产生0,1序列的信息。它在任意时刻且不论以前发生过什么符号,均按P(0)=0.4,P(1)=0.6的概率发出符号。试计算:

(1)H(X2)

(2)H(X3/X1X2)

(3)

2、已知信源X和条件概率P(Y/X)如下:

试计算:H(X)、H(Y)、H(XY)、H(X/Y)、H(Y/X)、H(X;Y)

3、同时扔两个正常的骰子,也就是各面呈现的概率都是1/6,求:

(1)“3和5同时出现”这事件的自信息量;

(2)“两个1同时出现”

这事件的自信息量;

(3)两个点数的各种组合(无序对)的熵或平均自信息量;

(4)两个点数之和(即2、3、…12构成的子集)的熵;

(5)两个点数中至少有一个是1的自信息。

(

LOG23≈1.585

LOG25≈2.3236

LOG211≈3.46

)

4、某校入学考试中有1/4考生被录取,3/4考生未被录取。被录取的考生中有50%来自本市,而落榜考生中有10%来自本市。所有本市的考生都学过英语。而外地落榜考生以及被录取的外地考生中都有40%学过英语。

(1)当已知考生来自本市时,给出多少关于考生是否被录取的信息;

(2)当已知考生学过英语时,给出多少有关考生是否被录取的信息;

(3)以x表示是否落榜,y表示是否为本市学生,z

表示是否学过英语,试求H(X)、H(Y|X)、H(Z|XY)。

5、A

ensemble

X

has

the

non-negative

integers

as

its

sample

space.

Find

the

probability

assignment

PX(n),n=0,1,2,…,that

maximizes

H(X)

subject

to

the

constraint

that

the

mean

value

of

X.(n=0,∞)

is

a

fixed

value

A.

Evaluate

the

resulting

H(X).

6、设有一单符号离散信源

(1)

对该信源编二进制费诺(Fano)码;

(2)

计算其信息熵、平均码长、信息率、编码效率。

7、已知一个信源包含八个符号消息,它们的概率分布如下表,A

B

C

D

E

F

G

H

0.1

0.18

0.4

0.05

0.06

0.1

0.07

0.04

该信源每秒钟内发出一个符号,求该信源的熵及信息传输速率。

对八个符号作二进制码元的霍夫曼编码,写出各代码组,并求出编码效率。

对八个符号作三进制码元的霍夫曼编码,写出各代码组,并求出编码效率。

8、设具有归并性能的无噪信道的信道矩阵P=,求其信道容量及达到信道容量时信源的概率分布p(xi)。

9、设二进制对称无记忆信道,信道矩阵为[P]=,其中:0

试计算:

(1)[P]代表的信道的信道容量C;

(2)[P3]代表的信道的信道容量C3。

10、信道矩阵[P]=,计算[P]代表的信道的信道容量。

提示:利用如下公式

(1)k=1,2,···,s

(2)

11、彩色电视显象管的屏幕上有5×105

个象元,设每个象元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现并且各个组合之间相互独立。

(1)计算每秒传送25帧图象所需要的信道容量;

(2)如果在加性高斯白噪声信道上信号与噪声平均功率的比值为63,为实时传送彩色电视的图象,信道的带宽应为多大?

12、设离散无记忆信源其失真度为汉明失真度。

试计算:(1)Dmin及R(Dmin);

(2)Dmax及R(Dmax)。

13、若某无记忆信源,失真矩阵D=,求该信源的最大和最小失真度。

14、设信源(p<1/2),其失真度为汉明失真度。

试计算:(1)Dmin及Dmax;

(2)率失真函数R(D);

(3)当d=时的信息率(即R(D));

(4)粗略地绘制D与R的关系曲线。

15、若某二元等概率信源的失真矩阵为汉明失真矩阵,试计算:

(1)

Dmin、Dmax和R(D);

(2)

信道传输矩阵P(Y/X)

即为19题的特例。

16、证明最小错误概率译码与最大似然译码在先验等概的条件下等价。设M=2且两个消息等概,令,。通过信道转移概率p<1/2的信道传输。若将译码区间分为,

。试给出译码错误概率和有错而不能判决的概率。(24个4位0、1序列分为Y1、Y2、Y3)

17、设二元(7,4)线性分组码的生成矩阵为

给出该码的一致校验矩阵并写出所有的伴随式和与之相对应的陪集首。若接收矢量,试计算出其对应的伴随式S并按照最小距离译码准则试着对其译码。

18、有一组码将二位信息位编成五位长的码字,其规则如下:

00

00000

01

01101

10

10111

11

11010

(1)证明此码是系统一致校验码;

(2)找出其生成矩阵和一致校验矩阵;

(3)对于无记忆二元对称信道(p<<),列出其最大似然译码的译码表;

(4)计算正确译码概率。

19、设一分组码具有一致校验矩阵

H

(1)求这分组码n=?k=?,共有多少个码字?

(2)求此分组码的生成矩阵;

(3)矢量101010是否是码字?

(4)设发送码字C=(001111),但接收到的序列为R=(000010),其伴随式S

是什么?这伴随式指出已发生的错误在什么地方?为什么与实际错误不同?

20、Consider

two

parity

check

codes.Code

I

is

generated

by

the

rule

x1=u1

x4=u1⊕u2

x2=u2

x5=u1⊕u3

x3=u3

x6=u2⊕u3

x7=u1⊕u2⊕u3

Code

II

is

the

same

except

that

x6=u2.

(1)Write

down

the

generator

matrix

and

parity

check

matrix

for

code

I.

(2)Write

out

a

decoding

table

for

code

I,assuming

a

BSC

with

crossover

probability

ε<

.

(3)Give

an

exact

expression

for

the

probability

of

decoding

error

for

code

I

and

for

code

II.

Which

is

larger

?

(4)Find

dmin

for

code

I

and

for

code

II.

(5)Give

a

counter

example

to

the

conjecture

that

if

one

(N,k)

parity

check

code

has

a

larger

minimum

distance

than

another

(N,k)

parity

check

code,it

has

a

samaller

error

probability

on

a

BSC.

    以上《信息论习题集(陈运)》范文由一流范文网精心整理,如果您觉得有用,请收藏及关注我们,或向其它人分享我们。转载请注明出处 »一流范文网»最新范文»信息论习题集(陈运)
‖大家正在看...
设为首页 - 加入收藏 - 关于范文吧 - 返回顶部 - 手机版
Copyright © 一流范文网 如对《信息论习题集(陈运)》有疑问请及时反馈。All Rights Reserved