信息论与编码试题集与答案(2014) 下载本文

内容发布更新时间 : 2024/11/16 2:20:50星期一 下面是文章的全部内容请认真阅读。

一填空题

1、平均自信息为

表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息

后整个系统不确定性减少的量。

表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前

2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大,最大熵值为。

3、香农公式为

(2)用信噪比换频带。

为保证足够大的信道容量,可采用(1)用频带换信噪比;

4、只要,当N足够长时,一定存在一种无失真编码。

5、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 6、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 7.人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 8.信息的 可度量性 是建立信息论的基础。 9.统计度量 是信息度量最常用的方法。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。

15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。

17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍 。

limH(XN/X1X2?XN?1)H?N???18、离散平稳有记忆信源的极限熵,。

19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。

20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a) 。

1log22?eP221、平均功率为P的高斯分布的连续信源,其信源熵,Hc(X)=。

22、对于限峰值功率的N维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。

24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率P 之比 。

25、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。

?kim??1n26、m元长度为ki,i=1,2,···n的异前置码存在的充要条件是:i?127、若把掷骰子的结果作为一离散信源,则其信源熵为 log26 。 28.熵 是香农信息论最基本最重要的概念。

29.事物的不确定度是用时间统计发生 概率的对数 来描述的。

30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 log252 。

31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。 33、具有一一对应关系的无噪信道的信道容量C= log2n 。 34、强对称信道的信道容量C= log2n-Hni 。 35、对称信道的信道容量C= log2m-Hmi 。

36、对于离散无记忆信道和信源的N次扩展,其信道容量CN= NC 。

N37、对于N个对立并联信道,其信道容量 CN =

?Ck?1k 。

41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为 加性连续信道 。

P1log2(1?X)PN。 42、高斯加性信道的信道容量C=243、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。

?1/21/20??0?01?代表的信道的信道容量C= 1 。 44、信道矩阵?

?10??10????01??代表的信道的信道容量C= 1 。 45、信道矩阵?46、高斯加性噪声信道中,信道带宽3kHz,信噪比为7,则该信道的最大信息传输速率Ct= 9 kHz 。 47、对于具有归并性能的无燥信道,达到信道容量的条件是 p(yj)=1/m) 。

?10??01??代表的信道,若每分钟可以传递6*105个符号,则该信道的最大信息传输速率Ct= 48、信道矩阵?10kHz 。

50、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的 极小值 。

51、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小。

52、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率 也越小 。

53、单符号的失真度或失真函数d(xi,yj)表示信源发出一个符号xi,信宿再现yj所引起的 误差或失真 。

?0i?j?54、汉明失真函数 d(xi,yj)=?1i?j 。 55、平方误差失真函数d(xi,yj)=(yj- xi)2。

56、平均失真度定义为失真函数的数学期望,即d(xi,yj)在X和Y的 联合概率空间P(XY)中 的统计平均值。

57、如果信源和失真度一定,则平均失真度是 信道统计特性 的函数。

58、如果规定平均失真度D不能超过某一限定的值D,即:D?D。我们把D?D称为 保真度准则 。 59、离散无记忆N次扩展信源通过离散无记忆N次扩展信道的平均失真度是单符号信源通过单符号信道的平均失真度的 N 倍。

60、试验信道的集合用PD来表示,则PD=

?p(yj/xi):D?D;i?1,2,?,n,j?1,2,?,m? 。

61、信息率失真函数,简称为率失真函数,即:试验信道中的平均互信息量的 最小值 。 62、平均失真度的下限取0的条件是失真矩阵的 每一行至少有一个零元素 。 63、平均失真度的上限Dmax取{Dj:j=1,2,···,m}中的 最小值 。 64、率失真函数对允许的平均失真度是 单调递减和连续的 。 65、对于离散无记忆信源的率失真函数的最大值是 log2n 。

66、当失真度大于平均失真度的上限时Dmax时,率失真函数R(D)= 0 。

69、保真度准则下的信源编码定理的条件是 信源的信息率R大于率失真函数R(D) 。

1??0a??X??0?a0??P(X)???1/21/2??,则该信源的Dmax= a/2 。 ????70、某二元信源其失真矩阵D=?