目录
绪论
一、信息论的基本概念
1.1 信息的定义
1.2 信息的三个层次
二、香农信息论的研究内容
2.1 信源与信源编码
2.2 信道与信道编码
2.3 保密通信与密码学
离散信源(一)
一、自信息
1.1 定义
二、离散信源
2.1 定义
2.2 符号表示
三、信息熵
3.1 信息熵的定义
四、联合熵
4.1 联合熵
思考题
绪论
一、信息论的基本概念
1.1 信息的定义
根据香农的定义,信息是事物运动状态或存在方式的不确定性的描述。换句话说,信息是用来消除不确定性的。在日常生活中,我们通过消息、信号、数据等形式传递信息。
1.2 信息的三个层次
信息可以分为三个基本层次:
- 语法信息:关注事物运动的状态和变化方式,香农信息论主要研究的是这一层次。
- 语义信息:关注事物运动状态或变化方式的内在含义。
- 语用信息:关注事物运动状态或变化方式的效用和价值。
二、香农信息论的研究内容
2.1 信源与信源编码
信源是信息的来源,它可以分为离散信源、连续信源和波形信源。信源编码的主要任务是将信源输出的消息转换为符号,以提高传输的有效性。
2.2 信道与信道编码
信道是信息从编码器传输到译码器的媒介。信道编码的主要任务是通过增加冗余来提高传输的可靠性。常见的信道编码技术包括汉明码、卷积码和Turbo码。
2.3 保密通信与密码学
保密通信是信息论的一个重要应用领域,它通过加密技术确保信息在传输过程中不被窃取或篡改。
离散信源(一)
一、自信息
1.1 定义
自信息(Self-Information)是衡量单个事件发生时所提供的信息量的指标。对于一个事件 x,其自信息定义为:
其中:
- p(x) 是事件 x 发生的概率。
- 对数的底通常为 2,单位为比特(bit)。
例子,假设一个事件 x 发生的概率为 p(x)=0.5,则其自信息为:
二、离散信源
2.1 定义
离散信源是指输出符号为离散值的信源。
例如,抛硬币的结果(正面或反面)就是一个典型的离散信源。离散信源的输出可以用符号集合表示,每个符号的出现概率可以通过概率分布描述。
2.2 符号表示
设离散信源的符号集合为 X={x1,x2,…,xn},每个符号 xi 出现的概率为 p(xi),满足:
例子,假设一个离散信源的符号集合为 X={a,b,c},其概率分布为:
- p(a)=0.5
- p(b)=0.3
- p(c)=0.2
则该信源的数学模型为:
三、信息熵
3.1 信息熵的定义
信息熵(Entropy)是衡量信源不确定性的指标。对于一个离散信源X,其信息熵定义为:
其中,
是符号
的出现概率,对数通常以 2 为底,单位为比特(bit)。
例子,假设一个离散信源输出符号集合为 {a, b, c},其概率分布为 P(a) = 0.5, P(b) = 0.3, P(c) = 0.2。对于上述信源,其信息熵为:
四、联合熵
4.1 联合熵
联合熵用于衡量两个或多个信源联合输出的不确定性。对于两个离散信源 X 和 Y,其联合熵定义为:
例子:假设信源 X 和 Y 的联合概率分布如下:
X \ Y | y1 | y2 |
---|---|---|
x1 | 0.2 | 0.1 |
x2 | 0.3 | 0.4 |
则联合熵为:
思考题
给定一个离散无记忆信源 X,其符号集合为 X={0,1,2},对应的概率分布为:
p(0)=0.2,p(1)=0.4,p(2)=0.4
信源发出的消息为 0012010210。需要解决以下问题:
- 上述消息所携带的信息量是多少?
- 上述消息平均每个符号所携带的信息量是多少?
- 该信源平均每个符号所携带的信息量是多少?
消息 0012010210 的长度为 10 个符号。每个符号的信息量可以通过自信息公式计算。得到消息的总信息量,消息长度为 10 个符号。可计算平均每个符号所携带的信息量。信源平均每个符号所携带的信息量即为信源的信息熵 H(X)。
消息所携带的信息量: ,5(2log5 - 1)。
消息平均每个符号所携带的信息量:,log5 - 0.5。
信源平均每个符号所携带的信息量:,log5 - 0.8。