机器学习中,绕不开的一个概念就是熵 (Entropy),信息熵。信息熵常被用来作为一个系统的信息含量的量化指标,从而可以进一步用来作为系统方程优化的目标或者参数选择的判据。在决策树的生成过程中,就使用了熵来作为样本最优属性划分的判据。下面按照本人的理解来系统梳理一下有关熵的概念。
1. 熵的定义是怎么来的?
信息熵的定义公式:
并且规定 $0\log(0)=0$。
首次看到这个定义,我感到莫名其妙,为什么熵要定义成这么复杂的形式,并且其中还出现了对数函数这种非常不直观的表述?
1.1 信息熵的三个性质
信息论之父克劳德·香农给出的信息熵的三个性质[1]:
- 单调性,发生概率越高的事件,其携带的信息量越低;
- 非负性,信息熵可以看作为一种广度量,非负性是一种合理的必然;
- 累加性,即多随机事件同时发生存在的总不确定性的量度是可以表示为各事件不确定性的量度的和,这也是广度量的一种体现。
香农从数学上严格证明了满足上述三个条件的随机变量不确定性度量函数具有唯一形式
其中的 $C$ 为常数,我们将其归一化为 $C=1$ 即得到了信息熵公式。
1.2 对信息熵三条性质的理解
单调性说的是,事件发生的概率越低,其发生时所能给出的信息量越大。举一个极端的例子,“太阳从西边升起”所携带的信息量就远大于“太阳从东边升起”,因为后者是一个万年不变的事实,不用特意述说大家都知道;而前者是一个相当不可能发生的事情,如果发生了,那代表了太多的可能性,可能太阳系有重大变故,可能物理法则发生了变化,等等。从某种角度来考虑,单调性也暗含了一种对信息含量的先验假设,即默认某些事实是不含信息量的(默认事实其实也是一种信息,我理解的默认事实应该指的是概率分布),这其实是把默认情况的信息量定标为 $0$ 了。
对累加性的解释,考虑到信息熵的定义涉及到了事件发生的概率,我们可以假设信息熵是事件发生概率的函数:
对于两个相互独立的事件 $X=A, Y=B$ 来说,其同时发生的概率:
其同时发生的信息熵,根据累加性可知:
一种函数形式,满足两个变量乘积函数值等于两个变量函数值的和,那么这种函数形式应该是对数函数。再考虑到概率都是小于等于 $1$ 的,取对数之后小于 $0$,考虑到信息熵的第二条性质,所以需要在前边加上负号。
1.3 回看信息熵定义
回过头来再看信息熵的公式,其中对概率取负对数表示了一种可能事件发生时候携带出的信息量。把各种可能表示出的信息量乘以其发生的概率之后求和,就表示了整个系统所有信息量的一种期望值。从这个角度来说信息熵还可以作为一个系统复杂程度的度量,如果系统越复杂,出现不同情况的种类越多,那么他的信息熵是比较大的。如果一个系统越简单,出现情况种类很少(极端情况为 $1$ 种情况,那么对应概率为 $1$,那么对应的信息熵为 $0$),此时的信息熵较小[2]。
2. 伯努利分布熵的计算[3]
熵的定义公式中对数函数不局限于采用特定的底,不同的底对应了熵的不同度量单位。如果以 $2$ 为底,熵的单位称作比特 (bit),如果以自然对数 $e$ 为底,熵的单位称作纳特 (nat)。
从熵的定义中可以看出,熵是关于变量 $X$ 概率分布的函数,而与 $X$ 的取值没有关系,所以也可以将 $X$ 的熵记作 $H(p)$
熵越大代表随机变量的不确定性越大,当变量可取值的种类一定时,其取每种值的概率分布越平均,其熵值越大。熵的取值范围为:
$n$ 表示取值的种类。
作为一个具体的例子,当随机变量只取两个值,例如 $1$,$0$ 时,即 $X$ 的分布为:
熵为:
这时,熵 $H(P)$ 随概率 $p$ 变化的曲线如下图所示(单位为比特),
当 $p=0$ 或 $p=1$ 时, $H(p)=0$,随机变量完全没有不确定性。当 $p=0.5$ 时,$H(p)=1$, 熵取值最大,随机变量不确定性最大。
3. 两随机变量系统中熵的相关概念[4]
以上介绍了关于单随机变量系统的熵的计算,现实中的系统很多是含有多随机变量的。为了简化问题,以两随机变量系统来说,介绍几个与熵相关的概念。
3.1 互信息
两个离散随机变量 $X$ 和 $Y$ 的互信息 (Mutual Information) 定义为:
为了理解互信息的涵义,我们把公式中的对数项分解
我们知道概率取负对数表征了当前概率发生所代表的信息量。上式表明,两事件的互信息为各自事件单独发生所代表的信息量之和减去两事件同时发生所代表的信息量之后剩余的信息量,这表明了两事件单独发生给出的信息量之和是有重复的,互信息度量了这种重复的信息量大小。最后再求概率和表示了两事件互信息量的期望。从式中也可以看出,当两事件完全独立时,$p(x,y)=p(x)\cdot p(y)$,互信息计算为 $0$,这也是与常识判断相吻合的。
3.2 联合熵
两个离散随机变量 $X$ 和 $Y$ 的联合熵 (Joint Entropy) 为:
联合熵表征了两事件同时发生系统的不确定度。
3.3 条件熵
条件熵 (Conditional Entropy) $H(Y|X)$ 表示在已知随机变量 $X$ 的条件下随机变量 $Y$ 的不确定性。
3.4 互信息、联合熵、条件熵之间的关系
对互信息定义公式继续进行推导:
对条件熵定义公式继续进行推导:
联合上述结果,总结如下:
上述变量之间的关系,可以用 Venn 图来表示:
另外,在分类任务的决策树学习过程中,采用信息增益的概念来决定选用哪个特征作为后续的决策依据。这里的信息增益等价于训练数据集中类与特征的互信息。
4. 两分布系统中熵的相关概念[5]
4.1 交叉熵
考虑一种情况,对于一个样本集,存在两个概率分布 $p(x)$ 和 $q(x)$,其中 $p(x)$ 为真实分布,$q(x)$ 为非真实分布。基于真实分布 $p(x)$ 我们可以计算这个样本集的信息熵也就是编码长度的期望为:
回顾一下负对数项表征了所含的信息量,如果我们用非真实分布 $q(x)$ 来代表样本集的信息量的话,那么:
因为其中表示信息量的项来自于非真实分布 $q(x)$,而对其期望值的计算采用的是真实分布 $p(x)$,所以称其为交叉熵 (Cross Entropy)。
举个例子,考虑一个随机变量 $x$,其真实分布 $p(x)=(\frac{1}{2},\frac{1}{4},\frac{1}{8},\frac{1}{8})$,非真实分布 $q(x)=(\frac{1}{4},\frac{1}{4},\frac{1}{4},\frac{1}{4})$,那么其真实信息熵
交叉熵
如果我们真实分布为 $q(x)$ 而非真实分布为 $p(x)$,真实信息熵为
交叉熵为
从这个例子中,我们可以看到交叉熵比原本真实的信息熵要大。直观来看,当我们对分布估计不准确时,总会引入额外的不必要信息期望(可以理解为引入了额外的偏差),再加上原本真实的信息期望,最终的信息期望值要比真实系统分布所需的信息期望值要大。
4.2 相对熵
相对熵 (Relative Entropy) 也称 KL 散度,设 $p(x)$、$q(x)$ 是离散随机变量 $X$ 的两个概率分布,则 $p$ 对 $q$ 的相对熵为:
相对熵既然是熵,也是满足大于等于 $0$ 的,证明如下:
因为 $\sum_x p(x)=1$,所以 $D_{KL}(p \Vert q) \geq 0$。
4.3 相对熵与交叉熵的关系
对相对熵公式进一步变形为:
到这一步我们也可以看出,因为 $D_{KL}(p \Vert q) \geq 0$,所以 $H(p,q) \geq H(p)$。
同时,也更容易的看出来相对熵表示的其实是当我们用一个非真实的分布表示系统时,其得到的信息量期望值相比采用真实分布表示时候多出的部分。
在机器学习中,训练数据的分布已经固定下来,那么真实分布的熵 $H(p)$ 是一个定值。最小化相对熵 $D_{KL}(p \Vert q)$ 等价于最小化交叉熵 $H(p,q)$。
相对熵与交叉熵的更多信息可以参考链接 [5]、[6] 中所述。
参考
1: 信息熵是什么? - D.Han的回答 - 知乎
2: 信息熵公式的由来
3: 《统计学习方法》 Page 60
4: 互信息(Mutual Information)
5: 详解机器学习中的熵、条件熵、相对熵和交叉熵
6: 一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉