联合熵是一集变量之间不确定性的衡量手段。 此條目没有列出任何参考或来源。 (2015年3月16日) 独立的(H(X),H(Y)), 联合的(H(X,Y)), 以及一对带有互信息 I(X; Y) 的相互关联的子系统 X,Y 的条件熵。 定义 两个变量 X {\displaystyle X} 和 Y {\displaystyle Y} 的联合信息熵定义为: H ( X , Y ) = − ∑ x ∑ y P ( x , y ) log 2 [ P ( x , y ) ] {\displaystyle \mathrm {H} (X,Y)=-\sum _{x}\sum _{y}P(x,y)\log _{2}[P(x,y)]\!} 其中 x {\displaystyle x} 和 y {\displaystyle y} 是 X {\displaystyle X} 和 Y {\displaystyle Y} 的特定值, 相应地, P ( x , y ) {\displaystyle P(x,y)} 是这些值一起出现的联合概率, 若 P ( x , y ) = 0 {\displaystyle P(x,y)=0} ,则 P ( x , y ) log 2 [ P ( x , y ) ] {\displaystyle P(x,y)\log _{2}[P(x,y)]} 定义为0。 对于两个以上的变量 X 1 , . . . , X n {\displaystyle X_{1},...,X_{n}} ,该式的一般形式为: H ( X 1 , . . . , X n ) = − ∑ x 1 . . . ∑ x n P ( x 1 , . . . , x n ) log 2 [ P ( x 1 , . . . , x n ) ] {\displaystyle \mathrm {H} (X_{1},...,X_{n})=-\sum _{x_{1}}...\sum _{x_{n}}P(x_{1},...,x_{n})\log _{2}[P(x_{1},...,x_{n})]\!} 其中 x 1 , . . . , x n {\displaystyle x_{1},...,x_{n}} 是 X 1 , . . . , X n {\displaystyle X_{1},...,X_{n}} 的特定值,相应地, P ( x 1 , . . . , x n ) {\displaystyle P(x_{1},...,x_{n})} 是这些变量同时出现的概率,若 P ( x 1 , . . . , x n ) = 0 {\displaystyle P(x_{1},...,x_{n})=0} ,则 P ( x 1 , . . . , x n ) log 2 [ P ( x 1 , . . . , x n ) ] {\displaystyle P(x_{1},...,x_{n})\log _{2}[P(x_{1},...,x_{n})]} 被定义为0. 性質 大于每个独立的熵 一集变量的联合熵大于或等于这集变量中任一个的独立熵。 H ( X , Y ) ≥ max [ H ( X ) , H ( Y ) ] {\displaystyle \mathrm {H} (X,Y)\geq \max[\mathrm {H} (X),\mathrm {H} (Y)]} H ( X 1 , . . . , X n ) ≥ max [ H ( X 1 ) , . . . , H ( X n ) ] {\displaystyle \mathrm {H} (X_{1},...,X_{n})\geq \max[H(X_{1}),...,H(X_{n})]} 少于或等于独立熵的和 一集变量的联合熵少于或等于这集变量的独立熵之和。这是次可加性的一个例子。该不等式有且只有在 X {\displaystyle X} 和 Y {\displaystyle Y} 均为统计独立的时候相等。 H ( X , Y ) ≤ H ( X ) + H ( Y ) {\displaystyle \mathrm {H} (X,Y)\leq \mathrm {H} (X)+\mathrm {H} (Y)} H ( X 1 , . . . , X n ) ≤ H ( X 1 ) + . . . + H ( X n ) {\displaystyle \mathrm {H} (X_{1},...,X_{n})\leq \mathrm {H} (X_{1})+...+\mathrm {H} (X_{n})} 与其他熵测量手段的关系 在条件熵的定义中,使用了联合熵 H ( X | Y ) = H ( X , Y ) − H ( Y ) {\displaystyle \mathrm {H} (X|Y)=\mathrm {H} (X,Y)-\mathrm {H} (Y)\,} 互信息的定义中也出现了联合熵的身影: I ( X ; Y ) = H ( X ) + H ( Y ) − H ( X , Y ) {\displaystyle I(X;Y)=\mathrm {H} (X)+\mathrm {H} (Y)-\mathrm {H} (X,Y)\,} 在量子信息理论中, 联合熵被扩展到联合量子熵(英语:joint quantum entropy)。 Loading related searches...Wikiwand - on Seamless Wikipedia browsing. On steroids.