2025年1月3日 (金)
→相互情報量の関係式
+9
→条件付きエントロピー
+95
→条件付きエントロピー
+34
ページの作成:「== 概要 == 相互情報量 (Mutual Information) は、2つの確率変数間の相互依存性を定量化する指標のことである。<br> <br> 相互情報量I(X;Y)は、2つの確率変数XとY間の依存関係の強さを測る尺度であり、次式で表される。<br> <math>I(X;Y) = \sum \left( p(x, y) \log_{2} \dfrac{p(x,y)}{p(x)p(y)} \right)</math> <br> 上式は、確率変数XとYの同時確率分布p(x,y)と、それぞれの周辺確率分布…」
+8,185