----------------------
(※注)
「シャノン」というのは、人の名前だけど、「シャノン情報量」というと、なんとなく格調高くて難しくかっこよさそうに聞こえる。
各情報の重みに偏りがあるときは、情報エントロピー(情報エントロピー、平均情報量、シャノン情報量、情報論のエントロピー)※が小さい。
----------------------
(※注)
情報エントロピー、平均情報量、シャノン情報量、情報論のエントロピー、いずれも実際は-pΣlog2(p)で計算されるだけの計算値だけど、どの単語も難しくて、頭良さそうに見える。
----------------------
「各情報の重みに偏りがある」とは、以下のページの例では、競馬で1つの馬の勝つ確率が極端に大きい場合。
http://szksrv.isc.chubu.ac.jp/entropy/entropy3.html
逆に、各情報の重みが均等な場合は、情報エントロピーが大きい。
----------------------
これは、
エネルギー(運動量)の質について、一方からの力(手で押す、など)はエントロピーが小さく、
逆にバラバラの分子の運動量に分散してしまった熱エネルギーでは、エントロピーが大きい、ということに対応している。
0 件のコメント:
コメントを投稿