2009年10月29日木曜日

情報エントロピー

情報エントロピー(シャノン情報量)について

----------------------
(※注)
「シャノン」というのは、人の名前だけど、「シャノン情報量」というと、なんとなく格調高くて難しくかっこよさそうに聞こえる

各情報の重みに偏りがあるときは、情報エントロピー(情報エントロピー平均情報量シャノン情報量情報論のエントロピーが小さい。

----------------------

(※注)

情報エントロピー平均情報量シャノン情報量情報論のエントロピー、いずれも実際は-pΣlog2(p)で計算されるだけの計算値だけど、どの単語も難しくて、頭良さそうに見える

----------------------

「各情報の重みに偏りがある」とは、以下のページの例では、競馬で1つの馬の勝つ確率が極端に大きい場合。

http://szksrv.isc.chubu.ac.jp/entropy/entropy3.html

逆に、各情報の重みが均等な場合は、情報エントロピーが大きい。

----------------------

これは、

エネルギー(運動量)の質について、一方からの力(手で押す、など)はエントロピーが小さく、

逆にバラバラの分子の運動量に分散してしまった熱エネルギーでは、エントロピーが大きい、ということに対応している。


----------------------

(参考)

0 件のコメント:

コメントを投稿