2009年10月31日土曜日
考えずに感じる
(引用:シャノンのチェスプログラム)
>1949年にコンピュータチェスに関する画期的な論文「チェスのためのコンピュータプログラミング」[6]を発表し、力ずくの総当たりでなくコンピュータがチェスをする方法を示した。コンピュータがどの駒をどう移動するかを決定するのにシャノンが用いた方法が、評価関数に基づいたミニマックス法だった。評価関数は、駒の価値や、駒の位置の価値、移動の価値などをすべて数値化して「局面」の価値を評価するものであり、シャノンはその後のゲーム展開を探索木(Search tree)に分類してどの着手がもっとも良いかを探索する方法について考察している。この論文はコンピュータゲームでのコンピュータの思考プログラム設計の原典となった。
(引用ここまで)
-------------------
「デジタルで全て検討する」ではなく、「アナログで、評価する」
ここでは、
>評価関数は、駒の価値や、駒の位置の価値、移動の価値などをすべて数値化
しているが、
将棋を指す人は、これを感覚的に行っている。
この精度を上げていく。
信号の色をみて、赤か青かを、瞬間的に、感じて判断するように。
-------------------
子供が、ものを考えたり判断することを、学習していくプロセスは、「精度を上げてゆく」ことではないだろうか。
2009年10月30日金曜日
2009年10月29日木曜日
情報エントロピー
各情報の重みに偏りがあるときは、情報エントロピー(情報エントロピー、平均情報量、シャノン情報量、情報論のエントロピー)※が小さい。
----------------------
(※注)
情報エントロピー、平均情報量、シャノン情報量、情報論のエントロピー、いずれも実際は-pΣlog2(p)で計算されるだけの計算値だけど、どの単語も難しくて、頭良さそうに見える。
----------------------
「各情報の重みに偏りがある」とは、以下のページの例では、競馬で1つの馬の勝つ確率が極端に大きい場合。
http://szksrv.isc.chubu.ac.jp/entropy/entropy3.html
逆に、各情報の重みが均等な場合は、情報エントロピーが大きい。
----------------------
これは、
エネルギー(運動量)の質について、一方からの力(手で押す、など)はエントロピーが小さく、
逆にバラバラの分子の運動量に分散してしまった熱エネルギーでは、エントロピーが大きい、ということに対応している。
2009年10月27日火曜日
正規分布と砂山と円周率π
正規分布の式に、円周率πが出てくるのは、不思議に感じられる。
しかし、砂時計のように、砂を落としていくと、砂山は正規分布のような形になる。
このとき、上から落とした砂は、上から見ると、丸い形に広がる。
ある一断面をとって、見てみると、
http://poic-kf33.blogspot.com/2009/10/blog-post_4822.html
縦横高さ1(cm)の、四角い砂粒を上から落として、積み重なることなく一様に丸く広がったとした場合、
その落とした砂粒の総量がa(cm)とすると、断面の長さ(直径)は、
で、自然にπが出てくる。
砂粒の総量が1(cm3)の場合は、下の絵のようになる。
http://poic-kf33.blogspot.com/2009/10/blog-post_4822.html
カード1026の1
仕事の発想法
①やるべきこと(TODO等)を、ためる。
ポストイット等に書いたもの。
②何らかの要素が共通するものを、1カ所に並べる。
1枚の大きなポストイットや、カードなどに。
例)作業場所、テーマetc
③「ひとこと」化
題名をつける。
例)デスクトップ上での、機械的作業
-----------------------------------------
①→②→③の流れは、再帰(鏡)→創発(剣)→相転移(玉)
「小さい単位に分解する」のとは逆のプロセス。
集めて、なだれをおこす。
(※)これはドック内から、カードを2枚、ランダムに取り出して、1枚のカードを作る実験です。
上記のカードは、[09 03 15 23:30]と[09 10 13 19:40]の2枚のカードから作った。
2009年10月26日月曜日
情報エントロピー(計算)
情報エントロピーあれこれ
サイコロ 2.58コイン 1.0
どの面が上を向くか
球 → サイコロ → コイン
情報エントロピーが減少-------------------------------------------------
考察
情報エントロピーが小さい方が、
はっきりしていて、
分かりやすくて、
使いやすくて、
理解しやすくて、
予想しやすい。
その一方で、情報エントロピーが低いものからは、
決められた結果が出てくるのだが、
情報エントロピーの高いものの組み合わせから
の方が、新しいものが生み出されるのではない
だろうか。
----------------------------------------
サイコロを上からたたいて伸ばしていびつにする
→情報エントロピーが減少
さらにたたいて平べったい板にする
→情報エントロピーが最も低くなる
(振っても、横向きにぴょこんと立つ事はない)
計算用紙
http://kazuschool.blog94.fc2.com/blog-entry-201.html
(Ref:数学の勉強法…解答を書き写した紙は取って置くべきかどうか)
量→情報エントロピー減少→質
(Ref:数学の勉強法…一日に何問やればいいの?編)
-------------------------------------------------------
それで詰めこみ型とか批判があっても、大量に暗記すると話しが繋がってきて
の本当の意味がわかってきたりするわけや。
オレは小学生にも
e^(iθ)=cosθ+isinθ
(e^(iθ)はeのiθ乗)
「はい、これを意味わからんまま何となくノートに写してください」
って言う。
えっ!?なんで虚数が何で指数に入ってるの!?とか、その前にcosとかsinって何やねんって話しやけどな。
こういうのを大量に意味わからんまま音楽のように暗記していくと、しだいに体系化されて本当の意味を理解してくるわけや。
-------------------------------------------------------
(引用ここまで)
機械にできない「ほっといたら理解」を、頭で勝手にやってくれる。
最高の色の組み合わせを、自動で、気分で、やるように。
デフラグを、脳に任せる
わんこら式は凄いですm(. .)m
------------------------------
デフラグ・・・情報エントロピーの減少
------------------------------
(引用:情報エントロピーについて)
>情報理論では、ある事象の起こり難さというか、その事象がどうなるかわからないという意味での不明確さを、情報エントロピーとして表すようです。具体的には、ある事象についての生起確率の期待値の対数をエントロピーとします。これをビット(情報量)と言うようです。
(引用ここまで)
------------------------------
いびつなサイコロは、情報エントロピーが小さい
------------------------------
1個のサイコロで、例えば「6」の目が出る確率(期待値) 6分の1 → 1/6 → 0.166
普通のサイコロの情報エントロピー 2.585
2009年10月25日日曜日
ゼータ関数
(引用)
値がわからないことで有名な級数の和の代表であるゼータ関数は、現代数学のもっとも根本的な関数である。ゼータ関数の歴史は、1734年にスイスの数学者L.オイラーが「自然数の平方の逆数の和」(下の等式の左辺)が「の平方の6分の1」(下の等式の右辺)になることを発見したことにはじまる。
自然数全体と円周率という、まったく無関係にみえるものがむすびついていることは、数学世界の奥深さを再認識させることになった。
さらにオイラーは「自然数のn乗の逆数の和」を、nが2のときだけでなく4, 6, 8, …という偶数の場合でももとめた。結果は、やはり円周率のn乗に有理数をかけたものとなった。これを
と書いてゼータ関数(z関数)とよぶようになったのは、1859年にドイツの数学者G.F.B.リーマンがはじめたことである。
(引用ここまで)
(Ref:エンカルタ百科:ゼータ関数)
-----------
「ジップの法則とゼータ関数とπ(円周率)とe(自然対数の底)の関係について」
このジップの法則は、ゼータ関数の1つである。
ゼータ関数において、s=2としたときにπ÷6となる。またsが偶数の場合は、「πのなんとか乗÷定数」となる。このように、ゼータ関数という、「単純な式を機械的に繰り返し、繰り返し足してゆく」という操作から、円周率πが出てくる。
ゼータ関数からみると、円周率πは、無限に多くの級数の集まりにばらせる。
また、ゼータ関数から、ジップの法則の式が出てくる。
これらの2つ(ジップの法則の式と、円周率π)は、いずれもゼータ関数から現れてくる。
ジップの法則やゼータ関数は、指数的な性質があり、べき乗則(power's low)といわれる。
----------------------------------
正規分布の式には、πとeが含まれる。
砂を上から落としていくと、砂粒間の相互作用により、その断面積は円形に、側面は指数的な曲線となり、この2つが1つの形に統合されている。
多くの粒子間の相互作用があるときには、πやeは自然に現れてくるように思われます。
----------------------------------
オイラーの等式にはπとeとiが含まれる。iにより回転の要素が含まれることになる。
----------------------------------
これらのことから見ると、自然というのはxyzの直交座標(原点から直角3方向への距離で現す)ではなく、rθψ(原点からの角度と距離で現す)で見るのがより”自然”に思われます。
2009年10月24日土曜日
ジップの法則(計算)
ジップの法則について
どうなるか、計算してみた。
ここで、
N:全要素の数 10個
k:順位 1位~10位
とした。
電卓で計算
式は、上の写真のように現される。
1位は、0.34
2位は、0.17
3位は、0.11
・
・
・
1位から10位までの値をプロット。
出現率は、
------------------------------------------
1位 34% 全体の約3分の1
2位 17% 1位の半分
3位 11% 1位の3分の1
4位 9% 1位の4分の1
5位 7% (以下同様)
6位 6% ・
7位 5% ・
8位 4% ・
9位 4% ・
10位 3% ・
------------------------------------------
発散と収束
>創造的な思考は、既存の概念の新しい組み合わせによって生まれる。つまり関係ないものどうしを結びつけ、それに意味づけをする能力が創造力だと言える。そのためには、概念を想像の中で遊ばせる自由な土壌が必要である。
これを実行するためには、図のような試行錯誤が重要である。このような思考方法を「思考の発散収縮モデル」という。この方法では、思考は「発散フェーズ」と「収束フェーズ」に分けられる。
まず、発散フェーズでは自分に染み込んでしまった固定観念を脱ぎ捨てて、頭の中で自由に概念を連結していく。ここでは、普通なら馬鹿にされてしまうような大胆さも求められる。自由な発想を萎縮させることのないように、この段階では概念の科学的意味や社会的意味を考えないことにする。このようにして、さまざまなアイディアを連結してイメージや思考の新しい枠組みを得る。
そして収縮フェーズでは、浮かび上がったアイディアを詳細に検討していく。一つ一つのアイディアの意味や位置づけを考察し、その中でダイヤモンドの原石を見つけたらそれを磨き上げ、もし何も残らなければ再度発散フェーズに戻る。このようなことの繰り返しで、新しい概念や方法論を生みだすことができるのである。
(Ref:複雑系入門、伊庭 崇著,p.226)
----------
>その中でダイヤモンドの原石を見つけたらそれを磨き上げ、
この過程はまさに、「鏡→剣→玉」のプロセスではないだろうか。
----------
カード間の間Δを埋める、つなぐこともまた、創造のプロセスではないだろうか。
小規模なTrinityのループ。
そこにもまた、
①再帰(鏡:雲、もやもや、この2枚の間の空間にある思い・イメージは何だろう)、
②創発(剣:間のもやもやが1つ1つ言葉・イメージ・単語・形になる)、
③相転移(玉:②で創発した個々の要素を結合・取捨選択して、一つの言葉・概念・フレーズで現す)、
というプロセスがある。
ジップの法則
自然現象等に現れる例
--------------------------------------------------------
PoICのカードの内容もべき乗則に従うのではないだろうか。
例えば、1000枚溜まった時、
-------------------------------
1番目に多いテーマ 400枚
2番目のテーマ 200枚
3番目のテーマ 132枚
4番目のテーマ 100枚
・
・
・
-------------------------------
2009年10月23日金曜日
2009年10月22日木曜日
λパラメータ
λは、セルオートマトンの振る舞いを評価する変数。
ある規則群のときに、ある1つの状態にならない確率。
(Ref:複雑系入門,井庭崇著,p.84)
N:近傍の数
K:セルの可能な状態数
(深遠で、λがどんな感じになるのか、ちょっと分からないので、とりあえず電卓で計算してみる)
計算すると、
K(セルの可能な状態数)が大きくなると、より早く1に近づく(ある1つの状態に定まらない確率が大きい)。
・・・そのように思う。
あらためて式の形をみると、Kの増加に対して、直線的(?)に大きくなるように思う。
さらに適当な数値を入れて、λの様子を考える。
K(セルの可能な状態数)が大きくなると、より早く1に近づく(ある1つの状態に定まらない確率が大きい)。
N(近傍の数)が大きくなると、より早く1に近づく(ある1つの状態に定まらない確率が大きい)。
・・・これは、式の形を見ると、Kと比べて、指数的な影響があるように思われる。
-------------------------------
λは0から1の間の値をとる。
λが大きい(ほとんど1)の場合は、セルの状態は不確定(ランダム)
λが小さい(ほとんど0)の場合は、セルの状態は確定(決まっている)
この間の値のとき、確定でもなく、ランダムでもない、複雑な状態があるのではないかと予想される。
--------------------------------
「秩序と完全な無作為性(カオス)との中間で複雑性が最大」となる。
λのある微小な範囲は「カオスの縁(Edge of Chaos)」(系がカオス化する直前に秩序が現れるのである。そしてその秩序が最大の適応、多様性を産み出す)と呼ばれます。
2009年10月20日火曜日
専用PoIC
>例えば,論文執筆,レポート,企画書など差し迫った用件
があるならば,まずは専用PoICから始めるといいのではない
でしょうか。
>まず,GTDカードでスケジュールを見積もります。着手日と
締切日のカードをそれぞれ作り,その間に資料収集,構想を
練る,下書き,執筆開始日などのスケジュールをカレンダー
と相談しながら切っていきます。それぞれの着手日はスケ
ジュールを組んだ後に記入します。
>タイムスケジュールが見積もれたら,次は参照カードで資
料を編んでいきます。参考資料リストや資料からの引用,抜
粋など,逐次カードに記していきます。
>資料がまとまったら,カードを捲りながら読み,発見カー
ドに自分の意見をまとめていきます。そして,毎日の進捗状
況を記録カードに記していきます。これは作業に遅延などが
生じた場合のリカバリーのためです。
>PoICの4種類のカードを駆使することで,執筆を効率良く
進めることが出来ますし,なにより強制的にPoICを開始する
ことが出来ます。
(Ref: http://gihyo.jp/lifestyle/serial/01/re-poic/0002?page=2)