思うだけで学ばない日記 2.0

思うだけで学ばない日記から移転しました☆!よろしくお願いします。

α値もβ値も一般にスカラーでわない

x座標やy座標の値が座標系のとり方依存だからスカラーとは呼ばれないのと同様に、α値もβ値も一般にスカラーとは呼べない

どういうことだキバヤシ

つまり、αβ法のトラバースする様子を考えれば、あるノードNにおけるα値とβ値が確定するためには、Nを根とする部分木のうち、探索範囲の先端ノードが最低1個はトラバースされねばならないすなわち、α値β値が確定する前提として探索範囲の葉ノードが確定している必要がある。言い換えると

  1. 探索の終端条件(固定深さまで読む、終局まで読む、etc.)を確定する
  2. するとα値とβ値が定まる

のであり、このプロトコルは安易には変更できないということだ

df-pn#(id:GMA0BN:20091209#1260292663)のαβ法版すなわち過去の探索で得た置換表データを延々持ち越すような設計があまりメジャーでない気がするのは気のせいでなく、直ちには成立しないからであろうことがこれで(ようやく)わかった

でもなぜか過去記事で対処方法について言及できてしまっている罠(ry

今にして思えば

(1)の確率とP(自分が勝つ)の間には、d_max制限による評価誤差と、相手が最善手のみ打つとは限らないという不確定性とが横たわっている。
(id:GMA0BN:20091210#1260460386)

でいきなり「d_max制限による評価誤差」と「相手が最善手のみ打つとは限らないという不確定性」を言い出したのは単に目的量であるはずの「P(自分が勝つ)」に対し、αβ法で得られる量がそれら2つの量依存に見えたからだったのだが、論理のあやふやさにおいて綱渡りだったものの今ここにより強固な根拠を得た
αβ法で得られる結果は「終局まで読む」前提でない限り、(評価関数をいかに工夫しようとも)ゲーム木の固有量とは言えない

個人的にはこれであるべきものが全部あるべき場所に収まった感じに感じる