尤度の法則 (Ian Hacking 1965):

二つの仮説H1とH2があり、データをDとする。

このとき

1)データDが仮説H2よりもH1を支持するのは、

P(D|H1)>P(D|H2)

のとき、かつそのときに限る。

 

2)

仮説2よりも仮説1を支持する度合いの強さは、

P(D|H1)/P(D|H2)

で与えられる。

=================================

・解説

統計学の歴史において長らく続いてきた「頻度主義」VS「ベイズ」という構図がある訳だが、「両者とも科学にとって必要な統計学の条件を満たしていない」として第三の立場:「尤度主義」の有用性を論じたのがR. Royall(1997)で、彼の議論の出発点となるのがこの尤度の法則だ。ここで「法則」という名前から誤解しやすいが、尤度の法則はベイズの定理のように数学的に証明可能なものではなく、あくまでも提案の一種と考える方が適当だと思われる。この法則の時点ですでに、「証拠とは何か?」という問いに対して強い仮定が置かれていることに注意が必要である。(尤度原則)

 

2)式は、二つの仮説H1とH2の元での尤度の比になっていて、この式はベイズ統計の分野で「ベイズファクター」と呼ばれるものと同じ形をしている。

 

二つの仮説H1とH2の事後確率比を考えよう。

p(H1|D)/p(H2|D)=P(D|H1)/P(D|H2) * p(H1)/P(H2)

(事後確率比)=尤度比*事前確率比

となる。

 

証明:二つの仮説の事後確率をそれぞれベイズの定理に基づいて求めると、仮説に依らない定数としてp(D)つまり周辺尤度が出てくるからこれを消去すると求まる。

 

上式において、事前確率の影響を受けない右辺第二項だけを取り出したのがベイズファクターの部分だ。ベイズの立場からするとこの値はあくまで「事後確率比をデータによってアップデートするもの」という役割で、みたいのはあくまでも事後確率だ。が、尤度主義はこの値こそ統計学において最も重要な指標だと考える。

 

参考文献

E.ソーバー(2012)訳:松王政浩「科学と証拠」

R. Royall (1997) Statistical evidence: a likelihood paradigm (Vol. 71). CRC press.