全国1億2000万人の松井ゼミファンの皆様おはこんばんちは!
皆さんがお待ちかね、松井ゼミの隠し玉にして最強の飛び道具、こまぴょんです!やったー!
最近は統計的手法について英書で読み解いていくという鬼畜仕様なため、毎週が天国のようですね!!!
さて、今週は松井ゼミ10期生になるであろうそこのキミたちのために、
今週学んだ内容を噛み砕いて、ちょっとだけ分かりやすくブログ書いちゃうぞ★
☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*
Chapter18では、「判別分析」と「ロジスティック回帰分析」について勉強しました!
さて、こいつらは一体なんぞやと言いますとですね…。
例えば、一橋生で所属ゼミ不明の学生Aさんがいたとしましょう。
そんなAさんの素性を僕たちはどうしても知りたい…ヤツはいったいどこのゼミ所属なんだ!(憤怒)
という時に判別分析を使うと、
Aさんの所属ゼミを予想することが出来るのです(驚愕)
ここに商学部3年生200名分のデータがあるとしましょう。
そこには「性別、所属団体、英語の好き嫌い、数学の好き嫌い、所属ゼミ、帰国子女かどうか、取得単位数、興味のある分野」などなど様々な情報が詰まっています。
この情報をもとに判別式というものを導き出します、判別式は以下の通り。
D=b0+b1X1+b2X2+b3X3+…+bkXk
(D=判別得点、bn=判別係数、Xn=独立(説明)変数)
といった具合です。
するとですね、各ゼミの分布とか重心ってのが分かってですね(〃∇〃)
んでもってAさんの判別得点とそれを照らし合わせつつ所属ゼミを予想するのです!(ドヤッ
続いてロジスティック回帰分析、別名ロジット分析とは―――
まず、ロジスティック回帰分析において、目的変数は「あり・なし」のように二元的なものをとります。
例えばある人の「恋人の有無」を知りたい!といった具合。
このような場合は目的変数に「恋人の有無」をとり、
説明変数に「年齢、身長、体重、出身校、過去の恋人の有無」を取ることで分析が可能となるのです!
他にも「病気の発症確率」のようなものをロジスティック回帰分析で予測することも可能です。
元データにおいて病気の発症は「有・無」の二元的なものですからねヽ(゜▽、゜)ノ
ここから少し難しい話。ゼミテンたちが頭を悩ませていたWald検定量についておさらい。
Wald検定量はロジスティック回帰分析の有意性について検定するために用いるものです。
・Wald=(ai/SEai)^2
(説明変数に対する係数を係数の標準誤差で割り、それを二乗したもの)
・Wald統計量はχ^2分布に従う
これは説明変数のp値を求めるときに使用し、
「その変数は予測に役立たない」という帰無仮説を検定するために用いるのです!
つまり、この帰無仮説を棄却することで説明変数の有意性を立証するんだよ!言わせんな恥ずかしい。
最後に判別分析とロジスティック回帰分析の違いについてまとめておきましょう。
判別分析
「松井ゼミor山下ゼミor神岡ゼミ」というように群の違いが確定的なものを判別するために用いる。
ロジスティック回帰分析
「恋人の有無」といったように二項的なもの、また「病気の発症確率」のように確率で表わすものを分析するために用いる。
ということです!
☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*☆*゚ ゜゚*
調べたい内容や目的に応じてただしく分析方法を使い分けましょうということですね(ノ´▽`)ノ
ちなみに難しい計算は全部コンピューター任せなのです。
なぜなら、
「私たちは数学者ではないですから(迫真)」(byモニカ)
ではではまた来週お会いしましょう。
PS. 先生、ゼミテンの皆様へ
間違ってたり補足する点があればコメントお願いしますm(_ _ )m
