最近、AIをデータ解析に使う話をよく聞く。
科学研究の分野でも、大量のデータから「重要そうなイベント」をAIが選び、そのまま結論まで出した、という例が増えてきた。
でも、そこで一つ気になることがある。
以前、その手の話をしてくれた人に聞いた。
「AIが正しいと判断した結果を、自分で確認して“たしかにそうだ”と納得できる?」
答えはノーだった。
結果は出ている。でも途中の判断が見えない。見えても、人間が納得できる形で説明し直すのが難しい、という。
もちろん、AIは人間の“カン”を誰でも使えるようにした道具、とも言える。
熟練者が経験で「ここが怪しい」と当てる感じに近いのだから、全部を言葉にできないのは自然なのかもしれない。
ただ、それでも思う。
「AIスコアが高いから正しい」は、「偉い先生がそう言うから正しい」と何が違うのだろう?
科学は本来、権威ではなく、根拠と再現性で進むものだ。
反論できること、検証できることが強さのはずだ。
だから私は、AIの使い方には科学研究においては制限をつけれるべきであると考えている。
例えば以下のような使い方にすべきでないだろうか?
まず、人間が説明できる“既知のプロセス”で理解できる範囲の候補をAIに拾わせる。
それでも説明できないものを残しておき、人間がそこで初めて理由を考える。
たとえるなら、AIは金属探知機だ。
「この辺に何かある」と教えてくれるけれど、それが金貨か空き缶かは掘らないと分からない。
音が大きいから価値がある、と決めたら危ない。
AIを「答えを決める権威」にしない。
AIは「問いを増やす道具」にする。
そのほうが、AI権威主義に落ちずに、科学として前に進める気がする。
科学は人間の文化活動だ。あるゴールがあるとして、そこに至るまで迷いさまよう中で人間の可能性を広げていくという姿が美しい。