前にネタにした「AIは最小二乗法の3次元版」に続いての最小二乗法ネタだ。知ったかぶりをする人は最小二乗法が好きなのだろうか?
今回は記事へのコメントではなく、日経新聞の記事そのものだ。記事の本旨は哲学の話なのであまり細かいことは言っても仕方ないと思うが、これはあんまりだ。

 



AIと超人類の時代 弱者がもつ強み  :日本経済新聞
https://www.nikkei.com/article/DGXKZO41317720V10C19A2KE8000/
 

近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない。
つまり、これまで深淵な神秘と思われていた知能の働きは、単純な近似計算の寄せ集めにすぎないという発見がAIの衝撃の本質である(図参照)。
近似計算なのだから、AIの知は無謬(むびゅう=間違いがない)の真理ではないし、人間の知も同様である。

 

この文章もどうかと思うが、極めつけが図だ。以下、元の図へのリンク
https://www.nikkei.com/news/image-article/?R_FLG=0&ad=DSXKZO4131773015022019KE8000&dc=10&ng=DGXKZO41317720V10C19A2KE8000&z=20190218

文字で説明すると、平面に5つの△が打ってあり、直線で近似するのが最小二乗法、複雑な関数(例では3次関数)で近似するのがディープラーニングとある。


おいおい、どっちも最小二乗法だぞ。
(3次関数が最小二乗法を使ったとは思えないほど△からずれているのは何なのだろうか、直線もこんな風にはならないはずだ)

3次関数(別に何次関数でもいいのだが)で近似するのはディープラーニングなど使わなくても最小二乗法でできる。最小二乗法を多少でも使ったことがあれば分かるはずなのだが、この図を作った人は最小二乗法を使ったことがあるのだろうか?。最小二乗法は一次関数にしか使えないと思っているようにしか見えない。

文章だけを改めて読むと、「ディープラーニングは、原理的には単純な最小二乗法にすぎない」となっていて、「複雑な関数」は出てこない。文章の説明として、図が不適切なだけのようにも見える。推測だが、原稿を読んでよくわかっていない新聞社のスタッフが図を書いたのではないか。日経新聞ともあろうものが、この図をOKしてはいけないだろう。
 

 

図の話はこれくらいにして、文章についても。「ディープラーニングは原理的には単純な最小二乗法にすぎない」というのは、完全に間違っていると言い切れないと思う。それは「ディープラーニングは原理的には単純な四則演算に過ぎない」が間違っていないのと同じ意味でだ。あまり意味がないことを言っている。何だって、原理的には単純なものの組み合わせでできているに決まっている。おまけに「~に過ぎない」と言っているので、すごさを否定していることになる。

 

まあ、文章全体の哲学的な話の流れを踏まえると、「AIはデータから(何らかの判断基準を)近似で出しているだけで、真理を求めているのでない」ということが言いたいだけのように読める。ディープラーニングや最小二乗法なんて単語を出すから変なことになったのではないか。