子どもたちのことが心配で購入。
2018年の本なので、AI関係書籍としてはもう「古い」かも。
新井先生は特異点は当分来ないと断言なさり(p17)、AI技術者やAI評論家の多くが誤解している(または期待が過剰すぎる)と指摘なさる。
一つはdeep learningに対する誤解(p35-38)。
学習のためには事物をデータ化する必要があるが、それをどのように行うかという問題(現時点では、結局、人がやっている)。
もう一つがbig dataへの過剰な期待(p87)。
いくら大量でも精度が低いと意味がない(p97)。
精度0.9のデータが10万個あっても無意味(0.9の10万乗は1にならない)。
パターン化できる視覚情報や、重みづけで組み合わせ可能な英語翻訳や英語文章問題の解答などは(p101)現在のAI技術でもある程度は可能になった。
しかし意味や文脈まで、AI技術は理解しているわけではない(p137)。
というか、そもそも「理解」がAI技術に無理。
一つの例がSiriのエピソード(Siriも今となっては懐かしい。2024年現在では改善されているかも)。
「近くの美味しいXレストランはどこ」に当然Siriは答える。
ところが「近くのまずいXレストラン」や「近くのX以外の美味しいレストラン」にも、Siriは同じレストラン名を答えるという(2018年当時 p121)。
「まずい」は使われる頻度が少ない語ので、重要情報でないとカットされるから。
「以外」は論理式なので、統計情報で動くSiriにはそもそも処理できないから(統計アルゴリズムに無理に論理を入れると処理の精度が下がるらしい p122)。
期待の第三章。
AIで無くなりそうな仕事(p73 1位はコールセンター 確かに多くの企業のカスタマーサービスの初期対応はchatbotになっている。2位以下は金融関係が多い)と当分残りそうな仕事(p170 ケア関連が多くてほっとする)が掲載されているが、それと関連するお話し。
AIにできなくて人間にできるのは、意味や文脈の理解、つまり読解力。
新井先生は、全国の小学生から高校生を対象に、読解力調査をなさっている。
例:「Alexは男性にも女性にも使われる名前で、女性の名前Alexadraの愛称であるが、男性の名前Alexanderの愛称でもある」という文書を受けて「Alexandraの愛称は( )である」という問題。
答えは1)Alex、2)Alexandra、3)男性、4)女性、から選ばせる。
さて、中学生の平均正解率は。
なんと38%(p200-201)。
この問題、全く知識不要。日本語が読めさえすればいい(はず)。
中1に至っては23%。鉛筆を転がして選ぶ方がまだ正解する。
ただしn=233の少数の解析。
あと平均値なので、とんでもない読解力の中学校があると数値を引き下げている可能性がある。
さらに、読解力は、読書量や学習時間、好きな科目と相関がなく、新井先生は、何が読解力を決定する要因か今のところ分からないと結論なさっている(p228 個人的にはやはり読書量が相関していると考えるが、量に加えて質だと思う。「てにをは」が重要だから)。
ところで、数学はざっくり分ければ<論理、確率、統計>だという御指摘に膝を打った(見出されたのもこの順番 p115-117)。
確率は論理だけでは説明できない結果の予測、統計はデータから規則性を見つける方法。
だから確率と統計は逆(現在のAI技術はほぼ統計だけ)。
それにしても読解力問題の正答率には驚いた。
新井紀子「AI vs. 教科書が読めない子どもたち」 東洋経済新社、東京、2018