さすらいびとの徒然漂流記

さすらいびとの徒然漂流記

ふらふら漂流するさすらいびとのように,色々な話題についてお気楽極楽,徒然なるままに…

 

最近よく聞く「リスキリング」という言葉。
本当にそれでAI時代に対応できるのだろうか。

 

実際に,この5年ほどでAIの使い方はどのように変化してきたのか。
ChatGPTにエンドユーザのAI活用スキルの変化を時系列で整理してもらったのが以下の表である。

 

時期 主なAI利用形態 エンドユーザの主要スキル 典型的な使い方
2020
(GPT-3公開)
AIに質問する AIに質問する力 AIを検索の代替として使う
2021
(プロンプト研究拡大)
指示の明確化 指示を明確に書く力 Step-by-step指示を出す
2022
(ChatGPT普及)
プロンプト生成 プロンプト作成力 役割・条件・形式を指定する
2023前半
(プロンプト共有文化)
プロンプトテンプレート活用 テンプレート活用力 プロンプトをコピペして利用
2023後半
(ファイル入力・RAG普及)
情報提供による拡張 情報を渡す力 PDFや記事を読ませて回答させる
2024前半
(Context engineering概念)
コンテキスト設計 情報の整理力 必要情報を構造化して渡す
2024後半
(Reasoningモデル)
思考プロセスの活用 思考プロセス設計力 AIに分析・推論をさせる
2025〜
(AI協働作業時代)
AIとの協働・共創 AIとの対話設計力 AIと議論しながら改善を行う

 

わずか5年で,AI活用に必要なスキルはここまで変化している。

しかもこれは単なるソフトウェアの操作習得ではない。

「AIにどう考えさせるか」という,極めて抽象度の高い「言語化能力」と「論理構成力」の勝負になっているのだ。
つまり,リテラシーの問題ではなく,「地頭の良さ」がそのまま生産性に直結する残酷なフェーズに入ったと言える。

 

AI界隈で囁かれる共通の認識がある。

 

「半年前のモデルは,もはや旧石器時代の道具である」

 

おそらく,業務命令でリスキリングをさせても,期待された成果が出ないケースは多いのではないだろうか。

 

AI技術の進化は,人間の学習スピードを置き去りにして加速し続ける。

会社が用意した「お仕着せの教育」で,この速度に追いつけるのか。
それとも,「人を教育してキャッチアップさせる」というモデルそのものが,AI時代における最大のバグなのだろうか。

生成AIによって生産性が何倍も向上すると喧伝されているが、仮に2倍になっただけでも開発者の半分は不要になる計算だ。究極的には、一握りの極めて優秀な層が未踏の新システムを創り出し、残りのわずかな開発者がAIを駆使してシステムを「生産」する時代が来るだろう。その頃には、システム開発の雇用は現在の数十分の一にまで激減しているに違いない。

 

最近、業務担当者がAIで手軽に作ったツールを、IT部門が責任を持って保守・管理すべきだという論調を目にした。正直、さすらいびとはそんなIT業界で働くのは御免だ。そもそも、そのツールがバグで会社に損害を与えた際、誰が責任を取るのかという「Accountability」の所在が致命的に欠落している。AIが生成したコードを人間が修正・メンテする「バイブ・コーディング」の末路は、最悪のシステム開発の始まりでしかない。しかし、AIの精度が上がれば、業務担当者はわざわざシステム担当に説明して完成を待つより、自分でAIに頼んで作る方を選ぶようになるだろう。

 

普通のプログラマは、ゼロからコードを書くことや、美しいコードを読むことを愛している。逆に、クソコードを読み、それを修正させられることは忌むべき苦痛であり、できることなら一から作り直したいと願うものだ。

 

確かに仕事としての口は残るかもしれない。しかし、それは顧客が欲しいシステムの要求を聞き、プロンプトを入力するという、今までのプログラミングとは異なる作業だ。AIが生成したコードを確認・検証する作業もそこに含まれるが、他人が(あるいはAIが)書いたコードの正当性を保証するだけの作業は、自ら書くよりも認知負荷が高く、精神的な摩耗も激しい。やがて、今のように「好きでシステム開発をする人」は姿を消し、割り切って作業をこなす「職業プログラマ」ばかりが残ることになるだろう。

 

本当にプログラムを愛する者は、AIの手を借りず個人で開発を続ける道を選ぶのではないか。そして、AIを駆使してシステムを作るのが好きな人は、自ら欲しいシステムを開発し、新たなビジネスを立ち上げる側へと回るのではないだろうか。

 

現状、ソフトウェア開発のV字モデルにおいて、実装や単体テスト(UT)といった「底」の部分は、ほぼ生成AIで事足りるようになっている。ニッチな処理を除けば、実装者の役割はいずれ消滅するだろう。上流工程においても「考える」のは人間だが、ドキュメント作成などの「手を動かす」作業はAIが担う。プロンプト技術すら自動補完され、本質さえ伝えれば良い時代が来るのだ。

 

テストにおける「Validation & Verification」の考え方に照らせば、システム仕様から下の工程が自動化可能であることは既知の事実だ。生成AIはそれを可視化したに過ぎない。上流ほど必要な人員は少ないため、最終的にシステム開発に携われるのは現在の1割程度だろう。

 

深刻なのは、大量の開発者を抱えるIT専門企業だ。欧米のような即時の解雇は難しく、リスキリングを謳ったところで上流の椅子も限られている。では、あぶれた9割、いや、下流工程専門のIT企業ならそれこそ全開発者はどうなるのか。企業のIT予算には上限があり、システムが溢れれば運用の複雑性が増して維持費に予算が食いつぶされる。案件が爆発的に増やせるわけでもない以上、過剰雇用による不採算で崩壊する企業が続出するのではないだろうか。

欧米では、AIの台頭によってホワイトカラーの雇用が劇的に減少している。かつてエリートの代名詞だったコンピュータ系の新卒者ですら、「新卒レベルの仕事ならAIで十分」と採用を控えられる事態だ。その一方で、AIの手が届かないブルーカラー・ワークが注目を浴び、「ブルーカラー・ミリオネア」なる言葉まで生まれている。深刻なのは、未経験者が実務を通じて経験者へと成長していくパスが失われつつあることである。

 

欧米で起きた現象は、いずれ日本にも波及するのが常だ。では、日本でも同様の雇用減少が起きるのだろうか。

 

さすらいびとの見解としては、短期的には雇用への直接的な影響は少ないと考える。理由は単純で、日本には解雇規制があり、簡単に首を切ることができないからだ。しかし、これは諸刃の剣である。解雇が困難であれば、企業はAI導入による合理化のメリットを享受しにくくなる。結果として、かつてのIT化の遅れと同じ轍を踏み、欧米や解雇の縛りのないスタートアップ企業との価格競争に敗れてシェアを落とすリスクがある。最終的には「倒産」という最悪の形で、雇用に跳ね返ってくるのではないかという懸念は拭えない。

 

また、その「倒産」に至るまでの時期がどの程度ずれるかによって、ブルーカラーへの雇用人気のシフトが起こるかは不透明である。というのも、昨年あたりから「フィジカルAI」への注目度と投資額がともに高まっており、これはロボット開発を得意とし、人口オーナス(少子高齢化)に直面する日本にとっても注力すべき分野だからだ。もし倒産までの猶予期間が長引けば、その間にフィジカルAIが台頭し、今度はブルーカラー・ワークに対してもホワイトカラーと同様の代替問題が発生する可能性があるからである。

 

一方で、若者の採用控えについては、日本ではほとんど起きないだろう。そもそも少子化で若者の数自体が減っているため、採用を絞る余裕がない。日本企業はバブル崩壊後の採用抑制によって、組織内に深刻な世代間の歪み(ギャップ)が生じた苦い経験を持っている。同じ過ちを繰り返さないためにも、例年通りの採用が維持され、むしろ希少となった新卒者にとっては「ちょうど良い」雇用状況が続くのではないかと、さすらいびとは予想している。これによって、欧米のように「実務経験を積む場が失われる」という問題も、日本では回避できるはずである。

最近、生成AIを活用した「開発」が大きな話題となっている。AnthropicがClaudeの大部分を2週間足らずで構築したという話や、富士通が生産性を100倍に向上させた例など、枚挙にいとまがない。

 

しかし、生成AIで一体どこまで可能なのだろうか。システムはリリースして終わりではない。運用中の法改正対応などで改修が必要になるのは当然である。ここで問題になるのが、生成AIの「再現性のなさ」だ。追加要件のために指示を出しても、意図しない箇所まで書き換えられてしまう懸念がある。これを的確にコントロールするには、結局のところプロンプターが生成コードを完全に理解していなければならないのではないか。

 

テストで担保すれば良いという意見もあるだろう。だが、回帰テストそのものが改修によって変質してしまっては意味がない。既存の処理を維持しつつ、追加部分だけを正しく修正したとどう判定するのか。また、学習データに紛れ込んだ著作権やライセンスの問題も無視できない。生成されたコードにOSSの利用規約違反や他社の権利侵害が含まれていないか、誰がどう判定するのかという課題が残る。

 

昨今、コーディング知識のない人がプログラムを作る「バイブ・コーディング」が流行しているが、さすらいびとはこれにあまり意味を感じない。むしろ、負の資産(技術的負債)を増大させるだけではないか。数分で吐き出された大量のクソコードを、システム部門に「レビューしてメンテしろ」と押し付けるのは、現場からすればたまったものではない。最終的には、ロジカルな思考ができない人間による、ロジカルでないシステムが溢れかえるリスクすらある。

 

では、生成AIは単なるハリボテなのか。

 

現状、本番環境のコードを丸投げするにはまだ懸念が多い。現時点で期待できるのは、モックアップやプロトタイピング、あるいはテストの自動生成だろう。ただし、出来の良すぎる試作版は「すぐ完成する」という誤解を顧客に与えかねないため注意が必要だ。また、設計のベストプラティスをまとめてもらうといった補助的な役割には非常に有用である。実装についても、コーディングの補助や、人間が差分を承認することで意図しない改修を避けるツールを活用することはできるだろう。

 

さすらいびとがシステム開発者としてAIに真に期待するのは、セキュリティなどの「非機能要件」を満たすためのコーディングだ。もちろん、現状ではまだ生成AIに全任せできない問題はある。しかし、例えばCERT/CSIRTなどのインシデント情報から学習した専用AIと連携し、既知の脆弱性対策を取り込んだコードを追加できるようになれば非常に有用ではないだろうか。

 

メインの機能実装は人間が行えば十分であり、むしろAIによって多重下請け構造で増えすぎた能力不足や適性のない人員を排除できれば、より良いシステムを早くリリースできる可能性がある。もっとも、浮いた人員をAIが吐き出したツールのメンテに回すという考えもあるかもしれないが、そもそも適性に欠ける人員にそれを任せるのは無理があるし、残った「精鋭」にやらせるにはあまりに惜しい仕事である。

 

さらに先の世界はどうなるか。The Agentic Manifestoによれば、今後の開発は結果が確定的ではなくなり、テストや品質の概念そのものが変わるという。システム開発という分野が変質していく中で、これまでの開発の形を愛してきた人たちが、果たしてどこまでこの業界に居続けられるのだろうか。

最近、AIツールの導入が逆に「企業の競争力を奪う」という話を聞いた。AIに頼りすぎることで差別化がなくなり、フラット化や画一化が進むことへの警鐘らしいが、さすらいびとは少し違う見方をしている。

結局のところ、それは「AIでできること」しかしていないということではないか。

淘汰される企業、残る要素

本来、AI化が進めば進むほど、逆に「AIにできないこと」だけが浮き彫りになって残るはずである。もし、AIに代替できない独自の強みを持っていない企業があるならば、それはそもそも消滅する運命にあるということではないだろうか。

例えば弁護士のような、いわゆる「頭脳労働」がメインの業界はどうだろう。こうした分野はAIによる代替が容易であり、どんどん画一化が進んでいくだろう。最終的には、フィジカルな要素以外のほとんどがAIに置き換わる未来が見える。

「組織知」という幻想

また、よく言われる「組織知」についても疑問が残る。

  • もし組織に本当の意味での知見が蓄積されており、そこに価値があるのなら、AI化した瞬間に何らかの不都合や問題が噴出するはずである。
  • しかし、実際にはそのような問題が起こっていない。
  • ということは、守るべき「組織知」なんてものは、最初から存在していなかったのではないか。

AI化によって露呈するのは、企業の無個性とその空虚さなのかもしれない。


参照元:AIツールの導入が「企業の競争力を奪う」納得の理由。リストラ急ぐ企業に専門家が警鐘 | Business Insider Japan