問題を自覚して、
理解して、
使いこなして、
使ってくれるならそれでいい。
けど、
問題を自覚してると錯覚し、
理解していると思い込んで、
使いこなせてるつもりで、
使われたら洒落にならんのよ。
「根本(アーキテクチャ)的になんとかしないといけないのに、AI で誤魔化して、傷を広げてしまう」致命的な事例を、すでにちょいちょい見聞きしてる。
今までだったら技術力が足りなすぎて手出しもできなかったところに手が届いたという「錯覚」に陥って、問題を複雑に絡み合わせて、物量で手の施しようをなくしてしまう。
これが、確実に発生している。
しかも結構な数。
自分の技術力の何段も上のことを、AIで中途半端に取り入れてやるもんだから、「ちゃんとした」不具合調査とか対応とかできないんだよね。
お茶を濁すだけ。
AI に任せてドヤ顔。
ちゃんと理解できてないのに、解決した気になってる。
次のフェーズは理解不能×理解不能の不具合の連鎖。
WindowsUpdateでIISが動かねぇとか、そういう騒ぎと同じようなことになる。
で?
状況が極まったら、下手人は「新しいことをしたくなったので」と逃げる。
残されるのはさらに技術力の低いニョロニョロの群れ。
それ見て慌てる経営者。
何度見てきたことか、この光景……。
今までいくつもの炎上現場周りしてきたけど、同じ「炎上」といっても筋の良し悪しがある。
中途半端に「俺できるんすよ」ってエンジニアがいて、技術力が全然足りないのに、ググりまくって勘違いして、患部をいじくり回して拗らせてしまった現場は、マジで開腹して「……(-_-)……」で絆創膏だけ貼ってそっ閉じ、「隣に似たやつ作りますわー」ってなる。
今までならこの悪筋でも、足りない技術力から背伸びする程度、当然物量も少ないので、汚染範囲が小規模隔離できて、なんとかできたんだよ。
でもね、AI使って、理解できない内容をふんだんにぶちまけられると、汚染範囲の特定も難しいし、汚染された生成物(データ)のサニタイズ、レスキューも、困難って文字で済めばいいDeathねー、くらいになる。
そろそろ炎上現場、底なし泥沼現場の救援が不可能になってきてる気配がしてる。
原因になったCTOとかマネージャが邪魔してくるしなぁ……。
お前らの責任なんだよ、理解してるか?
絶望的なのが、そうなってるのに気づかないレベルのエンジニアが、AI使ってホルホルしてるところ。
「レビューがちょっと大変ですねー」
ってその程度しか自覚ない?
まぁ、見えない次元での崩壊は、見えないからねぇ……。