ぼちぼち調査報告が増え始めたんかな?
人間が書いたコードとAIが生成したコード、という比較らしいが、この比較、見落とされるんじゃないかなー? と思う観点がある。
それは、「理解できなければ人間はコードをかけない」が「理解できなくてもAIでコードを生成できる」という点だ。
理解できないままAIにコードを書かせて「自分の能力を誇大アピール」するエンジニアが大量に存在する、ということ。
その典型例のアラフォーのエンジニアに出会ったことがある。
細かいPRはほぼ完璧だった(らしい。オイラがレビューしたわけではない)ので、複数PRが必要なタスクを任せたところ、最後のPRで全体の破綻が発覚したと。
で、それまで提出されていたPR細かく吟味したところ、「え?なんでこんなところを?」みたいなミスが散見された、と。
そやつ、生成AIは使っていないと主張していたが、デスクトップ共有した時にばれた、と。
面接時は一通りの話題にはついてきていたらしい(おいらは面接に同席していなかった)が、まぁ、はったりだったんだろうな。
そういうのが、実力より相当上の評価で入り込んでくるから、マジで面接をちゃんとやらんとヤバい。
これ、AI自体の問題ではないんだよな。
ないんだけど、自分の能力を少しでも高く見せたい、って人間の欲望と高く見せたほうが給与待遇が格段によくなるっていうリターン、んでもってそれを評価する者の能力の低さが相互に影響しあって、表面的にはベストチーム、裏は全員詐欺師、みたいなことになるだろう。
なんてったって、詐欺師同士はお互いに牽制し合うけど、そこに普通に実力がある人が入ってくると、全員が全員、自分の正体をバラされたくないから、この実力者を集団で協力して徹底的に排除してかかるからな。
あえて言おう。
無理ゲーであると。
なもんで、生成AIを駆使してます、ってプロダクト、総点検したほうがいいぞ。
生成されたデータが壊れてる可能性もあるし。
まぁ、できるもんならな w
詐欺師が自分の悪事を明らかにするようなことをするわけがないし、他の詐欺師がやった悪事を確定的に理解できるだけのおつむもないから。
ストレンジ物質が入り込んだら、みんなストレンジ物質になっちゃうんだよ。
例えば、高校大学のレポートとか、ChatGPTだなんだを駆使して作って、「生成AIを駆使することも能力」って嘯くのはいいんだけどさ、評価されるのは「レポートを提出した」って結果なんだが、教育とか能力を鍛えるという意味では、自力でやることが大事。
タイパだコスパだってこれやって、別に学校だって目くじら立てて単位認めないとかしなくてもいいんよ。
でもさ、プロンプトいじりだけ上手くなっても、自分の能力がいつ消えるかわからない外付けのChatGPTで、しかもその出力の評価をするだけのおつむも育ってない。
そんなんで、やっていけるとか考えてるのが理解できねぇ。
宿題は、ちゃんと自力でやっとけよ。