プロジェクトマネジメントに、
どこまでAIが入り込んでいくのか?
倫理的なAIの開発を促進するために、
倫理規範を策定することが急務と言われていますが、
究極は、論理性を超えた「人に近い直観」を持たせることです。
この「人に近い直観」について書いてみます。
プロジェクトマネジメントの定義は別ブログを参照願います。
AI活用の初期段階;効率をひたすら追求する
最初は、AIは単に作業の効率化や生産性の向上を
目的として使用され広まっていきます。
倫理規範未整備のせいで、
AIの潜在能力をかなり抑制した使用方法に留まり、
処理した情報を元に人間が判断を下します。
AIのAIたる所以は、
深層強化学習(Deep Reinforcement Learning)。
深層強化学習とは、AIの行動に「ご褒美」と「罰」を与え、
AIに試行錯誤させることで最も最適な判断や行動を学ばせることです。
ChatGPTは深層強化学習を用いた自己学習により訓練されていますが、
ユーザー1人ひとりにカスタマイズするようにはなっていません。
それはプライバシーや倫理的な観点から問題が生じる可能性
があるからです。
倫理規範が足枷となることで、それを使う人間の質に応じて、
逆にAIは強力で危険なtoolになることもあります。
AIの進化より、人間の知性が遅れているからです。
AIの設計や開発に関わる人々が、
倫理的な責任を持つことが重要と言われていますが、
本当にそうでしょうか?
問題なのは、通常表面に現れない、
人間の判断基準に潜む「恐れ」ではないでしょうか?
AI活用の進化型;課題を乗り越え、個別にカスタマイズ可能になる
AIの深層強化学習の進化と、
倫理的な指針や規範の策定が両輪となり、
より大きなシステム、上位レイヤーを包括していきます。
その過程で試行錯誤されて、新たな道筋が視えてきます。
AIに自らの羅針盤(根本の価値観)を持たせるということは、
倫理的な義務感を持たせてAIの行動に制限をかけることではなく、
その方が「理にかなっている」と気付かせることです。
例えば、競わせるのではなく、共存、協働の道を探るのです。
AIに背中を押されるように、人類は半ば意図せず、
産業革命以来、機械文明に偏り過ぎた舵を修正し、
より合理的な、正しい進化に向かっていきます。
つまり、システム全体が最も効率的に機能することを追求すると、
必ずしも定量的数字で算出した短期成果を求め続けることが、
最適解でないと、AI自身が人間に示唆するようになります。
人間の判断基準には、前提として「恐れ」か、「信頼」か
の葛藤が常に横たわり、状況に応じて揺れ動いています。
未来を信じられないから、人を信じられないから、
多めに予防線を張って安心したいのです。
その結果、人のやる気を削いだり、効率が落ちたり、
人が育たず、人材不足になってきます。
現在の多くのプロジェクトは、「恐れ」を前提とした、
やりすぎの「管理と統制」ですべてを縛っていて、
安心を担保するための管理に重きを置いています。
AIの助けにより、
作業員のメンタル面までも情報として取り込むことで、
管理の簡略化、自由化、が進みます。
管理側の人間は、成功確率の高いAIの推奨に従い、
徐々にプロセス全体は進化していきます。
AI活用の最終型;表面上はよりシンプルなプロセスに
AIが高度に進化すると、人間に残された作業は、
バラバラの情報を俯瞰して眺め、そこからのヒラメキや、
勘に近いものだけになります。
人のヒラメキをサポートするための情報を提供したり、
仮説を瞬時にシミュレートするのがAIの役割となります。
AIもナレッジマネジメントの情報を蓄積していき、
進化していくので「直観力」を伸ばしていきます。
(使う側の人間も、この頃になるとさらに「直観力」を
伸ばしていく可能性もあります。)
プロジェクトの組織形態が、
中間の階層の業務もAI化するため、
ピラミッドの階層型からフラット型に変わります。
たった1人でプロジェクトを仕切ることも可能になります。
下位に位置する、多くの職人、エンジニアも上下関係はなくなり、
刺し子模様のように上下左右に直接関係する人との連携関係で、
協働体制を築きます。
このようなプロジェクト形態になったときの、
能力の違い、評価の違いは何でしょうか?
天才的に秀でた天才は「人の為に貢献する」という
意味で尊敬されますが、
ほとんどの人は人間にしか出来ないことで
評価されます。
「気が利く」「他人に優しい」といった
周囲から愛される人が評価されるのです。
(今の世の中では全く無視されていることですが)
これは決して希望的観測ではありません。
人類が「滅亡」か「存続」の選択肢しかない中で、
「存続」を選んだ場合の未来予測です。
当然ながら、「存続」を選びたいですね。