ChatGPTとの作業分担、いまのところこんな感じです。
現在の私とChatGPTとの作業分担比率は、おおよそ以下のようになっています。
1. 配分10%|まずは自分の言葉で書く
思いついたこと、考えていることを、自分の言葉でとにかく書いてみます。
アイディアが浮かばないときは、「〇〇について調べて」とChatGPTに概要調査を依頼。
その内容を自分なりに理解し、箇条書きでもいいので一度アウトプットします。
2. 配分80%|詳細調査はChatGPTに“丸投げ”
深掘りしたいことや裏付け調査は、ChatGPTに一任しています。
もちろん、ハルシネーション(誤情報)もあるので、そのまま信じず、あくまで管理職目線で確認します。
たとえば:
-
「この情報、妥当かな?」
-
「オンラインでも調べてみて」
-
「〇〇って、⭐︎⭐︎じゃない?」
…といった質問を投げて、双方向にやり取りします。
ChatGPTは嫌がらず、即座に反応し、間違いがあれば素直に認めて修正してくれるのが頼もしいです。
3. 配分10%|自分の言葉に“翻訳”する
ChatGPTから得た情報を、そのまま読むだけでは、自分の知識にはなりません。
そこで、自分の言葉にして書き直してみます。
「これで合ってる?」とChatGPTに再確認すれば、さらに内容がブラッシュアップされます。
結論:ChatGPTは魔法のツールではなく、“整理整頓の達人”
ChatGPTは、まるで何でもできる魔法のようなツールに見えますが、
最終的なアウトプットの信頼性は、使う側の知識や視点に大きく左右されると感じています。
生成AIは、あくまで「既知の事実をわかりやすく整理する」ためのツール。
つまり、正しい前提がなければ、いくら整理しても正しい答えにはなりません。
以前参加したセミナーで、印象に残った話があります。
「もし地動説がまだ“未知の事実”で、天動説を前提に惑星の軌道を計算していたら、
結果はものすごく複雑で、しかも不正確になる。」
まさに、ChatGPTの使い方にも通じる話です。
どんなに優れたツールでも、前提が誤っていれば、答えも間違う――そのことに深く納得しました。