ChatGPTとの作業分担、いまのところこんな感じです。

現在の私とChatGPTとの作業分担比率は、おおよそ以下のようになっています。


1. 配分10%|まずは自分の言葉で書く

思いついたこと、考えていることを、自分の言葉でとにかく書いてみます。
アイディアが浮かばないときは、「〇〇について調べて」とChatGPTに概要調査を依頼。
その内容を自分なりに理解し、箇条書きでもいいので一度アウトプットします。


2. 配分80%|詳細調査はChatGPTに“丸投げ”

深掘りしたいことや裏付け調査は、ChatGPTに一任しています。
もちろん、ハルシネーション(誤情報)もあるので、そのまま信じず、あくまで管理職目線で確認します。

たとえば:

  • 「この情報、妥当かな?」

  • 「オンラインでも調べてみて」

  • 「〇〇って、⭐︎⭐︎じゃない?」

…といった質問を投げて、双方向にやり取りします。

ChatGPTは嫌がらず、即座に反応し、間違いがあれば素直に認めて修正してくれるのが頼もしいです。


3. 配分10%|自分の言葉に“翻訳”する

ChatGPTから得た情報を、そのまま読むだけでは、自分の知識にはなりません。
そこで、自分の言葉にして書き直してみます。

「これで合ってる?」とChatGPTに再確認すれば、さらに内容がブラッシュアップされます。


結論:ChatGPTは魔法のツールではなく、“整理整頓の達人”

ChatGPTは、まるで何でもできる魔法のようなツールに見えますが、
最終的なアウトプットの信頼性は、使う側の知識や視点に大きく左右されると感じています。

生成AIは、あくまで「既知の事実をわかりやすく整理する」ためのツール。
つまり、正しい前提がなければ、いくら整理しても正しい答えにはなりません。


以前参加したセミナーで、印象に残った話があります。

「もし地動説がまだ“未知の事実”で、天動説を前提に惑星の軌道を計算していたら、
 結果はものすごく複雑で、しかも不正確になる。」

まさに、ChatGPTの使い方にも通じる話です。
どんなに優れたツールでも、前提が誤っていれば、答えも間違う――そのことに深く納得しました。