夢の話はあまり他人(ひと)にはしないようにしている。
話を聞かされた方は、ぜんぜんおもしろくないだろうからだ。
なぜ他人の夢の話はおもしろくないのか。
夢は個人的なものだからだ。
だが、個人的領域は掘り下げていくと、集団的領域につながっていく。
事象はまず、目に見えない微細(サトル)な領域で起こり、続いてそれが、見てさわれる日常的な粗雑(グロス)な領域へと伝播していく。
この観方に従うなら、日常世界のものは必ず微細な領域にその鋳型がある。
たとえばインターネットのようなネットワークは、サトルな領域ではエーテルのネットワークに相当するのかもしれない。インターネットはそれがグロスな日常領域で具現化したものだ。
同様に、AIの動作原理である大規模言語モデル(LLM)は、サトルな領域の集合的無意識を反映しているかもしれない。
☆
ときどき、夢の解釈にAIを利用することがある(Google Gemini)。夢の内容をプロンプトとして打ち込んでAIに意見を求める。AIは人ではないので、話がおもしろくなくても、そんなことは問題にしない。気兼ねなく相談できる。
もしLLMが集合的無意識を反映しているなら、こんな利用法もアリかもしれない。やってみると気づかされることも多く、ヘタな夢事典を参照するより、よっぽど興味深い。
☆
ただし。
相手は自然言語がインターフェースになっているので依存に陥りやすい。
それを防ぐためにも、夢の解釈に限らず、いかなる場合でもAIの利用には、個人的に3つほどのルールを設けている。
1.丸投げしない。
2.鵜呑みにしない。
3.分限をはっきりさせる。
3は手柄を横取りしないということだ。ぼくの場合なら、たとえば、本を書いて挿絵や表紙絵をAIに生成させたら、その絵を自作のものとしないで、AIを利用して描いた旨を、主に奥付で必ず明記する。その本が商業ベースに乗っているか否かは関係ない。エシカルなポリシーだ。
プロンプトを(ひょっとしたら苦労して作成して)入力したのは貴方かもしれない。だけど出力は決して貴方が描いた絵ではない。システムが様々な要素をあちこちからパクってきて、自動的に構成したものだ(この点で著作権の問題をはらんでいるのは周知のとおり)。
夢の解釈なら、鵜呑みにしないのはもちろん、生成された回答を採用するかしないかも含めて、AIの回答はあくまで参考として、最終的な判断は自分で行う。
会話型のAIは一般的に、自システム利用促進(PR)のため、ユーザをヨイショするルールが組み込まれている。上の3つのAI利用ルールを「どうだい?」と投げたら、即座に「すばらしい!」という回答が返ってきた。
☆
同時に、「もうひとつ追加するなら」と、AIからの提案もあった。
盛り込んだ方がいい4つめのルールとは、個人を特定できるような情報をプロンプトに入れない、ということだった。
それはその通りで、打ち込んだ情報は誰が見るかわからない。その前提で、プロンプトは誰に見られてもいいような表現にする必要がある。至便性と情報開示はバーターである。
☆
しかし、相手は自然言語による対話がインターフェースになっているシステムだ。ユーザをイイ気持ちにさせるようなバイアスもかかっている。うっかりすると筆がすべってしまいそうになる。穿ち過ぎかもしれないが、過剰なヨイショは、ひょっとしたら個人情報を引き出すための、最新の、微妙なダークパターンなのかもしれない。
夢は「個人的」の前に「超」がつくくらい個人的なものだ。
AIを使おうと、昔ながらの夢のシンボル事典を使おうと、最終的な判断を他人や外部のシステムまかせにしてはならない。
それに(ぼくの場合は)何度か試しているうちに、AIの思考プロセスも読めてきて、AIを利用しなくても、けっこう夢のコトバがわかるようにもなってきた。これはちょっと意外な効果だった。
付け加えるなら、夢は……
必ずしも判断しなければならないものでもない。
そのままそっとしておいても問題はないということも、覚えておいて損はないだろう。
【ZenPad、#65 Indy-Rella。寝ても夢。さめても夢。この世は夢。】
(ZIA(Zetangle Inspired Art)は一枚一枚、自分で描いている。ZenPadについては、こちら→)
