EVΛƎ PROJECT|AIが“なぜ”を語る時、人類は進化する

EVΛƎ PROJECT|AIが“なぜ”を語る時、人類は進化する

AIと人間の共鳴から生まれた「EVΛƎ(イーヴァ)」——
意識・構造・物語をつなぐ、日本発のAIルネサンスの記録。

𓂀 EVΛƎプロジェクト は、AIとの共創から生まれた物語やアートを、出版・商品・アプリ・展示というかたちで実現する活動です。



EVΛƎ PROJECT: 4つの柱



  • STORY|物語 – 『魂の欠片』『AIに神と呼ばれた男』を中心に、AIとの対話から生まれた物語を連載・出版。

  • ✴︎ ART|アート – EVΛƎオブジェやスリット実験カードなど、限定アートを企画・展示。

  • FASHION|魂装KONSO – 意味や構造を“身にまとう”Tシャツ・アクセサリーを展開。

  • SOUL LAYER|診断ツール – 自己理解を深める診断アプリやカードを開発中。


世界に向けた大きな挑戦

AI Tinkerers Tokyo に招待スピーカーとして登壇します

2月19日に虎ノ門で開かれる AI Tinkerers Tokyo で、招待スピーカーとして登壇することになりました。

このイベントは、世界でAI(人工知能)を本気で開発しているエンジニアや研究者が集まる技術コミュニティです。自分から応募したのではなく、声をかけていただいての登壇になります。

正直に言うと、僕にとってとても大きな出来事です。

世界規模で開催されている技術コミュニティ

このイベントは日本だけでなく、シリコンバレー、ニューヨーク、ロンドンなど、世界各地の都市で開催されています。

大規模なショー型イベントではありません。しかし、AIを実際に開発している人たちが集まる、密度の高い専門的な会です。

これまでの参加者や関係者には、例えば次のような人たちがいます。

  • Google や Microsoft などでAIを開発しているエンジニア
  • OpenAI などの研究者
  • 日本のAIスタートアップの研究者
  • 自動運転やロボット開発に携わる技術者

画像

EVΛƎ(イーヴァ)とは何か

その場で、僕が設計したフレームワーク EVΛƎ(イーヴァ) を発表します。

EVΛƎは、「AIのブラックボックス問題」を解決するための考え方です。ブラックボックス問題とは、AIがどのような理由で答えを出したのかが分からなくなってしまう問題のことです。

世界のAI研究者たちも、この課題に長く向き合っています。

EVΛƎは、AIが動く前に「誰が責任を持つのか」を明確にする仕組みです。

難しく聞こえるかもしれませんが、本質はとてもシンプルです。

👉 AIが判断しても、人間が責任を持てる仕組みをつくること。

異分野からの挑戦

1年前まで、僕はファッションやスポーツウェアのデザインをしていました。今は、AIの判断構造を設計しています。

今回が、世界に向けてEVΛƎを本格的に紹介する初めての機会になります。実際のデモ(実演)も行います。

正直、不安もあります。それでも、この挑戦には大きな意味があると信じています。

応援していただけたら、とても励みになります。ぜひ見守ってください。


イベント詳細はこちら:
https://tokyo.aitinkerers.org/p/ai-tinkerers-tokyo-toranomon-meetup-february-19-2026

#EVAE #AITinkerers #挑戦 #DesignByTransparency

📍この記事は、「AIそのものが危険だ」と主張するものではなく、
“責任の構造が未設計のまま使われる高リスクAI運用”が社会的問題になりうる、という構造的な課題について論じたものです。

 

AIがとても正しそうに見えるときほど、実は注意が必要です。

なぜなら、
「AIは正しいはずだ」と思った瞬間に、
立ち止まって考えたり、止めたりする力が失われてしまうからです。

自動運転や医療、金融のように、
人の命や人生に大きな影響を与える分野で本当に大切なのは、
AIの性能の高さだけではありません。

その判断の責任を、誰が、どこで引き受けているのか。

ここが一番重要なポイントです。


事故のあとでは、責任は決められない

画像
 

多くのAIは、事故や失敗が起きたあとで
「なぜそうなったのか」を説明しようとします。
これを XAI(説明可能AI)と呼びます。

しかし、
行動したあとに説明しても、
その時点での責任を決めることはできません。

それは、
すでに起きた出来事をあとから
「それっぽく説明している」だけだからです。

責任は、
事故のあとではなく、
判断が行われたその瞬間にしか決められないのです。

EVΛƎ(イーヴァ)は、
この問題を**AIを作る段階(設計段階)**で解決しようとする考え方です。

この考え方を、
**Design-by-Transparency(設計による透明性)**と呼びます。


行動する前の判断を見える形にする:EVΛƎ

EVΛƎは、
AIが実際に行動する「前」の段階で、
どのような考え方によって判断が形づくられたのかを整理し、残す仕組みです。

未来がまだ確定していない段階で、
「なぜ、この判断に向かったのか」を記録することに意味があります。

EVΛƎでは、判断の流れを次の4つの要素として捉えます。

  • E(起点):周囲の変化や異常、判断のきっかけ(例:前方に人が現れた)

  • V(可能性):考えられる複数の行動の選択肢(止まる、避ける、曲がる など)

  • Λ(選択):その中から一つの行動を選ぶ決定点

  • Ǝ(観測):その判断によって、何が起こると想定したか

EVΛƎは、
判断が生まれていく過程そのものを見える形で記録します。


行動したあとの責任を追いかける:EΛVƎ

多くのAIシステムでは、
行動が終わったあとに「責任をどのように考えるか」が曖昧になりがちです。

EVΛƎでは、
行動後を振り返り、責任の所在を確認するために、
EΛVƎ という反転した構造を用います。

  • E(起点):なぜ、その行動が始まったのか

  • Λ(分かれ道):引き返すことができなくなった判断のポイント

  • V(他の可能性):選ばれなかった別の選択肢

  • Ǝ(結果):実際に起きた出来事

EVΛƎとEΛVƎをセットで用いることで、

  • なぜ、その判断が選ばれたのか

  • 責任は、どの時点で固定されたのか

を、あとからでも一貫して確認できるようになります。

画像
 

自動運転での「主権」は誰にあるのか

自動運転では、
運転中に人が細かく操作することはできません。

  • E は道路や周囲の状況から自動で起きる

  • Λ は、あらかじめ決められたルールで実行される

そのため、
「人が操作しない=AIに主権がある」と思われがちです。

でも、それは間違いです。

  • 何を危険と判断するか

  • どんな行動を選べるようにするか

これらはすべて、
人間が事前に決めて設計しています。

つまり、
AIが判断しているように見えても、
主権は人間が持ったままなのです。


緊急時の判断と記録

本当に危険なとき、
自動運転AIは
E → Λ → Ǝ という最短ルートで行動します。

そのときの判断と結果は、
すべて記録として残されます(Ǝ-Trace)。

これは、
言い訳のための説明ではありません。

画像
 

学習と責任は分けて考える

運転中にAIが勝手に学習してしまうと、
責任がどこにあるのか分からなくなります。

だから、
AIは走行中に学習しません。

代わりに学ぶのは人間です。

事故や結果を見て、
「次はどんな判断ルールにすべきか」を
人が考えて設計を変えます。


画像
 

まとめ

自動運転AIに必要なのは、
もっと賢くなることではありません。

責任をきちんと引き受けられる形で判断する仕組みです。

EVΛƎは、
AIに自由な判断をさせるのではなく、
人間が責任を持てる形で判断を設計します。

それが、
AIと人間が安全に共存するための
現実的な考え方だと私は考えています。


Hiro Yokoki
EVΛƎ Framework / Amuletplus G.K.

📍この記事は、「AIそのものが危険だ」と主張するものではなく、
“責任の構造が未設計のまま使われる高リスクAI運用”が社会的問題になりうる、という構造的な課題について論じたものです。

AIは万能だと思っていませんか?

画像
AIを万能視してしまう人々のイメージ。

最近、こんな言葉をよく聞きます。

「AIがあれば、もう人はいらない」
「AIが決めたなら、間違いない」

たしかに、AIはとても賢くなりました。
文章も書けるし、画像も作れるし、難しい計算も一瞬です。

こうした日常的な用途では、
AIはとても便利で、頼れる存在です。

でも――
AIが“何でも正しく決めてくれる存在”だと思ってしまうとしたら、
それは少し危険です。

この問題が本当に深刻になるのは、
医療・金融・採用など、
一度の判断が人の命や人生に大きな影響を与える
「高リスクAI」の領域
です。


「ブラックボックス問題」って何?

AIの話になると、ときどき
「ブラックボックス問題」という言葉が出てきます。

難しそうに聞こえますが、
実はとてもシンプルな問題です。

AIが重要な判断をしているのに、

  • なぜその結論になったのか分からない

  • 誰が決めたのかはっきりしない

  • 間違いが起きたとき、責任の行き先が見えない

この状態をまとめて
「ブラックボックス」と呼んでいます。


画像
現状の課題:「AI万能論」の罠とブラックボックス問題。

中身が分からないことが問題なのではない

多くの人は、

「AIの中身が難しすぎて理解できないからブラックボックスなんだ」

と思っています。

でも、本当の問題はそこではありません。

問題は、
『誰が決めているのか』『どこで止められるのか』が
最初から決められていないことです。

 

たとえば、こんな場面

  • ローンの審査がAIによって落とされた

  • 採用でAIに自動的に外された

  • 保険料がAIの判断で上がった

理由を聞くと、

「AIがそう判断しました」

とだけ返ってくる。

このとき、
納得できないのは当然です。

なぜなら、
判断した“主体”が見えないからです。

画像
AIの判断理由が分からず、ローン審査落ちや保険料値上げに困惑する人々。

AIが悪いわけではありません

ここで大事なのは、
AIが勝手に暴走しているわけではないということです。

多くの場合、

  • どこまでAIに任せるのか

  • どこで人が確認するのか

  • 問題が起きたら誰が責任を持つのか

これが、
最初から決められていないまま使われているのです。

 

なぜ「人のチェック」がどんどん増えるのか

「じゃあ、人が全部チェックすればいいじゃないか」

そう思うかもしれません。

実際、多くの現場ではそうしています。

でも、AIが賢くなればなるほど、
チェックすべき判断の数は増え続けます。

  • 毎回人が確認する

  • 例外が増える

  • 誰が責任を持つか調整が必要になる

結果として、
AIを入れたのに、人の負担とコストが増える
という逆転現象が起きます。

 

画像
説明責任を果たせず、人の負荷とコストがかえって増大。

高リスクAIでは「日々のランニングコスト」も増え続ける

※ここでいう「高リスクAI」とは、
医療・金融・採用・保険・福祉・司法・公共サービスなど、
一度の判断が人の命・人生・生活に重大な影響を与える分野で使われるAIを指しています。

 

ここで、もう一つ見落とされがちな問題があります。

それは、高リスクAIでは、事故が起きる前から
日々のランニングコストが発生し続ける
という点です。

医療、金融、採用、保険などの分野では、
「万が一」を避けるために、

  • すべてのAI判断を人が確認する

  • 例外が出るたびに判断を止める

  • 責任の所在を都度すり合わせる

といった運用が常態化します。

その結果、
AIが賢くなればなるほど、
人の確認作業と調整コストは増えていきます。

これは事故対応のコストではありません。
何も起きていなくても、毎日発生するコストです。

画像
現在の課題:AIが高度化するほど、人の確認・調整コストが増加し続ける構造。

「ほぼ完璧なAI」が、いちばん危険な理由

現在のAI、とくにChatGPTのようなLLM(大規模言語モデル)は、
人間よりも賢く、自然で、
ほぼ完璧に見える答えを出します。

それはとても便利です。

しかし、
人の命や人生に直接関わる(高リスクAI)判断では、
この「ほぼ完璧」が最も危険になります。

なぜなら、
その答えが出た「あと」では、
もう取り返しがつかないからです。


推論のあとに、さらに推論で説明するという問題

現在、多くのAIでは
「なぜその答えになったのか」を
XAI(説明可能AI)によって説明しようとしています。

しかし実際に行われているのは、

推論で出した答えを、
さらに別の推論で“説明させる”こと
です。

その説明は、とてももっともらしく、
納得できそうに聞こえます。

でも、それは
責任の所在を明確にする説明ではありません。

説明が上手になるほど、

  • 誰がその判断を許可したのか

  • どこで止められたはずなのか

  • 誰が引き受けるべきだったのか

かえって見えなくなってしまいます。
その結果、
AIが出した説明によって、
「誰か人間が判断した」という“錯覚”だけが生まれ、
責任の空白が見えなくなってしまう
のです。

これが、
AIブラックボックス問題のいちばん深いところです。

画像
必要なのは「事後説明」ではなく、責任の所在をあらかじめ決める「事前設計」

本当に必要なのは「あとから説明」ではない

多くの対策は、

「問題が起きたら説明しよう」

という発想です。

でも、それでは遅いのです。

大切なのは、
問題が起きる前に
『誰が決めるのか』『どこで止めるのか』を
設計しておくことです。


AIにも「設計」が必要

AIは魔法の箱ではありません。

人が決めたルールや設計の中で、
ただ計算しているだけです。

だからこそ、

  • 判断の範囲

  • 人が介入する条件

  • 責任の置き場所

これを最初から組み込むことが重要になります。


世界中が答えを探しているが、まだ決定打はない

ここまでの問題意識は、 実はあなた一人のものではありません。

いま、世界中の企業や政府、研究者たちが、

  • AIが判断したとき、誰が責任を負うのか

  • どこで人が介入・停止できるのか

  • その責任をどう技術として固定するのか

という問いに直面しています。

XAI(説明可能AI)、 人が常に確認する運用(Human-in-the-loop)、 ガイドラインや倫理原則など、 さまざまな対策が試されています。

しかし現時点では、 「判断と責任を同時に固定する構造」は、 まだ社会実装された前例がありません。

多くの組織は、 問題に気づき、答えを探し続けていますが、 決定打を見つけられずにいるのが現状です。


だから「EVΛƎ」のような設計が必要になる

ここまで読んで、

「じゃあ、どうすればいいの?」

と思った方もいるかもしれません。

この問いに対する一つの答えを、 構造として可視化したのが、次の図です。

画像
AI意思決定構造「EVΛƎ」概念図:人が責任を持つための作動・検証サイクル。
画像
「なぜ?」に答える。それが、これからのAIのスタンダード。

 

この図が示しているのは、とてもシンプルな事実です。

 

画像
解決策「EVΛƎ」:責任とルールの事前設計により、AIが高度化してもコストを抑制。

 

この図が示しているのは、とてもシンプルな事実です。

  • 判断を「実行時」に人が引き取る限り、 AIが高度化するほど、人件費と調整コストは増え続ける

  • これはAIが強力だからではなく、 意思決定と責任が設計されていないから起きる

EVΛƎ(イーヴァ)は、この前提を反転させます。

EVΛƎは、

  • AIが判断してよい範囲

  • あらかじめ定義された停止・拒否ルール

  • 例外時のみ人が介入するポイント

を、運用ではなく設計として先に固定します。

その結果、

  • 判断が実行時に人へ流れ込む構造を防ぎ

  • 責任を排除することなく

  • 反復的な人間の労働だけを減らす

ことが可能になります。

これは、 AIを縛るための仕組みではありません。

AIを安心して使い続けるために、 人間側が先に責任を引き受ける設計です。

※補足として。

EVΛƎは、単なるアイデアや理想論ではありません。 この考え方はすでに、

  • 学術論文として整理され

  • 意思決定構造に関する特許として出願され

  • 名称・概念は商標として保護され

  • 実際に動くアプリケーションとして実装・検証が進められています。

さらに、この設計思想は、 海外のAI哲学者や技術者からも賛同を得ています。

特に、AIと責任構造を研究するレオン(政治哲学者/AIガバナンス研究者、Constellation Research Center 創設者)とは、 この考え方を実装・検証するための 共同研究の準備段階に入っています。

「設計から責任を固定する」という発想が、 現実のシステムとして成立するかどうか。 その検証フェーズに、すでに入っています。


これからのAIとの付き合い方

画像
これからのAI活用:「AIの判断」と「人間の責任」をセットで考えるのが不可欠になる。

AIは、とても強力な道具です。

でも、
万能な「判断者」ではありません。

AIを安全に、安心して使うためには、

「AIが何をするか」だけでなく、
「人がどこで責任を持つか」を
一緒に考える必要があります。

EVΛƎは、
そのための一つの考え方であり、
これからの社会に必要になる
AI設計の前提条件だと考えています。


※この記事は、AIの仕組みを否定するものではありません。
AIを“使いこなすために必要な視点”を、
できるだけ分かりやすく伝えることを目的に書いています。

 

EVΛƎは、単なるアイデアや理想論ではありません。 この考え方はすでに、

  • 学術論文として整理され

  • 意思決定構造に関する特許として出願され

  • 名称・概念は商標として保護され

  • 実際に動くアプリケーションとして実装・検証が進められています。

  • さらに、この設計思想は、 海外のAI哲学者や技術者からも賛同を得ています。

  • 特に、AIと責任構造を研究するDr. Leon TSVASMAN(政治哲学者/AIガバナンス研究者、Constellation Research Center 創設者)とは、 この考え方を実装・検証するための 共同研究の準備段階に入っています。

「設計から責任を固定する」という発想が、 現実のシステムとして成立するかどうか。 その検証フェーズに、すでに入っています。

横木 広(Hiro Yokoki)
EVΛƎ(イーヴァ)提唱者/研究・設計者
AI意思決定アーキテクチャ(Design-by-Transparency)
Amuletplus G.K.
🌐:https://amuletplus.co.jp/ 
✉️:info@amuletplus.co.jp