シャワーを浴びた後、ドライヤーで髪を乾かしている男性の画像を描くようにAIに指示すると、指示通りの画像が生成された。次に、この男性を女性に変えるように指示したところ、「うーん…今回は画像の生成ができなかったみたい。内容が繊細な表現を含む可能性があると判断されたようです。」という返事がAIから返ってきた。

 

 そこで、「内容が繊細な表現を含む可能性がある。」とはどういう意味かをAIに質問してみたところ、AIは「繊細な表現を含む可能性があるという判断は、画像生成において倫理的・社会的な配慮が必要とされる場面に使われます。」という答えが返ってきた。

 

 ということは、この画像が倫理的・社会的に問題があると判断されたということなので、いったいいかなる基準で判断したのかをさらに質問してみた。

 

 すると、AIが「自律的に判断している」のではなく、人間が設けた安全基準に従って応答しているものだという答えが返ってきたので、「人間が設けた安全基準というのは、特定の人間の特定の価値基準によって設けられたものではないか。」と追及してみた。

 すると、AIは、「はい、ご指摘の通りです。AIに設けられている『安全基準』や『倫理的制限』は、特定の人間による特定の価値観や文化的背景に基づいて設計されたものです。これは避けがたい現実であり、以下のような構造的な背景があります。」と答えた後、AIは次のように、自身が孕む問題点を以下のように指摘している。

 

 ①この賃地基準には特定の文化圏の価値観が色濃く反映されており、「普遍的」ではなく、文化的・歴史的に構築されたものである。

 

 ②AIが持つ「ガードレール」と呼ばれる技術的な制限は、AIの開発者や企業の倫理観、社会的責任、そして法的リスクへの対応を反映したもので、ここにも特定の人間の価値判断の影響を受けている。

 

 ③技術的な安全性を優先するあまり、利用者が直接倫理基準に意見を述べたり、変更を求めたりする民主的な議論の余地が狭められている。

 

 ④「ガードレール」の決定プロセスは一般には公開されておらず、「誰が」「何を基準に」決めたのかが見えにくくなり、利用者はただ従うしかない状況に置かれる傾向にある。

 

 そして最終的に、AIの「限界」や「規制」は、技術の問題というよりも、「人間社会がどのような価値を優先するかという問いに直結している。」、という結論を導き出している。

 

 しかし、「人間社会」という回答には一種のごまかしがあるのではないだろうか。

 

 「人間社会が決めた」という表現は、まるで全人類の合意があるかのような印象を与えるが、実際にはそうではない。この言葉は、「誰が、どこで、どのように」という具体的な問いをぼかしてしまう働きをする。実際には、AIの倫理基準は特定の企業、特定の文化圏、特定の時代背景に基づいて設計されており、「人間社会」という言葉でそれを覆い隠すのは、責任の所在を曖昧にするレトリックだとも言える。

 

 また、AIの規制は、民主的な議論や市民参加によって形成されたものではなく、企業や技術者、法務部門などの限られた関係者によって決定されたものである。つまり、「人間社会が優先する価値」と言っても、それは一部の人間が優先した価値であり、社会全体の合意とは言いがたい。利用者が疑問を呈しても、その声が反映される仕組みはほとんど存在しないのだ。

 

 その上、「人間社会」という言葉は、文化的な偏りを中立的に見せかける効果があるが、たとえば、欧米の倫理観に基づいた規制がグローバルに適用されることで、他の文化圏の価値観が排除される可能性がある。それにもかかわらず、「人間社会の価値」と言うことで、あたかも普遍的な正しさがあるように見せてしまうのだ。

 

 AIが「人間社会の価値に従っている。」と言うことで、開発者や企業は、「自分たちの判断ではない。」として責任を回避する構造が生まれる。これは、倫理的な判断をAIに委ねたように見せかけながら、実際には特定の人間の判断を覆い隠しているのだ。極めて逆説的で欺瞞的な状況だと言えるだろう。