2023年5月2日

 

 ChatGPTを運営している企業OpenAI(生成型AI企業の代表として使わせてもらう)は、ChatGPTを運営することによる利益とともに、ChatGPTのシステムを販売することによって利益を得ることを予定している。たぶんその利益はChatGPTの運営による利益を超える水準であろう。

 そのシステムは、その基礎となる学習のために収集する情報、その成果品に何らかの条件を付けるように顧客が注文をすることができるものであるはずだ。

 あるいは、顧客が購入後に自らそのような条件づけを行えるようにしたシステムであることも考えられる。

 

 顧客は次のようなサービスを行う組織・企業が大きなウエイトを占めることになるであろう。

 法律相談、税務相談、医療相談、投資相談、経営診断・経営相談、育児・教育相談、人生相談‐‐‐。

 そして相談とまでは言えない、様々な社会事象にどのような態度をとったら適当かというよもやま話、床屋談義、井戸端会議レベルの判断の提供。

 クライアントからの相談、照会に対して自社の生成型AIが作成した回答を提供するというサービスである。

 弁護士法、税理士法、医師法等々との調整を要するであろう。

 既存のそれぞれの分野の知的専門職との競合が必至だということである。

 競合する分野の知的専門職が多くの仕事を奪われるおそれがあるということである。

 しかし、これはこれで問題だが、「生成型AIの危険」として本通信で注意喚起したいのは別のことである。

 

 システムを購入する事業者として、宗教団体、政治組織(政府を含む)、外国、各種営利企業(特に金融投資系)のダミーが考えられる。

 これらダミーが親会社、親組織の利益を図る目的でシステムに条件付けを行い、その目的にかなった成果品を中立的な装いのもとでクライアントに提供するのである。

 生成型AIには専門職による職業倫理(実際にどれだけのものがあるか、問題なしとしないが)を制度的に期待することができない。

 集めた既存の情報をコンピューターが機械的に処理しただけのものだという弁明がなされるからだ。

 職業倫理というようなものを介在させないことが生成型AIにとってはむしろ倫理だ、というような説明もありうる。

 その建て前のもとで、特定の宗教、特定の思想、特定の政治目的への誘導、民族差別、性的志向差別、貧困差別等々の差別意識の助長、特定の者の営利のための投資、消費へのそそのかしが考えられる。

 一般大衆は中立的アドヴァイスを受けるつもりで偏向アドヴァイスにさらされることになる。

 しかも、他の見解がありうることを感じさせないで、その偏向アドヴァイスが独占、寡占状態にあるアドヴァイス組織・企業から集中的に行われる。

 あなどりがたい優秀さを誇る生成型AIの前に愚かなる大衆はひとたまりもないであろう。

 民主主義という観点から見た場合、「生成型AIの危険」とはこれである。

 生成型AIによる一般大衆の「洗脳」「マインド・コントロール」である。

 G7では中国、ロシアによるフェイクという問題意識があったようである。

それも危険の一つではあるが、こちらサイドにおいても決してそれに劣ることのない、極めて大きな危険、獅子身中の虫が足もとに迫っているのだ。

 

 果たして規制によってこのような危険に対処することができるであろうか。

 規制主体として政府も危険であり、どのような規制主体が考えられるであろうか。

 一般大衆のひとりひとりの情報評価能力を鍛えるほかに道はないのではなかろうか。