ブラックボックスの生成AIリスク、政府が研究拠点…文章や画像を作り出す仕組み解明(23年12月30日 読売新聞オンライン無料版)

 

記事

 

(1)要点

政府は来年4月にも、生成AI(人工知能)の開発に伴うリスクについて研究する拠点を新設する方針を固めた。

生成AIの開発に取り組む民間企業に研究成果を提供することで、偽情報の流布や著作権侵害の防止につなげる。複数の政府関係者が明らかにした。

 

リンク 「フェイク画像」対策カメラ、キヤノンが発売へ…撮影日時や場所などの情報を改変できない仕組みに

 

(2)「開発者が生成AI技術を原則非公開とし、「ブラックボックス化」している」

対話型AI「チャットGPT」を開発した米オープンAIや提携関係にあるマイクロソフトは、開発競争で優位に立つため、自社の生成AI技術を原則非公開としている。こうした手法に対しては「ブラックボックスになっている」との懸念が強まっており、政府主導でリスクの透明化を図る狙いもある。

 

(3)「文部科学省所管の国立情報学研究所が中心に」

計画案では、文部科学省が所管する国立情報学研究所(東京都)内に専門の組織を設ける。同研究所長をトップとする約20人で構成し、外部から生成AIの基盤技術となる大規模言語モデル(LLM)の第一線の研究者らを公募で集める。

 

(4)「生成AIが文章や画像などを作り出す仕組みを解明」

新設する組織では、生成AIが文章や画像などを作り出す仕組みを解明し、学習方法の違いによって生じるリスクやその対応策について研究する。

 例えば、

 1)AIに学習させる場合、著作権侵害のおそれがある内容のリストを作り、それを学習対象から外すよう明示すると、どれだけ著作権侵害が起きにくくなるかを検証する。

 2)生成AIが事実に基づかない情報を出力する「ハルシネーション(幻覚)」現象が、どういった学習過程を経た場合に起きやすくなるのかも分析する。

 

研究成果については、民間企業や大学などと共有し、生成AIの開発に生かしてもらうことを想定している。

 

(5)「日本語に特化した粗悪な生成AIが蔓延する恐れ」

生成AIを巡っては、既存の文章や画像などに酷似した生成物が出回り、著作権侵害が大量に発生しかねないとの問題がある。精巧な画像や動画を作り出すことができる一方、これを悪用することで偽情報が拡散し、「民主主義の基盤を揺るがしかねない」との懸念も指摘されている。

 生成AIの開発は、国内のIT企業や研究機関が日本語に特化した人工知能の開発に乗り出しているが、リスクを十分に認識しないまま事業が進めば、粗悪な生成AIの乱造につながる可能性もある。

 このため、政府は自ら開発に伴うリスクの透明化や対応策の普及を図り、安全な開発を促進する環境を整備したい考えだ。

 

  ◆大規模言語モデル(LLM) =生成AIの基盤となる技術。膨大な文字データを学習して次に来る単語の確率を予測し、文章の作成や要約、質問への回答といった処理をする。LLMは、英語のLarge Language Modelの略。

 

リンク 「生成AI」に関する最新ニュース