AIにも車検が必要になる?
Microsoft、Google、xAIが、新しいAIモデルを公開する前に、米政府へ見せることで合意したそうです。
米政府は、そのAIに国家安全保障上のリスクがないか調べます。
サイバー攻撃に使われないか。
化学兵器や生物兵器に悪用されないか。
危険な情報を出しすぎないか。
これは検閲なのか、安全対策なのか。
私は、安全対策として必要な面がかなり大きいと思います。
車には車検があります。
薬には承認があります。
飛行機にも検査があります。
AIだけ、作った会社が「できました」と出してよい時代ではなくなってきました。
ただし、政府が都合の悪いAIを止めるようになると危険です。
だから、透明なルールが必要です。
AIの事前評価は、いずれAIが行う時代になるかもしれません。