写真は私が本日チャットGPTと会話した記録です。質問は「今般のイタリア政府のチャットGPTの利用禁止策、並びに世界では多くの専門家がこれ以上のチャットGPTの開発の前に半年ほどかけて、そのリスクを分析した上で、ルールを決め導入した方がよいとの意見があるが・・・」です。AIの回答は概ねその指摘を受け入れ、政府と専門家のリスク分析を推奨しています。この後にも具体的にどのようなリスクが考えられるか等詳細な質問を投げかけました。私の考える限りおおむね妥当な分析が即座にAIより回答されてきました。
勿論、すでに巷ではチャットGPTの回答に誤りがあるとの指摘や、チャットGPTが入試や採用試験などにそのまま利用されるリスクも指摘されています。所詮AIの回答ですからこれを鵜吞みにして、転用することはいろいろなリスクがあります。AI囲碁ソフト例でも、プロが対戦中にスマホでAIソフトを利用することはできませんし、例えばNHKの囲碁トーナメントでは対局中にコメンテーターがAIソフトが推奨する「次の一手」を視聴者は見ることができますが、対戦者には分かりません。即ち、AIの分析をどのように活用するかは個人・企業や国家が決めることで、盲目的に利用することにはリスクがあります。
ロボット開発に際して1950年にアイザック・アシモフの三原則なるものが導入されました。第一法則:ロボットは人間に危害を与えてはならない。また、その危険を見過ごすことによって人間に危害を及ぼしてはならない。第二原則:ロボットは人間に与えられた「命令」に服従しなくてはならない。第三原則:ロボットは第一、第二原則に反する恐れのない限り、自己を守らなくてはならない。また、科学の進歩・発展にともない、原子力、核融合等が開発され、現在も戦争に利用されるリスク等が現実のものになっています。同様にAIについても社会にとってのリスク・分析とリスク回避のための活用ルールは必要です。
問題はこれらのリスクを社会が受け入れられるようルール設定をした上で、社会の進歩のためにAI技術をいかに早く、個人や企業、国家が活用し、生産性向上による効率化を図ることです。特に我が国にとっては人口減少と生産年齢人口の減少をカバーする上で大きな武器になり得ます。チャットGPTなどの技術進歩は日進月歩で、リスクやルール設定中にもAGI革命の方向は止めることは出来ません。問題は受益者である個人・企業や国家がこの変化をいち早く取り入れ、それぞれの利益のために事前勉強し、準備できるかにかかっています。